Zum Hauptinhalt springen

99 Posts getaggt mit "Blockchain"

Alle Tags anzeigen

MCP im Web3-Ökosystem: Eine umfassende Übersicht

· 50 Minuten Lesezeit
Dora Noda
Software Engineer

1. Definition und Ursprung von MCP im Web3-Kontext

Das Model Context Protocol (MCP) ist ein offener Standard, der KI-Assistenten (wie grosse Sprachmodelle) mit externen Datenquellen, Tools und Umgebungen verbindet. Oft als "USB-C-Anschluss für KI" bezeichnet, aufgrund seiner universellen Plug-and-Play-Natur, wurde MCP von Anthropic entwickelt und Ende November 2024 erstmals vorgestellt. Es entstand als Lösung, um KI-Modelle aus der Isolation zu befreien, indem es sie sicher mit den „Systemen, in denen Daten leben“ verbindet – von Datenbanken und APIs bis hin zu Entwicklungsumgebungen und Blockchains.

Ursprünglich ein experimentelles Nebenprojekt bei Anthropic, gewann MCP schnell an Bedeutung. Mitte 2024 erschienen Open-Source-Referenzimplementierungen, und Anfang 2025 hatte es sich zum De-facto-Standard für die Integration von Agenten-KI entwickelt, wobei führende KI-Labore (OpenAI, Google DeepMind, Meta AI) es nativ übernahmen. Diese schnelle Akzeptanz war besonders in der Web3-Community bemerkenswert. Blockchain-Entwickler sahen MCP als eine Möglichkeit, KI-Funktionen in dezentrale Anwendungen zu integrieren, was zu einer Verbreitung von von der Community entwickelten MCP-Konnektoren für On-Chain-Daten und -Dienste führte. Tatsächlich argumentieren einige Analysten, dass MCP die ursprüngliche Vision von Web3 eines dezentralen, benutzerzentrierten Internets auf praktischere Weise erfüllen könnte als Blockchain allein, indem es natürliche Sprachschnittstellen nutzt, um Benutzer zu befähigen.

Zusammenfassend ist MCP keine Blockchain oder ein Token, sondern ein offenes Protokoll, das in der KI-Welt geboren wurde und schnell im Web3-Ökosystem als Brücke zwischen KI-Agenten und dezentralen Datenquellen angenommen wurde. Anthropic hat den Standard (mit einer anfänglichen GitHub-Spezifikation und SDKs) quelloffen gemacht und eine offene Community darum aufgebaut. Dieser gemeinschaftsgetriebene Ansatz bereitete den Boden für die Integration von MCP in Web3, wo es nun als grundlegende Infrastruktur für KI-fähige dezentrale Anwendungen angesehen wird.

2. Technische Architektur und Kernprotokolle

MCP basiert auf einer leichtgewichtigen Client-Server-Architektur mit drei Hauptrollen:

  • MCP-Host: Die KI-Anwendung oder der Agent selbst, der Anfragen orchestriert. Dies könnte ein Chatbot (Claude, ChatGPT) oder eine KI-gestützte App sein, die externe Daten benötigt. Der Host initiiert Interaktionen und fragt über MCP nach Tools oder Informationen.
  • MCP-Client: Eine Konnektorkomponente, die der Host zur Kommunikation mit Servern verwendet. Der Client verwaltet die Verbindung, das Senden und Empfangen von Nachrichten und kann mehrere Server parallel verwalten. Zum Beispiel kann ein Entwicklertool wie Cursor oder der Agentenmodus von VS Code als MCP-Client fungieren, der die lokale KI-Umgebung mit verschiedenen MCP-Servern verbindet.
  • MCP-Server: Ein Dienst, der der KI kontextbezogene Daten oder Funktionen zur Verfügung stellt. Server bieten Tools, Ressourcen oder Prompts, die die KI nutzen kann. In der Praxis könnte ein MCP-Server mit einer Datenbank, einer Cloud-Anwendung oder einem Blockchain-Knoten interagieren und der KI einen standardisierten Satz von Operationen präsentieren. Jedes Client-Server-Paar kommuniziert über einen eigenen Kanal, sodass ein KI-Agent gleichzeitig mehrere Server für verschiedene Anforderungen nutzen kann.

Kern-Primitive: MCP definiert eine Reihe von Standard-Nachrichtentypen und Primitiven, die die Interaktion zwischen KI und Tool strukturieren. Die drei grundlegenden Primitive sind:

  • Tools: Diskrete Operationen oder Funktionen, die die KI auf einem Server aufrufen kann. Zum Beispiel ein „searchDocuments“-Tool oder ein „eth_call“-Tool. Tools kapseln Aktionen wie das Abfragen einer API, das Ausführen einer Berechnung oder das Aufrufen einer Smart-Contract-Funktion. Der MCP-Client kann eine Liste der verfügbaren Tools von einem Server anfordern und diese bei Bedarf aufrufen.
  • Ressourcen: Datenendpunkte, von denen die KI über den Server lesen (oder manchmal auch schreiben) kann. Dies können Dateien, Datenbankeinträge, Blockchain-Status (Blöcke, Transaktionen) oder beliebige kontextbezogene Daten sein. Die KI kann Ressourcen auflisten und deren Inhalt über Standard-MCP-Nachrichten abrufen (z. B. ListResources- und ReadResource-Anfragen).
  • Prompts: Strukturierte Prompt-Vorlagen oder Anweisungen, die Server bereitstellen können, um die Argumentation der KI zu leiten. Zum Beispiel könnte ein Server eine Formatierungsvorlage oder einen vordefinierten Abfrage-Prompt bereitstellen. Die KI kann eine Liste von Prompt-Vorlagen anfordern und diese verwenden, um die Konsistenz ihrer Interaktionen mit diesem Server zu gewährleisten.

Im Hintergrund basieren MCP-Kommunikationen typischerweise auf JSON und folgen einem Anfrage-Antwort-Muster, ähnlich wie bei RPC (Remote Procedure Call). Die Protokollspezifikation definiert Nachrichten wie InitializeRequest, ListTools, CallTool, ListResources usw., die sicherstellen, dass jeder MCP-konforme Client mit jedem MCP-Server auf einheitliche Weise kommunizieren kann. Diese Standardisierung ermöglicht es einem KI-Agenten zu entdecken, was er tun kann: Beim Verbinden mit einem neuen Server kann er fragen „Welche Tools und Daten bieten Sie an?“ und dann dynamisch entscheiden, wie er diese nutzen möchte.

Sicherheits- und Ausführungsmodell: MCP wurde mit Blick auf sichere, kontrollierte Interaktionen entwickelt. Das KI-Modell selbst führt keinen beliebigen Code aus; es sendet hochrangige Absichten (über den Client) an den Server, der dann die eigentliche Operation ausführt (z. B. Daten abrufen oder eine API aufrufen) und Ergebnisse zurückgibt. Diese Trennung bedeutet, dass sensible Aktionen (wie Blockchain-Transaktionen oder Datenbank-Schreibvorgänge) in einer Sandbox ausgeführt werden oder eine explizite Benutzergenehmigung erfordern können. Zum Beispiel gibt es Nachrichten wie Ping (um Verbindungen am Leben zu erhalten) und sogar eine CreateMessageRequest, die es einem MCP-Server ermöglicht, die KI des Clients aufzufordern, eine Unterantwort zu generieren, die typischerweise durch Benutzerbestätigung geschützt ist. Funktionen wie Authentifizierung, Zugriffskontrolle und Audit-Logging werden aktiv entwickelt, um sicherzustellen, dass MCP sicher in Unternehmens- und dezentralen Umgebungen eingesetzt werden kann (mehr dazu im Abschnitt Roadmap).

Zusammenfassend basiert die Architektur von MCP auf einem standardisierten Nachrichtenprotokoll (mit JSON-RPC-ähnlichen Aufrufen), das KI-Agenten (Hosts) mit einer flexiblen Reihe von Servern verbindet, die Tools, Daten und Aktionen bereitstellen. Diese offene Architektur ist modellagnostisch und plattformagnostisch – jeder KI-Agent kann MCP verwenden, um mit jeder Ressource zu kommunizieren, und jeder Entwickler kann einen neuen MCP-Server für eine Datenquelle erstellen, ohne den Kerncode der KI ändern zu müssen. Diese Plug-and-Play-Erweiterbarkeit macht MCP in Web3 so leistungsfähig: Man kann Server für Blockchain-Knoten, Smart Contracts, Wallets oder Orakel bauen und KI-Agenten diese Funktionen nahtlos neben Web2-APIs integrieren lassen.

3. Anwendungsfälle und Anwendungen von MCP in Web3

MCP erschliesst eine breite Palette von Anwendungsfällen, indem es KI-gesteuerten Anwendungen ermöglicht, auf Blockchain-Daten zuzugreifen und On-Chain- oder Off-Chain-Aktionen auf sichere, hochrangige Weise auszuführen. Hier sind einige wichtige Anwendungen und Probleme, die es im Web3-Bereich löst:

  • On-Chain-Datenanalyse und -Abfrage: KI-Agenten können den Live-Blockchain-Status in Echtzeit abfragen, um Einblicke zu liefern oder Aktionen auszulösen. Zum Beispiel ermöglicht ein MCP-Server, der mit einem Ethereum-Knoten verbunden ist, einer KI, Kontostände abzurufen, Smart-Contract-Speicher zu lesen, Transaktionen zu verfolgen oder Ereignisprotokolle bei Bedarf abzurufen. Dies verwandelt einen Chatbot oder einen Code-Assistenten in einen Blockchain-Explorer. Entwickler können einem KI-Assistenten Fragen stellen wie „Wie hoch ist die aktuelle Liquidität im Uniswap-Pool X?“ oder „Simulieren Sie die Gaskosten dieser Ethereum-Transaktion“, und die KI wird MCP-Tools verwenden, um einen RPC-Knoten aufzurufen und die Antwort von der Live-Chain zu erhalten. Dies ist weitaus leistungsfähiger, als sich auf die Trainingsdaten der KI oder statische Schnappschüsse zu verlassen.
  • Automatisiertes DeFi-Portfoliomanagement: Durch die Kombination von Datenzugriffs- und Aktionstools können KI-Agenten Krypto-Portfolios oder DeFi-Positionen verwalten. Zum Beispiel könnte ein „KI-Vault-Optimierer“ die Positionen eines Benutzers über Yield Farms hinweg überwachen und automatisch Rebalancing-Strategien basierend auf Echtzeit-Marktbedingungen vorschlagen oder ausführen. Ähnlich könnte eine KI als DeFi-Portfoliomanager fungieren und Allokationen zwischen Protokollen anpassen, wenn sich Risiko oder Zinssätze ändern. MCP bietet die Standardschnittstelle für die KI, um On-Chain-Metriken (Preise, Liquidität, Sicherheitenquoten) zu lesen und dann Tools aufzurufen, um Transaktionen (wie das Verschieben von Geldern oder den Tausch von Assets) auszuführen, falls dies erlaubt ist. Dies kann Benutzern helfen, den Ertrag zu maximieren oder das Risiko rund um die Uhr zu verwalten, was manuell schwer zu bewerkstelligen wäre.
  • KI-gestützte Benutzeragenten für Transaktionen: Stellen Sie sich einen persönlichen KI-Assistenten vor, der Blockchain-Interaktionen für einen Benutzer abwickeln kann. Mit MCP kann ein solcher Agent mit Wallets und DApps integriert werden, um Aufgaben über natürliche Sprachbefehle auszuführen. Ein Benutzer könnte zum Beispiel sagen: „KI, sende 0,5 ETH von meiner Wallet an Alice“ oder „Stelle meine Token in den Pool mit der höchsten APY“. Die KI würde über MCP einen sicheren Wallet-Server (der den privaten Schlüssel des Benutzers enthält) verwenden, um die Transaktion zu erstellen und zu signieren, und einen Blockchain-MCP-Server, um sie zu senden. Dieses Szenario verwandelt komplexe Befehlszeilen- oder Metamask-Interaktionen in ein Konversationserlebnis. Es ist entscheidend, dass hier sichere Wallet-MCP-Server verwendet werden, die Berechtigungen und Bestätigungen durchsetzen, aber das Endergebnis ist die Optimierung von On-Chain-Transaktionen durch KI-Unterstützung.
  • Entwicklerassistenten und Smart-Contract-Debugging: Web3-Entwickler können MCP-basierte KI-Assistenten nutzen, die sich der Blockchain-Infrastruktur bewusst sind. Zum Beispiel bieten die MCP-Server von Chainstack für EVM und Solana KI-Code-Copiloten tiefe Einblicke in die Blockchain-Umgebung des Entwicklers. Ein Smart-Contract-Ingenieur, der einen KI-Assistenten (in VS Code oder einer IDE) verwendet, kann die KI den aktuellen Status eines Contracts in einem Testnetz abrufen, eine Transaktion simulieren oder Protokolle überprüfen lassen – alles über MCP-Aufrufe an lokale Blockchain-Knoten. Dies hilft beim Debuggen und Testen von Contracts. Die KI codiert nicht mehr „blind“; sie kann tatsächlich in Echtzeit überprüfen, wie sich Code On-Chain verhält. Dieser Anwendungsfall löst ein grosses Problem, indem er es der KI ermöglicht, kontinuierlich aktuelle Dokumente (über einen Dokumentations-MCP-Server) aufzunehmen und die Blockchain direkt abzufragen, wodurch Halluzinationen reduziert und Vorschläge wesentlich genauer werden.
  • Protokollübergreifende Koordination: Da MCP eine einheitliche Schnittstelle ist, kann ein einziger KI-Agent gleichzeitig über mehrere Protokolle und Dienste hinweg koordinieren – etwas extrem Leistungsfähiges in der vernetzten Landschaft von Web3. Stellen Sie sich einen autonomen Handelsagenten vor, der verschiedene DeFi-Plattformen auf Arbitrage überwacht. Über MCP könnte ein Agent gleichzeitig mit den Kreditmärkten von Aave, einer LayerZero-Cross-Chain-Brücke und einem MEV (Miner Extractable Value)-Analysedienst über eine kohärente Schnittstelle interagieren. Die KI könnte in einem „Gedankenprozess“ Liquiditätsdaten von Ethereum (über einen MCP-Server auf einem Ethereum-Knoten) sammeln, Preisinformationen oder Orakeldaten (über einen anderen Server) erhalten und sogar Bridging- oder Swapping-Operationen aufrufen. Zuvor erforderte eine solche Multi-Plattform-Koordination komplexe, massgeschneiderte Bots, aber MCP bietet eine verallgemeinerbare Möglichkeit für eine KI, das gesamte Web3-Ökosystem zu navigieren, als wäre es ein grosser Daten-/Ressourcenpool. Dies könnte fortgeschrittene Anwendungsfälle wie Cross-Chain-Yield-Optimierung oder automatisierten Liquidationsschutz ermöglichen, bei denen eine KI Assets oder Sicherheiten proaktiv über Chains hinweg verschiebt.
  • KI-Beratungs- und Support-Bots: Eine weitere Kategorie sind benutzerorientierte Berater in Krypto-Anwendungen. Zum Beispiel könnte ein DeFi-Hilfe-Chatbot, der in eine Plattform wie Uniswap oder Compound integriert ist, MCP verwenden, um Echtzeitinformationen für den Benutzer abzurufen. Wenn ein Benutzer fragt: „Was ist der beste Weg, meine Position abzusichern?“, kann die KI aktuelle Kurse, Volatilitätsdaten und die Portfoliodetails des Benutzers über MCP abrufen und dann eine kontextbezogene Antwort geben. Plattformen erforschen KI-gestützte Assistenten, die in Wallets oder dApps eingebettet sind und Benutzer durch komplexe Transaktionen führen, Risiken erklären und sogar Abfolgen von Schritten mit Genehmigung ausführen können. Diese KI-Agenten sitzen effektiv auf mehreren Web3-Diensten (DEXes, Lending Pools, Versicherungsprotokolle) und nutzen MCP, um diese bei Bedarf abzufragen und zu steuern, wodurch die Benutzererfahrung vereinfacht wird.
  • Jenseits von Web3 – Multi-Domain-Workflows: Obwohl unser Fokus auf Web3 liegt, ist es erwähnenswert, dass die Anwendungsfälle von MCP sich auf jeden Bereich erstrecken, in dem KI externe Daten benötigt. Es wird bereits verwendet, um KI mit Dingen wie Google Drive, Slack, GitHub, Figma und mehr zu verbinden. In der Praxis könnte ein einziger KI-Agent Web3 und Web2 überspannen: z. B. ein Excel-Finanzmodell von Google Drive analysieren und dann basierend auf dieser Analyse On-Chain-Trades vorschlagen, alles in einem Workflow. Die Flexibilität von MCP ermöglicht eine domänenübergreifende Automatisierung (z. B. „plane mein Meeting, wenn meine DAO-Abstimmung erfolgreich ist, und sende die Ergebnisse per E-Mail“), die Blockchain-Aktionen mit alltäglichen Tools verbindet.

Gelöste Probleme: Das übergeordnete Problem, das MCP löst, ist das Fehlen einer einheitlichen Schnittstelle für KI zur Interaktion mit Live-Daten und -Diensten. Vor MCP musste man, wenn man wollte, dass eine KI einen neuen Dienst nutzt, ein Plugin oder eine Integration für die API dieses spezifischen Dienstes von Hand codieren, oft auf Ad-hoc-Basis. In Web3 war dies besonders umständlich – jede Blockchain oder jedes Protokoll hat ihre eigenen Schnittstellen, und keine KI konnte hoffen, sie alle zu unterstützen. MCP löst dies, indem es standardisiert, wie die KI beschreibt, was sie will (natürliche Sprache, die auf Tool-Aufrufe abgebildet wird) und wie Dienste beschreiben, was sie anbieten. Dies reduziert den Integrationsaufwand drastisch. Anstatt beispielsweise für jedes DeFi-Protokoll ein benutzerdefiniertes Plugin zu schreiben, kann ein Entwickler einen MCP-Server für dieses Protokoll schreiben (im Wesentlichen dessen Funktionen in natürlicher Sprache annotieren). Jede MCP-fähige KI (ob Claude, ChatGPT oder Open-Source-Modelle) kann es dann sofort nutzen. Dies macht KI auf Plug-and-Play-Weise erweiterbar, ähnlich wie das Hinzufügen eines neuen Geräts über einen universellen Anschluss einfacher ist als die Installation einer neuen Schnittstellenkarte.

Zusammenfassend ermöglicht MCP in Web3 KI-Agenten, erstklassige Bürger der Blockchain-Welt zu werden – Abfragen, Analysieren und sogar Transaktionen über dezentrale Systeme hinweg, alles über sichere, standardisierte Kanäle. Dies öffnet die Tür zu autonomeren DApps, intelligenteren Benutzeragenten und einer nahtlosen Integration von On-Chain- und Off-Chain-Intelligenz.

4. Tokenomics und Governance-Modell

Im Gegensatz zu typischen Web3-Protokollen verfügt MCP nicht über einen nativen Token oder eine Kryptowährung. Es ist keine Blockchain oder ein dezentrales Netzwerk für sich, sondern eine offene Protokollspezifikation (eher vergleichbar mit HTTP oder JSON-RPC im Geiste). Daher gibt es keine integrierte Tokenomics – keine Token-Ausgabe, kein Staking oder Gebührenmodell, das der Nutzung von MCP inhärent wäre. KI-Anwendungen und Server kommunizieren über MCP ohne jegliche Kryptowährung; zum Beispiel könnte eine KI, die eine Blockchain über MCP aufruft, Gasgebühren für die Blockchain-Transaktion zahlen, aber MCP selbst fügt keine zusätzlichen Token-Gebühren hinzu. Dieses Design spiegelt den Ursprung von MCP in der KI-Community wider: Es wurde als technischer Standard zur Verbesserung der KI-Tool-Interaktionen eingeführt, nicht als tokenisiertes Projekt.

Die Governance von MCP erfolgt auf offene, gemeinschaftsgetriebene Weise. Nach der Veröffentlichung von MCP als offenem Standard signalisierte Anthropic ein Engagement für kollaborative Entwicklung. Ein breites Lenkungsausschuss und Arbeitsgruppen haben sich gebildet, um die Entwicklung des Protokolls zu steuern. Bemerkenswerterweise traten Mitte 2025 wichtige Stakeholder wie Microsoft und GitHub dem MCP-Lenkungsausschuss neben Anthropic bei. Dies wurde auf der Microsoft Build 2025 bekannt gegeben und deutet auf eine Koalition von Branchenakteuren hin, die die Roadmap und Standardentscheidungen von MCP leiten. Der Ausschuss und die Betreuer arbeiten über einen offenen Governance-Prozess: Vorschläge zur Änderung oder Erweiterung von MCP werden typischerweise öffentlich diskutiert (z. B. über GitHub-Issues und „SEP“ – Standard Enhancement Proposal – Richtlinien). Es gibt auch eine MCP Registry-Arbeitsgruppe (mit Betreuern von Unternehmen wie Block, PulseMCP, GitHub und Anthropic), die die Multi-Parteien-Governance veranschaulicht. Anfang 2025 arbeiteten Mitwirkende von mindestens 9 verschiedenen Organisationen zusammen, um ein einheitliches MCP-Server-Register zur Entdeckung aufzubauen, was zeigt, wie die Entwicklung über Community-Mitglieder dezentralisiert und nicht von einer einzigen Entität kontrolliert wird.

Da es keinen Token gibt, basieren Governance-Anreize auf den gemeinsamen Interessen der Stakeholder (KI-Unternehmen, Cloud-Anbieter, Blockchain-Entwickler usw.), um das Protokoll für alle zu verbessern. Dies ist in gewisser Weise analog zur Governance von W3C- oder IETF-Standards, jedoch mit einem schnelleren, GitHub-zentrierten Prozess. Zum Beispiel arbeiteten Microsoft und Anthropic zusammen, um eine verbesserte Autorisierungsspezifikation für MCP zu entwerfen (Integration von Dingen wie OAuth und Single Sign-On), und GitHub arbeitete am offiziellen MCP Registry-Dienst zur Auflistung verfügbarer Server mit. Diese Verbesserungen wurden zum Nutzen aller in die MCP-Spezifikation zurückgeführt.

Es ist erwähnenswert, dass, obwohl MCP selbst nicht tokenisiert ist, es zukunftsweisende Ideen gibt, wirtschaftliche Anreize und Dezentralisierung auf MCP aufzubauen. Einige Forscher und Vordenker in Web3 sehen die Entstehung von „MCP-Netzwerken“ voraus – im Wesentlichen dezentrale Netzwerke von MCP-Servern und -Agenten, die Blockchain-ähnliche Mechanismen für Entdeckung, Vertrauen und Belohnungen nutzen. In einem solchen Szenario könnte man sich vorstellen, dass ein Token verwendet wird, um diejenigen zu belohnen, die hochwertige MCP-Server betreiben (ähnlich wie Miner oder Knotenbetreiber Anreize erhalten). Funktionen wie Reputationsbewertungen, überprüfbare Berechnungen und Knotenerkennung könnten durch Smart Contracts oder eine Blockchain ermöglicht werden, wobei ein Token ehrliches Verhalten fördert. Dies ist noch konzeptionell, aber Projekte wie MITs Namda (später diskutiert) experimentieren mit tokenbasierten Anreizmechanismen für Netzwerke von KI-Agenten, die MCP verwenden. Wenn diese Ideen reifen, könnte MCP direkter mit On-Chain-Tokenomics in Verbindung treten, aber ab 2025 bleibt der Kern-MCP-Standard tokenfrei.

Zusammenfassend ist das „Governance-Modell“ von MCP das eines offenen Technologiestandards: kollaborativ von einer Community und einem Lenkungsausschuss von Experten gepflegt, ohne On-Chain-Governance-Token. Entscheidungen werden durch technische Verdienste und breiten Konsens geleitet, nicht durch gewichtete Abstimmung nach Tokenbesitz. Dies unterscheidet MCP von vielen Web3-Protokollen – es zielt darauf ab, die Ideale von Web3 (Dezentralisierung, Interoperabilität, Benutzerermächtigung) durch offene Software und Standards zu erfüllen, nicht durch eine proprietäre Blockchain oder einen Token. In den Worten einer Analyse: „Das Versprechen von Web3... kann endlich nicht durch Blockchain und Kryptowährung, sondern durch natürliche Sprache und KI-Agenten verwirklicht werden“, was MCP als einen wichtigen Wegbereiter dieser Vision positioniert. Dennoch könnten wir, wenn MCP-Netzwerke wachsen, hybride Modelle sehen, bei denen Blockchain-basierte Governance- oder Anreizmechanismen das Ökosystem ergänzen – ein Bereich, der genau zu beobachten ist.

5. Community und Ökosystem

Das MCP-Ökosystem ist in kurzer Zeit explosionsartig gewachsen und umfasst KI-Entwickler, Open-Source-Mitwirkende, Web3-Ingenieure und grosse Technologieunternehmen. Es ist eine lebendige Gemeinschaftsanstrengung, mit wichtigen Mitwirkenden und Partnerschaften, darunter:

  • Anthropic: Als Schöpfer hat Anthropic das Ökosystem durch die Veröffentlichung der MCP-Spezifikation und mehrerer Referenzserver (für Google Drive, Slack, GitHub usw.) als Open Source initiiert. Anthropic führt die Entwicklung weiterhin an (zum Beispiel fungieren Mitarbeiter wie Theodora Chu als MCP-Produktmanager, und das Team von Anthropic trägt massgeblich zu Spezifikationsaktualisierungen und Community-Support bei). Die Offenheit von Anthropic zog andere an, auf MCP aufzubauen, anstatt es als Tool eines einzelnen Unternehmens zu betrachten.

  • Frühe Anwender (Block, Apollo, Zed, Replit, Codeium, Sourcegraph): In den ersten Monaten nach der Veröffentlichung implementierte eine Welle früher Anwender MCP in ihren Produkten. Block (ehemals Square) integrierte MCP, um KI-Agentensysteme im Fintech-Bereich zu erforschen – der CTO von Block lobte MCP als offene Brücke, die KI mit realen Anwendungen verbindet. Apollo (wahrscheinlich Apollo GraphQL) integrierte MCP ebenfalls, um KI den Zugriff auf interne Daten zu ermöglichen. Entwicklertool-Unternehmen wie Zed (Code-Editor), Replit (Cloud-IDE), Codeium (KI-Code-Assistent) und Sourcegraph (Code-Suche) arbeiteten jeweils daran, MCP-Unterstützung hinzuzufügen. Zum Beispiel verwendet Sourcegraph MCP, damit ein KI-Code-Assistent als Antwort auf eine Frage relevanten Code aus einem Repository abrufen kann, und die IDE-Agenten von Replit können projektspezifischen Kontext abrufen. Diese frühen Anwender verliehen MCP Glaubwürdigkeit und Sichtbarkeit.

  • Big Tech-Unterstützung – OpenAI, Microsoft, Google: Bemerkenswerterweise haben sich Unternehmen, die sonst Konkurrenten sind, bei MCP geeinigt. OpenAIs CEO Sam Altman kündigte im März 2025 öffentlich an, dass OpenAI MCP-Unterstützung in all seinen Produkten (einschliesslich der Desktop-App von ChatGPT) hinzufügen werde, und sagte: „Die Leute lieben MCP, und wir freuen uns, die Unterstützung in all unseren Produkten hinzuzufügen“. Dies bedeutete, dass die Agent API von OpenAI und ChatGPT-Plugins MCP sprechen würden, um Interoperabilität zu gewährleisten. Nur wenige Wochen später enthüllte Google DeepMinds CEO Demis Hassabis, dass die kommenden Gemini-Modelle und -Tools von Google MCP unterstützen würden, und nannte es ein gutes Protokoll und einen offenen Standard für die „Ära der KI-Agenten“. Microsoft trat nicht nur dem Lenkungsausschuss bei, sondern arbeitete auch mit Anthropic zusammen, um ein offizielles C#-SDK für MCP zu entwickeln, um die Enterprise-Entwicklergemeinschaft zu bedienen. Die GitHub-Einheit von Microsoft integrierte MCP in GitHub Copilot (den ‚Copilot Labs/Agents‘-Modus von VS Code), wodurch Copilot MCP-Server für Dinge wie die Repository-Suche und das Ausführen von Testfällen nutzen kann. Zusätzlich kündigte Microsoft an, dass Windows 11 bestimmte OS-Funktionen (wie den Dateisystemzugriff) als MCP-Server bereitstellen würde, damit KI-Agenten sicher mit dem Betriebssystem interagieren können. Die Zusammenarbeit zwischen OpenAI, Microsoft, Google und Anthropic – die sich alle um MCP versammeln – ist aussergewöhnlich und unterstreicht das Ethos „Community vor Wettbewerb“ dieses Standards.

  • Web3-Entwicklergemeinschaft: Eine Reihe von Blockchain-Entwicklern und Startups hat MCP angenommen. Mehrere gemeinschaftsgetriebene MCP-Server wurden erstellt, um Blockchain-Anwendungsfälle zu bedienen:

    • Das Team von Alchemy (einem führenden Blockchain-Infrastrukturanbieter) entwickelte einen Alchemy MCP Server, der On-Demand-Blockchain-Analysetools über MCP anbietet. Dies ermöglicht es einer KI wahrscheinlich, Blockchain-Statistiken (wie historische Transaktionen, Adressaktivität) über die APIs von Alchemy mithilfe natürlicher Sprache abzurufen.
    • Mitwirkende entwickelten einen Bitcoin & Lightning Network MCP Server, um mit Bitcoin-Knoten und dem Lightning-Zahlungsnetzwerk zu interagieren, wodurch KI-Agenten Bitcoin-Blockdaten lesen oder sogar Lightning-Rechnungen über Standard-Tools erstellen können.
    • Die Krypto-Medien- und Bildungsgruppe Bankless erstellte einen Onchain MCP Server, der sich auf Web3-Finanzinteraktionen konzentriert und möglicherweise eine Schnittstelle zu DeFi-Protokollen (Senden von Transaktionen, Abfragen von DeFi-Positionen usw.) für KI-Assistenten bereitstellt.
    • Projekte wie Rollup.codes (eine Wissensdatenbank für Ethereum Layer 2s) erstellten einen MCP-Server für Rollup-Ökosysteminformationen, sodass eine KI technische Fragen zu Rollups beantworten kann, indem sie diesen Server abfragt.
    • Chainstack, ein Blockchain-Knotenanbieter, startete eine Suite von MCP-Servern (zuvor erwähnt) für Dokumentation, EVM-Kettendaten und Solana, die explizit als „Ihre KI auf Blockchain-Steroiden“ für Web3-Entwickler vermarktet wird.

    Darüber hinaus sind Web3-fokussierte Communities um MCP herum entstanden. Zum Beispiel werden PulseMCP und Goose als Community-Initiativen genannt, die beim Aufbau des MCP-Registers helfen. Wir sehen auch eine gegenseitige Befruchtung mit KI-Agenten-Frameworks: Die LangChain-Community integrierte Adapter, sodass alle MCP-Server als Tools in LangChain-gesteuerten Agenten verwendet werden können, und Open-Source-KI-Plattformen wie Hugging Face TGI (Text-Generation-Inference) erforschen die MCP-Kompatibilität. Das Ergebnis ist ein reichhaltiges Ökosystem, in dem fast täglich neue MCP-Server angekündigt werden, die alles von Datenbanken bis zu IoT-Geräten bedienen.

  • Umfang der Akzeptanz: Die Akzeptanz lässt sich in gewissem Masse quantifizieren. Bis Februar 2025 – kaum drei Monate nach dem Start – waren über 1.000 MCP-Server/Konnektoren von der Community gebaut worden. Diese Zahl ist nur gewachsen und deutet auf Tausende von Integrationen in verschiedenen Branchen hin. Mike Krieger (Chief Product Officer von Anthropic) stellte im Frühjahr 2025 fest, dass MCP zu einem „florierenden offenen Standard mit Tausenden von Integrationen und wachsend“ geworden sei. Das offizielle MCP Registry (im September 2025 als Vorschau gestartet) katalogisiert öffentlich verfügbare Server und erleichtert die Entdeckung von Tools; die offene API des Registers ermöglicht es jedem, beispielsweise nach „Ethereum“ oder „Notion“ zu suchen und relevante MCP-Konnektoren zu finden. Dies senkt die Eintrittsbarriere für neue Teilnehmer und fördert das Wachstum weiter.

  • Partnerschaften: Wir haben viele implizite Partnerschaften (Anthropic mit Microsoft, usw.) angesprochen. Um noch einige weitere hervorzuheben:

    • Anthropic & Slack: Anthropic hat sich mit Slack zusammengetan, um Claude über MCP mit den Daten von Slack zu integrieren (Slack verfügt über einen offiziellen MCP-Server, der es KI ermöglicht, Slack-Nachrichten abzurufen oder Warnungen zu posten).
    • Cloud-Anbieter: Amazon (AWS) und Google Cloud haben mit Anthropic zusammengearbeitet, um Claude zu hosten, und es ist wahrscheinlich, dass sie MCP in diesen Umgebungen unterstützen (z. B. könnte AWS Bedrock MCP-Konnektoren für Unternehmensdaten zulassen). Obwohl nicht explizit in Zitaten erwähnt, sind diese Cloud-Partnerschaften wichtig für die Unternehmensakzeptanz.
    • Akademische Kooperationen: Das Forschungsprojekt Namda des MIT und IBM (als Nächstes besprochen) stellt eine Partnerschaft zwischen Wissenschaft und Industrie dar, um die Grenzen von MCP in dezentralen Umgebungen zu erweitern.
    • GitHub & VS Code: Partnerschaft zur Verbesserung der Entwicklererfahrung – z. B. hat das VS Code-Team aktiv zu MCP beigetragen (einer der Registry-Betreuer stammt vom VS Code-Team).
    • Zahlreiche Startups: Viele KI-Startups (Agenten-Startups, Workflow-Automatisierungs-Startups) bauen auf MCP auf, anstatt das Rad neu zu erfinden. Dazu gehören aufstrebende Web3-KI-Startups, die „KI als DAO“ oder autonome Wirtschaftsagenten anbieten wollen.

Insgesamt ist die MCP-Community vielfältig und wächst schnell. Sie umfasst Kerntechnologieunternehmen (für Standards und Basistools), Web3-Spezialisten (die Blockchain-Wissen und Anwendungsfälle einbringen) und unabhängige Entwickler (die oft Konnektoren für ihre Lieblings-Apps oder -Protokolle beisteuern). Das Ethos ist kollaborativ. Zum Beispiel haben Sicherheitsbedenken hinsichtlich Drittanbieter-MCP-Servern zu Community-Diskussionen und Beiträgen zu Best Practices geführt (z. B. arbeiten Stacklok-Mitwirkende an Sicherheitstools für MCP-Server). Die Fähigkeit der Community, schnell zu iterieren (MCP erfuhr innerhalb weniger Monate mehrere Spezifikations-Upgrades, die Funktionen wie Streaming-Antworten und bessere Authentifizierung hinzufügten), ist ein Beweis für das breite Engagement.

Speziell im Web3-Ökosystem hat MCP ein Mini-Ökosystem von „KI + Web3“-Projekten gefördert. Es ist nicht nur ein Protokoll zur Nutzung; es katalysiert neue Ideen wie KI-gesteuerte DAOs, On-Chain-Governance, die durch KI-Analyse unterstützt wird, und domänenübergreifende Automatisierung (wie die Verknüpfung von On-Chain-Ereignissen mit Off-Chain-Aktionen durch KI). Die Präsenz wichtiger Web3-Persönlichkeiten – z. B. Zhivko Todorov von LimeChain, der feststellt: „MCP repräsentiert die unvermeidliche Integration von KI und Blockchain“ – zeigt, dass Blockchain-Veteranen es aktiv unterstützen. Partnerschaften zwischen KI- und Blockchain-Unternehmen (wie die zwischen Anthropic und Block oder Microsofts Azure Cloud, die die Bereitstellung von MCP neben ihren Blockchain-Diensten vereinfacht) deuten auf eine Zukunft hin, in der KI-Agenten und Smart Contracts Hand in Hand arbeiten.

Man könnte sagen, MCP hat die erste echte Konvergenz der KI-Entwicklergemeinschaft mit der Web3-Entwicklergemeinschaft ausgelöst. Hackathons und Meetups bieten jetzt MCP-Tracks an. Als konkretes Mass für die Akzeptanz im Ökosystem: Mitte 2025 unterstützen OpenAI, Google und Anthropic – die zusammen die Mehrheit der fortschrittlichen KI-Modelle repräsentieren – alle MCP, und auf der anderen Seite bauen führende Blockchain-Infrastrukturanbieter (Alchemy, Chainstack), Krypto-Unternehmen (Block usw.) und dezentrale Projekte MCP-Hooks. Dieser zweiseitige Netzwerkeffekt lässt MCP zu einem dauerhaften Standard werden.

6. Roadmap und Entwicklungsmeilensteine

Die Entwicklung von MCP war rasant. Hier skizzieren wir die bisherigen wichtigen Meilensteine und die zukünftige Roadmap, wie sie aus offiziellen Quellen und Community-Updates hervorgehen:

  • Ende 2024 – Erstveröffentlichung: Am 25. November 2024 kündigte Anthropic MCP offiziell an und veröffentlichte die Spezifikation sowie erste SDKs als Open Source. Neben der Spezifikation veröffentlichten sie eine Handvoll MCP-Server-Implementierungen für gängige Tools (Google Drive, Slack, GitHub usw.) und fügten Unterstützung im Claude AI-Assistenten (Claude Desktop-App) hinzu, um lokale MCP-Server zu verbinden. Dies markierte den 1.0-Start von MCP. Frühe Proof-of-Concept-Integrationen bei Anthropic zeigten, wie Claude MCP verwenden konnte, um Dateien zu lesen oder eine SQL-Datenbank in natürlicher Sprache abzufragen, was das Konzept validierte.
  • Q1 2025 – Schnelle Akzeptanz und Iteration: In den ersten Monaten des Jahres 2025 erlebte MCP eine weit verbreitete Akzeptanz in der Branche. Bis März 2025 kündigten OpenAI und andere KI-Anbieter Unterstützung an (wie oben beschrieben). In diesem Zeitraum kam es auch zu einer Spezifikationsentwicklung: Anthropic aktualisierte MCP um Streaming-Funktionen (die es ermöglichen, grosse Ergebnisse oder kontinuierliche Datenströme inkrementell zu senden). Dieses Update wurde im April 2025 mit den C#-SDK-Nachrichten bekannt gegeben und zeigte, dass MCP nun Funktionen wie chunked responses oder Echtzeit-Feed-Integration unterstützte. Die Community erstellte auch Referenzimplementierungen in verschiedenen Sprachen (Python, JavaScript usw.) über das SDK von Anthropic hinaus, um polyglotte Unterstützung zu gewährleisten.
  • Q2 2025 – Ökosystem-Tools und Governance: Im Mai 2025, mit dem Beitritt von Microsoft und GitHub zu den Bemühungen, gab es einen Vorstoss zur Formalisierung der Governance und zur Verbesserung der Sicherheit. Auf der Build 2025 enthüllte Microsoft Pläne für die Windows 11 MCP-Integration und detaillierte eine Zusammenarbeit zur Verbesserung der Autorisierungsabläufe in MCP. Etwa zur gleichen Zeit wurde die Idee eines MCP Registry zur Indexierung verfügbarer Server eingeführt (das anfängliche Brainstorming begann laut Registry-Blog im März 2025). Der „Standards-Track“-Prozess (SEP – Standard Enhancement Proposals) wurde auf GitHub etabliert, ähnlich wie EIPs von Ethereum oder PEPs von Python, um Beiträge geordnet zu verwalten. Community-Anrufe und Arbeitsgruppen (für Sicherheit, Registry, SDKs) begannen sich zu treffen.
  • Mitte 2025 – Funktionserweiterung: Bis Mitte 2025 priorisierte die Roadmap mehrere wichtige Verbesserungen:
    • Unterstützung für asynchrone und langlaufende Aufgaben: Pläne, MCP die Verarbeitung langer Operationen zu ermöglichen, ohne die Verbindung zu blockieren. Wenn eine KI beispielsweise einen Cloud-Job auslöst, der Minuten dauert, würde das MCP-Protokoll asynchrone Antworten oder eine erneute Verbindung unterstützen, um Ergebnisse abzurufen.
    • Authentifizierung und feingranulare Sicherheit: Entwicklung von feingranularen Autorisierungsmechanismen für sensible Aktionen. Dies umfasst möglicherweise die Integration von OAuth-Flows, API-Schlüsseln und Enterprise-SSO in MCP-Server, damit der KI-Zugriff sicher verwaltet werden kann. Bis Mitte 2025 waren Leitfäden und Best Practices für die MCP-Sicherheit in Arbeit, angesichts der Sicherheitsrisiken, die das Ermöglichen des Aufrufs leistungsstarker Tools durch KI birgt. Ziel ist es, dass beispielsweise, wenn eine KI über MCP auf die private Datenbank eines Benutzers zugreifen soll, sie einem sicheren Autorisierungsablauf (mit Benutzerzustimmung) folgen sollte, anstatt nur einem offenen Endpunkt.
    • Validierung und Compliance-Tests: Die Community erkannte die Notwendigkeit der Zuverlässigkeit und priorisierte den Aufbau von Compliance-Testsuiten und Referenzimplementierungen. Durch die Sicherstellung, dass alle MCP-Clients/-Server die Spezifikation einhalten (durch automatisierte Tests), sollte eine Fragmentierung verhindert werden. Ein Referenzserver (wahrscheinlich ein Beispiel mit Best Practices für die Remote-Bereitstellung und Authentifizierung) stand auf der Roadmap, ebenso wie eine Referenz-Client-Anwendung, die die vollständige MCP-Nutzung mit einer KI demonstriert.
    • Multimodalitätsunterstützung: Erweiterung von MCP über Text hinaus, um Modalitäten wie Bild-, Audio-, Videodaten im Kontext zu unterstützen. Zum Beispiel könnte eine KI ein Bild von einem MCP-Server anfordern (z. B. ein Design-Asset oder ein Diagramm) oder ein Bild ausgeben. Die Spezifikationsdiskussion umfasste das Hinzufügen von Unterstützung für Streaming- und Chunked-Nachrichten, um grosse Multimedia-Inhalte interaktiv zu verarbeiten. Frühe Arbeiten an „MCP Streaming“ waren bereits im Gange (um Dinge wie Live-Audio-Feeds oder kontinuierliche Sensordaten an KI zu unterstützen).
    • Zentrales Register & Discovery: Der Plan zur Implementierung eines zentralen MCP Registry-Dienstes für die Server-Discovery wurde Mitte 2025 umgesetzt. Bis September 2025 wurde das offizielle MCP Registry als Vorschau gestartet. Dieses Register bietet eine einzige Quelle der Wahrheit für öffentlich verfügbare MCP-Server, die es Clients ermöglicht, Server nach Namen, Kategorie oder Fähigkeiten zu finden. Es ist im Wesentlichen wie ein App Store (aber offen) für KI-Tools. Das Design ermöglicht öffentliche Register (einen globalen Index) und private (unternehmensspezifische), die alle über eine gemeinsame API interoperabel sind. Das Register führte auch einen Moderationsmechanismus ein, um bösartige Server zu kennzeichnen oder zu entfernen, mit einem Community-Moderationsmodell zur Aufrechterhaltung der Qualität.
  • Ende 2025 und darüber hinaus – Hin zu dezentralen MCP-Netzwerken: Obwohl noch keine „offiziellen“ Roadmap-Punkte, weist die Entwicklung auf mehr Dezentralisierung und Web3-Synergie hin:
    • Forscher untersuchen aktiv, wie dezentrale Discovery-, Reputations- und Anreizschichten zu MCP hinzugefügt werden können. Das Konzept eines MCP-Netzwerks (oder „Marktplatzes von MCP-Endpunkten“) wird inkubiert. Dies könnte Smart-Contract-basierte Register (damit es keinen Single Point of Failure für Serverlisten gibt), Reputationssysteme, bei denen Server/Clients On-Chain-Identitäten und Einsätze für gutes Verhalten haben, und möglicherweise Token-Belohnungen für den Betrieb zuverlässiger MCP-Knoten umfassen.
    • Projekt Namda am MIT, das 2024 begann, ist ein konkreter Schritt in diese Richtung. Bis 2025 hatte Namda einen Prototyp eines verteilten Agenten-Frameworks auf den Grundlagen von MCP aufgebaut, einschliesslich Funktionen wie dynamische Knotenerkennung, Lastverteilung über Agentencluster und ein dezentrales Register unter Verwendung von Blockchain-Techniken. Sie haben sogar experimentelle tokenbasierte Anreize und Herkunftsverfolgung für Multi-Agenten-Kooperationen. Meilensteine von Namda zeigen, dass es machbar ist, ein Netzwerk von MCP-Agenten auf vielen Maschinen mit vertrauensloser Koordination zu betreiben. Wenn Namdas Konzepte übernommen werden, könnten wir sehen, wie sich MCP entwickelt, um einige dieser Ideen zu integrieren (möglicherweise durch optionale Erweiterungen oder separate Protokolle, die darauf aufbauen).
    • Enterprise-Härtung: Auf der Unternehmensseite erwarten wir bis Ende 2025, dass MCP in wichtige Unternehmenssoftwareangebote integriert wird (Microsofts Einbindung in Windows und Azure ist ein Beispiel). Die Roadmap umfasst unternehmensfreundliche Funktionen wie SSO-Integration für MCP-Server und robuste Zugriffskontrollen. Die allgemeine Verfügbarkeit des MCP Registry und von Toolkits für die Bereitstellung von MCP in grossem Massstab (z. B. innerhalb eines Unternehmensnetzwerks) ist wahrscheinlich bis Ende 2025.

Um einige wichtige Entwicklungsmeilensteine bisher (im Zeitformat zur Klarheit) zusammenzufassen:

  • Nov 2024: MCP 1.0 veröffentlicht (Anthropic).
  • Dez 2024 – Jan 2025: Community baut erste Welle von MCP-Servern; Anthropic veröffentlicht Claude Desktop mit MCP-Unterstützung; kleine Pilotprojekte von Block, Apollo usw.
  • Feb 2025: Über 1000 Community-MCP-Konnektoren erreicht; Anthropic veranstaltet Workshops (z. B. auf einem KI-Gipfel, zur Förderung der Bildung).
  • Mär 2025: OpenAI kündigt Unterstützung an (ChatGPT Agents SDK).
  • Apr 2025: Google DeepMind kündigt Unterstützung an (Gemini wird MCP unterstützen); Microsoft veröffentlicht Vorschau des C#-SDKs.
  • Mai 2025: Lenkungsausschuss erweitert (Microsoft/GitHub); Build 2025 Demos (Windows MCP-Integration).
  • Jun 2025: Chainstack startet Web3 MCP-Server (EVM/Solana) zur öffentlichen Nutzung.
  • Jul 2025: MCP-Spezifikationsversionen aktualisiert (Streaming, Authentifizierungsverbesserungen); offizielle Roadmap auf der MCP-Website veröffentlicht.
  • Sep 2025: MCP Registry (Vorschau) gestartet; wahrscheinlich erreicht MCP die allgemeine Verfügbarkeit in weiteren Produkten (Claude for Work usw.).
  • Ende 2025 (prognostiziert): Registry v1.0 live; Leitfäden für Best Practices im Bereich Sicherheit veröffentlicht; möglicherweise erste Experimente mit dezentraler Discovery (Namda-Ergebnisse).

Die Vision für die Zukunft ist, dass MCP so allgegenwärtig und unsichtbar wird wie HTTP oder JSON – eine gemeinsame Schicht, die viele Apps im Hintergrund verwenden. Für Web3 deutet die Roadmap auf eine tiefere Fusion hin: KI-Agenten werden Web3 (Blockchains) nicht nur als Informationsquellen oder -senken nutzen, sondern die Web3-Infrastruktur selbst könnte beginnen, KI-Agenten (über MCP) als Teil ihres Betriebs zu integrieren (zum Beispiel könnte eine DAO eine MCP-kompatible KI betreiben, um bestimmte Aufgaben zu verwalten, oder Orakel könnten Daten über MCP-Endpunkte veröffentlichen). Die Betonung der Roadmap auf Dinge wie Überprüfbarkeit und Authentifizierung deutet darauf hin, dass in Zukunft vertrauensminimierte MCP-Interaktionen Realität werden könnten – stellen Sie sich KI-Ausgaben vor, die mit kryptografischen Beweisen versehen sind, oder ein On-Chain-Protokoll darüber, welche Tools eine KI zu Prüfzwecken aufgerufen hat. Diese Möglichkeiten verwischen die Grenze zwischen KI- und Blockchain-Netzwerken, und MCP steht im Mittelpunkt dieser Konvergenz.

Zusammenfassend ist die Entwicklung von MCP hochdynamisch. Es hat wichtige frühe Meilensteine erreicht (breite Akzeptanz und Standardisierung innerhalb eines Jahres nach dem Start) und entwickelt sich mit einer klaren Roadmap, die Sicherheit, Skalierbarkeit und Entdeckung betont, weiterhin rasant. Die erreichten und geplanten Meilensteine stellen sicher, dass MCP robust bleibt, während es skaliert: Herausforderungen wie langlaufende Aufgaben, sichere Berechtigungen und die schiere Auffindbarkeit Tausender von Tools werden angegangen. Diese Vorwärtsdynamik zeigt, dass MCP keine statische Spezifikation, sondern ein wachsender Standard ist, der wahrscheinlich weitere Web3-spezifische Funktionen (dezentrale Governance von Servern, Anreizabstimmung) integrieren wird, sobald diese Bedürfnisse entstehen. Die Community ist bereit, MCP an neue Anwendungsfälle (multimodale KI, IoT usw.) anzupassen, während sie das Kernversprechen im Auge behält: KI vernetzter, kontextbewusster und benutzerfreundlicher in der Web3-Ära zu machen.

7. Vergleich mit ähnlichen Web3-Projekten oder Protokollen

Die einzigartige Mischung aus KI und Konnektivität von MCP bedeutet, dass es nicht viele direkte, eins-zu-eins-Vergleiche gibt, aber es ist aufschlussreich, es mit anderen Projekten an der Schnittstelle von Web3 und KI oder mit analogen Zielen zu vergleichen:

  • SingularityNET (AGI/X)Dezentraler KI-Marktplatz: SingularityNET, 2017 von Dr. Ben Goertzel und anderen ins Leben gerufen, ist ein Blockchain-basierter Marktplatz für KI-Dienste. Es ermöglicht Entwicklern, KI-Algorithmen als Dienste zu monetarisieren und Benutzern, diese Dienste zu konsumieren, alles erleichtert durch einen Token (AGIX), der für Zahlungen und Governance verwendet wird. Im Wesentlichen versucht SingularityNET, das Angebot von KI-Modellen zu dezentralisieren, indem es sie in einem Netzwerk hostet, in dem jeder einen KI-Dienst gegen Token aufrufen kann. Dies unterscheidet sich grundlegend von MCP. MCP hostet oder monetarisiert keine KI-Modelle; stattdessen bietet es eine Standardschnittstelle für KI (wo immer sie läuft), um auf Daten/Tools zuzugreifen. Man könnte sich vorstellen, MCP zu verwenden, um eine KI mit Diensten zu verbinden, die auf SingularityNET gelistet sind, aber SingularityNET selbst konzentriert sich auf die ökonomische Schicht (wer einen KI-Dienst bereitstellt und wie er bezahlt wird). Ein weiterer wichtiger Unterschied: Governance – SingularityNET hat eine On-Chain-Governance (über SingularityNET Enhancement Proposals (SNEPs) und AGIX-Token-Abstimmung), um seine Plattform weiterzuentwickeln. Die Governance von MCP ist im Gegensatz dazu Off-Chain und kollaborativ ohne Token. Zusammenfassend streben SingularityNET und MCP beide ein offeneres KI-Ökosystem an, aber SingularityNET handelt von einem tokenisierten Netzwerk von KI-Algorithmen, während MCP von einem Protokollstandard für die KI-Tool-Interoperabilität handelt. Sie könnten sich ergänzen: zum Beispiel könnte eine KI auf SingularityNET MCP verwenden, um externe Daten abzurufen, die sie benötigt. Aber SingularityNET versucht nicht, die Tool-Nutzung zu standardisieren; es verwendet Blockchain, um KI-Dienste zu koordinieren, während MCP Softwarestandards verwendet, um KI mit jedem Dienst arbeiten zu lassen.
  • Fetch.ai (FET)Agentenbasierte dezentrale Plattform: Fetch.ai ist ein weiteres Projekt, das KI und Blockchain miteinander verbindet. Es hat seine eigene Proof-of-Stake-Blockchain und ein Framework für den Aufbau autonomer Agenten gestartet, die Aufgaben ausführen und in einem dezentralen Netzwerk interagieren. In Fetchs Vision können Millionen von „Software-Agenten“ (die Menschen, Geräte oder Organisationen repräsentieren) verhandeln und Werte austauschen, wobei FET-Token für Transaktionen verwendet werden. Fetch.ai bietet ein Agenten-Framework (uAgents) und eine Infrastruktur für die Entdeckung und Kommunikation zwischen Agenten auf seinem Ledger. Zum Beispiel könnte ein Fetch-Agent helfen, den Verkehr in einer Stadt zu optimieren, indem er mit anderen Agenten für Parken und Transport interagiert, oder einen Lieferketten-Workflow autonom verwalten. Wie vergleicht sich das mit MCP? Beide befassen sich mit dem Konzept von Agenten, aber die Agenten von Fetch.ai sind stark an seine Blockchain und Token-Ökonomie gebunden – sie leben im Fetch-Netzwerk und verwenden On-Chain-Logik. MCP-Agenten (KI-Hosts) sind modellgesteuert (wie ein LLM) und nicht an ein einziges Netzwerk gebunden; MCP ist zufrieden damit, über das Internet oder innerhalb einer Cloud-Einrichtung zu arbeiten, ohne eine Blockchain zu benötigen. Fetch.ai versucht, eine neue dezentrale KI-Wirtschaft von Grund auf aufzubauen (mit ihrem eigenen Ledger für Vertrauen und Transaktionen), während MCP schichtagnostisch ist – es nutzt bestehende Netzwerke (könnte über HTTPS oder bei Bedarf sogar auf einer Blockchain verwendet werden), um KI-Interaktionen zu ermöglichen. Man könnte sagen, Fetch handelt eher von autonomen Wirtschaftsagenten und MCP von intelligenten Tool-nutzenden Agenten. Interessanterweise könnten sich diese überschneiden: Ein autonomer Agent auf Fetch.ai könnte MCP verwenden, um mit Off-Chain-Ressourcen oder anderen Blockchains zu interagieren. Umgekehrt könnte man MCP verwenden, um Multi-Agenten-Systeme zu bauen, die verschiedene Blockchains (nicht nur eine) nutzen. In der Praxis hat MCP eine schnellere Akzeptanz erfahren, weil es kein eigenes Netzwerk benötigte – es funktioniert sofort mit Ethereum, Solana, Web2-APIs usw. Der Ansatz von Fetch.ai ist aufwendiger und schafft ein ganzes Ökosystem, dem die Teilnehmer beitreten (und Token erwerben) müssen, um es zu nutzen. Zusammenfassend: Fetch.ai vs. MCP: Fetch ist eine Plattform mit eigenem Token/Blockchain für KI-Agenten, die sich auf Interoperabilität und wirtschaftlichen Austausch zwischen Agenten konzentriert, während MCP ein Protokoll ist, das KI-Agenten (in jeder Umgebung) verwenden können, um sich an Tools und Daten anzuschliessen. Ihre Ziele überschneiden sich bei der Ermöglichung von KI-gesteuerter Automatisierung, aber sie behandeln verschiedene Schichten des Stacks und haben sehr unterschiedliche architektonische Philosophien (geschlossenes Ökosystem vs. offener Standard).
  • Chainlink und dezentrale OrakelBlockchains mit Off-Chain-Daten verbinden: Chainlink ist kein KI-Projekt, aber es ist als Web3-Protokoll, das ein komplementäres Problem löst, hochrelevant: wie Blockchains mit externen Daten und Berechnungen verbunden werden können. Chainlink ist ein dezentrales Netzwerk von Knoten (Orakeln), die Off-Chain-Daten abrufen, verifizieren und auf vertrauensminimierte Weise an Smart Contracts liefern. Zum Beispiel stellen Chainlink-Orakel Preis-Feeds für DeFi-Protokolle bereit oder rufen externe APIs im Auftrag von Smart Contracts über Chainlink Functions auf. Im Vergleich dazu verbindet MCP KI-Modelle mit externen Daten/Tools (von denen einige Blockchains sein könnten). Man könnte sagen, Chainlink bringt Daten in Blockchains, während MCP Daten in KI bringt. Es gibt eine konzeptionelle Parallele: Beide stellen eine Brücke zwischen ansonsten isolierten Systemen her. Chainlink konzentriert sich auf Zuverlässigkeit, Dezentralisierung und Sicherheit von On-Chain-Daten (Lösung des „Orakelproblems“ des Single Point of Failure). MCP konzentriert sich auf Flexibilität und Standardisierung des Datenzugriffs für KI (Lösung des „Integrationsproblems“ für KI-Agenten). Sie operieren in verschiedenen Domänen (Smart Contracts vs. KI-Assistenten), aber man könnte MCP-Server mit Orakeln vergleichen: Ein MCP-Server für Preisdaten könnte dieselben APIs aufrufen wie ein Chainlink-Knoten. Der Unterschied ist der Konsument – im Fall von MCP ist der Konsument eine KI oder ein benutzerorientierter Assistent, kein deterministischer Smart Contract. Auch bietet MCP nicht von Natur aus die Vertrauensgarantien, die Chainlink bietet (MCP-Server können zentralisiert oder von der Community betrieben werden, wobei das Vertrauen auf Anwendungsebene verwaltet wird). Wie jedoch bereits erwähnt, könnten Ideen zur Dezentralisierung von MCP-Netzwerken von Orakelnetzwerken übernommen werden – z. B. könnten mehrere MCP-Server abgefragt und die Ergebnisse gegengeprüft werden, um sicherzustellen, dass einer KI keine fehlerhaften Daten zugeführt werden, ähnlich wie mehrere Chainlink-Knoten einen Preis aggregieren. Kurz gesagt, Chainlink vs. MCP: Chainlink ist Web3-Middleware für Blockchains zum Konsum externer Daten, MCP ist KI-Middleware für Modelle zum Konsum externer Daten (die auch Blockchain-Daten umfassen könnten). Sie adressieren analoge Bedürfnisse in verschiedenen Bereichen und könnten sich sogar ergänzen: Eine KI, die MCP verwendet, könnte einen von Chainlink bereitgestellten Daten-Feed als zuverlässige Ressource abrufen, und umgekehrt könnte eine KI als Analysequelle dienen, die ein Chainlink-Orakel On-Chain bringt (obwohl dieses letztere Szenario Fragen der Überprüfbarkeit aufwerfen würde).
  • ChatGPT-Plugins / OpenAI-Funktionen vs. MCPAnsätze zur KI-Tool-Integration: Obwohl es sich nicht um Web3-Projekte handelt, ist ein kurzer Vergleich angebracht, da ChatGPT-Plugins und die Funktionsaufruffunktion von OpenAI ebenfalls KI mit externen Tools verbinden. ChatGPT-Plugins verwenden eine von einem Dienst bereitgestellte OpenAPI-Spezifikation, und das Modell kann dann diese APIs gemäss der Spezifikation aufrufen. Die Einschränkungen bestehen darin, dass es sich um ein geschlossenes Ökosystem handelt (von OpenAI genehmigte Plugins, die auf OpenAI-Servern laufen) und jedes Plugin eine isolierte Integration darstellt. OpenAIs neueres „Agents“-SDK ist konzeptionell näher an MCP, da es Entwicklern ermöglicht, Tools/Funktionen zu definieren, die eine KI verwenden kann, aber anfänglich war es spezifisch für OpenAIs Ökosystem. LangChain bot ebenfalls ein Framework, um LLMs Tools im Code zur Verfügung zu stellen. MCP unterscheidet sich dadurch, dass es einen offenen, modellagnostischen Standard dafür bietet. Wie eine Analyse es formulierte, schuf LangChain einen entwicklerorientierten Standard (eine Python-Schnittstelle) für Tools, während MCP einen modellorientierten Standard schafft – ein KI-Agent kann jedes MCP-definierte Tool zur Laufzeit ohne benutzerdefinierten Code entdecken und verwenden. In der Praxis wuchs das MCP-Ökosystem von Servern innerhalb weniger Monate grösser und vielfältiger als der ChatGPT-Plugin-Store. Und anstatt dass jedes Modell sein eigenes Plugin-Format hat (OpenAI hatte seines, andere hatten andere), konvergieren viele um MCP. OpenAI selbst signalisierte Unterstützung für MCP und passte im Wesentlichen seinen Funktionsansatz an den breiteren Standard an. Beim Vergleich von OpenAI-Plugins mit MCP: Plugins sind ein kuratierter, zentralisierter Ansatz, während MCP ein dezentraler, gemeinschaftsgetriebener Ansatz ist. Im Web3-Denken ist MCP „Open Source und Permissionless“, während proprietäre Plugin-Ökosysteme geschlossener sind. Dies macht MCP analog zum Ethos von Web3, auch wenn es keine Blockchain ist – es ermöglicht Interoperabilität und Benutzerkontrolle (man könnte seinen eigenen MCP-Server für seine Daten betreiben, anstatt alles einem KI-Anbieter zu überlassen). Dieser Vergleich zeigt, warum viele MCP ein grösseres langfristiges Potenzial zuschreiben: Es ist nicht an einen Anbieter oder ein Modell gebunden.
  • Projekt Namda und dezentrale Agenten-Frameworks: Namda verdient eine separate Anmerkung, da es MCP explizit mit Web3-Konzepten kombiniert. Wie bereits beschrieben, ist Namda (Networked Agent Modular Distributed Architecture) eine MIT/IBM-Initiative, die 2024 gestartet wurde, um ein skalierbares, verteiltes Netzwerk von KI-Agenten unter Verwendung von MCP als Kommunikationsschicht aufzubauen. Es behandelt MCP als Messaging-Backbone (da MCP Standard-JSON-RPC-ähnliche Nachrichten verwendet, passte es gut für die Inter-Agenten-Kommunikation) und fügt dann Schichten für dynamische Entdeckung, Fehlertoleranz und überprüfbare Identitäten unter Verwendung von Blockchain-inspirierten Techniken hinzu. Namdas Agenten können überall sein (Cloud, Edge-Geräte usw.), aber ein dezentrales Register (etwas wie ein DHT oder eine Blockchain) verfolgt sie und ihre Fähigkeiten auf manipulationssichere Weise. Sie erforschen sogar, Agenten Token zu geben, um Zusammenarbeit oder Ressourcenteilung zu incentivieren. Im Wesentlichen ist Namda ein Experiment, wie eine „Web3-Version von MCP“ aussehen könnte. Es ist noch kein weit verbreitetes Projekt, aber es ist eines der engsten „ähnlichen Protokolle“ im Geiste. Wenn wir Namda vs. MCP betrachten: Namda verwendet MCP (es handelt sich also nicht um konkurrierende Standards), erweitert es aber um ein Protokoll für die Vernetzung und Koordination mehrerer Agenten auf vertrauensminimierte Weise. Man könnte Namda mit Frameworks wie Autonolas oder Multi-Agent Systems (MAS) vergleichen, die die Krypto-Community gesehen hat, aber diesen fehlte oft eine leistungsstarke KI-Komponente oder ein gemeinsames Protokoll. Namda + MCP zusammen zeigen, wie ein dezentrales Agentennetzwerk funktionieren könnte, wobei Blockchain Identität, Reputation und möglicherweise Token-Anreize bereitstellt und MCP die Agentenkommunikation und Tool-Nutzung.

Zusammenfassend lässt sich sagen, dass MCP sich von den meisten früheren Web3-Projekten abhebt: Es begann überhaupt nicht als Krypto-Projekt, überschneidet sich aber schnell mit Web3, weil es komplementäre Probleme löst. Projekte wie SingularityNET und Fetch.ai zielten darauf ab, KI-Berechnungen oder -Dienste mithilfe von Blockchain zu dezentralisieren; MCP standardisiert stattdessen die KI-Integration mit Diensten, was die Dezentralisierung durch Vermeidung von Plattform-Lock-in verbessern kann. Orakelnetzwerke wie Chainlink lösten die Datenlieferung an die Blockchain; MCP löst die Datenlieferung an die KI (einschliesslich Blockchain-Daten). Wenn die Kernideale von Web3 Dezentralisierung, Interoperabilität und Benutzerermächtigung sind, greift MCP den Bereich der Interoperabilität im KI-Bereich an. Es beeinflusst sogar diese älteren Projekte – zum Beispiel hindert nichts SingularityNET daran, seine KI-Dienste über MCP-Server verfügbar zu machen, oder Fetch-Agenten daran, MCP zu verwenden, um mit externen Systemen zu kommunizieren. Wir könnten durchaus eine Konvergenz erleben, bei der tokengetriebene KI-Netzwerke MCP als ihre Lingua Franca verwenden, wodurch die Anreizstruktur von Web3 mit der Flexibilität von MCP verbunden wird.

Schliesslich, wenn wir die Marktwahrnehmung betrachten: MCP wird oft als das angepriesen, was Web3 für das Internet tun wollte – Silos aufbrechen und Benutzer befähigen. Dies hat dazu geführt, dass MCP informell als „Web3 für KI“ bezeichnet wird (auch wenn keine Blockchain beteiligt ist). Es ist jedoch wichtig zu erkennen, dass MCP ein Protokollstandard ist, während die meisten Web3-Projekte Full-Stack-Plattformen mit ökonomischen Schichten sind. In Vergleichen erweist sich MCP in der Regel als eine leichtere, universellere Lösung, während Blockchain-Projekte schwerere, spezialisierte Lösungen sind. Je nach Anwendungsfall können sie sich ergänzen, anstatt strikt zu konkurrieren. Wenn das Ökosystem reift, könnten wir sehen, dass MCP in viele Web3-Projekte als Modul integriert wird (ähnlich wie HTTP oder JSON allgegenwärtig sind), anstatt als Konkurrenzprojekt.

8. Öffentliche Wahrnehmung, Marktakzeptanz und Medienberichterstattung

Die öffentliche Stimmung gegenüber MCP war sowohl in der KI- als auch in der Web3-Community überwiegend positiv, oft grenzend an Begeisterung. Viele sehen es als einen Game-Changer, der leise ankam, aber dann die Branche im Sturm eroberte. Lassen Sie uns die Wahrnehmung, Akzeptanz und bemerkenswerte Mediennarrative aufschlüsseln:

Marktakzeptanz und Adoptionsmetriken: Mitte 2025 erreichte MCP ein Mass an Akzeptanz, das für ein neues Protokoll selten ist. Es wird von praktisch allen grossen KI-Modellanbietern (Anthropic, OpenAI, Google, Meta) unterstützt und von grossen Technologieinfrastrukturen (Microsoft, GitHub, AWS usw.) getragen, wie bereits detailliert beschrieben. Dies allein signalisiert dem Markt, dass MCP wahrscheinlich Bestand haben wird (ähnlich wie die breite Unterstützung TCP/IP oder HTTP in den frühen Internettagen vorantrieb). Auf der Web3-Seite ist die Akzeptanz im Entwicklerverhalten offensichtlich: Hackathons begannen, MCP-Projekte zu präsentieren, und viele Blockchain-Entwicklertools erwähnen nun die MCP-Integration als Verkaufsargument. Die Statistik von „über 1000 Konnektoren in wenigen Monaten“ und Mike Kriegers Zitat von „Tausenden von Integrationen“ werden oft zitiert, um zu veranschaulichen, wie schnell MCP Anklang fand. Dies deutet auf starke Netzwerkeffekte hin – je mehr Tools über MCP verfügbar sind, desto nützlicher ist es, was zu weiterer Akzeptanz führt (eine positive Rückkopplungsschleife). VCs und Analysten haben festgestellt, dass MCP in weniger als einem Jahr das erreicht hat, was frühere Versuche zur „KI-Interoperabilität“ über mehrere Jahre hinweg nicht geschafft haben, hauptsächlich aufgrund des Timings (auf der Welle des Interesses an KI-Agenten reitend) und der Open-Source-Natur. In den Web3-Medien wird die Akzeptanz manchmal anhand der Entwickler-Mindshare und der Integration in Projekte gemessen, und MCP erzielt hier nun hohe Werte.

Öffentliche Wahrnehmung in KI- und Web3-Communities: Anfangs blieb MCP bei seiner ersten Ankündigung (Ende 2024) unter dem Radar. Doch Anfang 2025, als Erfolgsgeschichten auftauchten, verlagerte sich die Wahrnehmung zu Begeisterung. KI-Praktiker sahen MCP als das „fehlende Puzzleteil“, um KI-Agenten über Spielzeugbeispiele hinaus wirklich nützlich zu machen. Web3-Entwickler hingegen sahen es als Brücke, um KI endlich in DApps zu integrieren, ohne die Dezentralisierung aufzugeben – eine KI kann beispielsweise On-Chain-Daten verwenden, ohne ein zentralisiertes Orakel zu benötigen. Vordenker haben Lobeshymnen gesungen: zum Beispiel schrieb Jesus Rodriguez (ein prominenter Web3-KI-Autor) in CoinDesk, dass MCP „eines der transformativsten Protokolle für die KI-Ära und eine grossartige Ergänzung für Web3-Architekturen“ sein könnte. Rares Crisan argumentierte in einem Notable Capital-Blog, dass MCP das Versprechen von Web3 einlösen könnte, wo Blockchain allein Schwierigkeiten hatte, indem es das Internet benutzerzentrierter und natürlicher in der Interaktion macht. Diese Narrative stellen MCP als revolutionär und doch praktisch dar – nicht nur als Hype.

Fairerweise ist nicht jeder Kommentar unkritisch. Einige KI-Entwickler in Foren wie Reddit haben darauf hingewiesen, dass MCP „nicht alles kann“ – es ist ein Kommunikationsprotokoll, kein sofort einsatzbereiter Agent oder eine Reasoning-Engine. Zum Beispiel argumentierte eine Reddit-Diskussion mit dem Titel „MCP is a Dead-End Trap“, dass MCP allein die Agentenkognition nicht verwaltet oder Qualität garantiert; es erfordert immer noch ein gutes Agentendesign und Sicherheitskontrollen. Diese Ansicht deutet darauf hin, dass MCP als Allheilmittel überbewertet werden könnte. Diese Kritikpunkte zielen jedoch eher darauf ab, Erwartungen zu dämpfen, als die Nützlichkeit von MCP abzulehnen. Sie betonen, dass MCP die Tool-Konnektivität löst, aber man immer noch eine robuste Agentenlogik aufbauen muss (d. h. MCP schafft nicht auf magische Weise einen intelligenten Agenten, es stattet ihn mit Tools aus). Der Konsens ist jedoch, dass MCP ein grosser Fortschritt ist, selbst unter vorsichtigen Stimmen. Der Community-Blog von Hugging Face stellte fest, dass MCP zwar keine Allzwecklösung ist, aber ein wichtiger Wegbereiter für integrierte, kontextbewusste KI ist, und Entwickler sich aus diesem Grund darum versammeln.

Medienberichterstattung: MCP hat sowohl in den Mainstream-Tech-Medien als auch in Nischen-Blockchain-Medien erhebliche Berichterstattung erhalten:

  • TechCrunch hat mehrere Geschichten veröffentlicht. Sie berichteten über das ursprüngliche Konzept („Anthropic schlägt eine neue Methode vor, Daten mit KI-Chatbots zu verbinden“) um den Start im Jahr 2024. Im Jahr 2025 hob TechCrunch jeden grossen Adoptionsmoment hervor: die Unterstützung von OpenAI, die Annahme durch Google, die Beteiligung von Microsoft/GitHub. Diese Artikel betonen oft die Brancheneinheit um MCP. Zum Beispiel zitierte TechCrunch Sam Altmans Unterstützung und bemerkte den schnellen Wechsel von konkurrierenden Standards zu MCP. Dabei wurde MCP als der aufstrebende Standard dargestellt, ähnlich wie niemand in den 90er Jahren von den Internetprotokollen ausgeschlossen werden wollte. Eine solche Berichterstattung in einem prominenten Medium signalisierte der breiteren Tech-Welt, dass MCP wichtig und real ist, nicht nur ein Rand-Open-Source-Projekt.
  • CoinDesk und andere Krypto-Publikationen griffen den Web3-Aspekt auf. Der Meinungsartikel von Rodriguez in CoinDesk (Juli 2025) wird oft zitiert; er zeichnete ein futuristisches Bild, in dem jede Blockchain ein MCP-Server sein könnte und neue MCP-Netzwerke auf Blockchains laufen könnten. Er verband MCP mit Konzepten wie dezentraler Identität, Authentifizierung und Überprüfbarkeit – sprach die Sprache des Blockchain-Publikums und deutete an, dass MCP das Protokoll sein könnte, das KI wirklich mit dezentralen Frameworks verschmilzt. Cointelegraph, Bankless und andere haben MCP auch im Kontext von „KI-Agenten & DeFi“ und ähnlichen Themen diskutiert, meist optimistisch über die Möglichkeiten (z. B. hatte Bankless einen Artikel über die Verwendung von MCP, um einer KI die Verwaltung von On-Chain-Trades zu ermöglichen, und enthielt eine Anleitung für ihren eigenen MCP-Server).
  • Bemerkenswerte VC-Blogs / Analystenberichte: Der Blogbeitrag von Notable Capital (Juli 2025) ist ein Beispiel für eine Venture-Analyse, die Parallelen zwischen MCP und der Entwicklung von Web-Protokollen zieht. Er argumentiert im Wesentlichen, dass MCP für Web3 das tun könnte, was HTTP für Web1 getan hat – eine neue Schnittstellenschicht (natürliche Sprachschnittstelle) bereitstellen, die die zugrunde liegende Infrastruktur nicht ersetzt, sondern sie nutzbar macht. Diese Art von Narrativ ist überzeugend und wurde in Panels und Podcasts wiederholt. Es positioniert MCP nicht als Konkurrenz zur Blockchain, sondern als die nächste Abstraktionsschicht, die es normalen Benutzern (über KI) endlich ermöglicht, Blockchain- und Webdienste einfach zu nutzen.
  • Entwickler-Community-Buzz: Ausserhalb formeller Artikel lässt sich der Aufstieg von MCP an seiner Präsenz im Entwicklerdiskurs messen – Konferenzvorträge, YouTube-Kanäle, Newsletter. Zum Beispiel gab es beliebte Blogbeiträge wie „MCP: Das fehlende Glied für Agenten-KI?“ auf Websites wie Runtime.news und Newsletter (z. B. einen des KI-Forschers Nathan Lambert), die praktische Experimente mit MCP und dessen Vergleich mit anderen Tool-Nutzungs-Frameworks diskutierten. Der allgemeine Ton ist Neugier und Begeisterung: Entwickler teilen Demos, wie sie KI mit ihrer Hausautomation oder Krypto-Wallet mit nur wenigen Zeilen Code über MCP-Server verbinden, etwas, das vor nicht allzu langer Zeit nach Science-Fiction klang. Diese Basisbegeisterung ist wichtig, weil sie zeigt, dass MCP über reine Unternehmensunterstützung hinaus eine grosse Bedeutung hat.
  • Unternehmensperspektive: Medien und Analysten, die sich auf Unternehmens-KI konzentrieren, bemerken MCP ebenfalls als wichtige Entwicklung. Zum Beispiel berichtete The New Stack, wie Anthropic die Unterstützung für Remote-MCP-Server in Claude für den Unternehmenseinsatz hinzufügte. Der Ansatz hier ist, dass Unternehmen MCP nutzen können, um ihre internen Wissensdatenbanken und Systeme sicher mit KI zu verbinden. Dies ist auch für Web3 wichtig, da viele Blockchain-Unternehmen selbst Unternehmen sind und MCP intern nutzen können (zum Beispiel könnte eine Krypto-Börse MCP verwenden, um einer KI die Analyse interner Transaktionsprotokolle zur Betrugserkennung zu ermöglichen).

Bemerkenswerte Zitate und Reaktionen: Einige sind hervorzuheben, da sie die öffentliche Wahrnehmung zusammenfassen:

  • „Ähnlich wie HTTP die Webkommunikation revolutionierte, bietet MCP ein universelles Framework... das fragmentierte Integrationen durch ein einziges Protokoll ersetzt.“ – CoinDesk. Dieser Vergleich mit HTTP ist aussagekräftig; er stellt MCP als Innovation auf Infrastrukturebene dar.
  • „MCP ist [zu einem] florierenden offenen Standard mit Tausenden von Integrationen und wachsend geworden. LLMs sind am nützlichsten, wenn sie sich mit den Daten verbinden, die Sie bereits haben...“ – Mike Krieger (Anthropic). Dies ist eine offizielle Bestätigung sowohl der Akzeptanz als auch des Kernnutzenversprechens, das in sozialen Medien weit verbreitet wurde.
  • „Das Versprechen von Web3... kann endlich... durch natürliche Sprache und KI-Agenten verwirklicht werden. ...MCP ist das Nächste, was wir einem echten Web3 für die Massen gesehen haben.“ – Notable Capital. Diese kühne Aussage findet Anklang bei denen, die von den langsamen UX-Verbesserungen im Krypto-Bereich frustriert sind; sie deutet darauf hin, dass KI den Code der Mainstream-Akzeptanz knacken könnte, indem sie die Komplexität abstrahiert.

Herausforderungen und Skepsis: Obwohl die Begeisterung gross ist, haben die Medien auch Herausforderungen diskutiert:

  • Sicherheitsbedenken: Publikationen wie The New Stack oder Sicherheitsblogs haben darauf hingewiesen, dass das Zulassen der Ausführung von Tools durch KI gefährlich sein kann, wenn es nicht in einer Sandbox erfolgt. Was, wenn ein bösartiger MCP-Server versuchen würde, eine KI zu einer schädlichen Aktion zu veranlassen? Der LimeChain-Blog warnt explizit vor „erheblichen Sicherheitsrisiken“ bei von der Community entwickelten MCP-Servern (z. B. muss ein Server, der private Schlüssel verarbeitet, extrem sicher sein). Diese Bedenken wurden in Diskussionen wiederholt: Im Wesentlichen erweitert MCP die Fähigkeiten von KI, aber mit der Macht kommt das Risiko. Die Reaktion der Community (Leitfäden, Authentifizierungsmechanismen) wurde ebenfalls behandelt und versichert im Allgemeinen, dass Abhilfemassnahmen entwickelt werden. Dennoch würde jeder hochkarätige Missbrauch von MCP (z. B. eine unbeabsichtigte Krypto-Übertragung durch eine KI) die Wahrnehmung beeinflussen, daher sind die Medien in dieser Hinsicht wachsam.
  • Leistung und Kosten: Einige Analysten stellen fest, dass die Verwendung von KI-Agenten mit Tools langsamer oder kostspieliger sein könnte als der direkte Aufruf einer API (da die KI möglicherweise mehrere Hin- und Her-Schritte benötigt, um das zu bekommen, was sie braucht). In Hochfrequenzhandels- oder On-Chain-Ausführungskontexten könnte diese Latenz problematisch sein. Vorerst werden diese als technische Hürden angesehen, die optimiert werden müssen (durch besseres Agentendesign oder Streaming), und nicht als Deal-Breaker.
  • Hype-Management: Wie bei jeder Trendtechnologie gibt es ein gewisses Mass an Hype. Einige Stimmen warnen davor, MCP zur Lösung für alles zu erklären. Zum Beispiel fragt der Hugging Face-Artikel „Ist MCP ein Allheilmittel?“ und antwortet nein – Entwickler müssen immer noch das Kontextmanagement handhaben, und MCP funktioniert am besten in Kombination mit guten Prompting- und Speicherstrategien. Solche ausgewogenen Ansichten sind gesund im Diskurs.

Gesamte Medienstimmung: Das sich abzeichnende Narrativ ist weitgehend hoffnungsvoll und zukunftsorientiert:

  • MCP wird als praktisches Tool angesehen, das jetzt echte Verbesserungen liefert (also keine Vaporware), was die Medien durch die Nennung funktionierender Beispiele unterstreichen: Claude liest Dateien, Copilot verwendet MCP in VSCode, eine KI schliesst eine Solana-Transaktion in einer Demo ab usw.
  • Es wird auch als strategischer Dreh- und Angelpunkt für die Zukunft von KI und Web3 dargestellt. Die Medien kommen oft zu dem Schluss, dass MCP oder Ähnliches für „dezentrale KI“ oder „Web4“ oder welchen Begriff man auch immer für das Web der nächsten Generation verwendet, unerlässlich sein wird. Es besteht das Gefühl, dass MCP eine Tür geöffnet hat und nun Innovationen hindurchfliessen – ob es sich um Namdas dezentrale Agenten oder Unternehmen handelt, die Altsysteme mit KI verbinden, viele zukünftige Geschichten gehen auf die Einführung von MCP zurück.

Auf dem Markt könnte man die Akzeptanz an der Gründung von Startups und der Finanzierung im MCP-Ökosystem messen. Tatsächlich gibt es Gerüchte/Berichte über Startups, die sich auf „MCP-Marktplätze“ oder verwaltete MCP-Plattformen konzentrieren und Finanzierungen erhalten (Notable Capital, das darüber schreibt, deutet auf VC-Interesse hin). Wir können erwarten, dass die Medien diese tangential behandeln werden – z. B. „Startup X verwendet MCP, damit Ihre KI Ihr Krypto-Portfolio verwaltet – sammelt Y Millionen Dollar ein“.

Fazit zur Wahrnehmung: Ende 2025 geniesst MCP den Ruf einer bahnbrechenden, ermöglichenden Technologie. Es wird von einflussreichen Persönlichkeiten sowohl in der KI- als auch in der Krypto-Welt stark befürwortet. Die öffentliche Erzählung hat sich von „hier ist ein nettes Tool“ zu „dies könnte grundlegend für das nächste Web sein“ entwickelt. Gleichzeitig bestätigt die praktische Berichterstattung, dass es funktioniert und angenommen wird, was Glaubwürdigkeit verleiht. Vorausgesetzt, die Community geht weiterhin Herausforderungen an (Sicherheit, Governance in grossem Massstab) und es treten keine grösseren Katastrophen auf, wird das öffentliche Image von MCP wahrscheinlich positiv bleiben oder sogar ikonisch werden als „das Protokoll, das KI und Web3 dazu brachte, gut zusammenzuspielen“.

Die Medien werden wahrscheinlich ein genaues Auge auf Folgendes haben:

  • Erfolgsgeschichten (z. B. wenn eine grosse DAO einen KI-Schatzmeister über MCP implementiert oder eine Regierung MCP für offene Daten-KI-Systeme verwendet).
  • Jegliche Sicherheitsvorfälle (zur Risikobewertung).
  • Die Entwicklung von MCP-Netzwerken und ob eine Token- oder Blockchain-Komponente offiziell ins Spiel kommt (was eine grosse Nachricht wäre, die KI und Krypto noch enger miteinander verbindet).

Im Moment lässt sich die Berichterstattung jedoch mit einer Zeile von CoinDesk zusammenfassen: „Die Kombination von Web3 und MCP könnte eine neue Grundlage für dezentrale KI sein.“ – ein Gefühl, das sowohl das Versprechen als auch die Begeisterung um MCP in der Öffentlichkeit einfängt.

Referenzen:

  • Anthropic News: "Introducing the Model Context Protocol," Nov 2024
  • LimeChain Blog: "What is MCP and How Does It Apply to Blockchains?" May 2025
  • Chainstack Blog: "MCP for Web3 Builders: Solana, EVM and Documentation," June 2025
  • CoinDesk Op-Ed: "The Protocol of Agents: Web3’s MCP Potential," Jul 2025
  • Notable Capital: "Why MCP Represents the Real Web3 Opportunity," Jul 2025
  • TechCrunch: "OpenAI adopts Anthropic’s standard…", Mar 26, 2025
  • TechCrunch: "Google to embrace Anthropic’s standard…", Apr 9, 2025
  • TechCrunch: "GitHub, Microsoft embrace… (MCP steering committee)", May 19, 2025
  • Microsoft Dev Blog: "Official C# SDK for MCP," Apr 2025
  • Hugging Face Blog: "#14: What Is MCP, and Why Is Everyone Talking About It?" Mar 2025
  • Messari Research: "Fetch.ai Profile," 2023
  • Medium (Nu FinTimes): "Unveiling SingularityNET," Mar 2024

World Liberty Financial: Die Zukunft des Geldes, gestützt durch USD1

· 11 Minuten Lesezeit
Dora Noda
Software Engineer

Überblick über World Liberty Financial

World Liberty Financial (WLFI) ist eine dezentrale Finanzplattform (DeFi), die von Mitgliedern der Trump-Familie und ihren Partnern ins Leben gerufen wurde. Laut der Website der Trump Organization zielt die Plattform darauf ab, traditionelles Banking und Blockchain-Technologie zu verbinden, indem sie die Stabilität der traditionellen Finanzwelt mit der Transparenz und Zugänglichkeit dezentraler Systeme kombiniert. Ihre Mission ist es, moderne Dienstleistungen für Geldtransfers, Kreditvergabe und die Verwaltung digitaler Vermögenswerte anzubieten, während sie gleichzeitig die Dollar-gestützte Stabilität unterstützt, Kapital für Einzelpersonen und Institutionen zugänglich macht und DeFi für Mainstream-Nutzer vereinfacht.

WLFI führte seinen Governance-Token ($WLFI) im September 2025 ein und stellte im März 2025 einen an den Dollar gekoppelten Stablecoin namens USD1 vor. Die Plattform beschreibt USD1 als einen „Zukunft des Geldes“-Stablecoin, der als Basispaar für tokenisierte Vermögenswerte dienen und die Dominanz des US-Dollars in der digitalen Wirtschaft fördern soll. Mitbegründer Donald Trump Jr. hat WLFI als ein unpolitisches Unterfangen bezeichnet, das darauf abzielt, alltägliche Menschen zu stärken und die globale Rolle des US-Dollars zu festigen.

Geschichte und Gründung

  • Ursprünge (2024–2025). WLFI wurde im September 2024 als Krypto-Unternehmen angekündigt, das von Mitgliedern der Trump-Familie geführt wird. Das Unternehmen führte seinen Governance-Token WLFIspa¨terimselbenJahrein.LautReutersbrachtederanfa¨nglicheWLFI später im selben Jahr ein. Laut Reuters brachte der anfängliche WLFI-Token-Verkauf des Unternehmens nur etwa 2,7 Millionen US-Dollar ein, aber die Verkäufe stiegen nach Donald Trumps Wahlsieg 2024 stark an (Informationen, die in weit verbreiteten Berichten zitiert werden, obwohl sie in unseren Quellen nicht direkt verfügbar sind). WLFI befindet sich mehrheitlich im Besitz einer Trump-Geschäftseinheit und hat neun Mitbegründer, darunter Donald Trump Jr., Eric Trump und Barron Trump.
  • Management. Die Trump Organization beschreibt die Führungspositionen von WLFI wie folgt: Donald Trump (Chief Crypto Advocate), Eric Trump und Donald Trump Jr. (Web3-Botschafter), Barron Trump (DeFi-Visionär) und Zach Witkoff (CEO und Mitbegründer). Die täglichen Operationen des Unternehmens werden von Zach Witkoff und Partnern wie Zachary Folkman und Chase Herro geleitet.
  • Stablecoin-Initiative. WLFI kündigte den USD1 Stablecoin im März 2025 an. USD1 wurde als ein an den Dollar gekoppelter Stablecoin beschrieben, der durch US-Staatsanleihen, US-Dollar-Einlagen und andere Bargeldäquivalente gedeckt ist. Die Reserven des Coins werden von der BitGo Trust Company verwahrt, einem regulierten Verwahrer digitaler Vermögenswerte. USD1 wurde auf Binances BNB Chain eingeführt und später auf Ethereum, Solana und Tron erweitert.

USD1 Stablecoin: Design und Funktionen

Reservemodell und Stabilitätsmechanismus

USD1 ist als ein fiat-gestützter Stablecoin mit einem 1:1-Einlösemechanismus konzipiert. Jeder USD1-Token ist gegen einen US-Dollar einlösbar, und die Reserven des Stablecoins werden in kurzfristigen US-Staatsanleihen, Dollar-Einlagen und Bargeldäquivalenten gehalten. Diese Vermögenswerte werden von BitGo Trust verwahrt, einer regulierten Einheit, die für die institutionelle Verwahrung digitaler Vermögenswerte bekannt ist. WLFI bewirbt, dass USD1 Folgendes bietet:

  1. Vollständige Besicherung und Audits. Die Reserven sind vollständig besichert und unterliegen monatlichen Bestätigungen durch Dritte, was Transparenz über die Deckungsanlagen bietet. Im Mai 2025 stellte die Binance Academy fest, dass regelmäßige Reserveaufschlüsselungen noch nicht öffentlich verfügbar waren und WLFI Audits durch Dritte zugesagt hatte.
  2. Institutionelle Ausrichtung. WLFI positioniert USD1 als einen „institutionstauglichen“ Stablecoin, der auf Banken, Fonds und große Unternehmen abzielt, obwohl er auch für Privatanwender zugänglich ist.
  3. Keine Präge-/Einlösegebühren. USD1 erhebt Berichten zufolge keine Gebühren für das Prägen oder Einlösen, was die Reibungsverluste für Nutzer, die große Mengen handhaben, reduziert.
  4. Cross-Chain-Interoperabilität. Der Stablecoin verwendet das Cross-Chain Interoperability Protocol (CCIP) von Chainlink, um sichere Transfers über Ethereum, BNB Chain und Tron zu ermöglichen. Pläne zur Erweiterung auf zusätzliche Blockchains wurden durch Partnerschaften mit Netzwerken wie Aptos und Tron bestätigt.

Marktentwicklung

  • Rasch wachsend. Innerhalb eines Monats nach der Einführung erreichte die Marktkapitalisierung von USD1 etwa 2,1 Milliarden US-Dollar, angetrieben durch hochkarätige institutionelle Geschäfte wie eine 2-Milliarden-Dollar-Investition des MGX-Fonds aus Abu Dhabi in Binance unter Verwendung von USD1. Anfang Oktober 2025 war das Angebot auf etwa 2,68 Milliarden US-Dollar angewachsen, wobei die meisten Token auf der BNB Chain (79 %) ausgegeben wurden, gefolgt von Ethereum, Solana und Tron.
  • Listung und Akzeptanz. Binance listete USD1 im Mai 2025 auf seinem Spotmarkt. WLFI preist eine weitreichende Integration über DeFi-Protokolle und zentralisierte Börsen hinweg an. DeFi-Plattformen wie ListaDAO, Venus Protocol und Aster unterstützen das Verleihen, Leihen und Liquiditätspools unter Verwendung von USD1. WLFI betont, dass Nutzer USD1 innerhalb von ein bis zwei Werktagen über BitGo gegen US-Dollar einlösen können.

Institutionelle Nutzung und Pläne für tokenisierte Vermögenswerte

WLFI sieht USD1 als den standardmäßigen Abwicklungsvermögenswert für tokenisierte reale Vermögenswerte (RWAs). CEO Zach Witkoff hat erklärt, dass Rohstoffe wie Öl, Gas, Baumwolle und Holz On-Chain gehandelt werden sollten und dass WLFI aktiv daran arbeitet, diese Vermögenswerte zu tokenisieren und mit USD1 zu koppeln, da sie einen vertrauenswürdigen, transparenten Stablecoin erfordern. Er beschrieb USD1 als „den vertrauenswürdigsten und transparentesten Stablecoin auf der Erde“.

Produkte und Dienstleistungen

Debitkarte und Einzelhandels-Apps

Auf der TOKEN2049-Konferenz in Singapur kündigte Zach Witkoff an, dass WLFI eine Krypto-Debitkarte herausgeben wird, die es Nutzern ermöglicht, digitale Vermögenswerte im täglichen Zahlungsverkehr auszugeben. Das Unternehmen plante, im nächsten Quartal ein Pilotprogramm zu starten, wobei eine vollständige Einführung für Q4 2025 oder Q1 2026 erwartet wird. CoinLaw fasste wichtige Details zusammen:

  • Die Karte wird Krypto-Guthaben mit Verbraucherkäufen verknüpfen und soll in Dienste wie Apple Pay integriert werden.
  • WLFI entwickelt außerdem eine kundenorientierte Einzelhandels-App, die die Karte ergänzen soll.

Tokenisierung und Anlageprodukte

Über Zahlungen hinaus zielt WLFI darauf ab, reale Rohstoffe zu tokenisieren. Witkoff sagte, sie würden die Tokenisierung von Öl, Gas, Holz und Immobilien untersuchen, um Blockchain-basierte Handelsinstrumente zu schaffen. Der Governance-Token ($WLFI) von WLFI, der im September 2025 eingeführt wurde, gewährt Inhabern die Möglichkeit, über bestimmte Unternehmensentscheidungen abzustimmen. Das Projekt hat auch strategische Partnerschaften geschlossen, darunter die Vereinbarung von ALT5 Sigma, 750 Millionen US-Dollar an WLFI-Token als Teil ihrer Treasury-Strategie zu erwerben.

Donald Trump Jr.s Perspektive

Mitbegründer Donald Trump Jr. ist ein prominentes öffentliches Gesicht von WLFI. Seine Äußerungen bei Branchenveranstaltungen und Interviews offenbaren die Motivationen hinter dem Projekt und seine Ansichten zu traditionellen Finanzen, Regulierung und der Rolle des US-Dollars.

Kritik an traditionellen Finanzen

  • „Kaputtes“ und undemokratisches System. Während eines Panels mit dem Titel World Liberty Financial: The Future of Money, Backed by USD1 auf der Token2049-Konferenz argumentierte Trump Jr., dass traditionelle Finanzen undemokratisch und „kaputt“ seien. Er erzählte, dass, als seine Familie in die Politik eintrat, 300 ihrer Bankkonten über Nacht aufgelöst wurden, was illustriert, wie Finanzinstitute Einzelpersonen aus politischen Gründen bestrafen können. Er sagte, die Familie sei von der Spitze der Finanz-„Pyramide“ an den Boden gerutscht, was zeige, dass das System Insider begünstigt und wie ein Schneeballsystem funktioniert.
  • Ineffizienz und mangelnder Wert. Er kritisierte die traditionelle Finanzindustrie dafür, in Ineffizienzen verstrickt zu sein, wo Menschen, die „siebenstellige Beträge pro Jahr verdienen“, lediglich Papierkram verschieben, ohne echten Mehrwert zu schaffen.

Befürwortung von Stablecoins und dem Dollar

  • Erhaltung der Dollar-Hegemonie. Trump Jr. behauptet, dass Stablecoins wie USD1 die Rolle ausfüllen werden, die zuvor von Ländern gespielt wurde, die US-Staatsanleihen kauften. Er sagte der Business Times, dass Stablecoins eine „Dollar-Hegemonie“ schaffen könnten, die es den USA ermöglicht, global zu führen und viele Orte sicher und stabil zu halten. Im Gespräch mit Cryptopolitan argumentierte er, dass Stablecoins tatsächlich die Dominanz des US-Dollars erhalten, weil die Nachfrage nach Dollar-gestützten Token Staatsanleihen in einer Zeit unterstützt, in der konventionelle Käufer (z. B. China und Japan) ihr Engagement reduzieren.
  • Zukunft der Finanzen und DeFi. Trump Jr. beschrieb WLFI als die Zukunft der Finanzen und betonte, dass Blockchain- und DeFi-Technologien den Zugang zu Kapital demokratisieren können. Bei einer von Panews abgedeckten ETH Denver-Veranstaltung argumentierte er, dass klare regulatorische Rahmenbedingungen erforderlich seien, um zu verhindern, dass Unternehmen Offshore abwandern, und um Investoren zu schützen. Er forderte die USA auf, die globale Krypto-Innovation anzuführen, und kritisierte übermäßige Regulierung als wachstumshemmend.
  • Finanzielle Demokratisierung. Er glaubt, dass die Kombination von traditionellen und dezentralen Finanzen durch WLFI unterversorgten Bevölkerungsgruppen Liquidität, Transparenz und Stabilität bieten wird. Er hebt auch das Potenzial der Blockchain hervor, Korruption zu eliminieren, indem Transaktionen transparent und On-Chain gemacht werden.
  • Ratschläge für Neueinsteiger. Trump Jr. rät neuen Investoren, mit kleinen Beträgen zu beginnen, übermäßige Hebelwirkung zu vermeiden und sich kontinuierlich über DeFi zu informieren.

Politische Neutralität und Medienkritik

Trump Jr. betont, dass WLFI „zu 100 % keine politische Organisation“ sei, trotz der tiefen Beteiligung der Trump-Familie. Er stellt das Unternehmen als eine Plattform dar, die Amerikanern und der Welt zugutekommt, und nicht als ein politisches Vehikel. Während des Token2049-Panels kritisierte er Mainstream-Medien und sagte, sie hätten sich selbst diskreditiert, und Zach Witkoff fragte das Publikum, ob sie The New York Times für vertrauenswürdig hielten.

Partnerschaften und Ökosystem-Integration

MGX–Binance-Investition

Im Mai 2025 kündigte WLFI an, dass USD1 eine 2-Milliarden-Dollar-Investition des in Abu Dhabi ansässigen MGX in die Krypto-Börse Binance ermöglichen würde. Die Ankündigung unterstrich den wachsenden Einfluss von WLFI und wurde als Beweis für die institutionelle Attraktivität von USD1 angepriesen. US-Senatorin Elizabeth Warren kritisierte den Deal jedoch und nannte ihn „Korruption“, da die anhängige Stablecoin-Gesetzgebung (der GENIUS Act) der Familie des Präsidenten zugutekommen könnte. Von Reuters zitierte CoinMarketCap-Daten zeigten, dass der Umlaufwert von USD1 zu diesem Zeitpunkt etwa 2,1 Milliarden US-Dollar erreichte.

Aptos-Partnerschaft

Auf der TOKEN2049-Konferenz im Oktober 2025 kündigten WLFI und die Layer-1-Blockchain Aptos eine Partnerschaft an, um USD1 im Aptos-Netzwerk einzusetzen. Brave New Coin berichtet, dass WLFI Aptos aufgrund seines hohen Durchsatzes (Transaktionen werden in weniger als einer halben Sekunde abgewickelt) und Gebühren von unter einem Hundertstel Cent ausgewählt hat. Die Zusammenarbeit zielt darauf ab, dominante Stablecoin-Netzwerke herauszufordern, indem sie günstigere, schnellere Schienen für institutionelle Transaktionen bereitstellt. CryptoSlate merkt an, dass die Integration von USD1 Aptos zum fünften Netzwerk machen wird, das den Stablecoin prägt, mit sofortiger Unterstützung von DeFi-Protokollen wie Echelon Market und Hyperion sowie Wallets und Börsen wie Petra, Backpack und OKX. WLFI-Führungskräfte sehen die Expansion als Teil einer umfassenderen Strategie, die DeFi-Akzeptanz zu steigern und USD1 als Abwicklungsschicht für tokenisierte Vermögenswerte zu positionieren.

Debitkarten- und Apple Pay-Integration

Reuters und CoinLaw berichten, dass WLFI eine Krypto-Debitkarte einführen wird, die Krypto-Vermögenswerte mit alltäglichen Ausgaben verbindet. Witkoff sagte Reuters, dass das Unternehmen erwartet, innerhalb des nächsten Quartals ein Pilotprogramm zu starten, mit einer vollständigen Einführung bis Ende 2025 oder Anfang 2026. Die Karte wird in Apple Pay integriert, und WLFI wird eine Einzelhandels-App veröffentlichen, um Krypto-Zahlungen zu vereinfachen.

Kontroversen und Kritik

Reservetransparenz. Die Binance Academy hob hervor, dass USD1 im Mai 2025 keine öffentlich verfügbaren Reserveaufschlüsselungen aufwies. WLFI versprach Audits durch Dritte, aber das Fehlen detaillierter Offenlegungen gab Anlass zu Bedenken bei Investoren.

Politische Interessenkonflikte. Die engen Verbindungen von WLFI zur Trump-Familie haben zu genauerer Prüfung geführt. Eine Reuters-Untersuchung berichtete, dass eine anonyme Wallet, die 2 Milliarden US-Dollar in USD1 hielt, kurz vor der MGX-Investition Gelder erhielt, und die Eigentümer der Wallet nicht identifiziert werden konnten. Kritiker argumentieren, dass das Unternehmen der Trump-Familie ermöglichen könnte, finanziell von regulatorischen Entscheidungen zu profitieren. Senatorin Elizabeth Warren warnte, dass die vom Kongress in Betracht gezogene Stablecoin-Gesetzgebung es dem Präsidenten und seiner Familie erleichtern würde, „sich die Taschen zu füllen“. Medien wie The New York Times und The New Yorker haben WLFI als eine Erosion der Grenze zwischen Privatunternehmen und öffentlicher Politik beschrieben.

Marktkonzentration und Liquiditätsbedenken. CoinLaw berichtete, dass mehr als die Hälfte der USD1-Liquidität im Juni 2025 von nur drei Wallets stammte. Eine solche Konzentration wirft Fragen nach der organischen Nachfrage nach USD1 und seiner Widerstandsfähigkeit in angespannten Märkten auf.

Regulatorische Unsicherheit. Trump Jr. selbst räumt ein, dass die US-Krypto-Regulierung unklar bleibt, und fordert umfassende Regeln, um zu verhindern, dass Unternehmen Offshore abwandern. Kritiker argumentieren, dass WLFI von deregulierenden Maßnahmen der Trump-Regierung profitiert, während es gleichzeitig eine Politik mitgestaltet, die seine eigenen finanziellen Interessen begünstigen könnte.

Fazit

World Liberty Financial positioniert sich als Pionier an der Schnittstelle von traditionellen Finanzen und dezentraler Technologie, wobei der USD1 Stablecoin als Rückgrat für Zahlungen, Tokenisierung und DeFi-Produkte dient. Die Betonung der Plattform auf institutionelle Unterstützung, Cross-Chain-Interoperabilität und gebührenfreies Prägen unterscheidet USD1 von anderen Stablecoins. Partnerschaften mit Netzwerken wie Aptos und große Deals wie die MGX-Binance-Investition unterstreichen den Ehrgeiz von WLFI, eine globale Abwicklungsschicht für tokenisierte Vermögenswerte zu werden.

Aus Donald Trump Jr.s Perspektive ist WLFI nicht nur ein kommerzielles Unternehmen, sondern eine Mission, die Finanzen zu demokratisieren, die Hegemonie des US-Dollars zu erhalten und das, was er als ein kaputtes und elitäres traditionelles Finanzsystem ansieht, herauszufordern. Er befürwortet regulatorische Klarheit, kritisiert aber gleichzeitig übermäßige Aufsicht, was breitere Debatten innerhalb der Kryptoindustrie widerspiegelt. Die politischen Verbindungen von WLFI, undurchsichtige Offenlegungen der Reserven und die Konzentration der Liquidität laden jedoch zu Skepsis ein. Der Erfolg des Unternehmens wird davon abhängen, Innovation mit Transparenz in Einklang zu bringen und das komplexe Zusammenspiel zwischen privaten Interessen und öffentlicher Politik zu navigieren.

Gerichteter azyklischer Graph (DAG) in der Blockchain

· 47 Minuten Lesezeit
Dora Noda
Software Engineer

Was ist ein DAG und wie unterscheidet er sich von einer Blockchain?

Ein Gerichteter azyklischer Graph (DAG) ist eine Art von Datenstruktur, die aus Scheitelpunkten (Knoten) besteht, die durch gerichtete Kanten verbunden sind, die niemals einen Zyklus bilden. Im Kontext von Distributed Ledgern organisiert ein DAG-basiertes Ledger Transaktionen oder Ereignisse in einem webartigen Graphen statt in einer einzigen sequenziellen Kette. Das bedeutet, dass im Gegensatz zu einer traditionellen Blockchain, bei der jeder neue Block nur einen Vorgänger referenziert (wodurch eine lineare Kette entsteht), ein Knoten in einem DAG mehrere frühere Transaktionen oder Blöcke referenzieren kann. Infolgedessen können viele Transaktionen parallel bestätigt werden, anstatt streng nacheinander in chronologischen Blöcken.

Um den Unterschied zu verdeutlichen: Wenn eine Blockchain wie eine lange Kette von Blöcken aussieht (wobei jeder Block viele Transaktionen enthält), ähnelt ein DAG-basiertes Ledger eher einem Baum oder einem Netz einzelner Transaktionen. Jede neue Transaktion in einem DAG kann sich an eine oder mehrere frühere Transaktionen anhängen (und diese dadurch validieren), anstatt darauf zu warten, in den nächsten einzelnen Block verpackt zu werden. Dieser strukturelle Unterschied führt zu mehreren wesentlichen Unterscheidungen:

  • Parallele Validierung: In Blockchains fügen Miner/Validierer jeweils einen Block zur Kette hinzu, sodass Transaktionen in Batches pro neuem Block bestätigt werden. In DAGs können mehrere Transaktionen (oder kleine „Blöcke“ von Transaktionen) gleichzeitig hinzugefügt werden, da jede an verschiedene Teile des Graphen angehängt werden kann. Diese Parallelisierung bedeutet, dass DAG-Netzwerke nicht darauf warten müssen, dass eine einzelne lange Kette Block für Block wächst.
  • Keine globale sequentielle Reihenfolge: Eine Blockchain erzeugt von Natur aus eine Gesamtreihenfolge von Transaktionen (jeder Block hat einen festen Platz in einer Sequenz). Ein DAG-Ledger hingegen bildet eine partielle Reihenfolge von Transaktionen. Es gibt keinen einzelnen „neuesten Block“, auf den alle Transaktionen warten; stattdessen können viele Spitzen des Graphen koexistieren und gleichzeitig erweitert werden. Konsensprotokolle sind dann erforderlich, um die Reihenfolge oder Gültigkeit von Transaktionen im DAG letztendlich zu klären oder zu vereinbaren.
  • Transaktionsbestätigung: In einer Blockchain werden Transaktionen bestätigt, wenn sie in einem geminten/validierten Block enthalten sind und dieser Block Teil der akzeptierten Kette wird (oft nachdem weitere Blöcke hinzugefügt wurden). In DAG-Systemen hilft eine neue Transaktion selbst, frühere Transaktionen zu bestätigen, indem sie diese referenziert. Zum Beispiel muss im IOTA Tangle (ein DAG) jede Transaktion zwei frühere Transaktionen genehmigen, wodurch Benutzer effektiv die Transaktionen des jeweils anderen gemeinsam validieren. Dies hebt die strikte Trennung zwischen „Transaktionserstellern“ und „Validierern“ auf, die beim Blockchain-Mining besteht – jeder Teilnehmer, der eine Transaktion ausgibt, leistet auch ein wenig Validierungsarbeit.

Wichtig ist, dass eine Blockchain tatsächlich ein Spezialfall eines DAG ist – ein DAG, der auf eine einzige Kette von Blöcken beschränkt wurde. Beide sind Formen der Distributed-Ledger-Technologie (DLT) und teilen Ziele wie Unveränderlichkeit und Dezentralisierung. DAG-basierte Ledger sind jedoch „blocklos“ oder Multi-Parent in ihrer Struktur, was ihnen in der Praxis unterschiedliche Eigenschaften verleiht. Traditionelle Blockchains wie Bitcoin und Ethereum verwenden sequentielle Blöcke und verwerfen oft konkurrierende Blöcke (Forks), während DAG-Ledger versuchen, alle Transaktionen zu integrieren und anzuordnen, ohne Konflikte zu verwerfen. Dieser grundlegende Unterschied legt den Grundstein für die unten detaillierten Leistungs- und Designkontraste.

Technischer Vergleich: DAG- vs. Blockchain-Architektur

Um DAGs und Blockchains besser zu verstehen, können wir ihre Architekturen und Validierungsprozesse vergleichen:

  • Datenstruktur: Blockchains speichern Daten in Blöcken, die in einer linearen Sequenz verknüpft sind (jeder Block enthält viele Transaktionen und verweist auf einen einzelnen vorherigen Block, wodurch eine lange Kette entsteht). DAG-Ledger verwenden eine Graphstruktur: Jeder Knoten im Graphen repräsentiert eine Transaktion oder einen Ereignisblock und kann auf mehrere vorherige Knoten verweisen. Dieser gerichtete Graph hat keine Zyklen, was bedeutet, dass man, wenn man den Links „rückwärts“ folgt, niemals zu einer Transaktion zurückkehren kann, von der man begonnen hat. Das Fehlen von Zyklen ermöglicht eine topologische Sortierung von Transaktionen (eine Möglichkeit, sie so zu sortieren, dass jede Referenz nach der referenzierten Transaktion kommt). Kurz gesagt: Blockchains = eindimensionale Kette, DAGs = mehrdimensionaler Graph.
  • Durchsatz und Parallelität: Aufgrund der strukturellen Unterschiede handhaben Blockchains und DAGs den Durchsatz unterschiedlich. Eine Blockchain fügt selbst unter optimalen Bedingungen Blöcke einzeln hinzu (oft wartet sie darauf, dass jeder Block validiert und netzwerkweit verbreitet wird, bevor der nächste folgt). Dies begrenzt den Transaktionsdurchsatz von Natur aus – zum Beispiel erreicht Bitcoin durchschnittlich 5–7 Transaktionen pro Sekunde (TPS) und Ethereum ~15–30 TPS unter dem klassischen Proof-of-Work-Design. DAG-basierte Systeme hingegen ermöglichen es, dass viele neue Transaktionen/Blöcke gleichzeitig in das Ledger gelangen. Mehrere Transaktionszweige können gleichzeitig wachsen und sich später miteinander verbinden, wodurch der potenzielle Durchsatz dramatisch erhöht wird. Einige moderne DAG-Netzwerke beanspruchen einen Durchsatz von Tausenden von TPS, der die Kapazität traditioneller Zahlungsnetzwerke erreicht oder übertrifft.
  • Transaktionsvalidierungsprozess: In Blockchain-Netzwerken warten Transaktionen in einem Mempool und werden validiert, wenn ein Miner oder Validierer sie in einen neuen Block packt, dann überprüfen andere Knoten diesen Block anhand der Historie. In DAG-Netzwerken ist die Validierung oft kontinuierlicher und dezentraler: Jede neue Transaktion führt eine Validierungsaktion durch, indem sie frühere Transaktionen referenziert (genehmigt). Zum Beispiel muss jede Transaktion im IOTA Tangle zwei frühere Transaktionen bestätigen, indem sie deren Gültigkeit überprüft und einen kleinen Proof-of-Work durchführt, wodurch sie für diese Transaktionen „stimmt“. Im Block-Lattice-DAG von Nano bilden die Transaktionen jedes Kontos eine eigene Kette und werden durch Abstimmungen von Repräsentantenknoten validiert (mehr dazu später). Der Nettoeffekt ist, dass DAGs die Validierungsarbeit verteilen: Anstatt dass ein einzelner Blockproduzent eine Reihe von Transaktionen validiert, validieren jeder Teilnehmer oder viele Validierer gleichzeitig verschiedene Transaktionen.
  • Konsensmechanismus: Sowohl Blockchains als auch DAGs benötigen eine Möglichkeit für das Netzwerk, sich auf den Zustand des Ledgers zu einigen (welche Transaktionen bestätigt sind und in welcher Reihenfolge). In Blockchains kommt der Konsens oft von Proof of Work oder Proof of Stake, die den nächsten Block produzieren, und der Regel „längste (oder schwerste) Kette gewinnt“. In DAG-Ledgern kann der Konsens komplexer sein, da es keine einzelne Kette gibt. Verschiedene DAG-Projekte verwenden unterschiedliche Ansätze: Einige verwenden Gossip-Protokolle und virtuelles Voting (wie bei Hedera Hashgraph), um sich auf die Transaktionsreihenfolge zu einigen, andere verwenden Markov Chain Monte Carlo Tip Selection (IOTA’s früherer Ansatz) oder andere Abstimmungsschemata, um zu entscheiden, welche Zweige des Graphen bevorzugt werden. Spezifische Konsensmethoden in DAG-Systemen werden wir in einem späteren Abschnitt besprechen. Im Allgemeinen kann das Erreichen einer netzwerkweiten Einigung in einem DAG in Bezug auf den Durchsatz schneller sein, erfordert jedoch ein sorgfältiges Design, um Konflikte (wie Double-Spend-Versuche) zu handhaben, da mehrere Transaktionen parallel existieren können, bevor eine endgültige Reihenfolge festgelegt wird.
  • Fork-Behandlung: In einer Blockchain führt ein „Fork“ (zwei Blöcke, die fast gleichzeitig gemint werden) dazu, dass ein Zweig schließlich gewinnt (längste Kette) und der andere verwaist (verworfen) wird, was die Arbeit am verwaisten Block verschwendet. In einem DAG ist die Philosophie, Forks als zusätzliche Zweige des Graphen zu akzeptieren, anstatt sie zu verschwenden. Der DAG wird beide Forks integrieren; der Konsensalgorithmus bestimmt dann, welche Transaktionen letztendlich bestätigt werden (oder wie widersprüchliche Transaktionen gelöst werden), ohne einen ganzen Zweig zu verwerfen. Das bedeutet, dass keine Mining-Leistung oder Anstrengung für veraltete Blöcke verschwendet wird, was zur Effizienz beiträgt. Zum Beispiel versucht Conflux’ Tree-Graph (ein PoW-DAG), alle Blöcke in das Ledger aufzunehmen und sie zu ordnen, anstatt sie zu verwaisten, wodurch 100 % der produzierten Blöcke genutzt werden.

Zusammenfassend lässt sich sagen, dass Blockchains eine einfachere, streng geordnete Struktur bieten, bei der die Validierung Block für Block erfolgt, während DAGs eine komplexere Graphstruktur bereitstellen, die eine asynchrone und parallele Transaktionsverarbeitung ermöglicht. DAG-basierte Ledger müssen zusätzliche Konsenslogik anwenden, um diese Komplexität zu verwalten, versprechen aber einen deutlich höheren Durchsatz und Effizienz, indem sie die volle Kapazität des Netzwerks nutzen, anstatt eine Einzeldateiwarteschlange von Blöcken zu erzwingen.

Vorteile von DAG-basierten Blockchain-Systemen

DAG-Architekturen wurden primär eingeführt, um die Einschränkungen traditioneller Blockchains in Bezug auf Skalierbarkeit, Geschwindigkeit und Kosten zu überwinden. Hier sind die Hauptvorteile von DAG-basierten Distributed Ledgern:

  • Hohe Skalierbarkeit & Durchsatz: DAG-Netzwerke können einen hohen Transaktionsdurchsatz erreichen, da sie viele Transaktionen parallel verarbeiten. Da es keinen einzelnen Kettenengpass gibt, kann die TPS (Transaktionen pro Sekunde) mit der Netzwerkaktivität skalieren. Tatsächlich haben einige DAG-Protokolle einen Durchsatz in der Größenordnung von Tausenden von TPS demonstriert. Zum Beispiel hat Hedera Hashgraph die Kapazität, über 10.000 Transaktionen pro Sekunde in der Basisschicht zu verarbeiten, was Bitcoin oder Ethereum weit übertrifft. In der Praxis hat Hedera gezeigt, dass Transaktionen in etwa 3–5 Sekunden finalisiert werden, verglichen mit den Minuten oder längeren Bestätigungszeiten auf PoW-Blockchains. Sogar DAG-basierte Smart-Contract-Plattformen wie Fantom haben unter normalen Lasten eine nahezu sofortige Finalität (~1–2 Sekunden) für Transaktionen erreicht. Diese Skalierbarkeit macht DAGs attraktiv für Anwendungen, die ein hohes Volumen erfordern, wie IoT-Mikrotransaktionen oder Echtzeit-Datenströme.
  • Niedrige Transaktionskosten (gebührenfrei oder minimale Gebühren): Viele DAG-basierte Ledger rühmen sich mit vernachlässigbaren Gebühren oder sogar gebührenfreien Transaktionen. Konstruktionsbedingt verlassen sie sich oft nicht auf Miner, die Blockbelohnungen oder Gebühren erwarten; zum Beispiel gibt es bei IOTA und Nano keine obligatorischen Transaktionsgebühren – eine entscheidende Eigenschaft für Mikrozahlungen im IoT und im täglichen Gebrauch. Wo Gebühren existieren (z. B. Hedera oder Fantom), sind sie tendenziell sehr niedrig und vorhersehbar, da das Netzwerk die Last ohne Bieterkriege um begrenzten Blockplatz bewältigen kann. Hedera-Transaktionen kosten etwa 0,0001 US-Dollar an Gebühren (ein Zehntausendstel eines Dollars), ein winziger Bruchteil der typischen Blockchain-Gebühren. Solch niedrige Kosten eröffnen Anwendungsfälle wie Hochfrequenztransaktionen oder winzige Zahlungen, die auf gebührenintensiven Ketten undurchführbar wären. Da DAGs alle gültigen Transaktionen einschließen, anstatt einige im Falle von Forks zu verwerfen, gibt es weniger „verschwendete“ Arbeit – was indirekt dazu beiträgt, die Kosten durch effiziente Ressourcennutzung niedrig zu halten.
  • Schnelle Bestätigung und geringe Latenz: In DAG-Ledgern müssen Transaktionen nicht auf die Aufnahme in einen globalen Block warten, sodass die Bestätigung schneller erfolgen kann. Viele DAG-Systeme erreichen eine schnelle Finalität – den Zeitpunkt, an dem eine Transaktion als dauerhaft bestätigt gilt. Zum Beispiel finalisiert der Konsens von Hedera Hashgraph Transaktionen typischerweise innerhalb weniger Sekunden mit 100 %iger Sicherheit (aBFT-Finalität). Nanos Netzwerk sieht Transaktionen oft in <1 Sekunde bestätigt, dank seines leichten Abstimmungsprozesses. Diese geringe Latenz verbessert die Benutzererfahrung, indem Transaktionen nahezu sofort erscheinen, was für reale Zahlungen und interaktive Anwendungen wichtig ist.
  • Energieeffizienz: DAG-basierte Netzwerke erfordern oft nicht das intensive Proof-of-Work-Mining, das viele Blockchains verwenden, was sie weitaus energieeffizienter macht. Selbst im Vergleich zu Proof-of-Stake-Blockchains verbrauchen einige DAG-Netzwerke pro Transaktion nur minimale Energie. Zum Beispiel verbraucht eine einzelne Hedera Hashgraph-Transaktion in der Größenordnung von 0,0001 kWh (Kilowattstunde) Energie. Dies ist um mehrere Größenordnungen weniger als Bitcoin (das Hunderte von kWh pro Transaktion verbrauchen kann) oder sogar viele PoS-Ketten. Die Effizienz ergibt sich aus der Eliminierung verschwenderischer Berechnungen (kein Mining-Wettlauf) und dem Nicht-Verwerfen von Transaktionsversuchen. Würden Blockchain-Netzwerke universell auf DAG-basierte Modelle umgestellt, könnten die Energieeinsparungen monumental sein. Der CO2-Fußabdruck von DAG-Netzwerken wie Hedera ist so gering, dass sein gesamtes Netzwerk bei Berücksichtigung von Offsets CO2-negativ ist. Solche Energieeffizienz ist für eine nachhaltige Web3-Infrastruktur zunehmend entscheidend.
  • Kein Mining & demokratisierte Validierung: In vielen DAG-Modellen gibt es keine ausgeprägte Miner-/Validiererrolle, die gewöhnliche Benutzer nicht ausführen könnten. Zum Beispiel hilft jeder IOTA-Benutzer, der eine Transaktion ausgibt, auch bei der Validierung zweier anderer, wodurch die Validierungsarbeit im Wesentlichen an die Ränder des Netzwerks dezentralisiert wird. Dies kann den Bedarf an leistungsstarker Mining-Hardware oder dem Staking großer Kapitalmengen zur Teilnahme am Konsens reduzieren und das Netzwerk potenziell zugänglicher machen. (Einige DAG-Netzwerke verwenden jedoch immer noch Validierer oder Koordinatoren – siehe die spätere Diskussion über Konsens und Dezentralisierung.)
  • Reibungslose Handhabung von hohem Datenverkehr: Blockchains leiden oft unter Mempool-Rückständen und Gebührenspitzen bei hoher Last (da immer nur ein Block Transaktionen gleichzeitig abwickeln kann). DAG-Netzwerke bewältigen aufgrund ihrer parallelen Natur Verkehrsspitzen im Allgemeinen eleganter. Wenn mehr Transaktionen das Netzwerk überfluten, erzeugen sie einfach mehr parallele Zweige im DAG, die das System gleichzeitig verarbeiten kann. Es gibt weniger eine harte Obergrenze für den Durchsatz (Skalierbarkeit ist eher „horizontal“). Dies führt zu einer besseren Skalierbarkeit unter Last, mit weniger Verzögerungen und nur geringfügigen Erhöhungen der Bestätigungszeiten oder Gebühren, bis zur Kapazität des Netzwerks und der Verarbeitungsleistung der Knoten. Im Wesentlichen kann ein DAG Transaktionsspitzen absorbieren, ohne so schnell zu verstopfen, was ihn für Anwendungsfälle geeignet macht, die Aktivitätsspitzen beinhalten (z. B. IoT-Geräte, die alle gleichzeitig Daten senden, oder ein virales DApp-Ereignis).

Zusammenfassend versprechen DAG-basierte Ledger schnellere, günstigere und skalierbarere Transaktionen als der klassische Blockchain-Ansatz. Sie zielen darauf ab, Massenadaptionsszenarien (Mikrozahlungen, IoT, Hochfrequenzhandel usw.) zu unterstützen, mit denen aktuelle Mainstream-Blockchains aufgrund von Durchsatz- und Kostenbeschränkungen zu kämpfen haben. Diese Vorteile gehen jedoch mit bestimmten Kompromissen und Implementierungsherausforderungen einher, die wir in späteren Abschnitten behandeln werden.

Konsensmechanismen in DAG-basierten Plattformen

Da DAG-Ledger von Natur aus keine einzelne Kette von Blöcken produzieren, erfordern sie innovative Konsensmechanismen, um Transaktionen zu validieren und sicherzustellen, dass sich alle auf den Ledger-Zustand einigen. Verschiedene Projekte haben unterschiedliche Lösungen entwickelt, die auf ihre DAG-Architektur zugeschnitten sind. Hier skizzieren wir einige bemerkenswerte Konsensansätze, die von DAG-basierten Plattformen verwendet werden:

  • IOTA’s Tangle – Tip Selection und gewichtetes Voting: IOTA’s Tangle ist ein DAG von Transaktionen, der für das Internet der Dinge (IoT) entwickelt wurde. Im ursprünglichen IOTA-Modell gibt es keine Miner; stattdessen muss jede neue Transaktion einen kleinen Proof of Work durchführen und zwei vorherige Transaktionen genehmigen (dies sind die „Spitzen“ des Graphen). Diese Tip Selection erfolgt oft über einen Markov Chain Monte Carlo (MCMC)-Algorithmus, der probabilistisch auswählt, welche Spitzen genehmigt werden sollen, wobei der schwerste Subtangle bevorzugt wird, um Fragmentierung zu verhindern. Der Konsens im frühen IOTA wurde teilweise durch dieses kumulative Gewicht der Genehmigungen erreicht – je mehr zukünftige Transaktionen Ihre indirekt genehmigen, desto „bestätigter“ wird sie. Um das Netzwerk in seinen Anfängen zu sichern, verließ sich IOTA jedoch auf einen temporären zentralisierten Koordinator-Knoten, der periodische Meilenstein-Transaktionen ausgab, um das Tangle zu finalisieren. Dies war ein großer Kritikpunkt (Zentralisierung) und wird im Upgrade namens „Coordicide“ (IOTA 2.0) entfernt. In IOTA 2.0 wendet ein neues Konsensmodell einen führerlosen Konsens im Nakamoto-Stil auf einem DAG an. Im Wesentlichen führen Knoten On-Tangle-Voting durch: Wenn ein Knoten einen neuen Block anhängt, stimmt dieser Block implizit über die Gültigkeit der von ihm referenzierten Transaktionen ab. Ein Komitee von Validiererknoten (ausgewählt über einen Staking-Mechanismus) gibt Validierungsblöcke als Stimmen ab, und eine Transaktion wird bestätigt, wenn sie genügend gewichtete Genehmigungen (ein Konzept namens Approval Weight) ansammelt. Dieser Ansatz kombiniert die Idee des schwersten DAG (ähnlich der längsten Kette) mit expliziter Abstimmung, um Konsens ohne Koordinator zu erreichen. Kurz gesagt, IOTAs Konsens entwickelte sich von Tip Selection + Koordinator zu einem vollständig dezentralisierten Abstimmen über DAG-Zweige durch Knoten, um Sicherheit und schnelle Einigung über den Ledger-Zustand zu erreichen.
  • Hedera Hashgraph – Gossip und virtuelles Voting (aBFT): Hedera Hashgraph verwendet einen DAG von Ereignissen in Verbindung mit einem asynchronen Byzantine Fault-Toleranten (aBFT) Konsensalgorithmus. Die Kernidee ist „Gossip über Gossip“: Jeder Knoten verbreitet schnell signierte Informationen über Transaktionen und über seine Gossip-Historie an andere Knoten. Dies erzeugt einen Hashgraph (den DAG von Ereignissen), in dem jeder Knoten schließlich weiß, was jeder andere Knoten verbreitet hat, einschließlich der Struktur, wer was wann gehört hat. Mit diesem DAG von Ereignissen implementiert Hedera virtuelles Voting. Anstatt tatsächliche Abstimmungsnachrichten zur Anordnung von Transaktionen zu senden, simulieren Knoten einen Abstimmungsalgorithmus lokal, indem sie den Graphen der Gossip-Verbindungen analysieren. Leemon Bairds Hashgraph-Algorithmus kann deterministisch berechnen, wie eine theoretische Abstimmungsrunde zur Transaktionsreihenfolge verlaufen würde, indem er die im DAG aufgezeichnete „Gossip-Netzwerk“-Historie betrachtet. Dies liefert einen Konsens-Zeitstempel und eine Gesamtreihenfolge von Transaktionen, die fair und final ist (Transaktionen werden nach der mittleren Zeit geordnet, zu der sie vom Netzwerk empfangen wurden). Der Konsens von Hashgraph ist führerlos und erreicht aBFT, was bedeutet, dass er bis zu 1/3 bösartiger Knoten tolerieren kann, ohne den Konsens zu gefährden. In der Praxis wird das Hedera-Netzwerk von einem Satz von 39 bekannten, von Organisationen betriebenen Knoten (dem Hedera Council) regiert, ist also permissioniert, aber geografisch verteilt. Der Vorteil ist ein extrem schneller und sicherer Konsens: Hedera kann Finalität in Sekunden mit garantierter Konsistenz erreichen. Der Hashgraph-Konsensmechanismus ist patentiert, wurde aber ab 2024 quelloffen gemacht und zeigt, wie DAG + innovativer Konsens (Gossip & virtuelles Voting) ein traditionelles Blockchain-Protokoll ersetzen kann.
  • Fantom’s Lachesis – Führerloses PoS aBFT: Fantom ist eine Smart-Contract-Plattform, die einen DAG-basierten Konsens namens Lachesis verwendet. Lachesis ist ein aBFT Proof-of-Stake-Protokoll, das von Hashgraph inspiriert ist. In Fantom setzt jeder Validiererknoten empfangene Transaktionen zu einem Ereignisblock zusammen und fügt ihn seinem eigenen lokalen DAG von Ereignissen hinzu. Diese Ereignisblöcke enthalten Transaktionen und Referenzen zu früheren Ereignissen. Validierer verbreiten diese Ereignisblöcke asynchron aneinander – es gibt keine einzelne Sequenz, in der Blöcke produziert oder vereinbart werden müssen. Während sich Ereignisblöcke verbreiten, identifizieren die Validierer periodisch bestimmte Ereignisse als Meilensteine (oder „Root-Ereignisblöcke“), sobald eine Supermehrheit der Knoten sie gesehen hat. Lachesis ordnet dann diese finalisierten Ereignisse und committet sie zu einer finalen Opera Chain (einer traditionellen Blockchain-Datenstruktur), die als Ledger der bestätigten Blöcke fungiert. Im Wesentlichen ermöglicht der DAG von Ereignisblöcken Fantom, Konsens asynchron und sehr schnell zu erreichen, dann ist das Endergebnis eine lineare Kette für die Kompatibilität. Dies führt zu einer Finalität von etwa 1–2 Sekunden für Transaktionen auf Fantom. Lachesis hat keine Miner oder Leader, die Blöcke vorschlagen; alle Validierer tragen Ereignisblöcke bei, und das Protokoll ordnet sie deterministisch. Der Konsens wird durch ein Proof-of-Stake-Modell gesichert (Validierer müssen FTM-Token staken und werden nach Stake gewichtet). Lachesis ist auch aBFT und toleriert bis zu 1/3 fehlerhafte Knoten. Durch die Kombination von DAG-Parallelität mit einer finalen Kettenausgabe erreicht Fantom einen hohen Durchsatz (mehrere Tausend TPS in Tests), während es für Smart Contracts EVM-kompatibel bleibt. Es ist ein gutes Beispiel dafür, wie ein DAG intern zur Leistungssteigerung eingesetzt werden kann, ohne die Komplexität eines DAG auf die Anwendungsebene zu übertragen (Entwickler sehen am Ende immer noch eine normale Kette von Transaktionen).
  • Nano’s Open Representative Voting (ORV): Nano ist eine Zahlung-Kryptowährung, die eine einzigartige DAG-Struktur namens Block-Lattice verwendet. In Nano hat jedes Konto seine eigene Blockchain (Account-Chain), die nur der Kontoinhaber aktualisieren kann. All diese einzelnen Ketten bilden einen DAG, da Transaktionen von verschiedenen Konten asynchron verknüpft sind (ein Senden in einer Account-Chain referenziert einen Empfang in einer anderen usw.). Der Konsens in Nano wird über einen Mechanismus namens Open Representative Voting (ORV) erreicht. Benutzer benennen einen Repräsentantenknoten für ihr Konto (dies ist eine Gewichtsdelegation, keine Sperrung von Geldern), und diese Repräsentanten stimmen über die Gültigkeit von Transaktionen ab. Jede Transaktion wird einzeln abgewickelt (es gibt keine Blöcke, die mehrere Transaktionen bündeln) und gilt als bestätigt, wenn eine Supermehrheit (z. B. >67 %) des Stimmgewichts (von Repräsentanten) ihr zustimmt. Da ehrliche Kontoinhaber ihre eigenen Gelder nicht doppelt ausgeben werden, sind Forks selten und werden normalerweise nur durch böswillige Versuche verursacht, die Repräsentanten schnell ablehnen können. Finalität wird typischerweise in weniger als einer Sekunde für jede Transaktion erreicht. ORV ähnelt Proof-of-Stake, da das Stimmgewicht auf Kontoständen (Stake) basiert, aber es gibt keine Staking-Belohnung oder Gebühr – Repräsentanten sind freiwillige Knoten. Das Fehlen von Mining und Blockproduktion bedeutet, dass Nano gebührenfrei und effizient arbeiten kann. Es ist jedoch auf eine Reihe vertrauenswürdiger Repräsentanten angewiesen, die online sind, um abzustimmen, und es gibt eine implizite Zentralisierung, bei der Knoten ein großes Stimmgewicht ansammeln (obwohl Benutzer Repräsentanten jederzeit wechseln können, wodurch die Dezentralisierungskontrolle in den Händen der Benutzer bleibt). Nanos Konsens ist leichtgewichtig und auf Geschwindigkeit und Energieeffizienz optimiert, was mit seinem Ziel übereinstimmt, ein schnelles, gebührenfreies digitales Bargeld zu sein.
  • Weitere bemerkenswerte Ansätze: Es existieren mehrere andere DAG-basierte Konsensprotokolle. Hedera Hashgraph und Fantom Lachesis haben wir behandelt; darüber hinaus:
    • Avalanche Consensus (Avalanche/X-Chain): Avalanche verwendet einen DAG-basierten Konsens, bei dem Validierer sich in einem randomisierten Prozess wiederholt gegenseitig abfragen, um zu entscheiden, welche Transaktionen oder Blöcke bevorzugt werden sollen. Die Avalanche X-Chain (Exchange Chain) ist ein DAG von Transaktionen (UTXOs) und erreicht Konsens über diese Netzwerkerfassungsmethode. Das Avalanche-Protokoll ist probabilistisch, aber extrem schnell und skalierbar – es kann Transaktionen in ~1 Sekunde finalisieren und Berichten zufolge bis zu 4.500 TPS pro Subnetz verarbeiten. Der Ansatz von Avalanche ist einzigartig in der Kombination von DAG-Datenstrukturen mit einem metastabilen Konsens (Snowball-Protokoll) und wird durch Proof-of-Stake gesichert (jeder kann mit ausreichendem Stake ein Validierer sein).
    • Conflux Tree-Graph: Conflux ist eine Plattform, die Bitcoins PoW zu einem DAG von Blöcken erweitert hat. Sie verwendet eine Tree-Graph-Struktur, bei der Blöcke nicht nur einen Elternteil, sondern alle bekannten vorherigen Blöcke referenzieren (kein Verwaisten). Dies ermöglicht Conflux, Proof-of-Work-Mining zu verwenden, aber alle Forks als Teil des Ledgers zu behalten, was zu einem viel höheren Durchsatz als eine typische Kette führt. Conflux kann somit theoretisch in der Größenordnung von 3–6k TPS erreichen, indem es PoW verwendet und Miner kontinuierlich Blöcke produzieren lässt, ohne auf eine einzelne Kette zu warten. Sein Konsens ordnet dann diese Blöcke und löst Konflikte nach einer Regel des schwersten Unterbaums. Dies ist ein Beispiel für einen hybriden PoW-DAG.
    • Hashgraph-Varianten und akademische Protokolle: Es gibt zahlreiche akademische DAG-Protokolle (einige in neueren Projekten implementiert): SPECTRE und PHANTOM (Block-DAG-Protokolle, die auf hohen Durchsatz und schnelle Bestätigung abzielen, von DAGlabs), Aleph Zero (ein DAG-aBFT-Konsens, der in der Aleph Zero Blockchain verwendet wird), Parallel Chains / Prism (Forschungsprojekte, die die Transaktionsbestätigung in parallele Subketten und DAGs aufteilen) und neuere Entwicklungen wie Sui’s Narwhal & Bullshark, die einen DAG-Mempool für hohen Durchsatz und einen separaten Konsens für die Finalität verwenden. Obwohl nicht alle davon großflächige Implementierungen haben, deuten sie auf ein reiches Forschungsfeld hin. Viele dieser Protokolle unterscheiden zwischen Verfügbarkeit (schnelles Schreiben vieler Daten in einen DAG) und Konsistenz (Einigung auf eine Historie) und versuchen, das Beste aus beiden zu erzielen.

Jede DAG-Plattform passt ihren Konsens an ihre Bedürfnisse an – sei es gebührenfreie Mikrotransaktionen, Smart-Contract-Ausführung oder Interoperabilität. Ein gemeinsames Thema ist jedoch die Vermeidung eines einzelnen seriellen Engpasses: DAG-Konsensmechanismen streben danach, viel gleichzeitige Aktivität zu ermöglichen und dann clevere Algorithmen (Gossip, Voting, Sampling usw.) zu verwenden, um die Dinge zu klären, anstatt das Netzwerk auf einen einzelnen Blockproduzenten gleichzeitig zu beschränken.

Fallstudien: Beispiele für DAG-basierte Blockchain-Projekte

Mehrere Projekte haben DAG-basierte Ledger implementiert, jedes mit einzigartigen Designentscheidungen und Zielanwendungsfällen. Im Folgenden untersuchen wir einige prominente DAG-basierte Plattformen:

  • IOTA (The Tangle): IOTA ist eine der ersten DAG-basierten Kryptowährungen, die für das Internet der Dinge entwickelt wurde. Ihr Ledger, das Tangle genannt, ist ein DAG von Transaktionen, bei dem jede neue Transaktion zwei vorherige bestätigt. IOTAs Ziel ist es, gebührenfreie Mikrotransaktionen zwischen IoT-Geräten zu ermöglichen (Zahlung kleiner Beträge für Daten oder Dienste). Es wurde 2016 gestartet, und um die Sicherheit zu gewährleisten, verwendete es einen Koordinator-Knoten (betrieben von der IOTA Foundation), um Angriffe auf das frühe Netzwerk zu verhindern. IOTA arbeitet an „Coordicide“, um das Netzwerk vollständig zu dezentralisieren, indem ein Abstimmungskonsens (wie zuvor beschrieben) eingeführt wird, bei dem Knoten über widersprüchliche Transaktionen unter Verwendung eines führerlosen Nakamoto-Konsenses auf dem schwersten DAG abstimmen. In Bezug auf die Leistung kann IOTA theoretisch einen sehr hohen Durchsatz erreichen (das Protokoll legt keine harte TPS-Grenze fest; mehr Aktivität hilft tatsächlich, Transaktionen schneller zu bestätigen). In der Praxis haben Testnetze Hunderte von TPS demonstriert, und das kommende IOTA 2.0 wird voraussichtlich gut für die IoT-Nachfrage skalieren. Anwendungsfälle für IOTA drehen sich um IoT und Datenintegrität: z. B. Sensor-Datenstreaming mit Integritätsnachweisen, Fahrzeug-zu-Fahrzeug-Zahlungen, Lieferkettenverfolgung und sogar dezentrale Identität (das IOTA Identity Framework ermöglicht die Ausgabe und Verifizierung digitaler Anmeldeinformationen/DIDs im Tangle). IOTA unterstützt nativ keine Smart Contracts auf seiner Basisschicht, aber das Projekt hat ein paralleles Smart-Contract-Framework und Token auf einer sekundären Schicht eingeführt, um komplexere DApp-Funktionalität zu ermöglichen. Ein bemerkenswertes Merkmal von IOTA sind seine Nullgebühren, die dadurch ermöglicht werden, dass der Absender einen kleinen PoW durchführen muss, anstatt eine Gebühr zu erheben – dies macht es attraktiv für Transaktionen mit hohem Volumen und geringem Wert (z. B. ein Sensor, der alle paar Sekunden Daten zu vernachlässigbaren Kosten sendet).
  • Hedera Hashgraph (HBAR): Hedera ist ein öffentliches Distributed Ledger, das den Hashgraph-Konsensalgorithmus (erfunden von Dr. Leemon Baird) verwendet. Hedera startete 2018 und wird von einem Rat großer Organisationen (Google, IBM, Boeing und andere) regiert, die die anfängliche Reihe von Knoten betreiben. Im Gegensatz zu den meisten anderen ist Hedera in der Governance permissioniert (nur genehmigte Ratsmitglieder betreiben derzeit Konsensknoten, bis zu 39 Knoten), obwohl jeder das Netzwerk nutzen kann. Sein Hashgraph-DAG ermöglicht sehr hohen Durchsatz und schnelle Finalität – Hedera kann unter optimalen Bedingungen über 10.000 TPS mit Finalität in 3-5 Sekunden verarbeiten. Dies wird mit dem zuvor beschriebenen aBFT-Gossip-basierten Konsens erreicht. Hedera betont Unternehmens- und Web3-Anwendungsfälle, die Zuverlässigkeit in großem Maßstab erfordern: Sein Netzwerk bietet Dienste für Tokenisierung (Hedera Token Service), einen Konsensdienst für manipulationssichere Ereignisprotokollierung und einen Smart-Contract-Dienst (der EVM-kompatibel ist). Bemerkenswerte Anwendungen auf Hedera umfassen die Herkunftssicherung in Lieferketten (z. B. Avery Dennison’s Bekleidungsverfolgung), Hochvolumen-NFT-Minting (niedrige Gebühren machen das Minting von NFTs kostengünstig), Zahlungen und Mikrozahlungen (wie Ad-Tech-Mikrozahlungen) und sogar dezentrale Identitätslösungen. Hedera hat eine DID-Methode beim W3C registriert und Frameworks wie Hedera Guardian zur Unterstützung überprüfbarer Anmeldeinformationen und zur Einhaltung gesetzlicher Vorschriften (z. B. Verfolgung von CO2-Gutschriften). Ein Hauptmerkmal ist Hederas starke Leistung in Kombination mit der behaupteten Stabilität (der Hashgraph-Algorithmus garantiert keine Forks und mathematisch bewiesene Fairness bei der Reihenfolge). Der Kompromiss besteht darin, dass Hedera weniger dezentral in der Knotenanzahl ist als offene Netzwerke (konstruktionsbedingt, mit seinem Governance-Modell), obwohl die Ratsknoten global verteilt sind und der Plan darin besteht, die Offenheit langfristig zu erhöhen. Zusammenfassend ist Hedera Hashgraph ein Paradebeispiel für ein DAG-basiertes DLT, das auf Unternehmensanwendungen abzielt, mit Schwerpunkt auf hohem Durchsatz, Sicherheit und Governance.
  • Fantom (FTM): Fantom ist eine Smart-Contract-Plattform (Layer-1-Blockchain), die einen DAG-basierten Konsens namens Lachesis verwendet. Fantom wurde 2019 gestartet und gewann insbesondere im DeFi-Boom von 2021-2022 als Ethereum-kompatible Kette mit viel höherer Leistung an Popularität. Fantoms Opera-Netzwerk betreibt den Lachesis-aBFT-Konsens (oben detailliert beschrieben), bei dem Validierer einen lokalen DAG von Ereignisblöcken führen und asynchron Konsens erzielen, um dann Transaktionen in einer Hauptkette zu finalisieren. Dies verleiht Fantom eine typische Time-to-Finality von ~1 Sekunde für Transaktionen und die Fähigkeit, Tausende von Transaktionen pro Sekunde im Durchsatz zu verarbeiten. Fantom ist EVM-kompatibel, was bedeutet, dass Entwickler Solidity-Smart Contracts bereitstellen und dieselben Tools wie Ethereum verwenden können, was seine Akzeptanz in DeFi erheblich förderte. Tatsächlich wurde Fantom zur Heimat zahlreicher DeFi-Projekte (DEXs, Kreditprotokolle, Yield Farms), die von seiner Geschwindigkeit und niedrigen Gebühren angezogen wurden. Es hostet auch NFT-Projekte und Gaming-DApps – im Wesentlichen jede Web3-Anwendung, die von schnellen, günstigen Transaktionen profitiert. Ein bemerkenswerter Punkt ist, dass Fantom für eine DAG-Plattform einen hohen Grad an Dezentralisierung erreicht hat: Es verfügt über Dutzende unabhängiger Validierer, die das Netzwerk sichern (permissionless, jeder kann einen Validierer mit dem Mindest-Stake betreiben), im Gegensatz zu einigen DAG-Netzwerken, die Validierer einschränken. Dies positioniert Fantom als glaubwürdige Alternative zu traditionelleren Blockchains für dezentrale Anwendungen, wobei die DAG-Technologie unter der Haube genutzt wird, um den Leistungsengpass zu überwinden. Der FTM-Token des Netzwerks wird für Staking, Governance und Gebühren verwendet (die nur wenige Cent pro Transaktion betragen, viel niedriger als Ethereum-Gasgebühren). Fantom demonstrierte, dass DAG-basierter Konsens mit Smart-Contract-Plattformen integriert werden kann, um sowohl Geschwindigkeit als auch Kompatibilität zu erreichen.
  • Nano (XNO): Nano ist eine leichte Kryptowährung, die 2015 (ursprünglich als RaiBlocks) eingeführt wurde und eine DAG-Block-Lattice-Struktur verwendet. Nanos Hauptaugenmerk liegt auf Peer-to-Peer-Digitalgeld: sofortige, gebührenfreie Transaktionen mit minimalem Ressourcenverbrauch. In Nano hat jedes Konto seine eigene Transaktionskette, und Übertragungen zwischen Konten werden über einen Sendeblock in der Kette des Senders und einen Empfangsblock in der Kette des Empfängers abgewickelt. Dieses asynchrone Design bedeutet, dass das Netzwerk Transaktionen unabhängig und parallel verarbeiten kann. Der Konsens wird durch Open Representative Voting (ORV) erreicht, bei dem die Community Repräsentantenknoten durch Delegation des Bilanzgewichts ernennt. Repräsentanten stimmen über widersprüchliche Transaktionen ab (die selten sind, normalerweise nur bei Double-Spend-Versuchen), und sobald ein Quorum (67 % Gewicht) zustimmt, wird die Transaktion zementiert (unumkehrbar bestätigt). Nanos typische Bestätigungszeiten liegen weit unter einer Sekunde, wodurch es sich im täglichen Gebrauch sofort anfühlt. Da es keine Mining-Belohnungen oder Gebühren gibt, ist der Betrieb eines Nano-Knotens oder Repräsentanten eine freiwillige Anstrengung, aber das Design des Netzwerks minimiert die Last (jede Transaktion ist nur 200 Byte groß und kann schnell verarbeitet werden). Nanos DAG-Ansatz und Konsens ermöglichen es, extrem energieeffizient zu sein – es wird ein winziger PoW von den Sendern durchgeführt (hauptsächlich als Anti-Spam-Maßnahme), aber er ist trivial im Vergleich zu PoW-Blockchains. Die Anwendungsfälle für Nano sind konstruktionsbedingt einfach: Es ist für Währungstransfers gedacht, von alltäglichen Einkäufen bis hin zu Überweisungen, bei denen Geschwindigkeit und Nullgebühren die Verkaufsargumente sind. Nano unterstützt keine Smart Contracts oder komplexe Skripte; es konzentriert sich darauf, eine Sache sehr gut zu machen. Eine Herausforderung für Nanos Modell ist, dass es auf der ehrlichen Mehrheit der Repräsentanten beruht; da es keine monetären Anreize gibt, basiert das Sicherheitsmodell auf der Annahme, dass große Token-Inhaber im besten Interesse des Netzwerks handeln werden. Bisher hat Nano einen ziemlich dezentralen Satz von Hauptrepräsentanten beibehalten und wurde bei Händlerzahlungen, Trinkgeldern und anderen Mikrozahlungsszenarien online eingesetzt.
  • Hedera vs. IOTA vs. Fantom vs. Nano (Auf einen Blick): Die folgende Tabelle fasst einige Hauptmerkmale dieser DAG-basierten Projekte zusammen:
Projekt (Jahr)Datenstruktur & KonsensLeistung (Durchsatz & Finalität)Bemerkenswerte Funktionen / Anwendungsfälle
IOTA (2016)DAG von Transaktionen („Tangle“); jede Transaktion genehmigt 2 andere. Ursprünglich koordinatorgesichert; Umstellung auf dezentralen führerlosen Konsens (Abstimmung über schwersten DAG, keine Miner).Theoretisch hoher TPS (skaliert mit Aktivität); ~10s Bestätigung in aktivem Netzwerk (schneller bei zunehmender Last). Laufende Forschung zur Verbesserung der Finalität. Gebührenfreie Transaktionen.IoT-Mikrozahlungen und Datenintegrität (gebührenfreie Mikrotransaktionen), Lieferkette, Sensordaten, Auto, dezentrale Identität (IOTA Identity DID-Methode). Keine Smart Contracts auf Basisschicht (separate Schichten dafür).
Hedera Hashgraph (2018)DAG von Ereignissen (Hashgraph); Gossip-über-Gossip + virtuelles Voting Konsens (aBFT), betrieben von ~29–39 Ratsknoten (PoS gewichtet). Keine Miner; Zeitstempel zur Anordnung.~10.000 TPS max; Finalität 3-5 Sekunden für Transaktionen. Extrem niedriger Energieverbrauch pro Transaktion (~0,0001 kWh). Sehr niedrige feste Gebühren (~0,0001 US-Dollar pro Übertragung).Unternehmens- und Web3-Anwendungen: Tokenisierung (HTS), NFTs und Content-Dienste, Zahlungen, Lieferkettenverfolgung, Gesundheitsdaten, Gaming usw. Rats-Governance durch große Unternehmen; Netzwerk ist EVM-kompatibel für Smart Contracts (Solidity). Fokus auf hohen Durchsatz und Sicherheit für Unternehmen.
Fantom (FTM) (2019)DAG von Validierer-Ereignisblöcken; Lachesis aBFT PoS-Konsens (führerlos). Jeder Validierer erstellt DAG von Ereignissen, die bestätigt und zu einer finalen Blockchain (Opera Chain) zusammengefügt werden.Empirisch einige Hundert TPS im DeFi-Einsatz; typisch 1-2 Sekunden Finalität. In Benchmarks Tausende von TPS möglich. Niedrige Gebühren (Bruchteile eines Cents).DeFi und Smart Contracts auf einer Hochgeschwindigkeits-L1. EVM-kompatibel (führt Solidity DApps aus). Unterstützt DEXs, Lending, NFT-Marktplätze (schneller Handel, günstiges Minting). DAG-Konsens hinter einer entwicklerfreundlichen Blockchain-Oberfläche verborgen. Staking für jedermann verfügbar (dezentraler Validierer-Satz).
Nano (XNO) (2015)DAG von Account-Chains (Block-Lattice); jede Transaktion ist ein eigener Block. Open Representative Voting für Konsens (dPoS-ähnliches Voting bei Konflikten). Kein Mining, keine Gebühren.~Hunderte von TPS machbar (hauptsächlich durch Netzwerk-I/O begrenzt). <1s Bestätigung für typische Transaktionen. Keine Gebühren überhaupt (gebührenfrei). Extrem geringer Ressourcenverbrauch (effizient für IoT/Mobil).Digitales Geld für Sofortzahlungen. Ideal für Mikrozahlungen, Trinkgelder, Einzelhandelstransaktionen, wo Gebühren und Latenz minimal sein müssen. Nicht für Smart Contracts konzipiert – konzentriert sich auf einfache Übertragungen. Sehr geringer Stromverbrauch (grüne Kryptowährung). Von der Community betriebene Repräsentanten (keine zentrale Autorität).

(Tabelle: Vergleich ausgewählter DAG-basierter Ledger-Projekte und ihrer Merkmale. TPS = Transaktionen pro Sekunde.)

Andere DAG-basierte Projekte, die oben nicht detailliert wurden, umfassen Obyte (Byteball) – ein DAG-Ledger für bedingte Zahlungen und Datenspeicherung, IoT Chain (ITC) – ein IoT-fokussiertes DAG-Projekt, Avalanche – das wir als DAG-Nutzung in seinem Konsens besprochen haben und zu einer wichtigen DeFi-Plattform geworden ist, Conflux – ein Hochdurchsatz-PoW-DAG in China, und akademische Prototypen wie SPECTRE/PHANTOM. Jedes erforscht den Designraum von DAG-Ledgern auf unterschiedliche Weise, aber die vier oben genannten Beispiele (IOTA, Hedera, Fantom, Nano) veranschaulichen die Vielfalt: von gebührenfreien IoT-Transaktionen über Unternehmensnetzwerke bis hin zu DeFi-Smart-Contract-Ketten, die alle DAG-Strukturen nutzen.

Anwendungsfälle der DAG-Technologie im Web3-Ökosystem

DAG-basierte Blockchain-Systeme erschließen bestimmte Anwendungsfälle besonders gut, dank ihrer hohen Leistung und einzigartigen Eigenschaften. Hier sind einige aktuelle und potenzielle Anwendungsfälle, in denen DAGs im Web3 Wirkung zeigen:

  • Internet der Dinge (IoT): IoT umfasst Millionen von Geräten, die Daten übertragen und potenziell miteinander Transaktionen durchführen (Maschine-zu-Maschine-Zahlungen). DAG-Ledger wie IOTA wurden explizit für dieses Szenario entwickelt. Mit gebührenfreien Mikrotransaktionen und der Fähigkeit, hohe Frequenzen kleiner Zahlungen zu verarbeiten, kann ein DAG-Ledger IoT-Geräten ermöglichen, Dienste oder Bandbreite spontan zu bezahlen. Zum Beispiel könnte ein intelligentes Elektroauto automatisch eine Ladestation ein paar Cent Strom bezahlen, oder Sensoren könnten Daten in Echtzeit an eine Plattform verkaufen. IOTAs Tangle wurde in Smart-City-Pilotprojekten, IoT-Integrationen in Lieferketten (Verfolgung von Gütern und Umweltbedingungen) und dezentralen Datenmarktplätzen eingesetzt, wo Sensordaten unveränderlich protokolliert und gehandelt werden. Die Skalierbarkeit von DAGs bewältigt das enorme Volumen, das weit verbreitete IoT-Netzwerke erzeugen, und ihre geringen Kosten passen zur Ökonomie von Mikrozahlungen.
  • Dezentrale Finanzen (DeFi): DeFi-Anwendungen wie dezentrale Börsen (DEXs), Kreditplattformen und Zahlungsnetzwerke profitieren von hohem Durchsatz und geringer Latenz. DAG-basierte Smart-Contract-Plattformen (z. B. Fantom und in gewissem Maße Avalanches X-Chain für einfache Vermögensübertragungen) bieten den Vorteil, dass Trades schneller abgewickelt werden können und die Gebühren auch bei hoher Nachfrage niedrig bleiben. Im Jahr 2021 erlebte Fantom einen Anstieg der DeFi-Aktivitäten (Yield Farming, Automated Market Maker usw.) und konnte diese mit viel geringerer Überlastung als Ethereum zu dieser Zeit bewältigen. Darüber hinaus reduziert die schnelle Finalität von DAG-Netzwerken das Risiko von Unsicherheiten bei der Handelsausführung (auf langsamen Ketten warten Benutzer viele Blöcke auf Finalität, was bei schnelllebigen Handelsgeschäften Risiken bergen kann). Ein weiterer Aspekt sind dezentrale Zahlungsnetzwerke – Nano zum Beispiel kann als Teil des DeFi-Spektrums angesehen werden, das Peer-to-Peer-Übertragungen ermöglicht und potenziell eine Mikrozahlungsschiene für Layer-2 anderer Systeme sein kann. Die Leistung von DAG könnte auch den Hochfrequenzhandel oder komplexe mehrstufige DeFi-Transaktionen reibungsloser unterstützen.
  • Non-Fungible Tokens (NFTs) und Gaming: Der NFT-Boom hat den Bedarf an kostengünstigem Minting und Übertragungen deutlich gemacht. Auf Ethereum wurde das Minting von NFTs teuer, als die Gasgebühren in die Höhe schnellten. DAG-Netzwerke wie Hedera und Fantom wurden als Alternativen vorgeschlagen, bei denen das Minting eines NFT einen winzigen Bruchteil eines Cents kostet, was sie für In-Game-Assets, Sammlerstücke oder groß angelegte Drops praktikabel macht. Hederas Token Service ermöglicht die native Ausgabe von Token und NFTs mit den niedrigen, vorhersehbaren Gebühren des Netzwerks und wurde von Content-Plattformen und sogar Unternehmen (z. B. Musikkünstlern, die Token ausgeben, oder Universitäten, die Abschlüsse verfolgen) verwendet. Im Gaming, wo Mikrotransaktionen üblich sind, könnte ein schnelles DAG-Ledger häufige Asset-Trades oder Belohnungsverteilungen abwickeln, ohne das Spiel zu verlangsamen oder Spieler durch Gebühren zu ruinieren. Der hohe Durchsatz stellt sicher, dass selbst wenn ein beliebtes Spiel oder eine NFT-Sammlung Millionen von Benutzern anzieht, das Netzwerk die Last bewältigen kann (während wir in der Vergangenheit gesehen haben, wie Spiele auf Ethereum das Netzwerk verstopften). Zum Beispiel kann ein NFT-basiertes Spiel auf Fantom den Zustand schnell genug aktualisieren, um eine nahezu Echtzeit-Reaktionsfähigkeit zu bieten.
  • Dezentrale Identität (DID) und Anmeldeinformationen: Identitätssysteme profitieren von einem unveränderlichen Ledger, um Identitäten, Anmeldeinformationen und Bestätigungen zu verankern. DAG-Netzwerke werden dafür erforscht, weil sie Skalierbarkeit für potenziell Milliarden von Identitätstransaktionen (jeder Login, jede Zertifikatsausstellung usw.) und geringe Kosten bieten, was entscheidend ist, wenn beispielsweise die ID-Interaktionen jedes Bürgers aufgezeichnet würden. IOTA Identity ist ein Beispiel: Es bietet eine DID-Methode did:iota, bei der Identitätsdokumente im Tangle referenziert werden. Dies kann für selbstsouveräne Identität verwendet werden: Benutzer kontrollieren ihre Identitätsdokumente, und Verifizierer können Nachweise aus dem DAG abrufen. Hedera ist auch im DID-Bereich aktiv – es hat eine DID-Spezifikation und wurde in Projekten wie der Sicherung manipulationssicherer Protokolle von Hochschulabschlüssen, COVID-Impfzertifikaten oder Lieferketten-Compliance-Dokumenten (über den Hedera Consensus Service als ID-Ankerdienst) eingesetzt. Die Vorteile von DAGs hier sind, dass das Schreiben von Daten günstig und schnell ist, sodass das Aktualisieren eines Identitätszustands (wie das Rotieren von Schlüsseln, das Hinzufügen einer Anmeldeinformation) nicht den Kosten- oder Verzögerungshürden einer ausgelasteten Blockchain gegenübersteht. Darüber hinaus können die Finalitäts- und Ordnungsgarantien für Audits wichtig sein (Hashgraph bietet zum Beispiel eine vertrauenswürdige Zeitstempelreihenfolge von Ereignissen, die bei der Compliance-Protokollierung nützlich ist).
  • Lieferkette und Datenintegrität: Über die Identität hinaus kann jeder Anwendungsfall, der die Protokollierung eines hohen Volumens von Dateneinträgen beinhaltet, DAG-DLTs nutzen. Die Lieferkettenverfolgung ist ein bemerkenswerter Fall – Produkte, die sich durch eine Lieferkette bewegen, erzeugen viele Ereignisse (hergestellt, versandt, geprüft usw.). Projekte haben Hedera und IOTA verwendet, um diese Ereignisse in einem DAG-Ledger für Unveränderlichkeit und Transparenz zu protokollieren. Der hohe Durchsatz stellt sicher, dass das Ledger auch dann kein Engpass wird, wenn jeder Artikel in einem großen Liefernetzwerk gescannt und aufgezeichnet wird. Darüber hinaus bedeuten die niedrigen oder null Gebühren, dass Sie selbst geringwertige Ereignisse On-Chain aufzeichnen können, ohne hohe Kosten zu verursachen. Ein weiteres Beispiel ist die IoT-Datenintegrität: Energienetze oder Telekommunikationsunternehmen könnten Gerätemesswerte in einem DAG-Ledger protokollieren, um später zu beweisen, dass Daten nicht manipuliert wurden. Das DAG von Constellation Network (ein weiteres DAG-Projekt) konzentriert sich auf die Big-Data-Validierung für Unternehmen und Regierungen (wie die Integrität von US Air Force Drohnendaten) – was hervorhebt, wie ein skalierbarer DAG große Datenströme auf vertrauenswürdige Weise verarbeiten kann.
  • Zahlungen und Überweisungen: Schnelle und gebührenfreie Transaktionen machen DAG-Kryptowährungen wie Nano und IOTA gut geeignet für Zahlungsanwendungen. Nano wurde in Szenarien wie Online-Trinkgeldern (wo ein Benutzer sofort ein paar Cent an einen Content Creator senden kann) und internationalen Überweisungen (wo Geschwindigkeit und Nullgebühren einen großen Unterschied machen im Vergleich zum stundenlangen Warten und Zahlen von prozentualen Gebühren) angenommen. DAG-Netzwerke können als Hochgeschwindigkeits-Zahlungsschienen für die Integration in Point-of-Sale-Systeme oder mobile Zahlungs-Apps dienen. Zum Beispiel könnte ein Café eine DAG-basierte Krypto für Zahlungen verwenden und sich keine Sorgen um Latenz oder Kosten machen (die Benutzererfahrung kann mit kontaktlosen Kreditkartenzahlungen mithalten). Hederas HBAR wird auch in einigen Zahlungstests verwendet (aufgrund seiner schnellen Finalität und niedrigen Gebühren ziehen einige Fintech-Anwendungen es für die Abwicklung in Betracht). Zusätzlich, weil DAG-Netzwerke oft eine höhere Kapazität haben, können sie ihre Leistung auch bei globalen Einkaufsereignissen oder Nutzungsspitzen aufrechterhalten, was für die Zahlungszuverlässigkeit wertvoll ist.
  • Echtzeit-Datenfeeds und Orakel: Orakel (Dienste, die externe Daten an Blockchain-Smart Contracts liefern) erfordern das Schreiben vieler Datenpunkte in ein Ledger. Ein DAG-Ledger könnte als Hochdurchsatz-Orakelnetzwerk fungieren, das Preisfeeds, Wetterdaten, IoT-Sensormesswerte usw. mit einer Garantie für Reihenfolge und Zeitstempel aufzeichnet. Der Hedera Consensus Service wird beispielsweise von einigen Orakel-Anbietern verwendet, um Daten mit Zeitstempel zu versehen, bevor sie in andere Ketten eingespeist werden. Die Geschwindigkeit stellt sicher, dass die Daten aktuell sind, und der Durchsatz bedeutet, dass selbst schnelle Datenströme verarbeitet werden können. In dezentralen Web3-Analysen oder Werbung, wo jeder Klick oder jede Impression zur Transparenz protokolliert werden könnte, kann ein DAG-Backend das Ereignisvolumen bewältigen.

In all diesen Anwendungsfällen ist der gemeinsame Nenner, dass DAG-Netzwerke darauf abzielen, die Skalierbarkeit, Geschwindigkeit und Kosteneffizienz bereitzustellen, die den Umfang dessen erweitern, was wir dezentralisieren können. Sie sind besonders nützlich, wo hochfrequente oder hochvolumige Transaktionen auftreten (IoT, Mikrotransaktionen, Maschinendaten) oder wo die Benutzererfahrung schnelle, nahtlose Interaktionen erfordert (Gaming, Zahlungen). Es ist jedoch zu beachten, dass nicht jeder Anwendungsfall auf DAG-basierte Ledger migrieren wird – manchmal überwiegen die Reife und Sicherheit traditioneller Blockchains oder einfach Netzwerkeffekte (z. B. Ethereums riesige Entwicklerbasis) die reinen Leistungsanforderungen. Nichtsdestotrotz erobern DAGs eine Nische im Web3-Stack für Szenarien, die konventionelle Ketten belasten.

Einschränkungen und Herausforderungen von DAG-basierten Netzwerken

Während DAG-basierte Distributed Ledger verlockende Vorteile bieten, gehen sie auch mit Kompromissen und Herausforderungen einher. Es ist wichtig, diese Einschränkungen kritisch zu untersuchen:

  • Reife und Sicherheit: Die Mehrheit der DAG-Konsensalgorithmen ist relativ neu und weniger praxiserprobt im Vergleich zu den gut untersuchten Blockchain-Protokollen von Bitcoin oder Ethereum. Dies kann bedeuten, dass unbekannte Sicherheitslücken oder Angriffsvektoren existieren könnten. Die Komplexität von DAG-Systemen eröffnet potenziell neue Angriffswege – zum Beispiel könnte ein Angreifer versuchen, den DAG mit widersprüchlichen Subtangles zu spammen oder zu überladen, oder die parallele Struktur nutzen, um Double-Spending zu betreiben, bevor das Netzwerk Konsens erreicht. Akademische Analysen stellen fest, dass erhöhte Komplexität ein breiteres Spektrum an Schwachstellen einführt im Vergleich zu einfacheren linearen Ketten. Einige DAG-Netzwerke hatten Probleme: z. B. musste das IOTA-Netzwerk in seinen Anfängen einige Male aufgrund von Unregelmäßigkeiten/Hacks pausiert werden (ein Vorfall im Jahr 2020 betraf gestohlene Gelder, und der Koordinator wurde vorübergehend abgeschaltet, um das Problem zu lösen). Diese Vorfälle unterstreichen, dass die Sicherheitsmodelle noch verfeinert werden. Darüber hinaus ist die Finalität in einigen DAGs probabilistisch – z. B. hatte IOTA vor Coordicide keine absolute Finalität, sondern nur eine zunehmende Bestätigungssicherheit – was für bestimmte Anwendungen schwierig sein kann (obwohl neuere DAGs wie Hashgraph und Fantom sofortige Finalität mit aBFT-Garantien bieten).
  • Konsenskomplexität: Das Erreichen von Konsens in einem DAG beinhaltet oft komplizierte Algorithmen (Gossip-Protokolle, virtuelles Voting, zufällige Stichproben usw.). Diese Komplexität kann zu größeren Codebasen und komplizierteren Implementierungen führen, was das Risiko von Softwarefehlern erhöht. Es macht das System auch für Entwickler schwerer verständlich. Die Längste-Kette-Regel einer Blockchain ist konzeptionell einfach, während beispielsweise Hashgraphs virtuelles Voting oder Avalanches wiederholte zufällige Stichproben nicht sofort intuitiv sind. Die Komplexität kann die Akzeptanz verlangsamen: Entwickler und Unternehmen zögern möglicherweise, einem System zu vertrauen, das sie schwerer verstehen oder prüfen können. Wie eine Studie feststellte, erfordern partiell geordnete Systeme (DAGs) mehr Aufwand, um sie in bestehende Infrastrukturen und Entwicklermentalitäten zu integrieren. Tools und Bibliotheken für DAG-Netzwerke sind in vielen Fällen ebenfalls weniger ausgereift, was bedeutet, dass die Entwicklererfahrung möglicherweise rauer ist als auf Ethereum oder Bitcoin.
  • Kompromisse bei der Dezentralisierung: Einige aktuelle DAG-Implementierungen opfern ein gewisses Maß an Dezentralisierung, um ihre Leistung zu erreichen. Zum Beispiel bedeutet Hederas Abhängigkeit von einem festen Rat von 39 Knoten, dass das Netzwerk nicht für jeden offen ist, um am Konsens teilzunehmen, was trotz seiner technischen Stärken Kritik hervorgerufen hat. IOTA verließ sich lange Zeit auf einen zentralen Koordinator, um Angriffe zu verhindern, was einen Single Point of Failure/Control darstellte. Nanos Konsens beruht auf einer kleinen Anzahl von Hauptrepräsentanten, die den größten Teil des Stimmgewichts halten (Stand 2023 kontrollieren die obersten Repräsentanten oft einen großen Teil des Online-Stimmgewichts), was als Machtkonzentration angesehen werden könnte – obwohl dies etwas analog zu Mining-Pools in PoW ist. Im Allgemeinen werden Blockchains derzeit als leichter weitgehend dezentralisierbar (Tausende von Knoten) wahrgenommen als einige DAG-Netzwerke. Die Gründe sind vielfältig: Einige DAG-Algorithmen könnten höhere Knoten-Bandbreitenanforderungen haben (was es für viele Knoten schwieriger macht, vollständig teilzunehmen), oder das Design des Projekts könnte absichtlich eine permissionierte Struktur beibehalten. Dies ist keine inhärente Einschränkung von DAGs per se, sondern eher spezifischer Implementierungen. Es ist möglich, ein hoch dezentralisiertes DAG-Netzwerk zu haben, aber in der Praxis haben viele noch nicht die Knotenanzahl großer Blockchains erreicht.
  • Bedarf an Volumen (Sicherheit vs. Durchsatz): Einige DAG-Netzwerke benötigen paradoxerweise ein hohes Transaktionsvolumen, um optimal zu funktionieren. Zum Beispiel wird IOTAs Sicherheitsmodell robust, wenn viele ehrliche Transaktionen sich ständig gegenseitig bestätigen (wodurch das kumulative Gewicht ehrlicher Subtangles erhöht wird). Wenn die Netzwerkaktivität sehr gering ist, kann der DAG unter Trägheit leiden – Spitzen werden nicht schnell genehmigt, oder ein Angreifer findet es leichter, Teile des DAG zu überschreiben. Im Gegensatz dazu benötigt eine traditionelle Blockchain wie Bitcoin keine Mindestanzahl von Transaktionen, um sicher zu bleiben (selbst wenn wenige Transaktionen stattfinden, konkurrieren Miner immer noch darum, die Kette zu erweitern). Daher gedeihen DAGs oft unter Last, könnten aber bei geringer Nutzung stagnieren, es sei denn, es werden spezielle Maßnahmen ergriffen (wie IOTAs Koordinator oder Hintergrund-„Wartungs“-Transaktionen). Dies bedeutet, dass die Leistung inkonsistent sein kann – großartig bei hoher Nutzung, aber möglicherweise langsamere Bestätigung in Nebenzeiten oder bei geringer Nutzung.
  • Reihenfolge und Kompatibilität: Da DAGs eine partielle Reihenfolge von Ereignissen erzeugen, die schließlich konsistent sein muss, können die Konsensalgorithmen recht kompliziert sein. In Smart-Contract-Kontexten ist eine vollständige Reihenfolge von Transaktionen erforderlich, um Double-Spending zu vermeiden und eine deterministische Ausführung aufrechtzuerhalten. DAG-Systeme wie Fantom lösen dies durch den Aufbau einer Ordnungsschicht (der finalen Opera Chain), aber nicht alle DAG-Systeme unterstützen komplexe Smart Contracts problemlos. Das Zustandsmanagement und das Programmiermodell können auf einem reinen DAG eine Herausforderung darstellen. Wenn beispielsweise zwei Transaktionen nicht in Konflikt stehen, können sie parallel auf einem DAG bestätigt werden – das ist in Ordnung. Wenn sie jedoch in Konflikt stehen (z. B. zwei Transaktionen, die denselben Output ausgeben, oder zwei Trades auf derselben Order), muss das Netzwerk eine entscheiden und die andere verwerfen. Sicherzustellen, dass alle Knoten die gleiche Entscheidung dezentral treffen, ist ohne eine einzige Kette, die alles ordnet, schwieriger. Aus diesem Grund vermieden viele DAG-Projekte zunächst Smart Contracts oder globalen Zustand und konzentrierten sich auf Zahlungen (wo Konflikte einfacher über UTXOs oder Kontostände zu erkennen sind). Die Schnittstelle von DAG-Ledgern mit bestehenden Blockchain-Ökosystemen kann ebenfalls nicht trivial sein; zum Beispiel erforderte die Verbindung einer EVM mit einem DAG, dass Fantom einen Mechanismus zur Linearisierung des DAG für die EVM-Ausführung schuf. Diese Komplexitäten bedeuten, dass nicht jeder Anwendungsfall sofort auf einem DAG ohne sorgfältiges Design implementiert werden kann.
  • Speicherung und Synchronisation: Ein potenzielles Problem ist, dass, wenn ein DAG-Ledger ein hohes Volumen paralleler Transaktionen zulässt, das Ledger schnell wachsen kann. Effiziente Algorithmen zum Beschneiden des DAG (Entfernen alter Transaktionen, die für die Sicherheit nicht mehr benötigt werden) sind wichtig, ebenso wie die Ermöglichung des Betriebs von Light Nodes (Light Clients benötigen Möglichkeiten, Transaktionen zu bestätigen, ohne den gesamten DAG zu speichern). Die Forschung hat die Erreichbarkeitsproblematik identifiziert: Sicherstellen, dass neue Transaktionen effizient frühere erreichen und referenzieren können, und herausfinden, wie die Historie in einem DAG sicher gekürzt werden kann. Während Blockchains auch Wachstumsprobleme haben, könnte die Struktur des DAG Dinge wie die Berechnung von Salden oder Nachweisen für den partiellen Zustand erschweren, da das Ledger keine einfache Liste von Blöcken ist. Dies ist größtenteils eine technische Herausforderung, die angegangen werden kann, aber sie erhöht den Aufwand beim Entwurf eines robusten DAG-Systems.
  • Wahrnehmung und Netzwerkeffekte: Abgesehen von rein technischen Problemen stehen DAG-Projekte vor der Herausforderung, sich in einem von Blockchains dominierten Raum zu beweisen. Viele Entwickler und Benutzer fühlen sich einfach wohler mit Blockchain-L1s, und Netzwerkeffekte (mehr Benutzer, mehr DApps, mehr Tools auf bestehenden Ketten) können schwer zu überwinden sein. DAGs werden manchmal mit kühnen Behauptungen („Blockchain-Killer“ usw.) vermarktet, was Skepsis hervorrufen kann. Zum Beispiel könnte ein Projekt unbegrenzte Skalierbarkeit beanspruchen – aber Benutzer werden warten, bis dies unter realen Bedingungen demonstriert wird. Solange DAG-Netzwerke keine „Killer-Apps“ oder große Benutzerbasen hosten, könnten sie als experimentell angesehen werden. Darüber hinaus ist die Listung an Börsen, Verwahrungslösungen, Wallets – die gesamte Infrastruktur, die bereits große Blockchains unterstützt – eine fortlaufende Anstrengung für jede neue DAG-Plattform. Es gibt also eine Bootstrapping-Herausforderung: Trotz technischer Verdienste kann die Akzeptanz aufgrund der Ökosystem-Trägheit zurückbleiben.

Zusammenfassend lässt sich sagen, dass DAG-basierte Ledger Einfachheit gegen Leistung eintauschen, und das bringt Wachstumsschmerzen mit sich. Die Komplexität des Konsenses, potenzielle Zentralisierung in einigen Implementierungen und die Notwendigkeit, Vertrauen zu gewinnen, das dem älterer Blockchain-Systeme entspricht, sind Hürden, die es zu überwinden gilt. Die Forschungsgemeinschaft untersucht diese Probleme aktiv – zum Beispiel stellt ein 2024er Systematisierung-des-Wissens-Papier zu DAG-Protokollen die zunehmende Vielfalt der Designs und die Notwendigkeit eines ganzheitlichen Verständnisses ihrer Kompromisse fest. Wenn DAG-Projekte reifen, können wir erwarten, dass viele dieser Herausforderungen (wie die Entfernung von Koordinatoren, offene Teilnahme, bessere Entwicklertools) angegangen werden, aber sie sind wichtig zu berücksichtigen, wenn man DAG vs. Blockchain für eine bestimmte Anwendung bewertet.

Adoptionstrends und Zukunftsaussichten

Die Akzeptanz der DAG-basierten Blockchain-Technologie befindet sich im Vergleich zur weit verbreiteten Nutzung traditioneller Blockchains noch in einem frühen Stadium. Stand 2025 verwenden nur eine Handvoll öffentlicher Distributed Ledger DAGs in großem Maßstab – bemerkenswerte sind Hedera Hashgraph, IOTA, Fantom, Nano, Avalanche (für einen Teil seines Systems) und einige andere. Blockchains (lineare Ketten) bleiben die dominante Architektur in implementierten Systemen. Das Interesse an DAGs hat jedoch sowohl in der Industrie als auch in der Wissenschaft stetig zugenommen. Wir können einige Trends und die Aussichten für DAGs in der Blockchain identifizieren:

  • Wachsende Anzahl von DAG-Projekten und Forschung: Es gibt einen sichtbaren Anstieg der Anzahl neuer Projekte, die DAG- oder Hybridarchitekturen erforschen. Zum Beispiel verwenden neuere Plattformen wie Aleph Zero (ein datenschutzorientiertes Netzwerk) einen DAG-Konsens für schnelle Ordnung, und Sui und Aptos (Move-Sprachketten) integrieren DAG-basierte Mempools oder parallele Ausführungs-Engines, um die Leistung zu skalieren. Die akademische Forschung zu DAG-basiertem Konsens floriert – Protokolle wie SPECTRE, PHANTOM, GhostDAG und neuere verschieben die Grenzen, und umfassende Analysen (SoK-Papiere) werden veröffentlicht, um DAG-Ansätze zu klassifizieren und zu bewerten. Dies deutet auf eine gesunde Erforschung und das Aufkommen von Best Practices hin. Wenn die Forschung Lösungen für frühere Schwächen identifiziert (zum Beispiel, wie man Fairness erreicht, wie man DAGs beschneidet, wie man DAGs unter dynamischen Bedingungen sichert), werden wir diese Innovationen wahrscheinlich in Implementierungen einfließen sehen.
  • Hybridmodelle im Mainstream-Einsatz: Ein interessanter Trend ist, dass sogar traditionelle Blockchains DAG-Konzepte übernehmen, um die Leistung zu verbessern. Avalanche ist ein Paradebeispiel für einen Hybriden: Es präsentiert sich als Blockchain-Plattform, verwendet aber im Kern einen DAG-Konsens. Es hat eine signifikante Akzeptanz in DeFi- und NFT-Kreisen gefunden, was zeigt, dass Benutzer manchmal ein DAG-basiertes System übernehmen, ohne es überhaupt zu merken, solange es ihre Bedürfnisse erfüllt (schnell und günstig). Dieser Trend könnte sich fortsetzen: DAG als interner Motor, der eine vertraute Blockchain-Schnittstelle exponiert, könnte eine erfolgreiche Strategie sein, die Entwicklern den Einstieg erleichtert. Fantom hat dies mit seiner Opera-Kette getan, und andere Projekte könnten diesem Beispiel folgen, wodurch die DAG-Technologie effektiv zu einem unsichtbaren Rückgrat für Ketten der nächsten Generation wird.
  • Unternehmens- und Nischenakzeptanz: Unternehmen, die hohen Durchsatz, vorhersehbare Kosten benötigen und mit stärker permissionierten Netzwerken vertraut sind, neigen dazu, DAG-Ledger zu erforschen. Hederas Governing Council-Modell zog große Unternehmen an; diese wiederum treiben Anwendungsfälle wie die Asset-Tokenisierung für Finanzdienstleistungen oder die Verfolgung von Softwarelizenzen usw. auf Hedera voran. Wir sehen, dass Konsortien DAG-basierte DLT für Dinge wie Telekommunikationsabrechnungen, die Verfolgung von Werbeimpressionen oder Interbankenüberweisungen in Betracht ziehen, wo das Volumen hoch ist und sie Finalität benötigen. IOTA war an von der Europäischen Union finanzierten Projekten für Infrastruktur, digitale Identitätspiloten und industrielles IoT beteiligt – dies sind längerfristige Adoptionspfade, aber sie zeigen, dass DAGs über die Krypto-Community hinaus auf dem Radar sind. Wenn sich einige dieser Tests als erfolgreich und skalierbar erweisen, könnten wir eine sektorspezifische Akzeptanz von DAG-Netzwerken sehen (z. B. ein IoT-Konsortium, das alle ein DAG-Ledger zur gemeinsamen Nutzung und Monetarisierung von Daten verwendet).
  • Fortschritte bei Community und Dezentralisierung: Frühe Kritik an DAG-Netzwerken (zentrale Koordinatoren, permissionierte Validierer) wird allmählich angegangen. IOTAs Coordicide wird, falls erfolgreich, den zentralen Koordinator entfernen und IOTA in ein vollständig dezentrales Netzwerk mit einer Form von Staking und von der Community betriebenen Validierern überführen. Hedera hat seinen Code quelloffen gemacht und Pläne angedeutet, die Governance langfristig weiter zu dezentralisieren (über den anfänglichen Rat hinaus). Nanos Community arbeitet kontinuierlich an der Dezentralisierung der Repräsentantenverteilung (ermutigt mehr Benutzer, Repräsentanten zu betreiben oder ihre Delegationen aufzuteilen). Diese Schritte sind wichtig für die Glaubwürdigkeit und das Vertrauen in DAG-Netzwerke und bringen sie stärker mit dem Ethos der Blockchain in Einklang. Mit zunehmender Dezentralisierung werden wahrscheinlich mehr krypto-native Benutzer und Entwickler bereit sein, auf DAG-Projekten aufzubauen oder dazu beizutragen, was das Wachstum beschleunigen kann.
  • Interoperabilität und Layer-2-Nutzung: Wir könnten auch sehen, dass DAGs als Skalierungsschichten oder interoperable Netzwerke anstatt als eigenständige Ökosysteme verwendet werden. Zum Beispiel könnte ein DAG-Ledger als Hochgeschwindigkeits-Layer-2 für Ethereum dienen, das periodisch gebündelte Ergebnisse zur Sicherheit an Ethereum verankert. Alternativ könnten DAG-Netzwerke über Brücken mit bestehenden Blockchains verbunden werden, sodass Vermögenswerte dorthin fließen können, wo Transaktionen am günstigsten sind. Wenn die UX nahtlos gestaltet werden kann, könnten Benutzer auf einem DAG-Netzwerk Transaktionen durchführen (und die hohe Geschwindigkeit genießen), während sie sich weiterhin auf eine Basis-Blockchain für die Abwicklung oder Sicherheit verlassen – und so das Beste aus beiden Welten erhalten. Einige Projekte ziehen diese Art von geschichtetem Ansatz in Betracht.
  • Zukunftsaussichten – Ergänzung, nicht Ersatz (vorerst): Es ist bezeichnend, dass selbst Befürworter oft sagen, dass DAG eine „Alternative“ oder Ergänzung zur Blockchain ist und kein vollständiger Ersatz. In naher Zukunft können wir heterogene Netzwerke erwarten: einige werden Blockchain-basiert sein, einige DAG-basiert, jeweils optimiert für verschiedene Szenarien. DAGs könnten das Hochfrequenz-Rückgrat von Web3 antreiben (die Schwerstarbeit von Mikrotransaktionen und Datenprotokollierung erledigen), während Blockchains für die Abwicklung, extrem hochwertige Transaktionen oder dort, wo Einfachheit und Robustheit von größter Bedeutung sind, bevorzugt bleiben könnten. Auf längere Sicht, wenn DAG-basierte Systeme sich weiterhin bewähren und wenn sie gleiche oder größere Sicherheit und Dezentralisierung demonstrieren können, ist es denkbar, dass sie zum dominanten Paradigma für Distributed Ledger werden könnten. Der Aspekt der Energieeffizienz bringt DAGs auch gut mit globalen Nachhaltigkeitsdruck in Einklang, was sie langfristig politisch und sozial akzeptabler machen könnte. Die CO2-Fußabdruck-Vorteile von DAG-Netzwerken, kombiniert mit ihren Leistungsvorteilen, könnten ein wichtiger Treiber sein, wenn regulatorische Umgebungen grüne Technologie betonen.
  • Community-Stimmung: Es gibt ein Segment der Krypto-Community, das sehr begeistert von DAGs ist – sie sehen sie als den nächsten evolutionären Schritt der DLT. Man hört oft Sätze wie „DAGs sind die Zukunft; Blockchains werden irgendwann als das Einwahl-Internet im Vergleich zum Breitband von DAG angesehen werden.“ Dieser Enthusiasmus muss mit praktischen Ergebnissen in Einklang gebracht werden, aber er deutet darauf hin, dass Talente und Investitionen in diesen Bereich fließen. Andererseits bleiben Skeptiker, die darauf hinweisen, dass Dezentralisierung und Sicherheit nicht für Geschwindigkeit geopfert werden sollten – daher müssen DAG-Projekte zeigen, dass sie das Beste aus beiden Welten haben können.

Zusammenfassend lässt sich sagen, dass die Zukunftsaussichten für DAG in der Blockchain vorsichtig optimistisch sind. Derzeit dominieren Blockchains immer noch, aber DAG-basierte Plattformen erobern ihren Raum und beweisen ihre Fähigkeiten in spezifischen Bereichen. Wenn die Forschung aktuelle Herausforderungen löst, werden wir wahrscheinlich eine stärkere Konvergenz von Ideen sehen – wobei Blockchains DAG-inspirierte Verbesserungen übernehmen und DAG-Netzwerke die Lehren von Blockchains in Bezug auf Governance und Sicherheit übernehmen. Web3-Forscher und -Entwickler täten gut daran, die DAG-Fortschritte im Auge zu behalten, da sie einen bedeutenden Zweig des DLT-Evolutionsbaums darstellen. Die kommenden Jahre könnten ein vielfältiges Ökosystem interoperabler Ledger sehen, in dem DAGs eine entscheidende Rolle bei der Skalierung und bei speziellen Anwendungen spielen und uns der Vision eines skalierbaren, dezentralen Webs näherbringen.

In den Worten einer Hedera-Publikation: DAG-basierte Ledger sind „ein vielversprechender Schritt nach vorn“ in der Entwicklung digitaler Währungen und dezentraler Technologie – keine Patentlösung, um Blockchains vollständig zu ersetzen, sondern eine wichtige Innovation, die nebenher arbeiten und Verbesserungen in der gesamten Distributed-Ledger-Landschaft inspirieren wird.

Quellen: Die Informationen in diesem Bericht stammen aus einer Vielzahl glaubwürdiger Quellen, darunter akademische Forschung zu DAG-basiertem Konsens, offizielle Dokumentationen und Whitepapers von Projekten wie IOTA, Hedera Hashgraph, Fantom und Nano sowie technische Blogs und Artikel, die Einblicke in die Unterschiede zwischen DAG und Blockchain geben. Diese Referenzen unterstützen die oben diskutierten vergleichenden Analysen, Vorteile und Fallstudien. Der fortgesetzte Dialog in der Web3-Forschungsgemeinschaft deutet darauf hin, dass DAGs ein heißes Thema bleiben werden, während wir versuchen, das Trilemma von Skalierbarkeit, Sicherheit und Dezentralisierung in der nächsten Generation der Blockchain-Technologie zu lösen.

Somnia Layer-1 Blockchain Deep Dive: 1M TPS und Finalität im Subsekundenbereich

· 67 Minuten Lesezeit
Dora Noda
Software Engineer

Somnia ist eine EVM-kompatible Layer-1 Blockchain, die für extreme Leistung entwickelt wurde und über 1.000.000 Transaktionen pro Sekunde (TPS) mit Finalität im Subsekundenbereich verarbeiten kann. Um dies zu erreichen, überdenkt Somnia das Kern-Blockchain-Design mit vier wichtigen technischen Innovationen:

  • MultiStream Consensus: Somnias Konsens ist ein neuartiges Proof-of-Stake BFT-Protokoll, bei dem jeder Validator seine eigene „Datenkette“ von Transaktionen führt und Blöcke unabhängig voneinander produziert. Eine separate Konsenskette bestätigt periodisch den neuesten Block jeder Datenkette eines Validators und ordnet sie zu einer globalen Blockchain. Dies ermöglicht eine parallele Transaktionsaufnahme: Mehrere Validatoren können Transaktionen gleichzeitig auf ihren Datenströmen verbreiten, die später zu einem einzigen geordneten Log zusammengeführt werden. Die Konsenskette (inspiriert von der Autobahn BFT-Forschung) gewährleistet Sicherheit, indem sie verhindert, dass ein Validator seine eigene Kette forkt oder ändert, sobald der globale Block finalisiert ist. Abbildung 1 veranschaulicht diese Architektur, bei der Validator-spezifische Ketten in einen globalen Konsensblock münden.

  • Beschleunigte sequentielle Ausführung: Anstatt sich auf Multi-Thread-Ausführung zu verlassen, entscheidet sich Somnia dafür, einen einzelnen Kern extrem schnell zu machen. Der Somnia-Client kompiliert EVM Smart Contracts zu nativem x86-Maschinencode (Just-in-Time oder Ahead-of-Time). Häufig verwendete Smart Contracts werden in optimierte Maschinenbefehle übersetzt, wodurch der typische Interpretations-Overhead entfällt und eine nahezu native C++-Geschwindigkeit für die Ausführung erreicht wird. In Benchmarks führt dies zu Hunderten von Nanosekunden pro ERC-20-Transfer und unterstützt Millionen von TX/Sek. auf einem Kern. Weniger häufig aufgerufene Smart Contracts können weiterhin im Standard-EVM-Interpreter ausgeführt werden, wodurch die Kompilierungskosten ausgeglichen werden. Zusätzlich nutzt Somnia moderne CPU Out-of-Order-Execution und Pipelining („Hardware-Ebene-Parallelität“), um einzelne Transaktionen zu beschleunigen. Durch die Kompilierung zu nativem Code kann die CPU Anweisungen auf Chipebene parallel ausführen (z. B. überlappende Speicherzugriffe und Berechnungen), was die sequentielle Logik wie Token-Transfers weiter beschleunigt. Diese Designentscheidung erkennt an, dass Software-Parallelität bei stark korrelierten Arbeitslastspitzen oft versagt (z. B. ein heißer NFT-Mint, bei dem alle Transaktionen denselben Smart Contract treffen). Somnias Single-Thread-Optimierungen stellen sicher, dass selbst „heiße“ Smart Contract-Szenarien einen hohen Durchsatz erreichen, wo naive parallele Ausführung ins Stocken geraten würde.
  • IceDB (Deterministische Speicher-Engine): Somnia enthält eine benutzerdefinierte Blockchain-Datenbank namens IceDB, um die Leistung und Vorhersagbarkeit des State-Zugriffs zu maximieren. Im Gegensatz zu typischen LevelDB/RocksDB-Backends bietet IceDB deterministische Lese-/Schreibkosten: Jeder Vorgang liefert einen „Leistungsbericht“ darüber, wie viele RAM-Cache-Lines und Disk-Pages genau aufgerufen wurden. Dies ermöglicht es Somnia, Gasgebühren basierend auf der tatsächlichen Ressourcennutzung auf konsistente, konsens-deterministische Weise zu berechnen. Zum Beispiel können aus dem Speicher bediente Lesevorgänge weniger Gas kosten als kalte Lesevorgänge, die auf die Festplatte zugreifen, ohne Nicht-Determinismus. IceDB verwendet auch eine verbesserte Caching-Schicht, die sowohl für Lese- als auch für Schreibvorgänge optimiert ist und extrem niedrige Latenzzeiten (durchschnittlich 15–100 Nanosekunden pro Vorgang) liefert. Zusätzlich verfügt IceDB über eingebautes State-Snapshotting: Es nutzt die interne Struktur des log-strukturierten Speichers, um globale State-Hashes effizient zu verwalten und zu aktualisieren, anstatt einen separaten Merkle-Baum auf Anwendungsebene zu erstellen. Dies reduziert den Overhead für die Berechnung von State-Roots und Proofs. Insgesamt gewährleistet das Design von IceDB vorhersehbaren, Hochgeschwindigkeits-State-Zugriff und Fairness bei der Gas-Messung, was für Somnias Skalierung entscheidend ist.
  • Fortschrittliche Komprimierung & Vernetzung: Das Verarbeiten von Millionen von TPS bedeutet, dass Nodes riesige Mengen an Transaktionsdaten austauschen müssen (z. B. 1M ERC-20-Transfers/Sek. ~ 1,5 Gbit/s Rohdaten). Somnia begegnet dem durch Komprimierungs- und Netzwerkoptimierungen:
    • Streaming-Komprimierung: Da jeder Validator einen kontinuierlichen Datenstrom veröffentlicht, kann Somnia zustandsbehaftete Stream-Komprimierung über Blöcke hinweg verwenden. Häufige Muster (wie repetitive Adressen, Smart Contract-Aufrufe, Parameter) werden durch Referenzierung früherer Vorkommen im Stream komprimiert, wodurch weitaus bessere Raten als bei unabhängiger Blockkomprimierung erzielt werden. Dies nutzt die Power-Law-Verteilung der Blockchain-Aktivität – eine kleine Untergruppe von Adressen oder Aufrufen macht einen großen Teil der Transaktionen aus, sodass deren Kodierung mit kurzen Symbolen eine massive Komprimierung ergibt (z. B. kann eine in 10 % der TX verwendete Adresse in ~3 Bits statt 20 Bytes kodiert werden). Traditionelle Chains können Stream-Komprimierung nicht einfach verwenden, da Blockproduzenten rotieren; Somnias feste pro-Validator-Streams ermöglichen diese Fähigkeit.
    • BLS-Signaturaggregation: Um die größten inkompressiblen Teile von Transaktionen (Signaturen und Hashes) zu eliminieren, verwendet Somnia BLS-Signaturen für Transaktionen und unterstützt die Aggregation vieler Signaturen zu einer einzigen. Dies bedeutet, dass ein Block von Hunderten von Transaktionen eine einzige kombinierte Signatur tragen kann, was die Datengröße (und die Verifizierungskosten) drastisch reduziert, verglichen mit 64 Bytes ECDSA-Signatur pro Transaktion. Transaktions-Hashes werden ebenfalls nicht übertragen (Peers berechnen sie bei Bedarf neu). Zusammen reduzieren Komprimierung und BLS-Aggregation die Bandbreitenanforderungen ausreichend, um Somnias hohen Durchsatz aufrechtzuerhalten, ohne das Netzwerk zu „ersticken“.
    • Bandbreitensymmetrie: Im Multi-Leader-Design von Somnia teilt jeder Validator kontinuierlich seinen Anteil an neuen Daten in jedem Block, anstatt dass ein Leader den gesamten Block an andere sendet. Folglich ist die Netzwerklast symmetrisch verteilt – jeder von N Validatoren lädt in jedem Block ungefähr 1/N der Gesamtdaten an N-1 Peers hoch (und lädt die anderen Teile herunter), anstatt dass ein einzelner Leader N-1 Kopien hochlädt. Kein Node benötigt jemals eine ausgehende Bandbreite, die höher ist als der gesamte Chain-Durchsatz, wodurch der Engpass vermieden wird, bei dem ein einzelner Leader eine enorme Upload-Leitung haben müsste. Diese gleichmäßige Auslastung ermöglicht es Somnia, die physikalischen Bandbreitengrenzen von Nodes zu erreichen, ohne sich auf wenige Supernodes zu zentralisieren. Kurz gesagt, Somnias Netzwerk-Stack ist so konzipiert, dass alle Validatoren die Arbeit der Transaktionsausbreitung teilen, wodurch ein Durchsatz im Gigabit-Bereich über das dezentrale Netzwerk hinweg ermöglicht wird.

Konsens und Sicherheit: Die Konsenskette verwendet ein modifiziertes PBFT (Practical Byzantine Fault Tolerance) Proof-of-Stake-Protokoll mit einer teilweise synchronen Annahme. Somnia startete mit 60–100 global verteilten Validatoren (das Mainnet begann mit ~60 und strebt 100 an). Validatoren müssen leistungsstarke Hardware betreiben (Spezifikation in etwa zwischen einem Solana- und Aptos-Node in Bezug auf die Leistung), um die Last zu bewältigen. Diese Validatorenanzahl gleicht Leistung mit ausreichender Dezentralisierung aus – die Philosophie des Teams ist „ausreichende Dezentralisierung“ (genug, um Sicherheit und Zensurresistenz zu gewährleisten, aber nicht so extrem, dass die Leistung beeinträchtigt wird). Bemerkenswert ist, dass Google Cloud neben anderen professionellen Node-Betreibern am Start als Validator teilnahm.

Somnia implementiert Standard-PoS-Sicherheitsmaßnahmen wie Staking-Einlagen und Slashing für böswilliges Verhalten. Um die Sicherheit in seiner neuartigen Ausführungs-Engine zu erhöhen, verwendet Somnia ein einzigartiges „Cuthbert“-System – eine alternative Referenzimplementierung (unoptimiert), die parallel zum Haupt-Client auf jedem Node läuft. Jede Transaktion wird auf beiden Engines ausgeführt; wenn eine Divergenz oder ein Fehler in den Ergebnissen des optimierten Clients erkannt wird, stoppt der Validator und weigert sich zu finalisieren, wodurch Konsensfehler verhindert werden. Diese Dual-Execution fungiert als Echtzeit-Audit und stellt sicher, dass die aggressiven Leistungsoptimierungen niemals zu falschen Zustandsübergängen führen. Im Laufe der Zeit, wenn das Vertrauen in den primären Client wächst, kann Cuthbert schrittweise eingestellt werden, aber in frühen Phasen fügt es eine zusätzliche Sicherheitsebene hinzu.

Zusammenfassend lässt sich sagen, dass Somnias Architektur auf Echtzeit-Massenanwendungen zugeschnitten ist. Durch die Entkopplung der Transaktionsausbreitung von der Finalisierung (MultiStream), die Beschleunigung der Single-Core-Ausführung (EVM-Kompilierung und CPU-Ebene-Parallelität), die Optimierung der Datenschicht (IceDB) und die Minimierung der Bandbreite pro Transaktion (Komprimierung + Aggregation) erreicht Somnia eine Leistung, die Größenordnungen über traditionellen L1s liegt. Herman Narula, CEO von Improbable, behauptet, es sei „die fortschrittlichste Layer-1 … in der Lage, Tausende Male den Durchsatz von Ethereum oder Solana zu bewältigen“ – speziell gebaut für die Geschwindigkeit, Skalierung und Reaktionsfähigkeit, die von Next-Gen-Spielen, sozialen Netzwerken und immersiven Metaverse-Erlebnissen benötigt werden.

Tokenomics – Angebot, Nutzen und Wirtschaftsdesign

Angebot und Verteilung: Somnias nativer Token, SOMI, hat ein festes Maximalangebot von 1.000.000.000 Token (1 Milliarde). Es gibt keine fortlaufende Inflation – das Angebot ist begrenzt und die Token wurden im Voraus an verschiedene Stakeholder mit Vesting-Zeitplänen zugewiesen. Die Aufschlüsselung der Zuteilung ist wie folgt:

ZuteilungskategorieProzentsatzToken-MengeFreigabeplan
Team11,0 %110.000.0000 % beim Start; 12-monatige Sperrfrist, dann über 48 Monate freigegeben.
Launch-Partner15,0 %150.000.0000 % beim Start; 12-monatige Sperrfrist, dann über 48 Monate freigegeben (einschließlich früher Ökosystem-Beiträger wie Improbable).
Investoren (Seed)15,15 %151.500.0000 % beim Start; 12-monatige Sperrfrist, dann über 36 Monate freigegeben.
Berater3,58 %35.800.0000 % beim Start; 12-monatige Sperrfrist, dann über 36 Monate freigegeben.
Ökosystem-Fonds27,345 %273.450.0005,075 % beim Start freigeschaltet, der Rest wird linear über 48 Monate freigegeben. Wird zur Finanzierung der Ökosystementwicklung und der Somnia Foundation verwendet.
Community & Belohnungen27,925 %279.250.00010,945 % beim Start freigeschaltet, plus zusätzliche Freigaben 1 und 2 Monate nach dem Start, dann linear über 36 Monate freigegeben. Wird für Community-Anreize, Airdrops, Liquidität und Validator-Staking-Belohnungen verwendet.
Gesamt100 %1.000.000.000~16 % im Umlauf bei TGE (Token Generation Event), der Rest über 3–4 Jahre freigegeben.

Beim Mainnet-Start (TGE im 3. Quartal 2025) gingen rund 16 % des Angebots in Umlauf (hauptsächlich aus den anfänglichen Freischaltungen der Community- und Ökosystem-Zuteilungen). Der Großteil der Token (Team, Partner, Investoren) ist für das erste Jahr gesperrt und wird dann schrittweise freigegeben, um Anreize für die langfristige Entwicklung zu schaffen. Dieses strukturierte Vesting hilft, sofortige große Verkäufe zu verhindern und stellt sicher, dass die Stiftung und die Kernbeiträger im Laufe der Zeit Ressourcen haben, um das Netzwerk zu erweitern.

Token-Nutzen: SOMI ist zentral für Somnias Ökosystem und folgt einem Delegated Proof of Stake (DPoS)-Modell. Seine Hauptanwendungen umfassen:

  • Staking und Sicherheit: Validatoren müssen jeweils 5.000.000 SOMI staken, um einen Node zu betreiben und am Konsens teilzunehmen. Dieser erhebliche Einsatz (~0,5 % des Gesamtangebots pro Validator) bietet wirtschaftliche Sicherheit; böswillige Akteure riskieren den Verlust ihrer Einlage. Somnia strebt zunächst 100 Validatoren an, was bedeutet, dass bis zu 500 Millionen SOMI für den Node-Betrieb gestaked werden könnten (wobei ein Teil davon aus der Delegation stammen kann, siehe unten). Zusätzlich können Delegatoren (alle Token-Inhaber) SOMI staken, indem sie an Validatoren delegieren, um ihnen zu helfen, die 5M-Anforderung zu erfüllen. Delegatoren erhalten im Gegenzug einen Anteil an den Belohnungen. Dies eröffnet auch Nicht-Validatoren Staking-Renditen und hilft, den Einsatz unter vielen Token-Inhabern zu dezentralisieren. Nur gestakte Token (entweder von Validatoren oder über Delegation) sind für Netzwerkbelohnungen berechtigt – das bloße Halten von Token ohne Staking bringt keine Belohnungen.
  • Gasgebühren: Alle On-Chain-Transaktionen und Smart Contract-Ausführungen erfordern SOMI für Gasgebühren. Das bedeutet, jede Interaktion (Transfers, Mints, DApp-Nutzung) schafft Nachfrage nach dem Token. Somnias Gasmodell basiert auf dem von Ethereum (gleiche Einheitsdefinitionen), jedoch mit Anpassungen und viel niedrigeren Basiskosten. Wie später detailliert beschrieben, hat Somnia Gebühren im Sub-Cent-Bereich und sogar dynamische Rabatte für DApps mit hohem Volumen, aber Gebühren werden immer noch in SOMI bezahlt. Wenn das Netzwerk also stark genutzt wird (z. B. ein beliebtes Spiel oder eine soziale App), benötigen Benutzer und Entwickler SOMI, um ihre Transaktionen zu finanzieren, was den Nutzen antreibt.
  • Validator-/Delegator-Belohnungen: Block-Belohnungen auf Somnia stammen aus Transaktionsgebühren und einer Community-Treasury, nicht aus Inflation. Insbesondere werden 50 % aller Gasgebühren an Validatoren (und deren Delegatoren) als Belohnungen verteilt. Die anderen 50 % der Gebühren werden als deflationärer Mechanismus verbrannt (aus dem Umlauf genommen). Diese Gebührenaufteilung (Hälfte an Validatoren, Hälfte verbrannt) ähnelt Ethereums EIP-1559-Modell, außer dass es in Somnias aktuellem Design eine feste 50/50-Aufteilung ist. In der Praxis leiten sich die Einnahmen der Validatoren aus dem Gebührenvolumen des Netzwerks ab – mit zunehmender Nutzung steigen die Gebührenbelohnungen. Um die Sicherheit zu Beginn zu gewährleisten, bevor die Gebühren signifikant sind, hat Somnia auch Treasury-Anreize für Validatoren. Die Community-Zuteilung umfasst Token, die für Staking-Belohnungen und Liquidität vorgesehen sind; die Stiftung kann diese bei Bedarf verteilen (wahrscheinlich als Ergänzungen der Staking-Rendite in den ersten Jahren). Wichtig ist, dass nur gestakte Token Belohnungen verdienen – dies fördert die aktive Teilnahme und bindet das Angebot. Delegatoren teilen sich die Gebührenbelohnungen ihres gewählten Validators proportional zu ihrem Einsatz, abzüglich der Provision des Validators (jeder Validator legt eine „Delegationsrate“ fest, z. B. wenn auf 80 % eingestellt, werden 80 % der Belohnungen dieses Validators mit den Delegierten geteilt). Somnia bietet zwei Delegationsoptionen: Delegation an einen spezifischen Validator-Pool (unterliegt einer 28-tägigen Unbonding-Periode oder einem sofortigen Not-Unstake mit einer hohen 50 % Slashing-Strafe) oder Delegation an einen allgemeinen Pool, der automatisch auf alle unter-gestakten Validatoren verteilt (keine Sperrfrist, aber wahrscheinlich eine gemischte, niedrigere Rendite). Dieses flexible DPoS-Design motiviert Token-Inhaber, das Netzwerk für Belohnungen zu sichern, während es eine einfache Ausstiegsmöglichkeit (allgemeiner Pool) für diejenigen bietet, die Liquidität wünschen.
  • Governance: Wenn Somnia reift, wird SOMI Netzwerkentscheidungen regieren. Token-Inhaber werden schließlich über Vorschläge abstimmen, die Protokoll-Upgrades, die Verwendung von Treasury-Fonds, wirtschaftliche Parameter usw. betreffen. Das Projekt sieht eine vielschichtige Governance vor (siehe „Tokens Governance“ unten), bei der SOMI-Inhaber (das „Token House“) hauptsächlich die Zuteilungen von Stiftungs- und Community-Fonds kontrollieren, während Validatoren, Entwickler und Benutzer Räte für technische und politische Entscheidungen haben. Im frühen Mainnet wird die Governance hauptsächlich von der Somnia Foundation (für Agilität und Sicherheit) gehandhabt, aber über 1–2 Jahre wird sie schrittweise an die Token-Community und die Räte dezentralisiert. Das Halten von SOMI wird somit Einfluss auf die Richtung des Ökosystems verleihen und es zu einem Governance-Token zusätzlich zu einem Utility-Token machen.

Deflationäre Mechanismen: Da das Angebot fest ist, setzt Somnia auf Gebührenverbrennung, um deflationären Druck zu erzeugen. Wie bereits erwähnt, werden 50 % jeder Gasgebühr dauerhaft verbrannt. Das bedeutet, wenn die Netzwerknutzung hoch ist, wird das zirkulierende Angebot von SOMI im Laufe der Zeit abnehmen, was potenziell die Token-Knappheit erhöhen kann. Wenn beispielsweise in einem Monat Gebühren im Wert von 1 Million SOMI generiert werden, würden 500.000 SOMI vernichtet. Dieser Verbrennungsmechanismus kann Token-Freischaltungen oder Verkäufe ausgleichen und den langfristigen Token-Wert an die Netzwerknutzung koppeln (mehr Aktivität -> mehr Verbrennung). Zusätzlich unterstützt Somnia derzeit beim Start keine benutzerdefinierten Trinkgelder (Prioritätsgebühren) – das Basiskostenmodell ist angesichts des hohen Durchsatzes effizient genug, obwohl sie später Trinkgelder einführen könnten, wenn Überlastung auftritt. Bei extrem niedrigen Gebühren ist die Verbrennung pro Transaktion winzig, aber in großem Maßstab (Milliarden von Transaktionen) akkumuliert sie sich. Somnias Wirtschaftsmodell kombiniert daher Null-Inflation, geplante Freischaltungen und Gebührenverbrennung, um langfristige Nachhaltigkeit zu gewährleisten. Wenn das Netzwerk Mainstream-Volumen erreicht, könnte SOMI deflationär werden, was Stakern und Inhabern zugutekommt, da das Angebot abnimmt.

Highlights des Gasmodells: Somnias Gaspreisgestaltung ist im Allgemeinen viel billiger als die von Ethereum, aber mit einigen neuartigen Wendungen für Fairness und Skalierbarkeit. Die meisten Opcode-Kosten werden nach unten angepasst (da Somnias Durchsatz und Effizienz höher sind), aber die Speicherkosten wurden pro Einheit nach oben kalibriert (um Missbrauch angesichts der niedrigen Gebühr pro Gas zu vermeiden). Zwei besonders bemerkenswerte Funktionen, die für 2025 geplant sind, sind:

  • Dynamische Volumenrabatte: Somnia führt einen gestaffelten Gaspreisrabatt für Konten oder Anwendungen ein, die eine hohe TPS-Nutzung aufrechterhalten. Im Endeffekt gilt: Je mehr Transaktionen eine App oder ein Benutzer pro Stunde ausführt, desto niedriger ist der effektive Gaspreis, den sie zahlen (bis zu 90 % Rabatt bei ~400 TPS). Diese volumenbasierte Preisgestaltung soll groß angelegte DApps anreizen, auf Somnia zu laufen, indem ihre Kosten bei Skalierung drastisch reduziert werden. Sie wird als schrittweise sinkender Gaspreis implementiert, sobald bestimmte TPS-Schwellenwerte pro Konto überschritten werden (0,1, 1, 10, 100, 400 TPS usw.). Dieses Modell (dessen Einführung nach dem Mainnet-Start erwartet wird) belohnt Projekte, die eine hohe Last verursachen, und stellt sicher, dass Somnia erschwinglich bleibt, selbst wenn es Echtzeitspiele oder soziale Feeds mit Hunderten von Transaktionen pro Sekunde antreibt. Es ist ein ungewöhnlicher Mechanismus (die meisten Chains haben einen flachen Gebührenmarkt), der Somnias Priorisierung von Massen-Durchsatz-Anwendungsfällen signalisiert.
  • Transiente Speicherung: Somnia plant, zeitlich begrenzte Speicheroptionen anzubieten, bei denen ein Entwickler Daten nur vorübergehend (für Stunden oder Tage) On-Chain speichern kann, zu viel geringeren Gaskosten als bei permanenter Speicherung. Zum Beispiel kann eine On-Chain-Variable, die nur eine Stunde lang bestehen muss (wie ein Spiellobby-Status oder die ephemere Position eines Spielers), mit ~90 % weniger Gas gespeichert werden als ein normaler permanenter Schreibvorgang. Der Gasplan für einen 32-Byte-SSTORE könnte 20.000 Gas für 1 Stunde Speicherung vs. 200.000 für unbegrenzte Speicherung betragen. Dieses Konzept des „transienten Zustands“ ist explizit auf Gaming- und Unterhaltungsanwendungen ausgerichtet, die viele temporäre Daten (Bestenlisten, Spielzustand) generieren, die nicht ewig On-Chain leben müssen. Durch die Bereitstellung eines ablaufbasierten Speichers mit Rabatten kann Somnia solche Echtzeitanwendungen effizienter unterstützen. Die Implementierung beinhaltet wahrscheinlich das automatische Verwerfen des Zustands nach der gewählten Dauer (oder das Verschieben in einen separaten Speicher), obwohl Details noch veröffentlicht werden müssen. Diese Funktion, kombiniert mit Somnias Komprimierung, ist darauf ausgelegt, On-Chain-Spiele zu unterstützen, die große Mengen an Zustandsaktualisierungen verwalten, ohne die Chain aufzublähen oder enorme Kosten zu verursachen.

Insgesamt stimmen Somnias Tokenomics mit seinem Ziel überein, Web3 im Web2-Maßstab zu betreiben. Ein großer anfänglicher Token-Pool finanzierte Entwicklung und Ökosystem-Wachstum (mit renommierten Unterstützern und langen Sperrfristen, die Engagement signalisieren), während das laufende Wirtschaftsdesign marktgetriebene Belohnungen (über Gebühren) und Deflation nutzt, um den Wert zu erhalten. SOMI-Inhaber werden zum Staking und zur Teilnahme angeregt, da alle Netzwerk-Vorteile (Gebühreneinnahmen, Governance-Macht) aktiven Stakern zugutekommen. Mit einem begrenzten Angebot und nutzungsabhängiger Verbrennung ist der Wert von SOMI eng an den Erfolg des Netzwerks gekoppelt: Wenn mehr Benutzer und Apps beitreten, steigt die Nachfrage nach Token (für Gas und Staking) und das Angebot nimmt durch Verbrennungen ab, wodurch eine Feedback-Schleife entsteht, die die langfristige Nachhaltigkeit des Tokens unterstützt.

Ökosystem und Partnerschaften

Obwohl Somnia sein Mainnet erst Ende 2025 startete, trat es dank einer umfangreichen Testnet-Phase und der Unterstützung von Branchengrößen mit einem robusten Ökosystem von Projekten und strategischen Partnern auf den Plan.

Ökosystem-dApps und -Protokolle: Bis zum Mainnet-Start bauten bereits über 70 Projekte und dApps auf Somnia auf oder integrierten sich. Das anfängliche Ökosystem konzentriert sich stark auf Gaming- und soziale Anwendungen, was Somnias Zielmarkt immersiver Echtzeit-Apps widerspiegelt. Bemerkenswerte Projekte sind:

  • Sparkball: Ein Flaggschiff-Web3-Spiel auf Somnia, Sparkball ist ein rasantes 4v4-Sport-MOBA/Brawler, entwickelt von Opti Games. Es schloss sich Somnia als Launch-Titel an und führte On-Chain-Gameplay und NFT-basierte Team-Assets ein. Sparkball demonstriert Somnias Fähigkeit, schnelles Matchmaking und In-Game-Transaktionen (z. B. das Minten/Handeln von Spielern oder Gegenständen) mit vernachlässigbarer Latenz zu handhaben.
  • Variance: Ein Anime-Themen-Roguelite-RPG mit reichhaltiger Geschichte und ohne Pay-to-Win-Mechaniken. Die Entwickler von Variance (Veteranen von Pokémon GO und Axie Infinity) wählten Somnia wegen seiner Kapazität, große Spielökonomien und Transaktionen kostengünstig zu handhaben. Nach Gesprächen mit Somnias Gründer war das Team überzeugt, dass Somnia die Bedürfnisse der Spieleentwickler und die Vision für Web3-Gaming verstand. Variance verlagerte seine In-Game-Token ($VOID) und NFT-Logik auf Somnia, wodurch Funktionen wie On-Chain-Loot-Drops und spielereigene Assets in großem Maßstab ermöglicht wurden. Die Community des Spiels wuchs nach der Ankündigung des Wechsels zu Somnia erheblich. Variance führte Playtests und Community-Quests auf Somnias Testnet durch, demonstrierte Multiplayer-On-Chain-Kämpfe und belohnte Spieler mit NFTs und Token.
  • Maelstrom Rise: Ein Marine-Battle-Royale-Spiel (man denke an Fortnite auf See) von Uprising Labs. Maelstrom bietet Echtzeit-Schiffskämpfe und eine integrierte On-Chain-Wirtschaft für Upgrades und Sammlerstücke. Bereits Off-Chain (auf Steam) verfügbar, wechselt Maelstrom zu Somnia, um Spielern echte Eigentümerschaft an Kriegsschiffen und Gegenständen zu ermöglichen. Es ist eines der zugänglicheren Web3-Spiele, das darauf abzielt, traditionelle Gamer durch die Mischung aus bekanntem Gameplay und Blockchain-Vorteilen an Bord zu holen.
  • Dark Table CCG: Ein On-Chain-Sammelkartenspiel, das bis zu 4 Spieler pro Match unterstützt. Es bietet Free-to-Play-Deckbau, wobei alle Karten als NFTs vorliegen, die Spieler besitzen und frei handeln können. Dark Table nutzt Somnia, um eine plattformübergreifende Kartenwirtschaft ohne zentrale Server zu betreiben, wodurch Spieler ihre Decks wirklich besitzen können. Es ist so konzipiert, dass es einfach zugänglich ist (kein Krypto-Kauf zum Start erforderlich), um sowohl Gelegenheits- als auch Wettkampf-Kartenspieler für Web3 zu gewinnen.
  • Netherak Demons: Ein Dark-Fantasy-Action-RPG, unterstützt von Somnias Dream Catalyst Accelerator. Spieler passen Dämonencharaktere an und nehmen an Echtzeit-PvE- und PvP-Kämpfen teil, mit einer NFT-Sammlung, die an den Spielfortschritt gebunden ist. Netherak nutzt Somnias Technologie, um eine persistente Charakterentwicklung On-Chain zu ermöglichen – die Errungenschaften und Beute der Spieler werden als Assets aufgezeichnet, die sie kontrollieren, was dem Gameplay eine bedeutungsvolle Bedeutung verleiht.
  • Masks of the Void: Ein Roguelite-Action-Adventure-Spiel mit prozedural generierten Levels, ebenfalls unterstützt von Uprising Labs. Es war ein geschlossener Playtest geplant, bei dem das Minten eines kostenlosen NFT frühen Zugang gewährt, was zeigt, wie Somnia NFT-Gating für Spielinhalte integrieren kann. Masks of the Void betont die Wiederspielbarkeit und Blockchain-verbesserte Progression (z. B. Meta-Game-Belohnungen, die von Run zu Run als NFTs bestehen bleiben).

Dies sind nur einige Highlights. Das Somnia-Gaming-Ökosystem umfasst viele Genres – von Marine-Shootern über Kartenspiele bis hin zu RPGs – was die breite Attraktivität der Plattform für Entwickler zeigt. All diese Spiele nutzen On-Chain-Funktionen (Eigentümerschaft von Gegenständen, Token für Belohnungen, NFT-Charaktere usw.), die eine Hochleistungs-Chain erfordern, um für Spieler angenehm zu sein. Frühe Ergebnisse sind vielversprechend: Zum Beispiel lief auf Somnias Testnet eine vollständig On-Chain-Sandbox-MMO-Demo namens „Chunked“ (von Improbable gebaut), bei der Tausende von Spielern in Echtzeit interagierten und in 5 Tagen 250 Millionen Transaktionen generierten – eine rekordverdächtige Last, die Somnias Fähigkeiten bestätigte.

Über das Gaming hinaus umfasst Somnias anfängliches Ökosystem weitere Web3-Bereiche:

  • Soziales und Metaverse: Somnia soll dezentrale soziale Netzwerke und virtuelle Welten antreiben, obwohl spezifische Apps noch in den Anfängen stecken. Es gibt jedoch Hinweise auf soziale Plattformen. Zum Beispiel hat Somnia mit Yuga Labs zusammengearbeitet, um Otherside-NFTs (aus dem Metaverse des Bored Ape Yacht Club) in Somnias Welt zu integrieren, wodurch diese Assets in immersiven Erlebnissen genutzt werden können. Community-gesteuerte Events wie BoredElon Musks Edison „Gamevents“ wurden 2023 mit Improbable-Technologie durchgeführt, und Somnia ist bereit, solche Metaverse-Events in Zukunft vollständig On-Chain zu bringen. Es gibt auch eine Somnia Metaverse Browser-Anwendung – im Wesentlichen ein benutzerdefinierter Web3-Browser/Wallet, der auf virtuelle Weltinteraktionen ausgerichtet ist und es Benutzern erleichtert, DApps und Metaverse-Erlebnisse in einer Oberfläche zu nutzen. Wenn das Netzwerk reift, werden soziale dApps (dezentrale Twitter-/Reddit-Analoga, Community-Hubs) und Metaverse-Plattformen auf Somnia starten, die seine Identitätsportabilität-Funktionen nutzen (Somnia unterstützt nativ MSquareds offene Standards für Avatar- und Asset-Interoperabilität über Welten hinweg).
  • DeFi und Sonstiges: Beim Start war Somnia nicht primär DeFi-fokussiert, aber einige Infrastruktur ist vorhanden. Es gibt Integrationen mit Preis-Orakeln wie DIA (für On-Chain-Preis-Feeds) und Chainlink VRF über Protofire-Adapter (für Zufälligkeit in Spielen). Einige DeFi-ähnliche Anwendungsfälle wurden diskutiert, wie z. B. vollständig On-Chain-Orderbuch-Börsen (Somnias geringe Latenz könnte das Order-Matching On-Chain ähnlich einer zentralisierten Börse ermöglichen). Wir können erwarten, dass ein AMM oder DEX erscheint (die Docs enthalten sogar eine Anleitung zum Bau eines DEX auf Somnia), und vielleicht neuartige Protokolle, die Gaming und Finanzen mischen (z. B. NFT-Lending oder tokenisierte Spiel-Asset-Märkte). Die Präsenz von Custody-Anbietern BitGo und Fireblocks als Partner deutet auch auf ein Auge auf die Unterstützung institutioneller und finanzieller Anwendungsfälle hin (sie machen das Halten von Token für Börsen und Fonds sicher). Darüber hinaus kann Somnias Technologie KI- und datenintensive Apps unterstützen (das Dreamthon-Programm fordert explizit KI- und InfoFi-Projekte), sodass wir Innovationen wie dezentrale KI-Agenten oder Datenmarktplätze auf der Chain sehen könnten.

Strategische Partnerschaften: Somnia wird von einer beeindruckenden Liste von Partnern und Unterstützern getragen:

  • Improbable und MSquared: Improbable – ein führendes Metaverse-Technologieunternehmen – ist der primäre Entwicklungspartner von Somnia. Improbable hat die Somnia-Blockchain im Auftrag der Somnia Foundation gebaut und dabei seine jahrzehntelange Expertise in verteilten Systemen eingebracht. MSquared (M²), eine von Improbable unterstützte Metaverse-Netzwerkinitiative, ist ebenfalls eng involviert. Zusammen haben Improbable und MSquared bis zu 270 Millionen US-Dollar zugesagt, um Somnias Entwicklung und Ökosystem zu unterstützen. Dieser enorme Investitionspool (Ankündigung Anfang 2025) stammte teilweise aus M²s 150 Millionen US-Dollar-Kapitalerhöhung im Jahr 2022 (die Andreessen Horowitz, SoftBank Vision Fund 2, Mirana und andere als Investoren umfasste) und 120 Millionen US-Dollar aus Improbables Venture-Allokation. Die Finanzierung unterstützt Zuschüsse, Marketing und das Onboarding von Projekten. Improbables Beteiligung bringt auch technische Integrationen: Somnia ist darauf ausgelegt, mit Improbables Morpheus-Technologie für massive virtuelle Events zusammenzuarbeiten. Im Jahr 2023 betrieb Improbable virtuelle Erlebnisse wie MLB’s Virtual Ballpark und K-Pop-Konzerte mit Zehntausenden gleichzeitiger Benutzer – diese Benutzer könnten bald in Somnia integriert werden, sodass Event-Interaktionen On-Chain-Assets oder Token ergeben. Improbable und MSquared stellen im Wesentlichen sicher, dass Somnia sowohl die finanzielle Grundlage als auch reale Anwendungsfälle (Metaverse-Events, Spiele) hat, um die Adoption anzukurbeln.
  • Infrastruktur & Web3-Dienste: Somnia integrierte sich vom ersten Tag an mit vielen großen Blockchain-Dienstleistern:
    • OpenSea: Der weltweit größte NFT-Marktplatz ist mit Somnia integriert, was bedeutet, dass Somnia-basierte NFTs auf OpenSea gehandelt werden können. Dies ist ein großer Gewinn für Spieleentwickler auf Somnia – ihre In-Game-NFTs (Charaktere, Skins usw.) haben sofortige Liquidität und Sichtbarkeit auf einem beliebten Marktplatz.
    • LayerZero: Somnia ist über LayerZeros Stargate-Protokoll mit anderen Chains verbunden, was Omnichain-Asset-Transfers und -Bridges ermöglicht. Zum Beispiel können Benutzer USDC oder andere Stablecoins einfach über Stargate von Ethereum nach Somnia bridgen. Diese Interoperabilität ist entscheidend, um Liquidität in Somnias Ökosystem zu bringen.
    • Ankr: Ankr bietet RPC-Nodes und globale Node-Infrastruktur. Es wird wahrscheinlich verwendet, um öffentliche RPC-Endpunkte, Node-Hosting und API-Dienste für Somnia anzubieten, was es Entwicklern erleichtert, auf das Netzwerk zuzugreifen, ohne eigene Full Nodes betreiben zu müssen.
    • Sequence (Horizon): Sequence ist eine Smart Contract-Wallet und Entwicklerplattform, die auf Spiele zugeschnitten ist (von Horizon). Die Integration mit Sequence deutet darauf hin, dass Somnia Smart Wallet-Funktionen (z. B. Gas-Abstraktionen, Login mit E-Mail/Social) nutzen kann, um Mainstream-Benutzer an Bord zu holen. Sequences Multi-Chain-Wallet hat wahrscheinlich Unterstützung für Somnia hinzugefügt, sodass Spieler Transaktionen mit einer benutzerfreundlichen Oberfläche signieren können.
    • Thirdweb: Thirdwebs Web3-SDKs und -Tools sind vollständig mit Somnia kompatibel. Thirdweb bietet Plug-and-Play-Module für NFT-Drops, Marktplätze, Token und insbesondere Account Abstraction. Tatsächlich enthalten Somnias Docs Anleitungen zu gaslosen Transaktionen und Account Abstraction über Thirdweb. Diese Partnerschaft bedeutet, dass Entwickler auf Somnia schnell DApps mit Thirdwebs Bibliotheken erstellen können und Benutzer von Funktionen wie der One-Click-Walletless-Onboarding profitieren können (Gasgebühren, die von der DApp gesponsert werden usw.).
    • DIA & Orakel: DIA ist ein dezentraler Orakel-Anbieter; Somnia verwendet DIA-Preis-Feeds für DeFi- oder In-Game-Wirtschaftsdaten. Zusätzlich arbeitete Somnia mit Protofire zusammen, um Chainlink VRF (verifizierbare Zufallsfunktion) für die Zufallszahlengenerierung in Somnia Smart Contracts anzupassen. Dies stellt sicher, dass Spiele sichere Zufälligkeit (für Loot-Drops usw.) erhalten können. Wir können weitere Orakel-Integrationen (vielleicht Chainlink Full Price Feeds in Zukunft) erwarten, je nach Bedarf von DeFi-Projekten.
  • Cloud- und Unternehmenspartner: Google Cloud investierte nicht nur, sondern betreibt auch einen Validator, was Glaubwürdigkeit und Expertise in der Cloud-Infrastruktur bietet. Die aktive Validierung des Netzwerks durch die Cloud-Sparte eines Tech-Giganten hilft bei der Zuverlässigkeit und öffnet Türen für Unternehmenskooperationen (z. B. könnte Google Cloud Blockchain-Node-Dienste für Somnia anbieten oder Somnia in seinen Marktplatz aufnehmen). Es gab auch Partnerschaften mit Fireblocks und BitGo – dies sind führende Anbieter von digitalen Asset-Custody und Wallets. Ihre Beteiligung bedeutet, dass Börsen und Institutionen SOMI und Somnia-basierte Assets vom ersten Tag an sicher verwahren können, was den Weg für SOMI-Listings und institutionelle Adoption ebnet. Tatsächlich listete Binance kurz nach dem Mainnet SOMI und präsentierte es in einer Werbe-Airdrop-Kampagne, wahrscheinlich durch diese Custody-Bereitschaft erleichtert.
  • Ökosystem-Wachstumsprogramme: Die Somnia Foundation hat ein 10 Millionen US-Dollar Grant Program eingerichtet, um Entwickler zu finanzieren, die auf Somnia aufbauen. Dieses Grant Program startete zusammen mit dem Mainnet, um die Entwicklung von Tools, DApps, Forschung und Community-Initiativen zu fördern. Ergänzt wird es durch Dream Catalyst, Somnias Accelerator speziell für Web3-Gaming-Startups. Dream Catalyst (betrieben mit Uprising Labs) bietet Finanzierung, Infrastruktur-Credits, Mentoring und Go-to-Market-Support für Spielestudios, die auf Somnia aufbauen. Mindestens ein halbes Dutzend Spiele (wie Netherak Demons und andere) waren Teil der ersten Dream Catalyst-Kohorte und erhielten Teile dieses 10 Millionen US-Dollar-Fonds. Es gibt auch Dreamthon, ein bevorstehendes Accelerator-Programm für andere Vertikalen – mit Fokus auf DeFi, KI, „InfoFi“ (Informationsmärkte) und SocialFi-Projekte im Somnia-Ökosystem. Zusätzlich organisierte Somnia während des gesamten Testnets Online-Hackathons und Quests: zum Beispiel ein 60-tägiges Somnia Odyssey-Event, das Benutzer für das Erledigen von Aufgaben belohnte und wahrscheinlich in einem Airdrop gipfelte. Frühe Benutzer konnten „Punkte“ und NFTs für das Testen von dApps verdienen (ein Punkteprogramm), und Mini-Hackathons sind geplant, um Entwickler kontinuierlich zu engagieren. Dieser vielschichtige Ansatz – Zuschüsse, Acceleratoren, Hackathons, Community-Quests – zeigt Somnias starkes Engagement, schnell ein lebendiges Ökosystem aufzubauen, indem Barrieren abgebaut und Experimentatoren finanziert werden.

Zusammenfassend lässt sich sagen, dass Somnia nicht isoliert gestartet ist, sondern von einer mächtigen Allianz aus Technologieunternehmen, Investoren und Dienstleistern unterstützt wird. Improbables Unterstützung verleiht ihm modernste Technologie und eine Pipeline massiver virtueller Events. Partnerschaften mit Unternehmen wie Google Cloud, Binance, LayerZero, OpenSea und anderen stellen sicher, dass Somnia von Anfang an in die breitere Krypto-Infrastruktur eingebunden ist, was seine Attraktivität für Entwickler (die zuverlässige Tools und Liquidität wünschen) und für Benutzer (die einfaches Bridging und Handeln von Assets fordern) erhöht. Gleichzeitig bauen eine Reihe von Web3-Spielen – Sparkball, Variance, Maelstrom und weitere – aktiv auf Somnia auf, um die erste Welle vollständig On-Chain-Unterhaltung zu sein, die die Fähigkeiten des Netzwerks demonstriert. Mit Dutzenden von Projekten, die live oder in Entwicklung sind, war Somnias Ökosystem beim Mainnet-Start bereits reicher als einige Chains Jahre nach dem Start. Diese starke Dynamik wird wahrscheinlich weiter zunehmen, da die Zuschüsse und Partnerschaften weiterhin Früchte tragen und Somnia in den kommenden Jahren möglicherweise als zentraler Hub für On-Chain-Gaming und Metaverse-Anwendungen positionieren.

Entwickler- und Benutzerinfrastruktur

Somnia wurde entwickelt, um entwicklerfreundlich zu sein und potenziell Millionen von Benutzern an Bord zu holen, die möglicherweise nicht kryptoaffin sind. Als EVM-kompatible Chain unterstützt es die vertraute Ethereum-Toolchain sofort, bietet aber auch benutzerdefinierte SDKs und Dienste, um das Entwicklererlebnis und das Benutzer-Onboarding zu verbessern.

Entwickler-Tools und Kompatibilität: Somnia behält die volle Ethereum Virtual Machine-Kompatibilität bei, was bedeutet, dass Entwickler Smart Contracts in Solidity oder Vyper schreiben und mit minimalen Änderungen bereitstellen können. Das Netzwerk unterstützt Standard-Ethereum-RPC-Schnittstellen und Chain-ID, sodass Tools wie Hardhat, Truffle, Foundry und Bibliotheken wie Web3.js oder ethers.js nahtlos funktionieren (die Somnia-Docs bieten sogar spezifische Anleitungen für die Bereitstellung mit Hardhat und Foundry). Dies senkt die Lernkurve erheblich – jeder Solidity-Entwickler kann ein Somnia-Entwickler werden, ohne eine neue Sprache oder VM lernen zu müssen.

Um die Entwicklung und das Testen zu beschleunigen, startete Somnia eine interaktive Playground-Umgebung. Der Playground ermöglicht es Teams (insbesondere Gaming-/Metaverse-Teams), On-Chain-Logik reibungsarm zu prototypisieren, indem sie Vorlagen für NFTs, Minispiele, soziale Token usw. verwenden. Er bietet wahrscheinlich ein Sandbox-Netzwerk oder ein Entwicklerportal für schnelle Iterationen. Zusätzlich ist Somnias GitBook-Dokumentation umfassend und deckt alles ab, von der Bereitstellung von Smart Contracts bis zur Verwendung erweiterter Funktionen (wie Ormi APIs, siehe unten).

Somnia SDKs und APIs: Somnia erkannte, dass das effiziente Abfragen von On-Chain-Daten genauso wichtig ist wie das Schreiben von Smart Contracts, und ging eine Partnerschaft mit Ormi Labs ein, um robuste Datenindizierungs- und API-Dienste bereitzustellen. Ormi ist im Wesentlichen Somnias Antwort auf The Graph: Es bietet Subgraphen und GraphQL-APIs zum Indizieren von Smart Contract-Events und -Zuständen. Entwickler können benutzerdefinierte Subgraphen für ihre DApps erstellen (z. B. um alle Spielgegenstands-NFTs oder sozialen Beiträge zu indizieren) über Ormi und diese Daten dann einfach abfragen. Die Ormi Data APIs liefern strukturierte On-Chain-Daten mit hoher Verfügbarkeit, sodass Frontend-Anwendungen keine eigenen Indexer-Nodes betreiben müssen. Dies vereinfacht die Erstellung reichhaltiger Benutzeroberflächen auf Somnia erheblich. Somnia hat Codelabs und Tutorials durchgeführt, die zeigen, wie man dApp-UIs mit Ormis GraphQL-Endpunkten erstellt, was eine starke Unterstützung für diese Tools zeigt. Kurz gesagt, Somnia bietet erstklassige Indizierungsunterstützung, die für Dinge wie Bestenlisten in Spielen oder Feeds in sozialen Apps entscheidend ist – Daten, die schnell gefiltert und abgerufen werden müssen.

Zusätzlich zu Ormi listet Somnias Infrastrukturseite mehrere öffentliche RPC-Endpunkte und Explorer-Dienste auf:

  • RPC-Endpunkte von Anbietern wie Ankr (für den öffentlichen Zugang zum Netzwerk).
  • Block-Explorer: Es scheint, dass Somnia einen Testnet-Explorer („Shannon“) und vermutlich einen Mainnet-Explorer zur Verfolgung von Transaktionen und Konten hatte. Explorer sind für Entwickler und Benutzer unerlässlich, um Transaktionen zu debuggen und On-Chain-Aktivitäten zu überprüfen.
  • Safes (Multisig): Die Docs erwähnen „Safes“, wahrscheinlich die Integration mit Safe (ehemals Gnosis Safe) für Multi-Signatur-Wallets. Dies bedeutet, dass DAOs oder Spielestudios auf Somnia sichere Multisig-Wallets verwenden können, um ihre Treasury oder In-Game-Assets zu verwalten. Die Safe-Integration ist ein weiteres Infrastrukturstück, das Somnia unternehmens- und DAO-fähig macht.
  • Wallet-Adapter: Viele beliebte Web3-Wallets werden unterstützt. MetaMask kann sich mit Somnia verbinden, indem die Netzwerk-RPC konfiguriert wird (die Docs leiten Benutzer durch das Hinzufügen von Somnias Netzwerk zu MetaMask). Für ein nahtloseres Benutzererlebnis arbeitete Somnia mit RainbowKit und ConnectKit (React-Bibliotheken für Wallet-Verbindungen) zusammen, um sicherzustellen, dass DApp-Entwickler Benutzern einfach ermöglichen können, sich mit einer Vielzahl von Wallets zu verbinden. Es gibt auch eine Anleitung zur Verwendung von Privy (eine Wallet-Lösung, die sich auf benutzerfreundliches Login konzentriert).
  • Account Abstraction: Über Thirdwebs SDK unterstützt Somnia Account Abstraction-Funktionen. Zum Beispiel können Thirdwebs Smart Wallet oder Account Abstraction SDK auf Somnia verwendet werden, um Meta-Transaktionen (gaslose UX) oder Social-Login-Wallets zu ermöglichen. Die Docs beschreiben explizit gaslose Transaktionen mit Thirdweb, was bedeutet, dass DApps Gas im Namen von Benutzern bezahlen können – eine entscheidende Fähigkeit für die Mainstream-Adoption, da Endbenutzer möglicherweise nicht einmal SOMI halten müssen, um ein Spiel zunächst zu spielen.

Benutzer-Onboarding und Community-Engagement: Somnias Team war proaktiv beim Aufbau einer Community von Entwicklern und Endbenutzern:

  • Der Somnia Discord ist der zentrale Hub für Entwickler (mit einem dedizierten Dev-Chat und Support vom Kernteam). Während des Testnets konnten Entwickler Test-Token (STT) über Discord anfordern, um ihre Smart Contracts bereitzustellen und zu testen. Dieser direkte Support-Kanal half vielen Projekten beim Onboarding.
  • Für Endbenutzer organisierte Somnia Events wie die Somnia Quest und die Somnia Odyssey. Die Quest war eine Kampagne im Juni 2025, bei der Benutzer soziale und Testnet-Aufgaben (wie Folgen auf X, Beitritt zu Discord, Ausprobieren von DApps) erledigten, um Belohnungen zu verdienen und eine Bestenliste zu erklimmen. Die Odyssey (erwähnt in einem Blog vom 9. September 2025) war ein 60-tägiges Abenteuer, das wahrscheinlich zum Mainnet führte, bei dem Benutzer, die konsequent mit Testnet-Apps interagierten oder etwas über Somnia lernten, einen Airdrop freischalten konnten. Tatsächlich verteilte Binances HODLer Airdrop am 1. September 2025 30 Millionen SOMI (3 % des Angebots) an Binance-Benutzer, die bestimmte Kriterien erfüllten. Dies war ein großes Benutzerakquisitionsereignis, das Tausenden von Krypto-Benutzern effektiv einen Anteil an Somnia und einen Anreiz gab, das Netzwerk auszuprobieren. Der Airdrop und verschiedene Quests haben Somnia geholfen, eine anfängliche Benutzerbasis und Social-Media-Präsenz aufzubauen (Somnias Twitter – jetzt X – und andere Kanäle sind schnell gewachsen).
  • Metaverse Browser: Wie erwähnt, führte Somnia eine spezialisierte Metaverse Browser-Anwendung ein. Dies dient wahrscheinlich als benutzerfreundliches Gateway, über das jemand eine Wallet erstellen, Somnia-DApps durchsuchen und nahtlos an virtuellen Events teilnehmen kann. Es verfügt über eine integrierte Web3-Wallet und eine einfache Oberfläche für den Zugriff auf DApps. Diese Art von kuratierter Erfahrung könnte Nicht-Krypto-Benutzern den Einstieg in die Blockchain erleichtern (zum Beispiel könnte ein Gamer den Somnia-Browser herunterladen und an einem virtuellen Konzert teilnehmen, bei dem der Browser die Wallet-Erstellung und Token-Transaktionen im Hintergrund abwickelt).
  • Entwickler-Accelerator-Programme: Wir haben Dream Catalyst und Dreamthon unter Ökosystem behandelt, aber aus der Perspektive der Entwicklerinfrastruktur stellen diese Programme auch sicher, dass neue Entwickler Anleitung und Ressourcen erhalten. Dream Catalyst bot nicht nur Finanzierung, sondern auch Infrastruktur-Tools und Community-Building-Support. Das bedeutet, dass teilnehmende Teams wahrscheinlich Hilfe bei der Integration von Somnias SDKs, der Optimierung ihrer Smart Contracts für Somnias Architektur usw. erhielten.

In Bezug auf Dokumentation und Ressourcen:

  • Somnia bietet ein Lightpaper und OnePager für schnelle Übersichten (auf ihrer Website verlinkt) und ein detaillierteres Litepaper/Whitepaper in den Docs (der von uns referenzierte Abschnitt „Concepts“ dient diesem Zweck).
  • Sie haben Beispiel-Repositories und Code-Vorlagen (zum Beispiel, wie man einen DEX baut, wie man Subgraphen verwendet, wie man Wallets integriert – alles in ihrem offiziellen GitBook bereitgestellt). Durch die Bereitstellung dieser senkt Somnia die Eintrittsbarriere für Entwickler von anderen Chains, die schnell etwas zum Laufen bringen wollen.
  • Audits: Die Docs erwähnen einen Audits-Abschnitt, was impliziert, dass der Somnia-Code externen Sicherheitsaudits unterzogen wurde. Obwohl in unseren Quellen keine Details angegeben sind, ist dies eine wichtige Infrastruktur – sie stellt sicher, dass die Node-Software und wichtige Smart Contracts (wie die Staking- oder Token-Smart Contracts) auditiert werden, um Entwickler und Benutzer zu schützen.

Insgesamt erscheint Somnias Entwicklerinfrastruktur gut durchdacht: EVM-Kompatibilität für Vertrautheit, erweitert durch benutzerdefinierte Daten-APIs, integrierte Account Abstraction und starke Entwicklerunterstützung. Für Benutzer zielt die Kombination aus extrem niedrigen Gebühren, möglichen gaslosen Transaktionen und spezialisierten Anwendungen (Metaverse Browser, Quests usw.) darauf ab, ein Web2-Niveau-Benutzererlebnis auf einer Web3-Plattform zu bieten. Somnias früher Fokus auf Community-Engagement (Airdrops, Quests) zeigt eine Growth-Hacking-Mentalität – das Netzwerk mit Inhalten und Benutzern zu versorgen, damit Entwickler einen Grund zum Bauen haben und umgekehrt. Wenn Somnia wächst, können wir noch verfeinerte SDKs (vielleicht Plugins für Unity/Unreal für Spieleentwickler) und kontinuierliche Verbesserungen der Benutzer-Wallets (vielleicht native mobile Wallets oder Social Logins) erwarten. Die beträchtliche Finanzierung der Stiftung stellt sicher, dass sowohl Entwickler als auch Benutzer mit den Tools unterstützt werden, die sie benötigen, um auf Somnia erfolgreich zu sein.

Anwendungsfälle und Anwendungen

Somnia wurde speziell entwickelt, um eine neue Klasse dezentraler Anwendungen zu ermöglichen, die zuvor aufgrund von Blockchain-Einschränkungen undurchführbar waren. Sein hoher Durchsatz und seine geringe Latenz öffnen die Tür zu vollständig On-Chain, Echtzeit-Erlebnissen in verschiedenen Bereichen:

  • Gaming (GameFi): Dies ist Somnias Hauptfokus. Mit Somnia können Entwickler Spiele entwickeln, bei denen jede Spielaktion (Bewegung, Kampf, Item-Drops, Handel) in Echtzeit On-Chain aufgezeichnet oder ausgeführt werden kann. Dies bedeutet echte Eigentümerschaft an In-Game-Assets – Spieler halten ihre Charaktere, Skins, Karten oder Beute als NFTs/Token in ihren eigenen Wallets, nicht in der Datenbank eines Spieleunternehmens. Ganze Spielökonomien können On-Chain laufen, was Funktionen wie Play-to-Earn-Belohnungen, Peer-to-Peer-Handel ohne Zwischenhändler und Community-gesteuerte Spielmodifikationen ermöglicht. Entscheidend ist, dass Somnias Kapazität (1M+ TPS) und schnelle Finalität On-Chain-Spiele reaktionsschnell machen. Zum Beispiel kann ein Action-RPG auf Somnia Tausende von Spieleraktionen pro Sekunde ohne Verzögerung ausführen, oder ein Sammelkartenspiel kann sofortige Züge und Mischungen On-Chain haben. Somnias Account Abstraction und niedrige Gebühren ermöglichen es Spielen auch, potenziell Gas für Spieler zu übernehmen, was das Erlebnis nahtlos macht (Spieler merken möglicherweise nicht einmal, dass eine Blockchain im Hintergrund läuft). Die Plattform sieht explizit „vollständig On-Chain-Spiele im Internet-Maßstab“ vor – persistente virtuelle Welten oder MMOs, bei denen der Spielzustand auf Somnia lebt und so lange fortbesteht, wie die Community ihn am Leben erhält. Da Assets On-Chain sind, könnte ein Spiel auf Somnia sogar unter Community-Kontrolle weiterentwickelt werden, wenn der ursprüngliche Entwickler ausscheidet – ein im Web2 unmögliches Konzept. Aktuelle Beispiele: Sparkball demonstriert einen On-Chain-Multiplayer-Sport-Brawler; Chunked (die Improbable-Tech-Demo) zeigte eine Minecraft-ähnliche Sandbox vollständig On-Chain mit echten Benutzerinteraktionen; Variance und Maelstrom werden zeigen, wie reichhaltigere RPG- und Battle-Royale-Erlebnisse in die Blockchain übersetzt werden. Das ultimative Versprechen sind Spiele, bei denen Hunderttausende von Spielern gleichzeitig in einer gemeinsamen On-Chain-Welt spielen – etwas, das Somnia einzigartig handhaben kann.
  • Soziale Netzwerke und Web3-Social Media: Mit Somnia könnte man eine dezentrale soziale Plattform aufbauen, bei der Benutzerprofile, Beiträge, Follower und Likes alle On-Chain-Daten unter Benutzerkontrolle sind. Zum Beispiel könnte eine Twitter-ähnliche DApp auf Somnia jeden Tweet als On-Chain-Nachrichten-NFT und jeden Follow als On-Chain-Beziehung speichern. In einem solchen Netzwerk besitzen Benutzer wirklich ihre Inhalte und ihren sozialen Graphen, die problemlos auf andere Apps portiert werden könnten. Somnias Skalierung bedeutet, dass ein sozialer Feed virale Aktivitäten (Millionen von Beiträgen und Kommentaren) ohne Abstürze bewältigen könnte. Und Finalität im Subsekundenbereich bedeutet, dass Interaktionen (Posten, Kommentieren) nahezu sofort erscheinen, wie Benutzer es im Web2 erwarten. Ein Vorteil von On-Chain-Social ist die Zensurresistenz – kein einzelnes Unternehmen kann Ihre Inhalte löschen oder Ihr Konto sperren – und die Datenportabilität – Sie könnten zu einem anderen Frontend oder Client wechseln und Ihre Follower/Inhalte behalten, weil sie auf einem öffentlichen Ledger liegen. Das Somnia-Team erwähnt explizit dezentrale soziale Netzwerke, die auf selbstsouveräner Identität und portablen sozialen Graphen basieren, als Kernanwendungsfall. Sie sehen auch eine User Assembly Governance vor, bei der wichtige Benutzer ein Mitspracherecht haben (dies könnte sich darauf beziehen, wie soziale Netzwerke Inhalte dezentral moderieren). Ein konkretes frühes Beispiel sind wahrscheinlich Community-Foren innerhalb von Spielen – z. B. könnte ein Spiel auf Somnia einen On-Chain-Gilden-Chat oder ein Event-Board haben, das dezentral ist. Langfristig könnte Somnia jedoch vollwertige Alternativen zu Facebook oder Twitter hosten, insbesondere für Communities, die Freiheit und Eigentümerschaft schätzen. Ein weiterer interessanter Aspekt sind Creator-eigene Plattformen: Stellen Sie sich einen YouTube-ähnlichen Dienst auf Somnia vor, bei dem Video-NFTs Inhalte repräsentieren und Creator direkt über Mikrotransaktionen oder tokenisiertes Engagement verdienen. Somnias Durchsatz könnte die Metadaten und Interaktionen bewältigen (obwohl die Videospeicherung Off-Chain wäre), und seine günstigen Transaktionen ermöglichen Mikro-Tipping und Token-Belohnungen für die Inhaltserstellung.
  • Metaverse und virtuelle Welten: Somnia bietet die Identitäts- und Wirtschaftsinfrastruktur für Metaversen. In der Praxis bedeutet dies, dass virtuelle Weltplattformen Somnia für Avatar-Identitäten, Cross-World-Assets und Transaktionen innerhalb virtueller Erlebnisse nutzen können. MSquareds offene Standards für Avatare/Assets werden auf Somnia unterstützt, sodass der 3D-Avatar oder digitale Modeartikel eines Benutzers als Token auf Somnia dargestellt und über verschiedene Welten hinweg portiert werden können. Zum Beispiel könnten Sie einen einzigen Avatar-NFT haben, den Sie in einem virtuellen Konzert, einem Sporttreffen und einem Spiel verwenden – alles auf Somnia-basierten Plattformen. Da Improbable massive Events (wie virtuelle Sport-Watch-Partys, Musikfestivals usw.) orchestriert, kann Somnia die Wirtschaftsschicht handhaben: das Minten von POAPs (Proof-of-Attendance-Token), den Verkauf von virtuellem Merchandise als NFTs, die Belohnung von Teilnehmern mit Token und die Ermöglichung von Peer-to-Peer-Handel in Echtzeit während der Events. Somnias Fähigkeit, Zehntausende gleichzeitiger Benutzer in einem gemeinsamen Zustand zu unterstützen (durch Multi-Stream-Konsens), ist entscheidend für Metaverse-Szenarien, in denen eine große Menschenmenge gleichzeitig Transaktionen durchführen oder interagieren könnte. Die MLB Virtual Ballpark- und K-Pop-Events im Jahr 2023 (vor Somnia) erreichten Tausende von Benutzern; mit Somnia könnten diese Benutzer jeweils Wallets und Assets haben, was Dinge wie einen Live-NFT-Drop an alle im „Stadion“ oder ein Echtzeit-Token-Scoreboard für die Event-Teilnahme ermöglicht. Im Wesentlichen kann Somnia eine persistente, interoperable Metaverse-Wirtschaft untermauern: Stellen Sie es sich als das Ledger vor, das aufzeichnet, wer was über viele miteinander verbundene virtuelle Welten hinweg besitzt. Dies unterstützt Anwendungsfälle wie virtuelle Immobilien (Land-NFTs), die gehandelt oder beliehen werden können, Cross-World-Quest-Belohnungen (erledige ein Ziel in Spiel A, erhalte einen in Welt B nutzbaren Gegenstand) oder sogar Identitätsreputation (On-Chain-Aufzeichnungen der Errungenschaften oder Anmeldeinformationen eines Benutzers über Plattformen hinweg).
  • Dezentrale Finanzen (DeFi): Obwohl Somnia hauptsächlich als Consumer-App-Chain positioniert ist, eröffnet seine hohe Leistung einige faszinierende DeFi-Möglichkeiten. Zum einen kann Somnia Hochfrequenzhandel und komplexe Finanzinstrumente On-Chain hosten. Das Team erwähnt explizit vollständig On-Chain-Limit-Orderbücher. Auf Ethereum sind Orderbuch-Börsen unpraktisch (zu langsam/teuer), weshalb DeFi AMMs verwendet. Aber auf Somnia könnte ein DEX einen Orderbuch-Smart Contract führen und Orders in Echtzeit abgleichen, genau wie eine zentralisierte Börse, weil die Chain Tausende von Operationen pro Sekunde verarbeiten kann. Dies könnte CEX-ähnliche Funktionalität und Liquidität On-Chain mit Transparenz und Self-Custody bringen. Ein weiterer Bereich ist das Echtzeit-Risikomanagement: Somnias Geschwindigkeit könnte On-Chain-Derivate ermöglichen, die Margenanforderungen jede Sekunde aktualisieren, oder Live-Options-Orderbücher. Darüber hinaus könnte Somnia mit seiner transienten Speicherfunktion Dinge wie ephemere Versicherungsverträge oder Streaming-Zahlungen unterstützen, die nur für kurze Zeit existieren. DeFi-Protokolle auf Somnia könnten auch sein deterministisches Gas für vorhersehbarere Kosten nutzen. Zum Beispiel könnte eine Mikrokreditplattform auf Somnia problemlos winzige Transaktionen (wie 0,01 US-Dollar Zinszahlungen pro Minute) verarbeiten, da die Gebühren Bruchteile eines Cents betragen. Somnia könnte also Web3-Mikrotransaktionen und Zahlungsströme in DeFi und darüber hinaus antreiben (etwas, das Ethereum in großem Maßstab wirtschaftlich nicht leisten kann). Zusätzlich könnte Somnias Fähigkeit, Daten zu komprimieren und Signaturen zu aggregieren, das Batching von Tausenden von Transfers oder Trades in einem Block ermöglichen, was den Durchsatz für DeFi-Anwendungsfälle wie Airdrops oder Massenauszahlungen weiter steigert. Obwohl DeFi nicht der Marketingfokus ist, wird wahrscheinlich ein effizientes Finanzökosystem auf Somnia entstehen, um die Spiele und Metaversen zu unterstützen (z. B. DEXes für Spiel-Token, Lending-Märkte für NFTs usw.). Wir könnten spezialisierte Protokolle sehen, zum Beispiel eine NFT-Fraktionalisierungsbörse, auf der Gaming-Items fraktional gehandelt werden können – Somnia kann die sprunghafte Nachfrage bewältigen, wenn ein beliebtes Item plötzlich stark ansteigt.
  • Identität und Anmeldeinformationen: Somnias Kombination aus selbstsouveräner Identität und hoher Kapazität ermöglicht On-Chain-Identitätssysteme, die für Authentifizierung, Reputation und Anmeldeinformationen im Web3 verwendet werden könnten. Zum Beispiel könnte ein Benutzer einen Identitäts-NFT oder Soulbound-Token auf Somnia haben, der seine Errungenschaften bezeugt (wie „X Spiel-Quests abgeschlossen“ oder „Y Events besucht“ oder sogar Off-Chain-Anmeldeinformationen wie Abschlüsse oder Mitgliedschaften). Diese könnten über mehrere Anwendungen hinweg verwendet werden. Der portable soziale Graph eines Benutzers – wer seine Freunde sind, welchen Communities er angehört – kann auf Somnia gespeichert und von einem Spiel oder einer sozialen Plattform zur nächsten mitgenommen werden. Dies ist mächtig, um die Silos des Web2 aufzubrechen: Stellen Sie sich vor, Sie wechseln eine soziale App, behalten aber Ihre Follower, oder ein Gamer-Profil, das Ihre Geschichte in neue Spiele mitnimmt (was Ihnen vielleicht Veteranen-Vorteile einbringt). Mit Somnias Governance-Modell, das eine User Assembly (wichtige Benutzer, die Aufsicht führen) integriert, könnten wir auch identitätsbasierte Governance sehen, bei der Benutzer mit nachgewiesener Teilnahme mehr Mitspracherecht bei bestimmten Entscheidungen erhalten (alles On-Chain über diese Anmeldeinformationen durchsetzbar). Ein weiterer Anwendungsfall sind Content Creator Economies – ein Creator könnte seinen eigenen Token oder seine NFT-Serie auf Somnia an seine Fangemeinde ausgeben, und diese könnten den Zugang über verschiedene Plattformen hinweg freischalten (Videos, Chats, virtuelle Events). Da Somnia große Volumina verarbeiten kann, könnte ein beliebter Creator mit Millionen von Fans Abzeichen an alle airdroppen oder Mikro-Tipping in Echtzeit während eines Live-Streams handhaben.
  • Echtzeit-Webdienste: Im Großen und Ganzen kann Somnia als dezentrales Backend für Dienste fungieren, die sofortige Antworten erfordern. Man denke an eine dezentrale Messaging-App, bei der Nachrichten On-Chain-Events sind – mit Finalität im Subsekundenbereich könnten zwei Benutzer über Somnia chatten und Nachrichten nahezu sofort und unveränderlich erscheinen sehen (vielleicht mit Verschlüsselung des Inhalts, aber Zeitstempel und Proofs On-Chain). Oder ein Online-Marktplatz, bei dem Bestellungen und Angebote Smart Contracts sind – Somnia könnte Inventar und Verkäufe in Echtzeit aktualisieren, Doppel-Ausgaben von Gegenständen verhindern und atomare Swaps von Waren gegen Bezahlung ermöglichen. Sogar Streaming-Plattformen könnten Blockchain für das Rechte-Management integrieren: z. B. könnte ein Musik-Streaming-Dienst auf Somnia die Wiedergabezahlen von Songs und Lizenz-Mikrozahlungen an Künstler alle paar Sekunden der Wiedergabe verwalten (weil er Hochfrequenz-Kleintransaktionen verarbeiten kann). Im Wesentlichen ermöglicht Somnia Web2-Niveau-Interaktivität mit Web3-Vertrauen und Eigentümerschaft. Jede Anwendung, bei der viele Benutzer gleichzeitig interagieren (Auktionen, Multiplayer-Kollaborationstools, Live-Daten-Feeds), könnte auf Somnia dezentralisiert werden, ohne die Leistung zu opfern.

Aktueller Status der Anwendungsfälle: Ende 2025 drehen sich die greifbarsten Anwendungsfälle auf Somnia um Gaming und Sammlerstücke – mehrere Spiele befinden sich in der Test- oder Early-Access-Phase im Mainnet, und NFT-Sammlungen (Avatare, Spiel-Assets) werden auf Somnia gemintet. Das Netzwerk hat erfolgreich riesige Test-Events (Milliarden von Testnet-Transaktionen, groß angelegte Demos) ermöglicht, die beweisen, dass diese Anwendungsfälle nicht nur theoretisch sind. Der nächste Schritt ist die Umwandlung dieser Tests in kontinuierliche Live-Anwendungen mit echten Benutzern. Frühe Anwender wie Sparkball und Variance werden wichtige Lackmustests sein: Wenn sie Tausende von täglichen Spielern auf Somnia anziehen können, wird die Chain wirklich ihre Muskeln spielen lassen und vielleicht noch mehr Spieleentwickler anziehen.

Potenzielle zukünftige Anwendungen sind spannend zu betrachten. Zum Beispiel nationale oder unternehmensweite Projekte: Eine Regierung könnte Somnia verwenden, um eine digitale ID auszugeben oder eine Wahl On-Chain abzuwickeln (Millionen von Stimmen in Sekunden, mit Transparenz), oder eine Börse könnte es für den Handel mit tokenisierten Wertpapieren mit hoher Frequenz verwenden. Der für Dreamthon erwähnte InfoFi-Teil deutet auf Dinge wie dezentrales Reddit oder Vorhersagemärkte (massive Anzahl kleiner Wetten und Abstimmungen) hin, die Somnia antreiben könnte.

Zusammenfassend lässt sich sagen, dass Somnias Anwendungsfälle Gaming, Social, Metaverse, DeFi, Identität und darüber hinaus umfassen, alle durch einen gemeinsamen Faden verbunden: Echtzeit-, massenhafte Transaktionen mit vollem On-Chain-Vertrauen. Es zielt darauf ab, Erlebnisse, die normalerweise zentralisierten Servern vorbehalten sind, in den dezentralen Bereich zu bringen. Wenn Ethereum dezentrale Finanzen vorangetrieben hat, ist Somnias Ambition, dezentrales Leben – von Unterhaltung bis zu sozialen Verbindungen – voranzutreiben, indem es endlich die Leistung liefert, die für Mainstream-Anwendungen benötigt wird. Wenn das Netzwerk reift, werden wir wahrscheinlich neue Innovationen sehen, die seine einzigartigen Funktionen nutzen (z. B. Spiele, die transienten Zustand für Physiksimulationen verwenden, oder soziale Apps, die Streaming-Komprimierung verwenden, um Millionen winziger Aktionen zu verarbeiten). Die nächsten ein bis zwei Jahre werden zeigen, welche dieser potenziellen Anwendungen an Zugkraft gewinnen und Somnias Versprechen in der Praxis beweisen.

Wettbewerbslandschaft

Somnia betritt eine überfüllte Layer-1-Arena, aber es hebt sich durch seinen extremen Durchsatz und seinen Fokus auf vollständig On-Chain-Verbraucheranwendungen ab. Hier ist ein Vergleich von Somnia mit einigen anderen prominenten L1-Blockchains:

AspektSomnia (SOMI)Ethereum (ETH)Solana (SOL)Avalanche (AVAX)Sui (SUI)
Start (Mainnet)2025 (Q3) – neuer Akteur, unterstützt von Improbable2015 (Vorreiter, jetzt L1 + L2 Ökosystem)2020 (Hochleistungs-monolithische L1)2020 (Multi-Chain-Plattform: P-Chain, C-Chain, Subnetze)2023 (Move-basierte L1)
KonsensmechanismusMultiStream PoS-BFT: Viele parallele Validator-Chains + PBFT-Konsenskette (inspiriert von Autobahn). PoS mit ~100 Validatoren.Proof-of-Stake + Nakamoto-Konsens (Gasper): ~700k Validatoren (permissionless). Blöcke alle ~12 Sek., finalisiert in ~2 Epochen (≈12 Min.) in aktueller Form.Tower BFT PoS unter Verwendung von Proof-of-History für das Timing. ~2200 Validatoren. Rotierender Leader, parallele Blockverarbeitung.Snowman (Avalanche) Konsens auf der P-Chain, mit leaderlosem, wiederholtem Subsampling. ~1000 Validatoren. C-Chain verwendet PoS Ethereum-ähnlichen Konsens (Snowman). Subnetze können benutzerdefinierte Konsense verwenden.Narwhal & Bullshark DAG-basierter PoS mit sofortiger Leader-Rotation. ~100 Validatoren (permissionless wachsende Menge). Verwendet Move-VM.
Durchsatz1.000.000+ TPS in Tests demonstriert (1,05M ERC-20 TX/Sek. auf 100 Nodes). Zielt auf Internet-Skalierung ab (Millionen+ TPS dauerhaft).~15–30 TPS auf Mainnet L1. Skaliert über L2-Rollups (theoretisch unbegrenzt, aber jeder Rollup ist separat).~2.000–3.000 TPS typisch; auf Testnet bis zu ~50k TPS getestet (theoretisch 65k+ TPS). Hochgradig parallel für nicht überlappende TX.~4.500 TPS auf der C-Chain (EVM) unter idealen Bedingungen. Subnetze ermöglichen horizontale Skalierung durch Hinzufügen weiterer Chains.~20.000+ TPS in Tests (Sui Devnet erreichte in einem Benchmark 297k TPS). Realer TPS ist niedriger (Hunderte bis niedrige Tausende). Verwendet parallele Ausführung für unabhängige Transaktionen.
Transaktionsfinalität~0,1–0,5 Sekunden (Finalität im Subsekundenbereich, deterministisch). Im Wesentlichen Echtzeit.~12 Sekunden Blockzeit, ~6-12 Minuten für probabilistische Finalität (mit PoS, final nach ~2 Epochen). Zukünftige Upgrades (Danksharding/PoS-Anpassungen) können die Zeit reduzieren.~0,4 Sekunden Blockzeit im Durchschnitt. Finalität normalerweise innerhalb von ~1-2 Sekunden (Solana-Blöcke werden schnell finalisiert, abgesehen von Forks).~1–2 Sekunden bis zur Finalität auf der C-Chain (Avalanche-Konsens hat schnelle Finalität). Subnetz-Finalität kann variieren, aber im Allgemeinen 1-3s.~1 Sekunde typische Finalität (Suis Konsens finalisiert Transaktionen unter optimistisch guten Netzwerkbedingungen sehr schnell).
SkalierungsmodellScale-up (vertikal) + parallele Streams: Eine Chain mit massivem Durchsatz durch optimierte Ausführung + Multi-Leader-Konsens. Kein Sharding erforderlich; ein globaler Zustand. Pläne zur Erweiterung der Validatoren, wenn die Technologie reift.Layer-2-Skalierung & Sharding (Zukunft): Ethereum selbst bleibt dezentralisiert, aber niedriger TPS; skaliert über Rollups (Arbitrum, Optimism usw.) darüber. Sharding ist auf der Roadmap (Danksharding), um den L1-Durchsatz moderat zu erhöhen.Monolithische Chain: Der gesamte Zustand auf einer Chain. Verlässt sich auf hohe Node-Leistung und parallele Ausführung. Kein Sharding (Solana opfert etwas Dezentralisierung für rohen TPS).Subnetz & mehrere Chains: Avalanche P-Chain verwaltet Validatoren; C-Chain (EVM) ist eine Chain (~4,5k TPS). Zusätzliche Subnetze können für neue Apps gestartet werden, jedes mit eigenem Durchsatz. Skaliert also horizontal durch Hinzufügen weiterer Chains (aber jedes Subnetz ist ein separater Zustand).Mehrspurige Ausführung: Sui verwendet objektbasierte Ausführung, um TX zu parallelisieren. Wie Solana eine einzelne Chain, bei der der Durchsatz aus Parallelität und hohen Hardware-Anforderungen resultiert. Kein Sharding; ein globaler Zustand (mit interner Objektpartitionierung).
Programmierung und VMEVM-kompatibel (Solidity, Vyper). Smart Contracts für Leistung nach x86 kompiliert. Unterstützt alle Ethereum-Tools.EVM (Solidity, Vyper) auf Mainnet. Riesiges, ausgereiftes Ökosystem von Entwickler-Tools und Frameworks.Benutzerdefinierte VM (genannt Sealevel) mit Rust oder C/C++. Nicht EVM-kompatibel. Verwendet LLVM für BPF-Bytecode. Steilere Lernkurve (Rust), aber hohe Leistung.Mehrere VMs: Standard-C-Chain ist EVM (Solidity) – entwicklerfreundlich, aber geringere Leistung. Andere Subnetze können benutzerdefinierte VMs (z. B. Avalanche hat eine WASM-basierte Testnet-VM) für spezifische Anforderungen ausführen.Move VM: Verwendet Move, eine Rust-basierte sichere Sprache für Assets. Nicht EVM-kompatibel, daher ist ein neues Ökosystem erforderlich. Fokus auf asset-orientierte Programmierung (Ressourcen).
Einzigartige InnovationenKompilierte EVM, IceDB, Multi-Stream-Konsens, BLS-Aggregation, transiente Speicherung – ermöglichen extremen TPS und großen Zustand. Deterministische Gaskosten pro Speicherzugriff. Komprimierung für Bandbreite. Betonung von Echtzeit-dApps (Spiele/Metaverse).Sicherheit & Dezentralisierung – Ethereum priorisiert maximale Dezentralisierung und wirtschaftliche Sicherheit (Hunderttausende von Validatoren, 20 Mrd. US-Dollar+ gestaked). Hat wegweisende Funktionen wie Account Abstraction (ERC-4337) und ein führendes Smart Contract-Ökosystem. Die Basisschicht hat jedoch konstruktionsbedingt eine begrenzte Leistung (Skalierung auf L2s verlagert).Proof-of-History (Uhr vor Konsens) zur Beschleunigung der Reihenfolge; hochoptimierter Validator-Client. Parallele Laufzeit für nicht-konfliktierende TX. Solanas Unterscheidungsmerkmal ist die rohe Geschwindigkeit auf einer monolithischen Chain, erfordert aber leistungsstarke Hardware (128+ GB RAM, High-End-CPU/GPUs). Es ist nicht EVM, was die einfache Adoption durch Ethereum-Entwickler einschränkt.Subnetz-Flexibilität – Möglichkeit, benutzerdefinierte Blockchains unter dem Avalanche-Validatoren-Set zu starten, zugeschnitten auf spezifische Apps (z. B. mit eigenem Gas-Token oder Regeln). Schnelle Finalität durch Avalanche-Konsens. Die C-Chain (EVM)-Leistung ist jedoch viel geringer als die von Somnia, und die Verwendung mehrerer Subnetze opfert die Komponierbarkeit zwischen Apps.Objektzentrierte Parallelität – Suis Objektmodell ermöglicht die gleichzeitige Ausführung unabhängiger Transaktionen, was den Durchsatz verbessert, wenn viele nicht verwandte TX vorhanden sind. Auch Funktionen wie Transaktions-Batching, kausale Reihenfolge für bestimmte TX-Typen. Die Move-Sprache gewährleistet die Asset-Sicherheit (kein versehentlicher Verlust von Token). Geringerer Durchsatz als Somnia, konzentriert sich aber auch auf Gaming (Sui betont NFTs und einfache Spiele mit Move).
Dezentralisierungs-KompromisseStartet mit ~60–100 Validatoren (anfänglich von der Stiftung ausgewählt, dann von Token-Inhabern gewählt). Hardware-Anforderungen relativ hoch (vergleichbar mit Solana/Aptos-Node). Also nicht so permissionless wie Ethereum, aber ausreichend für seine Anwendungsfälle (Ziel ist es, das Validatoren-Set im Laufe der Zeit zu erweitern). Umfasst "ausreichende Dezentralisierung" für Leistung.Sehr hohe Dezentralisierung (jeder kann 32 ETH staken, um einen Validator zu betreiben; Tausende unabhängiger Validatoren). Sicherheit und Zensurresistenz sind erstklassig. Aber die Leistung leidet; benötigt L2s für die Skalierung, die Komplexität hinzufügen.In der Praxis stärker zentralisiert: <2500 Validatoren, wobei eine kleine Anzahl oft die meisten Blöcke produziert. Hohe Hardwarekosten bedeuten, dass viele Teilnehmer Google Cloud oder Rechenzentren nutzen (weniger Heimknoten). Das Netzwerk hat in der Vergangenheit unter hoher Last Ausfälle erlebt.Ziemlich dezentralisiert: ~1000 Validatoren, und jeder kann beitreten, indem er mindestens ~2.000 AVAX staked. Avalanche-Konsens ist skalierbar in der Validatorenanzahl, ohne sich stark zu verlangsamen. Jedes Subnetz kann jedoch sein eigenes kleineres Validatoren-Set bilden, was möglicherweise etwas Sicherheit für Leistung opfert.Moderate Dezentralisierung: etwa 100 Validatoren (wie Somnias Skalierung). Permissionless, aber bei der Genesis stark von einigen wenigen Entitäten unterstützt. Verwendet auch delegierten PoS. Suis Ansatz ähnelt dem von Somnia/Aptos, da es neu ist und ein relativ kleines Validatoren-Set hat, das wachsen soll.
Ökosystem & AdoptionEmerging – ~70 Projekte beim Start, hauptsächlich Gaming (Sparkball, Variance usw.). Starke Unterstützung von Improbable (Metaverse-Events) und Finanzierung (270 Mio. US-Dollar). Muss sich mit echter Benutzeradoption nach dem Start beweisen. Integriert mit großen Diensten (OpenSea, LayerZero) für einen schnellen Start.Ausgereift & riesig – Tausende von dApps, 20 Mrd. US-Dollar+ TVL in DeFi, NFT-Markt etabliert. Entwicklerpool ist hier am größten. Für Hochdurchsatz-Spiele wird Ethereum L1 jedoch nicht verwendet – diese Projekte nutzen Sidechains oder L2s. Ethereum ist die sichere Wahl für allgemeine dApps, aber nicht für Echtzeit-Apps ohne L2.Wachsend (insbesondere DeFi/NFT) – Solana hat ein starkes DeFi-Ökosystem (Serum, Raydium) und eine NFT-Szene (z. B. Degenerate Apes). Es ist auch für Web3-Social-Apps bekannt (Solanas Saga-Telefon usw.). Einige Gaming-Projekte sind ebenfalls auf Solana. Es hat echte Benutzer (Zehntausende von Adressen), sah aber auch Stabilitätsprobleme. Solana spricht diejenigen an, die L1-Geschwindigkeit ohne Sharding wünschen, auf Kosten einer stärker zentralisierten Infrastruktur.Ausgereift (insbesondere Unternehmen und Nischen) – Avalanche hat DeFi (Trader Joe usw.) und startete Gaming-Subnetze (z. B. DeFi Kingdoms wechselte zu einem Avalanche-Subnetz). Seine Stärke ist die Flexibilität: Projekte können ihre eigene Chain erhalten. Avalanches primäre C-Chain ist jedoch durch die EVM-Leistung begrenzt. Somnias eine Chain kann Avalanches einzelne Chain um Größenordnungen übertreffen, aber Avalanche kann mehrere parallele Chains haben. Die Komponierbarkeit zwischen Subnetzen ist ein Problem (sie benötigen Bridges).Neu & Fokus auf Gaming/NFT – Sui positioniert sich wie Somnia für Spiele und Next-Gen-Apps (sie demonstrierten auch On-Chain-Spiele). Suis Move-Sprache ist für einige Entwickler eine Barriere (nicht Solidity), bietet aber Sicherheitsfunktionen. Sein Ökosystem war 2023 in den Kinderschuhen – einige Spieledemos, NFTs und grundlegendes DeFi. Somnia könnte tatsächlich stärker mit Sui/Aptos um die Aufmerksamkeit im Web3-Gaming konkurrieren, da alle hohen TPS versprechen. Somnia hat den EVM-Vorteil (einfachere Adoption), während Sui auf Moves Sicherheit und paralleles Design setzt.

Im Wesentlichen sind Somnias engste Analoga Solana, Sui/Aptos und vielleicht spezialisierte App-Chains wie bestimmte Avalanche-Subnetze oder Polygonz bevorstehende Hochleistungs-Chains. Wie Solana verzichtet Somnia auf extreme Dezentralisierung zugunsten der Leistung, aber Somnia unterscheidet sich dadurch, dass es beim EVM bleibt (was ihm hilft, auf Ethereums Entwicklerbasis aufzubauen) und einen einzigartigen Multi-Chain-Konsens einführt, anstatt einen Leader nach dem anderen. Solanas Ansatz zur Parallelität (mehrere GPU-Threads, die verschiedene Transaktionen verarbeiten) steht im Gegensatz zu Somnias Ansatz (mehrere Validatoren, die jeweils verschiedene Streams verarbeiten). Bei korrelierten Lasten (ein heißer Smart Contract) glänzt Somnias Single-Core-Optimierung, während Solanas Parallelität gedrosselt würde, da alle Threads um denselben Zustand konkurrieren.

Verglichen mit dem Ethereum-Mainnet ist Somnia um Größenordnungen schneller, opfert aber Dezentralisierung (100 Validatoren vs. Ethereums Hunderttausende). Ethereum hat auch ein weitaus größeres und bewährtes Ökosystem. Ethereum kann jedoch Spiele oder soziale Apps in großem Maßstab nicht direkt handhaben – diese landen auf L2s oder Sidechains. Somnia positioniert sich im Wesentlichen als Alternative zu einem Ethereum-Rollup, das seine eigene L1 mit höherer Leistung als jeder aktuelle Rollup ist und keine Fraud Proofs oder separaten Sicherheitsannahmen benötigt (abgesehen von seinem kleineren Validatoren-Set). Langfristig wird Ethereums Roadmap (Sharding, Danksharding usw.) den Durchsatz erhöhen, aber wahrscheinlich nicht in die Millionen von TPS auf L1. Stattdessen setzt Ethereum auf Rollups; Somnia setzt auf die Skalierung der L1 selbst mit fortschrittlicher Technik. Sie konkurrieren möglicherweise nicht um genau dieselben Anwendungsfälle anfänglich (DeFi könnte auf Ethereum/L2 bleiben, während Spiele zu Somnia oder ähnlichen Chains gehen). Interoperabilität (über LayerZero oder andere) könnte es ihnen ermöglichen, sich gegenseitig zu ergänzen, wobei Assets bei Bedarf zwischen Ethereum und Somnia verschoben werden.

Avalanche bietet Subnetze, die wie Somnia für Spiele mit hohem Durchsatz dediziert werden können. Der Unterschied ist, dass jedes Avalanche-Subnetz eine separate Instanz ist (man müsste eigene Validatoren aufsetzen oder einige Validatoren rekrutieren, um daran teilzunehmen). Somnia bietet stattdessen eine gemeinsame Hochleistungs-Chain, was die Interoperabilität zwischen Apps erleichtert (alle Somnia-Apps leben auf einer Chain, komponierbar, wie auf Ethereum oder Solana). Avalanches primäres Subnetz (C-Chain) ist EVM, aber viel langsamer als Somnia. Somnia übertrifft also Avalanches gemeinsame Chain bei weitem, obwohl Avalanche skalieren kann, wenn ein Projekt ein benutzerdefiniertes Subnetz erstellt (aber dann hat dieses Subnetz möglicherweise nicht die volle allgemeine Komponierbarkeit oder Benutzerbasis). Für einen Entwickler könnte die Bereitstellung auf Somnia einfacher sein als die Verwaltung eines Avalanche-Subnetzes, und man greift sofort auf Somnias gemeinsamen Benutzerpool und Liquidität zu.

Sui (und Aptos) werden oft als Next-Gen-Hoch-TPS-Chains genannt, die Move und parallelen Konsens verwenden. Somnias Vorteil gegenüber Sui ist der Durchsatz (Sui hat keine Millionen TPS demonstriert; ihr Design liegt bestenfalls im niedrigen Hunderttausenderbereich) und die EVM-Kompatibilität. Suis Vorteil könnte die Sicherheit von Move für komplexe Asset-Logik und möglicherweise eine dezentralere Roadmap sein (obwohl Sui beim Start auch etwa 100 Validatoren hatte). Wenn Somnia die Spielestudios gewinnt, die Solidity bevorzugen (vielleicht Solidity-Smart Contracts von Ethereum-Spielprototypen portieren), könnte es Sui im Ökosystem schnell übertreffen, angesichts der Größe der Solidity-Entwickler-Community.

Somnia vergleicht sich auch mit Solana in Bezug auf das Ziel, Consumer-Web3 zu erreichen (beide haben soziale und Telefonintegrationen betont – Solana hatte ein Saga-Telefon, Somnia einen Browser usw.). Herman Narulas kühne Behauptung, dass Somnia „Tausende Male den Durchsatz von Solana“ leisten kann, gibt den Ton an, dass Somnia sich nicht nur als eine weitere schnelle Chain, sondern als die schnellste EVM-Chain sieht, während Solana die schnellste Nicht-EVM-Chain ist. Wenn Somnia in der Praxis auch nur eine Größenordnung besseren dauerhaften TPS als Solana liefert (sagen wir, Solana schafft durchschnittlich 5k TPS und Somnia könnte durchschnittlich 50k oder mehr mit Spitzenwerten in Millionen erreichen), wird es wirklich eine Nische für Anwendungen schaffen, die selbst Solana nicht bewältigen kann (zum Beispiel ein Fortnite-großes Blockchain-Spiel oder ein globales soziales Netzwerk).

Ein weiterer Konkurrent, der zu beachten ist, sind Polygon 2.0 oder zkEVMs – obwohl keine L1s, bieten sie Skalierung für EVM. Polygon arbeitet an einer Reihe von ZK-Rollups und Hochleistungs-Chains. Diese könnten potenziell einen Teil von Somnias Leistung erreichen, während sie von der Ethereum-Sicherheit profitieren. ZK-Rollups mit 1M TPS sind jedoch noch nicht verfügbar, und selbst dann könnten sie an Datenverfügbarkeitsgrenzen stoßen. Somnias Ansatz ist eine All-in-One-Lösung mit eigener Sicherheit. Es wird beweisen müssen, dass seine Sicherheit (100 Validatoren PoS) robust genug für Anwendungen mit viel Geld ist, etwas, das Ethereums Rollups von ETH erben. Aber für Gaming und Social, wo die Sicherheitsanforderungen etwas anders sind (das Stehlen eines Game-Schwert-NFTs ist nicht so katastrophal wie das Stehlen von Milliarden in DeFi TVL), könnte Somnias Kompromiss perfekt akzeptabel und sogar vorzuziehen sein, aufgrund des Benutzererlebnisses.

Zusammenfassend lässt sich sagen, dass Somnia sich dadurch auszeichnet, dass es die Leistungsgrenzen weiter verschiebt als jede aktuelle Allzweck-L1, während es die Vertrautheit von EVM beibehält. Es zielt darauf ab, einen Platz auf dem Markt für „Web3 im Web2-Maßstab“ zu besetzen, den andere nur teilweise adressiert haben:

  • Ethereum wird Vertrauen und DeFi dominieren, aber Hochfrequenzaufgaben an L2s auslagern (was Komplexität und Fragmentierung hinzufügt).
  • Solana zeigte hohe TPS für DeFi und NFTs, ist aber nicht EVM und hatte Stabilitätsprobleme; Somnia könnte Projekte anziehen, die Solana-ähnliche Geschwindigkeit mit Ethereum-Tools wünschen.
  • Avalanche bietet Anpassbarkeit und EVM-Komfort, hat aber nicht die nahezu Somnia-Leistung einer einzelnen Chain demonstriert.
  • Sui/Aptos gehören zur gleichen Generation wie Somnia und konkurrieren um Spieleentwickler, aber Somnias frühe Partnerschaften (Improbable, große Marken) und EVM-Kompatibilität verschaffen ihm einen starken Vorteil, wenn es gut umgesetzt wird.

Wie Narula sagte, ist Somnia wohl die erste Chain, die speziell für Echtzeit-Virtual-Experiences in massivem Maßstab gebaut wurde. Wenn diese Erlebnisse (Spiele, Events, soziale Welten) die nächste große Welle der Blockchain-Adoption werden, könnte Somnias Konkurrenz tatsächlich die traditionelle Cloud-Infrastruktur (AWS usw.) ebenso sehr sein wie andere Blockchains – denn es versucht, zentralisierte Spielserver und soziale Datenbanken zu ersetzen, nicht nur um bestehende Blockchain-Apps zu konkurrieren. In diesem Licht wird Somnias Erfolg daran gemessen werden, ob es Anwendungen hosten kann, die Millionen von Benutzern anziehen, die vielleicht nicht einmal wissen (oder sich darum kümmern), dass eine Blockchain im Hintergrund läuft. Keine aktuelle L1 hat bisher dieses Niveau an Mainstream-Benutzer-App erreicht (selbst Solanas größte Apps haben Hunderttausende, nicht Millionen aktiver Benutzer). Das ist die Messlatte, die Somnia sich selbst gesetzt hat, und an der seine innovative Architektur in den kommenden Jahren getestet werden wird.

Roadmap und aktueller Status

Somnias Reise hat sich in kurzer Zeit rasant vom Konzept zur Realität entwickelt und entwickelt sich nach dem Mainnet mit klaren Zielen weiter:

Jüngste Entwicklungen (2024–2025):

  • Finanzierung und Testnet (2024): Das Projekt trat mit erheblichen Finanzmitteln aus dem Stealth-Modus hervor. Anfang 2024 kündigte Improbable die Zusage von 270 Millionen US-Dollar für Somnia und das Ökosystem von MSquared an. Dies verschaffte eine enorme Startrampe. Somnia betrieb Ende 2024 (November) ein Devnet, bei dem es Rekorde brach: Es erreichte 1,05 Millionen TPS und andere Benchmarks in einem globalen Setup mit 100 Nodes. Diese Ergebnisse (einschließlich 50.000 Uniswap-Trades/Sek., 300.000 NFT-Mints/Sek.) wurden veröffentlicht, um Glaubwürdigkeit aufzubauen. Nach dem Devnet startete am 20. Februar 2025 ein vollständig öffentliches Testnet. Das Testnet (Codename Shannon) lief etwa 6 Monate lang. In dieser Zeit behauptet Somnia, über 10 Milliarden Transaktionen verarbeitet und 118 Millionen Test-Wallet-Adressen an Bord geholt zu haben – erstaunliche Zahlen. Diese Zahlen umfassen wahrscheinlich skriptgesteuerte Lasttests und Community-Beteiligung. Das Testnet verzeichnete auch einen Spitzen-Tagesdurchsatz von 1,9 Milliarden Transaktionen an einem Tag (ein Rekord für jeden EVM-Kontext). CoinDesk bemerkte diese Zahlen, aber auch, dass der öffentliche Explorer zu diesem Zeitpunkt offline war, um sie zu überprüfen, was impliziert, dass es sich teilweise um interne Metriken handelte. Nichtsdestotrotz demonstrierte das Testnet Stabilität unter beispielloser Last.

    Während des gesamten Testnets führte Somnia Engagement-Programme durch: ein Punkte-Anreizprogramm, bei dem frühe Benutzer, die Aufgaben erledigten, Punkte verdienen konnten (wahrscheinlich in zukünftige Token oder Belohnungen umwandelbar), und arbeitete mit Partnern zusammen (Spieleentwickler führten Playtests durch, Hackathons wurden abgehalten). In der Testnet-Phase wurden auch über 70 Ökosystem-Partner/Projekte an Bord geholt. Dies deutet darauf hin, dass beim Mainnet viele Integrationen und Apps bereit oder nahezu bereit waren.

  • Mainnet-Start (Q3 2025): Somnia startete das Mainnet am 2. September 2025. Der Start umfasste die Veröffentlichung des SOMI-Tokens und die Aktivierung des Stakings. Bemerkenswert ist, dass beim Mainnet:

    • 60 Validatoren online gingen (mit großen Namen wie Google Cloud darunter).
    • Die Somnia Foundation ist operativ und überwacht die Chain als neutraler Verwalter. Improbable lieferte die Technologie, und nun ist die Foundation (auch als Virtual Society Foundation bezeichnet) für die Governance und die weitere Entwicklung verantwortlich.
    • SOMI-Listing und -Verteilung: Innerhalb eines Tages nach dem Start enthüllte Binance SOMI als Teil seiner „Seed Tag“-Listings und führte den HODLer-Airdrop durch. Dies war ein großer Schub – effektiv eine Empfehlung einer Top-Börse. Viele neue L1s kämpfen darum, an Börsen Fuß zu fassen, aber Somnia brachte SOMI sofort über Binance in die Hände der Benutzer.
    • In den sozialen Medien priesen Somnias Team und Partner die Fähigkeiten des Mainnets an. Eine Pressemitteilung von Improbable und Berichte in Medien wie CoinDesk, Yahoo Finance usw. verbreiteten die Nachricht, dass „die schnellste EVM-Chain“ live ist.
    • Erste Ökosystem-dApps begannen mit der Bereitstellung. Zum Beispiel war das NFT-Bridging über LayerZero aktiv (man konnte Stablecoins gemäß den Docs bridgen), und einige der Testnet-Spiele begannen, ins Mainnet zu wechseln (Sparkballs Start usw., etwa im September, wie Blogs und Updates zeigten).
    • Community-Airdrop-Events (die Somnia Odyssey) gipfelten wahrscheinlich um den Start herum und verteilten einen Teil dieser Community-Token-Zuteilung an frühe Unterstützer.

Zusammenfassend lässt sich sagen, dass der Mainnet-Start erfolgreich war und Somnia mit Live-Validatoren, einem Live-Token und über 70 Projekten, die entweder live oder unmittelbar vor dem Start standen, positionierte. Wichtig ist, dass sie genau zu dem Zeitpunkt auf den Markt kamen, als das Interesse an Web3-Gaming und Metaverse Ende 2025 wieder zunahm, und diesen Trend nutzten.

Aktueller Status (Ende 2025): Das Somnia-Mainnet ist operativ mit Blöcken im Subsekundenbereich. Das Netzwerk befindet sich noch in einer Bootstrap-Phase, in der die Somnia Foundation und das Kernteam eine erhebliche Kontrolle behalten, um Stabilität zu gewährleisten. Zum Beispiel sind Governance-Vorschläge wahrscheinlich noch nicht vollständig offen; die Foundation verwaltet wahrscheinlich Upgrades und Parameteranpassungen, während die Community über Governance-Prozesse aufgeklärt wird. Die Token-Verteilung ist immer noch sehr konzentriert (da nur ~16 % im Umlauf sind und Investoren-/Team-Token erst Ende 2026 freigeschaltet werden). Dies bedeutet, dass die Foundation über ausreichende Token-Reserven verfügt, um das Ökosystem zu unterstützen (durch Zuschüsse, Liquiditätsbereitstellung usw.).

Auf technischer Ebene überwacht und feinjustiert Somnia wahrscheinlich die Leistung unter realen Bedingungen. Bringen echte dApps es an seine Grenzen? Wahrscheinlich noch nicht – die anfänglichen Benutzerzahlen liegen wahrscheinlich im Tausenderbereich, nicht in Millionen. Es gibt also möglicherweise nicht regelmäßig 1M TPS im Mainnet, aber die Kapazität ist vorhanden. Das Team könnte diese Periode nutzen, um die Client-Software zu optimieren, Feedback von Cuthbert zu berücksichtigen (falls Divergenzen gefunden wurden, würden diese umgehend behoben) und die Sicherheit zu erhöhen. Die Ergebnisse der Sicherheitsaudits (falls noch nicht veröffentlicht) könnten um diese Zeit oder Anfang 2026 veröffentlicht werden, um Entwicklern Sicherheit zu geben.

Kurzfristige Roadmap (2026): Die Somnia-Dokumentation und -Kommunikation deuten auf mehrere kurzfristige Ziele hin:

  • Feature-Rollouts: Einige Funktionen sollten nach dem Start aktiviert werden:
    • Die Dynamische Gaspreisgestaltung & Volumenrabatte sollen bis Ende 2025 eingeführt werden. Dies erfordert einige Tests und möglicherweise eine Governance-Zustimmung zur Aktivierung. Sobald aktiviert, werden Hochdurchsatz-dApps günstigere Gasgebühren genießen, was ein Verkaufsargument sein könnte, um Unternehmen oder große Web2-Partner anzuziehen.
    • Die Transiente Speicherfunktion ist ebenfalls für Ende 2025 geplant. Die Implementierung muss wahrscheinlich sorgfältig getestet werden (um sicherzustellen, dass die Datenlöschung korrekt funktioniert und keine Konsensprobleme verursacht). Wenn dies live geht, wird Somnia eine der ersten Chains sein, die ablauffähige On-Chain-Daten anbietet, was für Spieleentwickler enorm sein wird (man stelle sich temporäre Spielsitzungen On-Chain vor).
    • Tipping (Prioritätsgebühren): Es wurde angemerkt, dass Tipping bei Bedarf später eingeführt werden könnte. Wenn die Netzwerknutzung so stark ansteigt, dass Blöcke konstant voll sind, könnten sie bis 2026 optionale Trinkgelder aktivieren, um Transaktionen zu priorisieren (genau wie Ethereums Basiskosten- & Trinkgeldmodell). Dies wäre ein Zeichen gesunder Überlastung, falls es eintritt.
    • Erweiterung des Validatoren-Sets: Anfänglich ~60, ist das Ziel, die Anzahl der Validatoren im Laufe der Zeit zu erhöhen, um die Dezentralisierung zu verbessern, ohne die Leistung zu beeinträchtigen. Es wurde erwähnt, dass ein Wachstum über 100 erwartet wird, wenn das Netzwerk reift. Der Zeitplan könnte davon abhängen, wie gut der Konsens mit mehr Validatoren skaliert (PBFT neigt dazu, langsamer zu werden, wenn die Validatoren zunehmen, aber vielleicht kann ihre Autobahn-inspirierte Variante ein paar Hundert bewältigen). Im Jahr 2026 könnten sie zusätzliche Validatoren an Bord holen, möglicherweise aus ihrer Community oder neuen Partnern. Dies könnte durch Governance-Abstimmungen (Token-Inhaber, die neue Validatoren genehmigen) oder automatisch erfolgen, wenn genügend Stake neue Teilnehmer unterstützt.
    • Dezentralisierung der Governance: Somnia hat eine Roadmap zur Progressiven Dezentralisierung in der Governance dargelegt. In den ersten 6 Monaten (Bootstrap-Phase) hat der Stiftungsrat die volle Kontrolle. Also etwa bis Q1/Q2 2026 werden wir uns in der Bootstrap-Phase befinden – in dieser Zeit werden sie wahrscheinlich Prozesse verfeinern und Mitglieder in Räte aufnehmen. Dann, von 6–24 Monaten (Mitte 2026 bis Ende 2027), treten sie in die Übergangsphase ein, in der das Token House (Token-Inhaber) beginnen kann, über Vorschläge abzustimmen, obwohl die Foundation bei Bedarf ein Veto einlegen kann. Wir könnten 2026 die ersten On-Chain-Abstimmungen für Dinge wie Zuschusszuweisungen oder kleinere Parameteränderungen sehen. Bis zum zweiten Jahr (2027) ist das Ziel die Reifephase, in der die Entscheidungen der Token-Inhaber größtenteils Bestand haben und die Foundation nur Notfallinterventionen durchführt. Für 2026 ist ein wichtiges Ziel die Einrichtung dieser Governance-Gremien: möglicherweise die Wahl von Mitgliedern für den Validator Council, Developer Council, User Assembly, die beschrieben wurden. Dies wird Community-Organisation erfordern – wahrscheinlich etwas, das die Foundation erleichtern wird, indem sie anfänglich angesehene Mitglieder auswählt (zum Beispiel Top-Spieleentwickler in einen Entwickler-Rat oder große Community-Gildenführer in eine User Assembly einlädt).
  • Ökosystem-Wachstum: An der Adoptionsfront wird es 2026 darum gehen, Pilotprojekte zu Mainstream-Erfolgen zu machen:
    • Wir erwarten vollständige Spielveröffentlichungen: Sparkball und Variance könnten 2026 von der Beta zum offiziellen Start im Somnia-Mainnet übergehen, um Zehntausende von Spielern anzuziehen. Andere Spiele aus der Dream Catalyst-Kohorte (Maelstrom, Netherak, Dark Table usw.) werden wahrscheinlich der Öffentlichkeit zugänglich gemacht. Somnias Team wird diese Starts unterstützen, möglicherweise durch Marketingkampagnen, Turniere und Anreizprogramme (wie Play-to-Earn oder Airdrops), um Gamer anzuziehen.
    • Neue Partnerschaften: Improbable/MSquared planten, von 30 Events im Jahr 2023 auf über 300 Metaverse-Events im Jahr 2024 zu skalieren. Im Jahr 2024 führten sie viele Off-Chain-Events durch; in den Jahren 2025/2026 erwarten wir, dass diese Events Somnia integrieren. Zum Beispiel könnte ein großes Sportevent oder Musikfestival im Jahr 2026 Somnia für Ticketing oder Fan-Belohnungen nutzen. Die Beteiligung von Google Cloud deutet auf mögliche Unternehmens-Events oder Showcases über Googles Cloud-Kunden hin. Auch angesichts der Investitionen von Mirana (verbunden mit Bybit/BitDAO) und anderen könnte Somnia eine Zusammenarbeit mit Börsen oder großen Web3-Marken sehen, um das Netzwerk zu nutzen.
    • MSquared-Integration: Die Chainwire-Veröffentlichung stellte fest, dass M² plant, Somnia in sein Netzwerk von Metaversen zu integrieren. Das bedeutet, dass jede virtuelle Welt, die MSquareds Technologie nutzt, Somnia als Transaktionsschicht übernehmen könnte. Bis 2026 könnten wir sehen, wie MSquared sein Metaverse-Netzwerk offiziell startet, wobei Somnia die Avatar-Identität, den Item-Handel usw. untermauert. Wenn Yuga Labs’ Otherside noch im Plan ist, könnte es vielleicht eine Interoperabilitätsdemonstration mit Somnia geben (z. B. die Verwendung Ihres Otherside-NFTs in einer Somnia-betriebenen Welt).
    • Erweiterung der Entwickler-Community: Die 10 Millionen US-Dollar an Zuschüssen werden im Laufe der Zeit verteilt – bis 2026 werden wahrscheinlich Dutzende von Projekten Finanzmittel erhalten haben. Das Ergebnis könnte mehr Tools sein (z. B. Unity SDK für Somnia oder weitere Ormi-Verbesserungen), mehr Apps (vielleicht baut jemand einen Somnia-basierten dezentralen Twitter oder eine neue DeFi-Plattform). Somnia wird wahrscheinlich weitere Hackathons veranstalten (potenziell einige persönlich auf Konferenzen usw.) und weiterhin aggressives DevRel betreiben, um Talente anzuziehen. Sie könnten insbesondere Entwickler von Ethereum ansprechen, die mit ihren dApps an Skalierungsgrenzen stoßen, und ihnen einen einfachen Port zu Somnia anbieten.
    • Interoperabilität und Bridges: Bereits mit LayerZero integriert, wird Somnia wahrscheinlich Bridges zu anderen Ökosystemen erweitern, um eine breitere Asset-Unterstützung zu ermöglichen. Zum Beispiel könnte die Integration mit Polygon oder Cosmos IBC auf dem Tisch liegen. Auch Cross-Chain-Standards für NFTs (vielleicht die Spiegelung von Ethereum-NFTs auf Somnia zur Verwendung in Spielen) könnten verfolgt werden. Da Somnia EVM ist, ist die Bereitstellung von Bridge-Contracts für beliebte Token (USDC, USDT, WETH) unkompliziert – 2026 könnte eine tiefere Liquidität entstehen, wenn mehr dieser Cross-Chain-Assets einfließen.
    • Leistungsüberwachung: Mit zunehmender realer Nutzung wird das Team auf Stabilitätsprobleme achten. Gibt es Angriffsvektoren (Spamming vieler Datenketten usw.)? Sie könnten Verfeinerungen wie Rate-Limits pro Datenkette oder weitere Optimierungen implementieren, falls erforderlich. Die Cuthbert Dual-Execution wird wahrscheinlich bis mindestens 2026 laufen, um Divergenzen zu erkennen; wenn das System sich als sehr stabil erweist, könnten sie in Betracht ziehen, es nach ein oder zwei Jahren abzuschalten, um den Overhead zu reduzieren, aber das hängt von vollem Vertrauen ab.
  • Marketing und Öffentlichkeitsarbeit: Mit dem Mainnet und den ersten Apps live besteht Somnias Herausforderung für 2026 darin, eine Benutzerbasis aufzubauen. Erwarten Sie intensives Marketing, das sich sowohl an Gamer als auch an Krypto-Benutzer richtet:
    • Wir könnten Partnerschaften mit Gaming-Gilden oder E-Sport-Teams sehen, um Spieler zu Somnia-Spielen zu locken.
    • Vielleicht Promi-Kooperationen für virtuelle Events (da sie K-Pop- und Sportlegenden in Test-Events hatten, könnten sie das eskalieren – stellen Sie sich vor, ein berühmter Musiker veröffentlicht ein Album über eine Somnia-Metaverse-Show mit NFT-Merch).
    • Auch die Teilnahme und das Sponsoring großer Konferenzen (GDC für Spieleentwickler, Consensus für Krypto usw.), um die Plattform zu bewerben.
    • Ende 2025 hatten sie bereits eine beträchtliche Presse (Binance Academy-Artikel, CoinDesk-Berichterstattung usw.). Im Jahr 2026 werden weitere unabhängige Analysen (Messari-Profile usw.) erscheinen, und Somnia wird Nutzungsmetriken präsentieren wollen, um die Akzeptanz zu beweisen (wie „X täglich aktive Nutzer, Y verarbeitete Transaktionen“).

Langfristige Vision: Obwohl nicht explizit danach gefragt, ist es erwähnenswert, Somnias Trajektorie:

  • In einigen Jahren stellen sie sich Somnia als eine weit verbreitete Basisschicht für Web3-Unterhaltung vor, mit Milliarden von Transaktionen als Routine und einer dezentralen Governance, die von ihrer Community und ihren Räten betrieben wird. Sie sehen wahrscheinlich auch eine kontinuierliche technische Verbesserung vor – z. B. die Erforschung von Sharding bei Bedarf oder die Einführung neuer Kryptographie (vielleicht ZK-Proofs zur weiteren Datenkomprimierung oder schließlich Post-Quantum-Krypto).
  • Ein weiteres langfristiges Ziel könnte die Kohlenstoffneutralität oder Effizienz sein: Chains mit hohem TPS machen sich oft Sorgen um den Energieverbrauch. Wenn Somnia Millionen von TPS erreicht, wird es wichtig sein, sicherzustellen, dass Nodes dies effizient bewältigen können (vielleicht durch Hardware-Beschleunigung oder Cloud-Skalierung). Mit Google Cloud im Spiel könnten vielleicht grüne Rechenzentrumsinitiativen oder spezielle Hardware (wie GPUs oder FPGAs für die Komprimierung) in Betracht gezogen werden.
  • Bis dahin wird auch der Wettbewerb zunehmen (Ethereum 2.0 mit Sharding, zkEVMs, Solana-Verbesserungen usw.). Somnia wird seinen Vorsprung durch Innovation und Netzwerkeffekte (wenn es früh eine große Spielerbasis gewinnt, kann dieser Schwung es tragen) behaupten müssen.

Zusammenfassend lässt sich sagen, dass die Roadmap für die nächsten 1-2 Jahre sich auf Folgendes konzentriert:

  1. Aktivierung wichtiger Protokollfunktionen (Gasrabatte, transiente Speicherung), um die versprochene Funktionalität vollständig zu liefern.
  2. Schrittweise Dezentralisierung der Governance – Übergang von einer stiftungsgeführten zu einer gemeinschaftsgeführten Governance, ohne den Fortschritt zu gefährden.
  3. Förderung des Ökosystem-Wachstums – Sicherstellung, dass die finanzierten Projekte starten und Benutzer anziehen, neue Partnerschaften schmieden (mit Content Creatorn, Spielestudios, vielleicht sogar Web2-Unternehmen, die an Web3 interessiert sind) und möglicherweise in weitere Regionen und Communities expandieren.
  4. Aufrechterhaltung von Leistung und Sicherheit bei zunehmender Nutzung – Beobachtung von Problemen, wenn z. B. ein Spiel einen Anstieg von 10.000 TPS an realem Traffic verursacht, und entsprechende Reaktion (dies könnte die Durchführung weiterer öffentlicher Test-Events, vielleicht eines „Mainnet-Stresstests“, bei dem viele Transaktionen angeregt werden, um die Grenzen zu testen, umfassen).

Somnia hat einen fulminanten Start hingelegt, aber 2026 wird der Prüfstand sein: Es muss seine beeindruckende Technologie und sein gut finanziertes Ökosystem in echte Adoption und ein nachhaltiges, dezentrales Netzwerk umwandeln. Die große Token-Treasury der Stiftung (Ökosystem und Community ~55 % des Angebots) gibt ihr die Mittel, um die Aktivität über Jahre hinweg anzukurbeln, sodass wir kurzfristig sehen werden, wie diese Token eingesetzt werden – durch Airdrops, Belohnungen (möglicherweise Liquiditäts-Mining, wenn ein DEX startet), Entwickler-Bounties und Benutzerakquisitionskampagnen. Der Mainnet-Start-Slogan von Improbable lautete, dass Somnia „das Fundament einer offenen digitalen Asset-Wirtschaft markiert, in der Milliarden von Menschen über immersive Erlebnisse hinweg interagieren können“. Die nächsten Schritte auf der Roadmap drehen sich alle darum, die Bausteine dieses Fundaments zu legen: die ersten Millionen von Menschen und die ersten Killer-Apps dazu zu bringen, mit Somnias „Dream Computer“ (wie sie ihn nennen) zu interagieren und damit zu bestätigen, dass Web3 tatsächlich im Internet-Maßstab betrieben werden kann.

Wenn Somnia seinen aktuellen Kurs beibehält, könnten wir bis Ende 2026 Dutzende vollständig On-Chain-Spiele und soziale Plattformen in Betrieb sehen, ein florierendes, von der Community betriebenes Netzwerk mit Hunderten von Validatoren und SOMI, das täglich von Mainstream-Benutzern verwendet wird (oft unbewusst, unter der Haube von Spielen). Dies zu erreichen, wäre ein bedeutender Meilenstein nicht nur für Somnia, sondern auch für den Vorstoß der Blockchain-Industrie in Mainstream-Echtzeitanwendungen. Die Voraussetzungen sind geschaffen; jetzt geht es um die Ausführung und Adoption in dieser kritischen, forschungsintensiven Phase der Projekt-Roadmap.

Quellen:

  • Somnia Offizielle Dokumentation (Litepaper & Technische Konzepte)
  • Somnia Tokenomics und Governance Docs
  • Improbable Pressemitteilung (Mainnet-Start)
  • CoinDesk Berichterstattung über Somnia-Start
  • Binance Academy – Was ist Somnia (SOMI)
  • Gam3s.gg – Berichterstattung über Somnia-Spiele (Variance, Sparkball usw.)
  • Stakin Research – Einführung in Somnia
  • Chainwire Pressemitteilung – 270 Mio. US-Dollar Investition & Devnet-Ergebnisse
  • Somnia Blog – Improbable & MSquared Events, Mainnet-News
  • Offizielle Somnia Docs – Entwickler-Anleitungen (Bridging, Wallets usw.)

Dezentrale Verschlüsselung mit @mysten/seal aufbauen: Ein Entwickler-Tutorial

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Datenschutz wird zur öffentlichen Infrastruktur. Im Jahr 2025 benötigen Entwickler Tools, die Verschlüsselung so einfach machen wie Datenspeicherung. Mysten Labs' Seal bietet genau das – dezentrales Geheimnismanagement mit On-Chain-Zugriffskontrolle. Dieses Tutorial zeigt Ihnen, wie Sie sichere Web3-Anwendungen mithilfe von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbaren Zugriffsrichtlinien erstellen.


Einführung: Warum Seal für Web3 wichtig ist

Traditionelle Cloud-Anwendungen verlassen sich auf zentralisierte Schlüsselverwaltungssysteme, bei denen ein einziger Anbieter den Zugriff auf verschlüsselte Daten kontrolliert. Obwohl dies bequem ist, schafft es gefährliche Single Points of Failure. Wenn der Anbieter kompromittiert wird, offline geht oder den Zugriff einschränkt, werden Ihre Daten unzugänglich oder anfällig.

Seal ändert dieses Paradigma vollständig. Von Mysten Labs für die Sui Blockchain entwickelt, ist Seal ein dezentraler Geheimnismanagement-Dienst (DSM), der Folgendes ermöglicht:

  • Identitätsbasierte Verschlüsselung, bei der Inhalte geschützt werden, bevor sie Ihre Umgebung verlassen
  • Schwellenwertverschlüsselung, die den Schlüsselzugriff auf mehrere unabhängige Nodes verteilt
  • On-Chain-Zugriffskontrolle mit Zeitsperren, Token-Gating und benutzerdefinierter Autorisierungslogik
  • Speicherunabhängiges Design, das mit Walrus, IPFS oder jeder anderen Speicherlösung funktioniert

Egal, ob Sie sichere Messaging-Apps, zugangsgeschützte Inhaltsplattformen oder zeitgesperrte Asset-Transfers erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen.


Erste Schritte

Voraussetzungen

Bevor Sie eintauchen, stellen Sie sicher, dass Sie Folgendes haben:

  • Node.js 18+ installiert
  • Grundkenntnisse in TypeScript/JavaScript
  • Eine Sui Wallet zum Testen (z. B. Sui Wallet)
  • Verständnis von Blockchain-Konzepten

Installation

Installieren Sie das Seal SDK via npm:

npm install @mysten/seal

Sie benötigen auch das Sui SDK für Blockchain-Interaktionen:

npm install @mysten/sui

Projekteinrichtung

Erstellen Sie ein neues Projekt und initialisieren Sie es:

mkdir seal-tutorial
cd seal-tutorial
npm init -y
npm install @mysten/seal @mysten/sui typescript @types/node

Erstellen Sie eine einfache TypeScript-Konfiguration:

// tsconfig.json
{
"compilerOptions": {
"target": "ES2020",
"module": "commonjs",
"strict": true,
"esModuleInterop": true,
"skipLibCheck": true,
"forceConsistentCasingInFileNames": true
}
}

Kernkonzepte: Wie Seal funktioniert

Bevor wir Code schreiben, lassen Sie uns die Architektur von Seal verstehen:

1. Identitätsbasierte Verschlüsselung (IBE)

Im Gegensatz zur traditionellen Verschlüsselung, bei der Sie auf einen öffentlichen Schlüssel verschlüsseln, ermöglicht Ihnen IBE die Verschlüsselung auf eine Identität (wie eine E-Mail-Adresse oder Sui-Adresse). Der Empfänger kann nur entschlüsseln, wenn er nachweisen kann, dass er diese Identität kontrolliert.

2. Schwellenwertverschlüsselung

Anstatt einem einzelnen Schlüsselserver zu vertrauen, verwendet Seal t-von-n Schwellenwertschemata. Sie könnten 3 von 5 Schlüsselservern konfigurieren, was bedeutet, dass beliebige 3 Server zusammenarbeiten können, um Entschlüsselungsschlüssel bereitzustellen, aber 2 oder weniger dies nicht können.

3. On-Chain-Zugriffskontrolle

Zugriffsrichtlinien werden durch Sui Smart Contracts durchgesetzt. Bevor ein Schlüsselserver Entschlüsselungsschlüssel bereitstellt, überprüft er, ob der Anfragende die On-Chain-Richtlinienanforderungen (Token-Besitz, Zeitbeschränkungen usw.) erfüllt.

4. Schlüsselserver-Netzwerk

Verteilte Schlüsselserver validieren Zugriffsrichtlinien und generieren Entschlüsselungsschlüssel. Diese Server werden von verschiedenen Parteien betrieben, um keinen Single Point of Control zu gewährleisten.


Grundlegende Implementierung: Ihre erste Seal-Anwendung

Erstellen wir eine einfache Anwendung, die sensible Daten verschlüsselt und den Zugriff über Sui Blockchain-Richtlinien steuert.

Schritt 1: Seal Client initialisieren

// src/seal-client.ts
import { SealClient } from '@mysten/seal';
import { SuiClient } from '@mysten/sui/client';

export async function createSealClient() {
// Initialize Sui client for testnet
const suiClient = new SuiClient({
url: 'https://fullnode.testnet.sui.io'
});

// Configure Seal client with testnet key servers
const sealClient = new SealClient({
suiClient,
keyServers: [
'https://keyserver1.seal-testnet.com',
'https://keyserver2.seal-testnet.com',
'https://keyserver3.seal-testnet.com'
],
threshold: 2, // 2-of-3 threshold
network: 'testnet'
});

return { sealClient, suiClient };
}

Schritt 2: Einfache Verschlüsselung/Entschlüsselung

// src/basic-encryption.ts
import { createSealClient } from './seal-client';

async function basicExample() {
const { sealClient } = await createSealClient();

// Data to encrypt
const sensitiveData = "This is my secret message!";
const recipientAddress = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

try {
// Encrypt data for a specific Sui address
const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: recipientAddress,
// Optional: add metadata
metadata: {
contentType: 'text/plain',
timestamp: Date.now()
}
});

console.log('Encrypted data:', {
ciphertext: encryptedData.ciphertext.toString('base64'),
encryptionId: encryptedData.encryptionId
});

// Later, decrypt the data (requires proper authorization)
const decryptedData = await sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientAddress
});

console.log('Decrypted data:', decryptedData.toString('utf-8'));

} catch (error) {
console.error('Encryption/decryption failed:', error);
}
}

basicExample();

Zugriffskontrolle mit Sui Smart Contracts

Die wahre Stärke von Seal liegt in der programmierbaren Zugriffskontrolle. Erstellen wir ein Beispiel für eine zeitgesperrte Verschlüsselung, bei der Daten erst nach einer bestimmten Zeit entschlüsselt werden können.

Schritt 1: Zugriffssteuerungs-Vertrag bereitstellen

Zuerst benötigen wir einen Move Smart Contract, der unsere Zugriffsrichtlinie definiert:

// contracts/time_lock.move
module time_lock::policy {
use sui::clock::{Self, Clock};
use sui::object::{Self, UID};
use sui::tx_context::{Self, TxContext};

public struct TimeLockPolicy has key, store {
id: UID,
unlock_time: u64,
authorized_user: address,
}

public fun create_time_lock(
unlock_time: u64,
authorized_user: address,
ctx: &mut TxContext
): TimeLockPolicy {
TimeLockPolicy {
id: object::new(ctx),
unlock_time,
authorized_user,
}
}

public fun can_decrypt(
policy: &TimeLockPolicy,
user: address,
clock: &Clock
): bool {
let current_time = clock::timestamp_ms(clock);
policy.authorized_user == user && current_time >= policy.unlock_time
}
}

Schritt 2: Mit Seal integrieren

// src/time-locked-encryption.ts
import { createSealClient } from './seal-client';
import { TransactionBlock } from '@mysten/sui/transactions';

async function createTimeLocked() {
const { sealClient, suiClient } = await createSealClient();

// Create access policy on Sui
const txb = new TransactionBlock();

const unlockTime = Date.now() + 60000; // Unlock in 1 minute
const authorizedUser = "0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8";

txb.moveCall({
target: 'time_lock::policy::create_time_lock',
arguments: [
txb.pure(unlockTime),
txb.pure(authorizedUser)
]
});

// Execute transaction to create policy
const result = await suiClient.signAndExecuteTransactionBlock({
transactionBlock: txb,
signer: yourKeypair, // Your Sui keypair
});

const policyId = result.objectChanges?.find(
change => change.type === 'created'
)?.objectId;

// Now encrypt with this policy
const sensitiveData = "This will unlock in 1 minute!";

const encryptedData = await sealClient.encrypt({
data: Buffer.from(sensitiveData, 'utf-8'),
recipientId: authorizedUser,
accessPolicy: {
policyId,
policyType: 'time_lock'
}
});

console.log('Time-locked data created. Try decrypting after 1 minute.');

return {
encryptedData,
policyId,
unlockTime
};
}

Praktische Beispiele

Beispiel 1: Sichere Messaging-Anwendung

// src/secure-messaging.ts
import { createSealClient } from './seal-client';

class SecureMessenger {
private sealClient: any;

constructor(sealClient: any) {
this.sealClient = sealClient;
}

async sendMessage(
message: string,
recipientAddress: string,
senderKeypair: any
) {
const messageData = {
content: message,
timestamp: Date.now(),
sender: senderKeypair.toSuiAddress(),
messageId: crypto.randomUUID()
};

const encryptedMessage = await this.sealClient.encrypt({
data: Buffer.from(JSON.stringify(messageData), 'utf-8'),
recipientId: recipientAddress,
metadata: {
type: 'secure_message',
sender: senderKeypair.toSuiAddress()
}
});

// Store encrypted message on decentralized storage (Walrus)
return this.storeOnWalrus(encryptedMessage);
}

async readMessage(encryptionId: string, recipientKeypair: any) {
// Retrieve from storage
const encryptedData = await this.retrieveFromWalrus(encryptionId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData.ciphertext,
encryptionId: encryptedData.encryptionId,
recipientId: recipientKeypair.toSuiAddress()
});

return JSON.parse(decryptedData.toString('utf-8'));
}

private async storeOnWalrus(data: any) {
// Integration with Walrus storage
// This would upload the encrypted data to Walrus
// and return the blob ID for retrieval
}

private async retrieveFromWalrus(blobId: string) {
// Retrieve encrypted data from Walrus using blob ID
}
}

Beispiel 2: Token-Gated Content-Plattform

// src/gated-content.ts
import { createSealClient } from './seal-client';

class ContentGating {
private sealClient: any;
private suiClient: any;

constructor(sealClient: any, suiClient: any) {
this.sealClient = sealClient;
this.suiClient = suiClient;
}

async createGatedContent(
content: string,
requiredNftCollection: string,
creatorKeypair: any
) {
// Create NFT ownership policy
const accessPolicy = await this.createNftPolicy(
requiredNftCollection,
creatorKeypair
);

// Encrypt content with NFT access requirement
const encryptedContent = await this.sealClient.encrypt({
data: Buffer.from(content, 'utf-8'),
recipientId: 'nft_holders', // Special recipient for NFT holders
accessPolicy: {
policyId: accessPolicy.policyId,
policyType: 'nft_ownership'
}
});

return {
contentId: encryptedContent.encryptionId,
accessPolicy: accessPolicy.policyId
};
}

async accessGatedContent(
contentId: string,
userAddress: string,
userKeypair: any
) {
// Verify NFT ownership first
const hasAccess = await this.verifyNftOwnership(
userAddress,
contentId
);

if (!hasAccess) {
throw new Error('Access denied: Required NFT not found');
}

// Decrypt content
const decryptedContent = await this.sealClient.decrypt({
encryptionId: contentId,
recipientId: userAddress
});

return decryptedContent.toString('utf-8');
}

private async createNftPolicy(collection: string, creator: any) {
// Create Move contract that checks NFT ownership
// Returns policy object ID
}

private async verifyNftOwnership(user: string, contentId: string) {
// Check if user owns required NFT
// Query Sui for NFT ownership
}
}

Beispiel 3: Zeitgesperrter Asset-Transfer

// src/time-locked-transfer.ts
import { createSealClient } from './seal-client';

async function createTimeLockTransfer(
assetData: any,
recipientAddress: string,
unlockTimestamp: number,
senderKeypair: any
) {
const { sealClient, suiClient } = await createSealClient();

// Create time-lock policy on Sui
const timeLockPolicy = await createTimeLockPolicy(
unlockTimestamp,
recipientAddress,
senderKeypair,
suiClient
);

// Encrypt asset transfer data
const transferData = {
asset: assetData,
recipient: recipientAddress,
unlockTime: unlockTimestamp,
transferId: crypto.randomUUID()
};

const encryptedTransfer = await sealClient.encrypt({
data: Buffer.from(JSON.stringify(transferData), 'utf-8'),
recipientId: recipientAddress,
accessPolicy: {
policyId: timeLockPolicy.policyId,
policyType: 'time_lock'
}
});

console.log(`Asset locked until ${new Date(unlockTimestamp)}`);

return {
transferId: encryptedTransfer.encryptionId,
unlockTime: unlockTimestamp,
policyId: timeLockPolicy.policyId
};
}

async function claimTimeLockTransfer(
transferId: string,
recipientKeypair: any
) {
const { sealClient } = await createSealClient();

try {
const decryptedData = await sealClient.decrypt({
encryptionId: transferId,
recipientId: recipientKeypair.toSuiAddress()
});

const transferData = JSON.parse(decryptedData.toString('utf-8'));

// Process the asset transfer
console.log('Asset transfer unlocked:', transferData);

return transferData;
} catch (error) {
console.error('Transfer not yet unlocked or access denied:', error);
throw error;
}
}

Integration mit Walrus Dezentralem Speicher

Seal funktioniert nahtlos mit Walrus, Suis dezentraler Speicherlösung. So integrieren Sie beide:

// src/walrus-integration.ts
import { createSealClient } from './seal-client';

class SealWalrusIntegration {
private sealClient: any;
private walrusClient: any;

constructor(sealClient: any, walrusClient: any) {
this.sealClient = sealClient;
this.walrusClient = walrusClient;
}

async storeEncryptedData(
data: Buffer,
recipientAddress: string,
accessPolicy?: any
) {
// Encrypt with Seal
const encryptedData = await this.sealClient.encrypt({
data,
recipientId: recipientAddress,
accessPolicy
});

// Store encrypted data on Walrus
const blobId = await this.walrusClient.store(
encryptedData.ciphertext
);

// Return reference that includes both Seal and Walrus info
return {
blobId,
encryptionId: encryptedData.encryptionId,
accessPolicy: encryptedData.accessPolicy
};
}

async retrieveAndDecrypt(
blobId: string,
encryptionId: string,
userKeypair: any
) {
// Retrieve from Walrus
const encryptedData = await this.walrusClient.retrieve(blobId);

// Decrypt with Seal
const decryptedData = await this.sealClient.decrypt({
ciphertext: encryptedData,
encryptionId,
recipientId: userKeypair.toSuiAddress()
});

return decryptedData;
}
}

// Usage example
async function walrusExample() {
const { sealClient } = await createSealClient();
const walrusClient = new WalrusClient('https://walrus-testnet.sui.io');

const integration = new SealWalrusIntegration(sealClient, walrusClient);

const fileData = Buffer.from('Important document content');
const recipientAddress = '0x...';

// Store encrypted
const result = await integration.storeEncryptedData(
fileData,
recipientAddress
);

console.log('Stored with Blob ID:', result.blobId);

// Later, retrieve and decrypt
const decrypted = await integration.retrieveAndDecrypt(
result.blobId,
result.encryptionId,
recipientKeypair
);

console.log('Retrieved data:', decrypted.toString());
}

Schwellenwertverschlüsselung: Erweiterte Konfiguration

Für Produktionsanwendungen möchten Sie eine benutzerdefinierte Schwellenwertverschlüsselung mit mehreren Schlüsselservern konfigurieren:

// src/advanced-threshold.ts
import { SealClient } from '@mysten/seal';

async function setupProductionSeal() {
// Configure with multiple independent key servers
const keyServers = [
'https://keyserver-1.your-org.com',
'https://keyserver-2.partner-org.com',
'https://keyserver-3.third-party.com',
'https://keyserver-4.backup-provider.com',
'https://keyserver-5.fallback.com'
];

const sealClient = new SealClient({
keyServers,
threshold: 3, // 3-of-5 threshold
network: 'mainnet',
// Advanced options
retryAttempts: 3,
timeoutMs: 10000,
backupKeyServers: [
'https://backup-1.emergency.com',
'https://backup-2.emergency.com'
]
});

return sealClient;
}

async function robustEncryption() {
const sealClient = await setupProductionSeal();

const criticalData = "Mission critical encrypted data";

// Encrypt with high security guarantees
const encrypted = await sealClient.encrypt({
data: Buffer.from(criticalData, 'utf-8'),
recipientId: '0x...',
// Require all 5 servers for maximum security
customThreshold: 5,
// Add redundancy
redundancy: 2,
accessPolicy: {
// Multi-factor requirements
requirements: ['nft_ownership', 'time_lock', 'multisig_approval']
}
});

return encrypted;
}

Best Practices für Sicherheit

1. Schlüsselmanagement

// src/security-practices.ts

// GOOD: Use secure key derivation
import { generateKeypair } from '@mysten/sui/cryptography/ed25519';

const keypair = generateKeypair();

// GOOD: Store keys securely (example with environment variables)
const keypair = Ed25519Keypair.fromSecretKey(
process.env.PRIVATE_KEY
);

// BAD: Never hardcode keys
const badKeypair = Ed25519Keypair.fromSecretKey(
"hardcoded-secret-key-12345" // Don't do this!
);

2. Validierung der Zugriffsrichtlinie

// Always validate access policies before encryption
async function secureEncrypt(data: Buffer, recipient: string) {
const { sealClient } = await createSealClient();

// Validate recipient address
if (!isValidSuiAddress(recipient)) {
throw new Error('Invalid recipient address');
}

// Check policy exists and is valid
const policy = await validateAccessPolicy(policyId);
if (!policy.isValid) {
throw new Error('Invalid access policy');
}

return sealClient.encrypt({
data,
recipientId: recipient,
accessPolicy: policy
});
}

3. Fehlerbehandlung und Fallbacks

// Robust error handling
async function resilientDecrypt(encryptionId: string, userKeypair: any) {
const { sealClient } = await createSealClient();

try {
return await sealClient.decrypt({
encryptionId,
recipientId: userKeypair.toSuiAddress()
});
} catch (error) {
if (error.code === 'ACCESS_DENIED') {
throw new Error('Access denied: Check your permissions');
} else if (error.code === 'KEY_SERVER_UNAVAILABLE') {
// Try with backup configuration
return await retryWithBackupServers(encryptionId, userKeypair);
} else if (error.code === 'THRESHOLD_NOT_MET') {
throw new Error('Insufficient key servers available');
} else {
throw new Error(`Decryption failed: ${error.message}`);
}
}
}

4. Datenvalidierung

// Validate data before encryption
function validateDataForEncryption(data: Buffer): boolean {
// Check size limits
if (data.length > 1024 * 1024) { // 1MB limit
throw new Error('Data too large for encryption');
}

// Check for sensitive patterns (optional)
const dataStr = data.toString();
if (containsSensitivePatterns(dataStr)) {
console.warn('Warning: Data contains potentially sensitive patterns');
}

return true;
}

Leistungsoptimierung

1. Batch-Operationen

// Batch multiple encryptions for efficiency
async function batchEncrypt(dataItems: Buffer[], recipients: string[]) {
const { sealClient } = await createSealClient();

const promises = dataItems.map((data, index) =>
sealClient.encrypt({
data,
recipientId: recipients[index]
})
);

return Promise.all(promises);
}

2. Caching von Schlüsselserver-Antworten

// Cache key server sessions to reduce latency
class OptimizedSealClient {
private sessionCache = new Map();

async encryptWithCaching(data: Buffer, recipient: string) {
let session = this.sessionCache.get(recipient);

if (!session || this.isSessionExpired(session)) {
session = await this.createNewSession(recipient);
this.sessionCache.set(recipient, session);
}

return this.encryptWithSession(data, session);
}
}

Testen Ihrer Seal-Integration

Unit-Tests

// tests/seal-integration.test.ts
import { describe, it, expect } from 'jest';
import { createSealClient } from '../src/seal-client';

describe('Seal Integration', () => {
it('should encrypt and decrypt data successfully', async () => {
const { sealClient } = await createSealClient();
const testData = Buffer.from('test message');
const recipient = '0x742d35cc6d4c0c08c0f9bf3c9b2b6c64b3b4f5c6d7e8f9a0b1c2d3e4f5a6b7c8';

const encrypted = await sealClient.encrypt({
data: testData,
recipientId: recipient
});

expect(encrypted.encryptionId).toBeDefined();
expect(encrypted.ciphertext).toBeDefined();

const decrypted = await sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: recipient
});

expect(decrypted.toString()).toBe('test message');
});

it('should enforce access control policies', async () => {
// Test that unauthorized users cannot decrypt
const { sealClient } = await createSealClient();

const encrypted = await sealClient.encrypt({
data: Buffer.from('secret'),
recipientId: 'authorized-user'
});

await expect(
sealClient.decrypt({
ciphertext: encrypted.ciphertext,
encryptionId: encrypted.encryptionId,
recipientId: 'unauthorized-user'
})
).rejects.toThrow('Access denied');
});
});

Bereitstellung für die Produktion

Umgebungskonfiguration

// config/production.ts
export const productionConfig = {
keyServers: [
process.env.KEY_SERVER_1,
process.env.KEY_SERVER_2,
process.env.KEY_SERVER_3,
process.env.KEY_SERVER_4,
process.env.KEY_SERVER_5
],
threshold: 3,
network: 'mainnet',
suiRpc: process.env.SUI_RPC_URL,
walrusGateway: process.env.WALRUS_GATEWAY,
// Security settings
maxDataSize: 1024 * 1024, // 1MB
sessionTimeout: 3600000, // 1 hour
retryAttempts: 3
};

Überwachung und Protokollierung

// utils/monitoring.ts
export class SealMonitoring {
static logEncryption(encryptionId: string, recipient: string) {
console.log(`[SEAL] Encrypted data ${encryptionId} for ${recipient}`);
// Send to your monitoring service
}

static logDecryption(encryptionId: string, success: boolean) {
console.log(`[SEAL] Decryption ${encryptionId}: ${success ? 'SUCCESS' : 'FAILED'}`);
}

static logKeyServerHealth(serverUrl: string, status: string) {
console.log(`[SEAL] Key server ${serverUrl}: ${status}`);
}
}

Ressourcen und nächste Schritte

Offizielle Dokumentation

Community und Support

  • Sui Discord: Treten Sie dem #seal-Kanal für Community-Support bei
  • GitHub Issues: Melden Sie Fehler und fordern Sie Funktionen an
  • Developer Forums: Sui Community-Foren für Diskussionen

Erweiterte Themen zum Erkunden

  1. Benutzerdefinierte Zugriffsrichtlinien: Erstellen Sie komplexe Autorisierungslogik mit Move-Verträgen
  2. Cross-Chain-Integration: Verwenden Sie Seal mit anderen Blockchain-Netzwerken
  3. Enterprise-Schlüsselmanagement: Richten Sie Ihre eigene Schlüsselserver-Infrastruktur ein
  4. Audit und Compliance: Implementieren Sie Protokollierung und Überwachung für regulierte Umgebungen

Beispielanwendungen

  • Sichere Chat-App: Ende-zu-Ende-verschlüsseltes Messaging mit Seal
  • Dokumentenmanagement: Unternehmensweite Dokumentenfreigabe mit Zugriffskontrollen
  • Digital Rights Management: Inhaltsverteilung mit Nutzungsrichtlinien
  • Datenschutzfreundliche Analysen: Verschlüsselte Datenverarbeitungsworkflows

Fazit

Seal stellt einen fundamentalen Wandel dar, um Datenschutz und Verschlüsselung zu Infrastruktur-Anliegen in Web3 zu machen. Durch die Kombination von identitätsbasierter Verschlüsselung, Schwellenwertsicherheit und programmierbarer Zugriffskontrolle bietet es Entwicklern leistungsstarke Tools zum Aufbau wirklich sicherer und dezentraler Anwendungen.

Die Hauptvorteile der Entwicklung mit Seal umfassen:

  • Kein Single Point of Failure: Verteilte Schlüsselserver eliminieren zentrale Autoritäten
  • Programmierbare Sicherheit: Smart-Contract-basierte Zugriffsrichtlinien bieten flexible Autorisierung
  • Entwicklerfreundlich: Das TypeScript SDK lässt sich nahtlos in bestehende Web3-Tools integrieren
  • Speicherunabhängig: Funktioniert mit Walrus, IPFS oder jeder Speicherlösung
  • Produktionsreif: Von Mysten Labs mit Unternehmenssicherheitsstandards entwickelt

Egal, ob Sie Benutzerdaten sichern, Abonnementmodelle implementieren oder komplexe Mehrparteienanwendungen erstellen, Seal bietet die kryptografischen Primitive und die Infrastruktur zur Zugriffskontrolle, die Sie benötigen, um mit Vertrauen zu entwickeln.

Beginnen Sie noch heute mit der Entwicklung und treten Sie dem wachsenden Ökosystem von Entwicklern bei, die Datenschutz zu einem fundamentalen Bestandteil der öffentlichen Infrastruktur machen.


Bereit, mit der Entwicklung zu beginnen? Installieren Sie @mysten/seal und experimentieren Sie mit den Beispielen in diesem Tutorial. Das dezentrale Web wartet auf Anwendungen, die Datenschutz und Sicherheit an erste Stelle setzen.

Das Krypto-Endspiel: Einblicke von Branchenvisionären

· 13 Minuten Lesezeit
Dora Noda
Software Engineer

Visionen von Mert Mumtaz (Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Selini Capital) und Alexander Good (Post Fiat)

Überblick

Die Token2049 veranstaltete ein Panel namens „Das Krypto-Endspiel“ mit Mert Mumtaz (CEO von Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Gründer von Selini Capital) und Alexander Good (Schöpfer von Post Fiat). Obwohl kein öffentlich zugängliches Transkript des Panels vorliegt, hat jeder Redner unterschiedliche Visionen für die langfristige Entwicklung der Krypto-Branche geäußert. Dieser Bericht fasst ihre öffentlichen Äußerungen und Schriften – darunter Blogbeiträge, Artikel, Nachrichteninterviews und Whitepapers – zusammen, um zu untersuchen, wie jede Person das „Endspiel“ für Krypto sieht.

Mert Mumtaz – Krypto als „Kapitalismus 2.0“

Kernvision

Mert Mumtaz lehnt die Vorstellung ab, dass Kryptowährungen lediglich „Web 3.0“ darstellen. Stattdessen argumentiert er, dass das Endspiel für Krypto darin besteht, den Kapitalismus selbst zu verbessern. Seiner Ansicht nach:

  • Krypto befeuert die Zutaten des Kapitalismus: Mumtaz stellt fest, dass der Kapitalismus auf dem freien Informationsfluss, sicheren Eigentumsrechten, abgestimmten Anreizen, Transparenz und reibungslosen Kapitalflüssen beruht. Er argumentiert, dass dezentrale Netzwerke, öffentliche Blockchains und Tokenisierung diese Merkmale effizienter machen und Krypto zu „Kapitalismus 2.0“ werden lassen.
  • Rund-um-die-Uhr-Märkte & tokenisierte Vermögenswerte: Er verweist auf regulatorische Vorschläge für 24/7-Finanzmärkte und die Tokenisierung von Aktien, Anleihen und anderen realen Vermögenswerten. Märkte kontinuierlich laufen zu lassen und über Blockchain-Schienen abzuwickeln, wird das traditionelle Finanzsystem modernisieren. Die Tokenisierung schafft Rund-um-die-Uhr-Liquidität und reibungslosen Handel mit Vermögenswerten, die zuvor Clearingstellen und Intermediäre erforderten.
  • Dezentralisierung & Transparenz: Durch die Verwendung offener Ledger beseitigt Krypto einen Teil der Gatekeeping- und Informationsasymmetrien, die im traditionellen Finanzwesen zu finden sind. Mumtaz sieht dies als Chance, Finanzen zu demokratisieren, Anreize auszurichten und Mittelsmänner zu reduzieren.

Implikationen

Mumtaz' „Kapitalismus 2.0“-These deutet darauf hin, dass das Endspiel der Branche nicht auf digitale Sammlerstücke oder „Web3-Apps“ beschränkt ist. Stattdessen stellt er sich eine Zukunft vor, in der nationale Regulierungsbehörden 24/7-Märkte, Asset-Tokenisierung und Transparenz befürworten. In dieser Welt wird die Blockchain-Infrastruktur zu einem Kernbestandteil der globalen Wirtschaft, der Krypto mit regulierten Finanzen verbindet. Er warnt auch davor, dass der Übergang Herausforderungen mit sich bringen wird – wie Sybil-Angriffe, Konzentration der Governance und regulatorische Unsicherheit –, glaubt aber, dass diese Hindernisse durch besseres Protokolldesign und Zusammenarbeit mit Regulierungsbehörden angegangen werden können.

Udi Wertheimer – Bitcoin als „Generationswechsel“ und die Altcoin-Abrechnung

Generationswechsel & Bitcoin „retire your bloodline“-These

Udi Wertheimer, Mitbegründer von Taproot Wizards, ist bekannt dafür, Bitcoin provokativ zu verteidigen und Altcoins zu verspotten. Mitte 2025 veröffentlichte er eine virale These namens „Diese Bitcoin-These wird Ihre Blutlinie in den Ruhestand schicken.“ Seiner Argumentation zufolge:

  • Generationswechsel: Wertheimer argumentiert, dass die frühen Bitcoin-„Wale“, die zu niedrigen Preisen akkumuliert haben, ihre Coins weitgehend verkauft oder übertragen haben. Institutionelle Käufer – ETFs, Staatskassen und Staatsfonds – haben sie ersetzt. Er nennt diesen Prozess einen „umfassenden Eigentumswechsel“, ähnlich der Dogecoin-Rallye von 2019–21, bei der eine Verschiebung von Walen zu Einzelhandelsnachfrage explosive Renditen befeuerte.
  • Preisunempfindliche Nachfrage: Institutionen allokieren Kapital, ohne sich um den Stückpreis zu kümmern. Am Beispiel des IBIT-ETF von BlackRock stellt er fest, dass neue Investoren einen Anstieg um 40 US-Dollar als trivial ansehen und bereit sind, zu jedem Preis zu kaufen. Dieser Angebotsschock, kombiniert mit begrenzter Umlaufmenge, könnte dazu führen, dass Bitcoin weit über die Konsenserwartungen hinaus beschleunigt.
  • Ziel von über 400.000 US-Dollar und Altcoin-Kollaps: Er prognostiziert, dass Bitcoin bis Ende 2025 über 400.000 US-Dollar pro BTC erreichen könnte und warnt davor, dass Altcoins schlechter abschneiden oder sogar kollabieren werden, wobei Ethereum als „größter Verlierer“ hervorgehoben wird. Laut Wertheimer werden Altcoins, sobald die institutionelle FOMO einsetzt, „auf einen Schlag erledigt“ und Bitcoin wird den größten Teil des Kapitals absorbieren.

Implikationen

Wertheimers Endspiel-These stellt Bitcoin als in seine letzte parabolische Phase eintretend dar. Der „Generationswechsel“ bedeutet, dass das Angebot in starke Hände (ETFs und Staatskassen) übergeht, während das Interesse des Einzelhandels gerade erst beginnt. Wenn dies zutrifft, würde dies einen schweren Angebotsschock erzeugen, der den BTC-Preis weit über die aktuellen Bewertungen hinaus treiben würde. Gleichzeitig glaubt er, dass Altcoins ein asymmetrisches Abwärtsrisiko bieten, da ihnen die institutionelle Nachfrageunterstützung fehlt und sie einer regulatorischen Prüfung unterliegen. Seine Botschaft an Investoren ist klar: Jetzt Bitcoin kaufen, bevor die Wall Street alles aufkauft.

Jordi Alexander – Makro-Pragmatismus, KI & Krypto als Zwillingsrevolutionen

Investitionen in KI und Krypto – zwei Schlüsselindustrien

Jordi Alexander, Gründer von Selini Capital und bekannter Spieltheoretiker, argumentiert, dass KI und Blockchain die beiden wichtigsten Industrien dieses Jahrhunderts sind. In einem von Bitget zusammengefassten Interview macht er mehrere Punkte:

  • Die Zwillingsrevolutionen: Alexander glaubt, dass die einzigen Wege zu echtem Wohlstandswachstum darin bestehen, in technologische Innovation (insbesondere KI) zu investieren oder frühzeitig an aufstrebenden Märkten wie Kryptowährungen teilzunehmen. Er stellt fest, dass die KI-Entwicklung und die Krypto-Infrastruktur die grundlegenden Module für Intelligenz und Koordination in diesem Jahrhundert sein werden.
  • Ende des Vierjahreszyklus: Er behauptet, dass der traditionelle Vierjahres-Krypto-Zyklus, der durch Bitcoin-Halvings angetrieben wird, vorbei ist; stattdessen erlebt der Markt jetzt liquiditätsgetriebene „Mini-Zyklen“. Zukünftige Aufwärtsbewegungen werden auftreten, wenn „reales Kapital“ vollständig in den Raum eintritt. Er ermutigt Händler, Ineffizienzen als Chance zu sehen und sowohl technische als auch psychologische Fähigkeiten zu entwickeln, um in diesem Umfeld erfolgreich zu sein.
  • Risikobereitschaft & Kompetenzentwicklung: Alexander rät Anlegern, die meisten Mittel in sicheren Vermögenswerten zu halten, aber einen kleinen Teil für Risikobereitschaft zu allokieren. Er betont den Aufbau von Urteilsvermögen und Anpassungsfähigkeit, da es in einem sich schnell entwickelnden Bereich „keinen Ruhestand“ gibt.

Kritik an zentralisierten Strategien und Makro-Ansichten

  • MicroStrategys Nullsummenspiel: In einer Blitznotiz warnt er, dass MicroStrategys Strategie, BTC zu kaufen, ein Nullsummenspiel sein könnte. Während die Teilnehmer das Gefühl haben könnten, zu gewinnen, könnte die Dynamik Risiken verbergen und zu Volatilität führen. Dies unterstreicht seine Überzeugung, dass Krypto-Märkte oft von Negativsummen- oder Nullsummen-Dynamiken angetrieben werden, sodass Händler die Motivationen großer Akteure verstehen müssen.
  • Endspiel der US-Geldpolitik: Alexanders Analyse der US-Makropolitik hebt hervor, dass die Kontrolle der Federal Reserve über den Anleihemarkt nachlassen könnte. Er stellt fest, dass langfristige Anleihen seit 2020 stark gefallen sind und glaubt, dass die Fed bald zu quantitativer Lockerung zurückkehren könnte. Er warnt davor, dass solche Politikwechsel „zuerst allmählich … dann auf einmal“ Marktbewegungen verursachen könnten und nennt dies einen wichtigen Katalysator für Bitcoin und Krypto.

Implikationen

Jordi Alexanders Endspiel-Vision ist nuanciert und makroorientiert. Anstatt ein einziges Kursziel vorherzusagen, hebt er strukturelle Veränderungen hervor: die Verschiebung zu liquiditätsgetriebenen Zyklen, die Bedeutung KI-gesteuerter Koordination und das Zusammenspiel zwischen Regierungspolitik und Krypto-Märkten. Er ermutigt Anleger, ein tiefes Verständnis und Anpassungsfähigkeit zu entwickeln, anstatt blind Narrativen zu folgen.

Alexander Good – Web 4, KI-Agenten und die Post Fiat L1

Das Scheitern von Web 3 und der Aufstieg von KI-Agenten

Alexander Good (auch bekannt unter seinem Pseudonym „goodalexander“) argumentiert, dass Web 3 weitgehend gescheitert ist, weil Benutzer mehr Wert auf Bequemlichkeit und Handel legen als auf den Besitz ihrer Daten. In seinem Essay „Web 4“ stellt er fest, dass die Akzeptanz von Verbraucher-Apps von einer nahtlosen Benutzererfahrung (UX) abhängt; Benutzer dazu zu zwingen, Assets zu überbrücken oder Wallets zu verwalten, tötet das Wachstum. Er sieht jedoch eine existenzielle Bedrohung aufkommen: KI-Agenten, die realistische Videos generieren, Computer über Protokolle steuern (wie Anthropic's „Computer Control“-Framework) und sich in große Plattformen wie Instagram oder YouTube einklinken können. Da sich KI-Modelle schnell verbessern und die Kosten für die Generierung von Inhalten sinken, prognostiziert er, dass KI-Agenten den Großteil der Online-Inhalte erstellen werden.

Web 4: KI-Agenten verhandeln auf der Blockchain

Good schlägt Web 4 als Lösung vor. Die Schlüsselideen sind:

  • Wirtschaftssystem mit KI-Agenten: Web 4 stellt sich KI-Agenten vor, die Benutzer als „Hollywood-Agenten“ vertreten und in ihrem Namen verhandeln. Diese Agenten werden Blockchains für den Datenaustausch, die Streitbeilegung und die Governance nutzen. Benutzer stellen Agenten Inhalte oder Fachwissen zur Verfügung, und die Agenten extrahieren Wert – oft durch Interaktion mit anderen KI-Agenten weltweit – und verteilen dann Zahlungen in Krypto an den Benutzer zurück.
  • KI-Agenten handhaben Komplexität: Good argumentiert, dass Menschen nicht plötzlich anfangen werden, Assets auf Blockchains zu überbrücken, daher müssen KI-Agenten diese Interaktionen handhaben. Benutzer werden einfach mit Chatbots (über Telegram, Discord usw.) sprechen, und KI-Agenten werden Wallets, Lizenzvereinbarungen und Token-Swaps hinter den Kulissen verwalten. Er prognostiziert eine nahe Zukunft, in der es endlose Protokolle, Token und Computer-zu-Computer-Konfigurationen geben wird, die für Menschen unverständlich sind, was KI-Unterstützung unerlässlich macht.
  • Unvermeidliche Trends: Good listet mehrere Trends auf, die Web 4 unterstützen: Fiskalkrisen der Regierungen fördern Alternativen; KI-Agenten werden Inhaltsgewinne kannibalisieren; Menschen werden „dümmer“, indem sie sich auf Maschinen verlassen; und die größten Unternehmen setzen auf benutzergenerierte Inhalte. Er kommt zu dem Schluss, dass es unvermeidlich ist, dass Benutzer mit KI-Systemen sprechen, diese Systeme in ihrem Namen verhandeln und Benutzer Krypto-Zahlungen erhalten, während sie hauptsächlich über Chat-Apps interagieren.

Abbildung des Ökosystems und Einführung von Post Fiat

Good kategorisiert bestehende Projekte in Web 4-Infrastruktur oder Composability-Spiele. Er stellt fest, dass Protokolle wie Story, die eine On-Chain-Governance für IP-Ansprüche schaffen, zu zweiseitigen Marktplätzen zwischen KI-Agenten werden. Gleichzeitig verkaufen Akash und Render Rechenleistungen und könnten sich anpassen, um Lizenzen an KI-Agenten zu vergeben. Er argumentiert, dass Börsen wie Hyperliquid davon profitieren werden, da endlose Token-Swaps benötigt werden, um diese Systeme benutzerfreundlich zu machen.

Sein eigenes Projekt, Post Fiat, ist als „Königsmacher in Web 4“ positioniert. Post Fiat ist eine Layer-1-Blockchain, die auf der Kerntechnologie von XRP basiert, jedoch mit verbesserter Dezentralisierung und Tokenomics. Zu den Hauptmerkmalen gehören:

  • KI-gesteuerte Validatorenauswahl: Anstatt sich auf von Menschen betriebenes Staking zu verlassen, verwendet Post Fiat große Sprachmodelle (LLMs), um Validatoren nach Glaubwürdigkeit und Transaktionsqualität zu bewerten. Das Netzwerk verteilt 55 % der Token über einen von einem KI-Agenten verwalteten Prozess an Validatoren, mit dem Ziel von „Objektivität, Fairness und ohne menschliche Beteiligung“. Der monatliche Zyklus des Systems – Veröffentlichen, Bewerten, Einreichen, Verifizieren und Auswählen & Belohnen – gewährleistet eine transparente Auswahl.
  • Fokus auf Investitionen & Expertennetzwerke: Im Gegensatz zum transaktionsbankorientierten Fokus von XRP zielt Post Fiat auf Finanzmärkte ab, indem es Blockchains für Compliance, Indexierung und den Betrieb eines Expertennetzwerks nutzt, das aus Community-Mitgliedern und KI-Agenten besteht. AGTI (der Entwicklungsarm von Post Fiat) verkauft Produkte an Finanzinstitute und könnte einen ETF auflegen, wobei die Einnahmen die Netzwerkentwicklung finanzieren.
  • Neue Anwendungsfälle: Das Projekt zielt darauf ab, die Indexierungsbranche durch die Schaffung dezentraler ETFs zu revolutionieren, konforme verschlüsselte Memos bereitzustellen und Expertennetzwerke zu unterstützen, in denen Mitglieder Token für Einblicke verdienen. Das Whitepaper beschreibt technische Maßnahmen – wie statistische Fingerabdrücke und Verschlüsselung –, um Sybil-Angriffe und Manipulationen zu verhindern.

Web 4 als Überlebensmechanismus

Good kommt zu dem Schluss, dass Web 4 ein Überlebensmechanismus ist, nicht nur eine coole Ideologie. Er argumentiert, dass innerhalb von sechs Monaten eine „Komplexitätsbombe“ kommen wird, wenn KI-Agenten sich verbreiten. Benutzer werden einen Teil des Upsides an KI-Systeme abgeben müssen, denn die Teilnahme an Agenten-Ökonomien wird der einzige Weg sein, um erfolgreich zu sein. Seiner Ansicht nach ist der Traum von Web 3 von dezentralem Besitz und Benutzerdatenschutz unzureichend; Web 4 wird KI-Agenten, Krypto-Anreize und Governance miteinander verbinden, um eine zunehmend automatisierte Wirtschaft zu navigieren.

Vergleichende Analyse

Konvergierende Themen

  1. Institutionelle & technologische Verschiebungen treiben das Endspiel voran.
    • Mumtaz sieht Regulierungsbehörden, die 24/7-Märkte und Tokenisierung ermöglichen, was Krypto mainstreamfähig machen wird.
    • Wertheimer hebt die institutionelle Akzeptanz über ETFs als Katalysator für Bitcoins parabolische Phase hervor.
    • Alexander stellt fest, dass der nächste Krypto-Boom liquiditätsgetrieben statt zyklusgetrieben sein wird und dass makroökonomische Politiken (wie der Fed-Pivot) starken Rückenwind liefern werden.
  2. KI wird zentral.
    • Alexander betont Investitionen in KI neben Krypto als Zwillingssäulen zukünftigen Wohlstands.
    • Good baut Web 4 um KI-Agenten herum auf, die auf Blockchains Transaktionen durchführen, Inhalte verwalten und Geschäfte aushandeln.
    • Die Validatorenauswahl und Governance von Post Fiat verlassen sich auf LLMs, um Objektivität zu gewährleisten. Zusammen implizieren diese Visionen, dass das Endspiel für Krypto eine Synergie zwischen KI und Blockchain beinhalten wird, wobei KI die Komplexität handhabt und Blockchains eine transparente Abwicklung bieten.
  3. Bedarf an besserer Governance und Fairness.
    • Mumtaz warnt, dass die Zentralisierung der Governance eine Herausforderung bleibt.
    • Alexander ermutigt zum Verständnis spieltheoretischer Anreize und weist darauf hin, dass Strategien wie die von MicroStrategy ein Nullsummenspiel sein können.
    • Good schlägt eine KI-gesteuerte Validatorenbewertung vor, um menschliche Vorurteile zu beseitigen und eine faire Token-Verteilung zu schaffen, wodurch Governance-Probleme in bestehenden Netzwerken wie XRP angegangen werden.

Divergierende Visionen

  1. Rolle von Altcoins. Wertheimer sieht Altcoins als zum Scheitern verurteilt und glaubt, dass Bitcoin den größten Teil des Kapitals aufnehmen wird. Mumtaz konzentriert sich auf den gesamten Krypto-Markt, einschließlich tokenisierter Vermögenswerte und DeFi, während Alexander kettenübergreifend investiert und glaubt, dass Ineffizienzen Chancen schaffen. Good baut eine Alt-L1 (Post Fiat), die auf KI-Finanzen spezialisiert ist, was impliziert, dass er Raum für spezialisierte Netzwerke sieht.
  2. Menschliche Handlungsfähigkeit vs. KI-Handlungsfähigkeit. Mumtaz und Alexander betonen menschliche Investoren und Regulierungsbehörden, während Good eine Zukunft vorhersieht, in der KI-Agenten die primären Wirtschaftsakteure werden und Menschen über Chatbots interagieren. Diese Verschiebung impliziert grundlegend unterschiedliche Benutzererfahrungen und wirft Fragen nach Autonomie, Fairness und Kontrolle auf.
  3. Optimismus vs. Vorsicht. Wertheimers These ist aggressiv bullisch für Bitcoin mit wenig Sorge um Abwärtsrisiken. Mumtaz ist optimistisch, dass Krypto den Kapitalismus verbessern wird, räumt aber regulatorische und Governance-Herausforderungen ein. Alexander ist vorsichtig – er hebt Ineffizienzen, Nullsummen-Dynamiken und die Notwendigkeit der Kompetenzentwicklung hervor – glaubt aber dennoch an das langfristige Versprechen von Krypto. Good sieht Web 4 als unvermeidlich an, warnt aber vor der Komplexitätsbombe und drängt zur Vorbereitung statt zu blindem Optimismus.

Fazit

Das Token2049-Panel „Krypto-Endspiel“ brachte Denker mit sehr unterschiedlichen Perspektiven zusammen. Mert Mumtaz sieht Krypto als Upgrade des Kapitalismus, wobei er Dezentralisierung, Transparenz und 24/7-Märkte betont. Udi Wertheimer sieht Bitcoin in einer angebotsgeschockten Generationsrallye, die Altcoins hinter sich lassen wird. Jordi Alexander nimmt eine makro-pragmatischere Haltung ein und drängt zu Investitionen in KI und Krypto, während er Liquiditätszyklen und spieltheoretische Dynamiken versteht. Alexander Good stellt sich eine Web 4-Ära vor, in der KI-Agenten auf Blockchains verhandeln und Post Fiat zur Infrastruktur für KI-gesteuerte Finanzen wird.

Obwohl ihre Visionen unterschiedlich sind, ist ein gemeinsames Thema die Evolution der wirtschaftlichen Koordination. Ob durch tokenisierte Vermögenswerte, institutionelle Rotation, KI-gesteuerte Governance oder autonome Agenten – jeder Redner glaubt, dass Krypto die Art und Weise, wie Werte geschaffen und ausgetauscht werden, grundlegend neu gestalten wird. Das Endspiel scheint daher weniger ein Endpunkt als vielmehr ein Übergang in ein neues System zu sein, in dem Kapital, Berechnung und Koordination konvergieren.

Tokenisierung: Neudefinition der Kapitalmärkte

· 12 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung

Tokenisierung bezieht sich auf die Darstellung des Eigentums an einem Vermögenswert auf einer Blockchain durch digitale Token. Diese Token können finanzielle Vermögenswerte (Aktien, Anleihen, Geldmarktfonds), reale Vermögenswerte (Immobilien, Kunst, Rechnungen) oder sogar Bargeld selbst (Stablecoins oder Einlagen-Token) repräsentieren. Durch die Überführung von Vermögenswerten auf programmierbare, ständig verfügbare Blockchains verspricht die Tokenisierung, Abwicklungshemmnisse zu reduzieren, die Transparenz zu verbessern und einen globalen 24/7-Zugang zu den Kapitalmärkten zu ermöglichen. Während der TOKEN2049 und nachfolgender Diskussionen in den Jahren 2024–2025 untersuchten führende Persönlichkeiten aus der Krypto- und traditionellen Finanzwelt, wie die Tokenisierung die Kapitalmärkte neu gestalten könnte.

Nachfolgend finden Sie einen detaillierten Einblick in die Visionen und Prognosen der Hauptteilnehmer des Panels „Tokenisierung: Neudefinition der Kapitalmärkte“ und verwandter Interviews: Diogo Mónica (General Partner, Haun Ventures), Cynthia Lo Bessette (Head of Digital Asset Management, Fidelity Investments), Shan Aggarwal (Chief Business Officer, Coinbase), Alex Thorn (Head of Research, Galaxy) und Arjun Sethi (Co‑CEO, Kraken). Der Bericht ordnet ihre Ansichten auch in umfassendere Entwicklungen wie tokenisierte Staatsanleihenfonds, Stablecoins, Einlagen-Token und tokenisierte Aktien ein.

1. Diogo Mónica – General Partner, Haun Ventures

1.1 Vision: Stablecoins sind der „Startschuss“ für die Tokenisierung

Diogo Mónica argumentiert, dass gut regulierte Stablecoins die Voraussetzung für die Tokenisierung der Kapitalmärkte sind. In einem Meinungsartikel für den American Banker schrieb er, dass Stablecoins Geld in programmierbare digitale Token verwandeln, den 24/7-Handel ermöglichen und die Tokenisierung vieler Anlageklassen ermöglichen. Sobald Geld On-Chain ist, „öffnet man die Tür, um alles andere zu tokenisieren – Aktien, Anleihen, Immobilien, Rechnungen, Kunst“. Mónica bemerkt, dass einige technologisch fortschrittliche Stablecoins bereits nahezu sofortige, kostengünstige grenzüberschreitende Überweisungen ermöglichen; aber regulatorische Klarheit ist erforderlich, um eine breite Akzeptanz zu gewährleisten. Er betont, dass Stablecoin-Regulierungen streng sein sollten – angelehnt an das Regulierungssystem für Geldmarktfonds –, um den Verbraucherschutz zu gewährleisten.

1.2 Tokenisierung wird die Kapitalbildung wiederbeleben und Märkte globalisieren

Mónica behauptet, dass die Tokenisierung fehlerhafte Kapitalbildungsmechanismen „reparieren“ könnte. Traditionelle IPOs sind teuer und auf bestimmte Märkte beschränkt; die Ausgabe tokenisierter Wertpapiere könnte Unternehmen jedoch ermöglichen, Kapital On-Chain zu beschaffen, mit globalem Zugang und geringeren Kosten. Transparente, ständig offene Märkte könnten Anlegern weltweit ermöglichen, Token, die Eigenkapital oder andere Vermögenswerte repräsentieren, unabhängig von geografischen Grenzen zu handeln. Für Mónica ist das Ziel nicht, Vorschriften zu umgehen, sondern neue regulatorische Rahmenbedingungen zu schaffen, die On-Chain-Kapitalmärkte ermöglichen. Er argumentiert, dass tokenisierte Märkte die Liquidität für traditionell illiquide Vermögenswerte (z. B. Immobilien, Anteile kleiner Unternehmen) steigern und Investitionsmöglichkeiten demokratisieren könnten. Er betont, dass Regulierungsbehörden konsistente Regeln für die Ausgabe, den Handel und die Übertragung tokenisierter Wertpapiere schaffen müssen, damit Anleger und Emittenten Vertrauen in On-Chain-Märkte gewinnen.

1.3 Förderung von Startups und institutioneller Akzeptanz

Als Risikokapitalgeber bei Haun Ventures ermutigt Mónica Startups, die an der Infrastruktur für tokenisierte Vermögenswerte arbeiten. Er betont die Bedeutung von konformen digitalen Identitäts- und Verwahrungslösungen, On-Chain-Governance und interoperablen Blockchains, die große Volumina unterstützen können. Mónica sieht Stablecoins als ersten Schritt, glaubt aber, dass die nächste Phase tokenisierte Geldmarktfonds und On-Chain-Staatsanleihen sein wird – Bausteine für vollwertige Kapitalmärkte.

2. Cynthia Lo Bessette – Head of Digital Asset Management, Fidelity Investments

2.1 Tokenisierung liefert Transaktionseffizienz und Zugang

Cynthia Lo Bessette leitet das Digital Asset Management Geschäft von Fidelity und ist für die Entwicklung von Tokenisierungsinitiativen verantwortlich. Sie argumentiert, dass die Tokenisierung die Abwicklungseffizienz verbessert und den Marktzugang erweitert. In Interviews über den geplanten tokenisierten Geldmarktfonds von Fidelity erklärte Lo Bessette, dass die Tokenisierung von Vermögenswerten „transaktionale Effizienzen vorantreiben“ und den Zugang und die Kapitalallokation über Märkte hinweg verbessern kann. Sie bemerkte, dass tokenisierte Vermögenswerte als nicht-bare Sicherheiten verwendet werden könnten, um die Kapitaleffizienz zu steigern, und sagte, dass Fidelity „ein Innovator sein… [und] Technologie nutzen möchte, um besseren Zugang zu ermöglichen“.

2.2 Fidelitys tokenisierter Geldmarktfonds

Im Jahr 2024 reichte Fidelity bei der SEC einen Antrag ein, um den Fidelity Treasury Digital Fund zu starten, einen tokenisierten Geldmarktfonds auf der Ethereum-Blockchain. Der Fonds gibt Anteile als ERC-20 Token aus, die Bruchteile von Anteilen an einem Pool von Staatsanleihen repräsentieren. Ziel ist es, 24-Stunden-Zeichnung und -Rücknahme, atomare Abwicklung und programmierbare Compliance zu ermöglichen. Lo Bessette erklärte, dass die Tokenisierung von Staatsanleihen die operative Infrastruktur verbessern, den Bedarf an Intermediären reduzieren und den Fonds einem breiteren Publikum öffnen kann, einschließlich Unternehmen, die On-Chain-Sicherheiten suchen. Durch das Angebot einer tokenisierten Version eines zentralen Geldmarktinstruments möchte Fidelity Institutionen anziehen, die On-Chain-Finanzierungen erkunden.

2.3 Regulatorisches Engagement

Lo Bessette warnt, dass Regulierung entscheidend ist. Fidelity arbeitet mit Regulierungsbehörden zusammen, um Anlegerschutz und Compliance zu gewährleisten. Sie glaubt, dass eine enge Zusammenarbeit mit der SEC und Branchenverbänden notwendig sein wird, um die Genehmigung für tokenisierte Investmentfonds und andere regulierte Produkte zu erhalten. Fidelity beteiligt sich auch an Brancheninitiativen wie der Tokenized Asset Coalition, um Standards für Verwahrung, Offenlegung und Anlegerschutz zu entwickeln.

3. Shan Aggarwal – Chief Business Officer, Coinbase

3.1 Expansion über den Krypto-Handel hinaus in die On-Chain-Finanzwelt

Als erster CBO von Coinbase ist Shan Aggarwal für Strategie und neue Geschäftsbereiche verantwortlich. Er hat eine Vision formuliert, in der Coinbase zum „AWS der Krypto-Infrastruktur“ wird, indem es Verwahrungs-, Staking-, Compliance- und Tokenisierungsdienste für Institutionen und Entwickler bereitstellt. In einem Interview (übersetzt aus Forbes) sagte Aggarwal, er sehe die Rolle von Coinbase darin, die On-Chain-Wirtschaft zu unterstützen, indem es die Infrastruktur aufbaut, um reale Vermögenswerte zu tokenisieren, traditionelle Finanzen mit Web3 zu verbinden und Finanzdienstleistungen wie Kreditvergabe, Zahlungen und Überweisungen anzubieten. Er merkt an, dass Coinbase die Zukunft des Geldes definieren möchte, anstatt nur daran teilzuhaben.

3.2 Stablecoins sind die native Zahlungsschiene für KI-Agenten und den globalen Handel

Aggarwal glaubt, dass Stablecoins die native Abwicklungsschicht für Menschen und KI werden. In einem Interview im Jahr 2024 sagte er, dass Stablecoins globale Zahlungen ohne Zwischenhändler ermöglichen; da KI-Agenten im Handel immer häufiger werden, „sind Stablecoins die nativen Zahlungsschienen für KI-Agenten“. Er prognostiziert, dass Stablecoin-Zahlungen so tief im Handel verankert sein werden, dass Verbraucher und Maschinen sie unbemerkt nutzen werden, was den digitalen Handel für Milliarden freischaltet.

Aggarwal behauptet, dass alle Anlageklassen schließlich On-Chain kommen werden. Er weist darauf hin, dass die Tokenisierung von Vermögenswerten wie Aktien, Staatsanleihen oder Immobilien deren sofortige Abwicklung und globalen Handel ermöglicht. Er räumt ein, dass regulatorische Klarheit und eine robuste Infrastruktur Voraussetzungen sind, sieht aber eine unvermeidliche Verlagerung von traditionellen Clearing-Systemen zu Blockchains.

3.3 Aufbau institutioneller Akzeptanz und Compliance

Aggarwal betont, dass Institutionen sichere Verwahrung, Compliance-Dienste und eine zuverlässige Infrastruktur benötigen, um die Tokenisierung zu übernehmen. Coinbase hat in die Coinbase International Exchange, Base (sein L2-Netzwerk) und Partnerschaften mit Stablecoin-Emittenten (z. B. USDC) investiert. Er schlägt vor, dass Coinbase, wenn mehr Vermögenswerte tokenisiert werden, eine „One-Stop-Shop“-Infrastruktur für Handel, Finanzierung und On-Chain-Operationen bereitstellen wird. Wichtig ist, dass Aggarwal eng mit politischen Entscheidungsträgern zusammenarbeitet, um sicherzustellen, dass die Regulierung Innovationen ermöglicht, ohne das Wachstum zu behindern.

4. Alex Thorn – Head of Research, Galaxy

4.1 Tokenisierte Aktien: Ein erster Schritt in einer neuen Kapitalmarkt-Infrastruktur

Alex Thorn leitet die Forschung bei Galaxy und war maßgeblich an der Entscheidung des Unternehmens beteiligt, eigene Aktien zu tokenisieren. Im September 2024 kündigte Galaxy an, Aktionären zu ermöglichen, ihre Galaxy Class A-Aktien über eine Tokenisierungs-Partnerschaft mit Superstate auf die Solana-Blockchain zu übertragen. Thorn erklärte, dass tokenisierte Aktien die gleichen rechtlichen und wirtschaftlichen Rechte wie traditionelle Aktien verleihen, aber Peer-to-Peer übertragen und in Minuten statt in Tagen abgewickelt werden können. Er sagte, dass tokenisierte Aktien „eine neue Methode sind, um schnellere, effizientere und inklusivere Kapitalmärkte aufzubauen“.

4.2 Arbeit innerhalb bestehender Regulierung und mit der SEC

Thorn betont die Bedeutung von Compliance. Galaxy hat sein tokenisiertes Aktienprogramm so aufgebaut, dass es den US-Wertpapiergesetzen entspricht: Die tokenisierten Aktien werden über eine Übertragungsstelle ausgegeben, die Token können nur zwischen KYC-geprüften Wallets übertragen werden, und Rücknahmen erfolgen über einen regulierten Broker. Thorn sagte, Galaxy wolle „innerhalb der bestehenden Regeln arbeiten“ und werde mit der SEC zusammenarbeiten, um Rahmenbedingungen für On-Chain-Aktien zu entwickeln. Er betrachtet diesen Prozess als entscheidend, um Regulierungsbehörden davon zu überzeugen, dass die Tokenisierung Anleger schützen und gleichzeitig Effizienzgewinne erzielen kann.

4.3 Kritische Perspektive auf Einlagen-Token und nicht genehmigte Angebote

Thorn hat Vorsicht bezüglich anderer Formen der Tokenisierung geäußert. Bei der Diskussion über von Banken ausgegebene Einlagen-Token verglich er die aktuelle Landschaft mit der „Wildcat-Banking“-Ära der 1830er Jahre und warnte, dass Einlagen-Token möglicherweise nicht weit verbreitet sein werden, wenn jede Bank ihren eigenen Token ausgibt. Er argumentierte, dass Regulierungsbehörden Einlagen-Token möglicherweise als regulierte Stablecoins behandeln und einen einzigen, starren Bundesstandard fordern könnten, um sie fungibel zu machen.

Ähnlich kritisierte er Pre-IPO Token-Angebote, die ohne Zustimmung des Emittenten gestartet wurden. In einem Interview über Jupiters Pre-IPO Token der Robinhood-Aktie bemerkte Thorn, dass viele Pre-IPO Token nicht autorisiert sind und „kein sauberes Aktienbesitzrecht bieten“. Für Thorn muss die Tokenisierung mit Zustimmung des Emittenten und unter Einhaltung der Vorschriften erfolgen; nicht autorisierte Tokenisierung untergräbt den Anlegerschutz und könnte die öffentliche Wahrnehmung schädigen.

5. Arjun Sethi – Co‑CEO, Kraken

5.1 Tokenisierte Aktien werden Stablecoins übertreffen und Eigentum demokratisieren

Arjun Sethi, Co-CEO von Kraken, ist ein leidenschaftlicher Befürworter tokenisierter Aktien. Er prognostiziert, dass tokenisierte Aktien Stablecoins in Bezug auf die Marktgröße schließlich übertreffen werden, da sie echte wirtschaftliche Rechte und globale Zugänglichkeit bieten. Sethi stellt sich eine Welt vor, in der jeder mit einer Internetverbindung rund um die Uhr einen Bruchteil einer beliebigen Aktie kaufen kann, ohne geografische Einschränkungen. Er argumentiert, dass tokenisierte Aktien die Macht an Einzelpersonen zurückgeben, indem sie Barrieren beseitigen, die durch Geografie oder institutionelle Gatekeeper auferlegt werden; zum ersten Mal können Menschen auf der ganzen Welt einen Aktienanteil wie Geld besitzen und nutzen.

5.2 Krakens xStocks und Partnerschaften

Im Jahr 2024 startete Kraken xStocks, eine Plattform für den Handel mit tokenisierten US-Aktien auf Solana. Sethi erklärte, dass das Ziel darin besteht, die Menschen dort abzuholen, wo sie sind – indem der Handel mit tokenisierten Aktien in weit verbreitete Apps integriert wird. Als Kraken xStocks in die Telegram Wallet integrierte, sagte Sethi, die Integration ziele darauf ab, „Hunderten Millionen von Nutzern Zugang zu tokenisierten Aktien in vertrauten Apps zu ermöglichen“. Er betonte, dass es hier nicht nur um Neuheit geht; es stellt einen Paradigmenwechsel hin zu grenzenlosen Märkten dar, die 24/7 betrieben werden.

Kraken erwarb auch die Futures-Plattform NinjaTrader und startete ein Ethereum Layer-2-Netzwerk (Ink), was seine Absicht signalisiert, über Krypto hinaus zu einer Full-Stack-Finanzdienstleistungsplattform zu expandieren. Partnerschaften mit Apollo Global und Securitize ermöglichen es Kraken, an der Tokenisierung privater Vermögenswerte und Unternehmensanteile zu arbeiten.

5.3 Regulatorisches Engagement und Börsennotierung

Sethi glaubt, dass eine grenzenlose, ständig verfügbare Handelsplattform regulatorische Zusammenarbeit erfordern wird. In einem Reuters-Interview sagte er, dass die Expansion in Aktien ein natürlicher Schritt sei und den Weg für die Vermögens-Tokenisierung ebne; die Zukunft des Handels wird grenzenlos, immer verfügbar und auf Krypto-Schienen aufgebaut sein. Kraken arbeitet weltweit mit Regulierungsbehörden zusammen, um sicherzustellen, dass seine tokenisierten Produkte den Wertpapiergesetzen entsprechen. Sethi hat auch gesagt, dass Kraken in Zukunft einen Börsengang in Betracht ziehen könnte, wenn dies ihre Mission unterstützt.

6. Vergleichende Analyse und aufkommende Themen

6.1 Tokenisierung als nächste Phase der Marktinfrastruktur

Alle Diskussionsteilnehmer sind sich einig, dass die Tokenisierung eine grundlegende Infrastrukturverschiebung darstellt. Mónica beschreibt Stablecoins als den Katalysator, der die Tokenisierung jeder anderen Anlageklasse ermöglicht. Lo Bessette sieht die Tokenisierung als einen Weg, die Abwicklungseffizienz zu verbessern und den Zugang zu öffnen. Aggarwal prognostiziert, dass alle Vermögenswerte schließlich On-Chain kommen werden und dass Coinbase die Infrastruktur bereitstellen wird. Thorn betont, dass tokenisierte Aktien schnellere, inklusivere Kapitalmärkte schaffen, während Sethi voraussieht, dass tokenisierte Aktien Stablecoins übertreffen und das Eigentum demokratisieren werden.

6.2 Notwendigkeit regulatorischer Klarheit

Ein wiederkehrendes Thema ist die Notwendigkeit einer klaren, konsistenten Regulierung. Mónica und Thorn bestehen darauf, dass tokenisierte Vermögenswerte den Wertpapiergesetzen entsprechen müssen und dass Stablecoins und Einlagen-Token eine strenge Regulierung erfordern. Lo Bessette merkt an, dass Fidelity eng mit Regulierungsbehörden zusammenarbeitet und sein tokenisierter Geldmarktfonds so konzipiert ist, dass er in bestehende regulatorische Rahmenbedingungen passt. Aggarwal und Sethi betonen die Zusammenarbeit mit politischen Entscheidungsträgern, um sicherzustellen, dass ihre On-Chain-Produkte die Compliance-Anforderungen erfüllen. Ohne regulatorische Klarheit birgt die Tokenisierung das Risiko, die Fragmentierung und Opazität zu reproduzieren, die die Blockchain zu lösen versucht.

6.3 Integration von Stablecoins und tokenisierten Vermögenswerten

Stablecoins und tokenisierte Staatsanleihen werden als grundlegend angesehen. Aggarwal betrachtet Stablecoins als die native Schiene für KI und globalen Handel. Mónica sieht gut regulierte Stablecoins als den „Startschuss“ für die Tokenisierung anderer Vermögenswerte. Lo Bessettes tokenisierter Geldmarktfonds und Thorns Vorsicht bezüglich Einlagen-Token beleuchten unterschiedliche Ansätze zur Tokenisierung von Bargeldäquivalenten. Wenn Stablecoins weit verbreitet sind, werden sie wahrscheinlich zur Abwicklung von Trades mit tokenisierten Wertpapieren und RWAs verwendet werden.

6.4 Demokratisierung und globale Zugänglichkeit

Die Tokenisierung verspricht, den Zugang zu den Kapitalmärkten zu demokratisieren. Sethis Begeisterung, „Hunderten Millionen von Nutzern“ über vertraute Apps Zugang zu tokenisierten Aktien zu ermöglichen, fängt diese Vision ein. Aggarwal sieht in der Tokenisierung die Möglichkeit für Milliarden von Menschen und KI-Agenten, am digitalen Handel teilzunehmen. Mónicas Ansicht von 24/7 global zugänglichen Märkten stimmt mit diesen Prognosen überein. Alle betonen, dass die Tokenisierung Barrieren beseitigen und Inklusion in Finanzdienstleistungen bringen wird.

6.5 Vorsichtiger Optimismus und Herausforderungen

Obwohl optimistisch, erkennen die Diskussionsteilnehmer auch Herausforderungen an. Thorn warnt vor nicht autorisierter Pre-IPO-Tokenisierung und betont, dass Einlagen-Token das „Wildcat-Banking“ replizieren könnten, wenn jede Bank ihren eigenen Token ausgibt. Lo Bessette und Mónica fordern ein sorgfältiges regulatorisches Design. Aggarwal und Sethi heben Infrastrukturanforderungen wie Compliance, Verwahrung und Benutzererfahrung hervor. Das Gleichgewicht zwischen Innovation und Anlegerschutz wird entscheidend sein, um das volle Potenzial tokenisierter Kapitalmärkte auszuschöpfen.

Fazit

Die auf der TOKEN2049 und in nachfolgenden Interviews geäußerten Visionen verdeutlichen die gemeinsame Überzeugung, dass die Tokenisierung die Kapitalmärkte neu definieren wird. Führende Persönlichkeiten von Haun Ventures, Fidelity, Coinbase, Galaxy und Kraken sehen die Tokenisierung als eine unvermeidliche Evolution der Finanzinfrastruktur, angetrieben durch Stablecoins, tokenisierte Staatsanleihen und tokenisierte Aktien. Sie erwarten, dass On-Chain-Märkte rund um die Uhr betrieben werden, globale Teilnahme ermöglichen, Abwicklungshemmnisse reduzieren und den Zugang demokratisieren werden. Diese Vorteile hängen jedoch von einer robusten Regulierung, Compliance und Infrastruktur ab. Wenn Regulierungsbehörden und Branchenteilnehmer zusammenarbeiten, könnte die Tokenisierung neue Formen der Kapitalbildung erschließen, das Eigentum demokratisieren und ein inklusiveres Finanzsystem einleiten.

BASS 2025: Die Zukunft von Blockchain-Anwendungen gestalten, vom Weltraum bis zur Wall Street

· 8 Minuten Lesezeit
Dora Noda
Software Engineer

Der Blockchain Application Stanford Summit (BASS) eröffnete die Woche der Science of Blockchain Conference (SBC) und brachte Innovatoren, Forscher und Entwickler zusammen, um die neuesten Entwicklungen im Ökosystem zu erkunden. Die Organisatoren Gil, Kung und Stephen begrüßten die Teilnehmer und hoben den Fokus der Veranstaltung auf Unternehmertum und reale Anwendungen hervor, ein Geist, der aus der engen Zusammenarbeit mit der SBC entstand. Mit Unterstützung von Organisationen wie Blockchain Builders und den Cryptography and Blockchain Alumni of Stanford war der Tag gefüllt mit tiefgehenden Einblicken in himmlische Blockchains, die Zukunft von Ethereum, institutionelles DeFi und die aufstrebende Schnittstelle von KI und Krypto.

Dalia Maliki: Aufbau einer orbitalen Vertrauensbasis mit Space Computer

Dalia Maliki, Professorin an der UC Santa Barbara und Beraterin von Space Computer, eröffnete mit einem Blick auf eine wahrhaft außergewöhnliche Anwendung: den Aufbau einer sicheren Computerplattform im Orbit.

Was ist Space Computer? Kurz gesagt, Space Computer ist eine „orbitale Vertrauensbasis“, die eine Plattform für die Ausführung sicherer und vertraulicher Berechnungen auf Satelliten bietet. Das zentrale Wertversprechen liegt in den einzigartigen Sicherheitsgarantien des Weltraums. „Sobald eine Box sicher gestartet und im Weltraum eingesetzt wird, kann niemand später kommen und sich hineinhacken“, erklärte Maliki. „Es ist zu diesem Zeitpunkt absolut manipulationssicher.“ Diese Umgebung macht es auslaufsicher, stellt sicher, dass Kommunikationen nicht leicht gestört werden können, und bietet eine überprüfbare Geolokalisierung, was leistungsstarke Dezentralisierungseigenschaften bietet.

Architektur und Anwendungsfälle Das System ist mit einer zweistufigen Architektur konzipiert:

  • Layer 1 (Himmlisch): Die maßgebliche Vertrauensbasis läuft auf einem Netzwerk von Satelliten im Orbit, optimiert für begrenzte und intermittierende Kommunikation.
  • Layer 2 (Terrestrisch): Standard-Skalierungslösungen wie Rollups und State Channels laufen auf der Erde und verankern sich an der himmlischen Layer 1 für Finalität und Sicherheit.

Frühe Anwendungsfälle umfassen den Betrieb hochsicherer Blockchain-Validatoren und eines echten Zufallszahlengenerators, der kosmische Strahlung erfasst. Maliki betonte jedoch das Potenzial der Plattform für unvorhergesehene Innovationen. „Das Coolste am Aufbau einer Plattform ist immer, dass man eine Plattform baut und andere Leute kommen und Anwendungsfälle entwickeln, von denen man nie geträumt hätte.“

Maliki zog eine Parallele zum ehrgeizigen Projekt Corona der 1950er Jahre, bei dem Filmbehälter von Spionagesatelliten abgeworfen wurden, um von Flugzeugen in der Luft aufgefangen zu werden, und forderte das Publikum auf, groß zu denken. „Im Vergleich dazu ist das, womit wir heute im Space Computer arbeiten, ein Luxus, und wir sind sehr gespannt auf die Zukunft.“

Tomasz Stanczak: Die Ethereum-Roadmap – Skalierung, Datenschutz und KI

Tomasz Stanczak, Executive Director der Ethereum Foundation, gab einen umfassenden Überblick über die sich entwickelnde Ethereum-Roadmap, die sich stark auf Skalierung, Verbesserung des Datenschutzes und Integration in die Welt der KI konzentriert.

Kurzfristiger Fokus: Unterstützung von L2s Die unmittelbare Priorität für Ethereum ist es, seine Rolle als beste Plattform für Layer 2s zu festigen. Kommende Forks, Fusaka und Glumpsterdom, konzentrieren sich auf dieses Ziel. „Wir wollen viel stärkere Aussagen treffen, dass ja, [L2s] innovieren, sie Ethereum erweitern, und sie werden eine Zusage von Protokollentwicklern haben, dass Layer 1 L2s bestmöglich unterstützen wird“, erklärte Stanczak.

Langfristige Vision: Lean Ethereum und Echtzeit-Beweisführung Mit Blick auf die Zukunft zielt die Vision „Lean Ethereum“ auf massive Skalierbarkeit und Sicherheitsverbesserungen ab. Eine Schlüsselkomponente ist die ZK-EVM-Roadmap, die eine Echtzeit-Beweisführung mit Latenzen unter 10 Sekunden für 99 % der Blöcke anstrebt, erreichbar durch Solo-Staker. Dies, kombiniert mit Verbesserungen der Datenverfügbarkeit, könnte L2s auf theoretische „10 Millionen TPS“ bringen. Der langfristige Plan beinhaltet auch einen Fokus auf Post-Quanten-Kryptographie durch Hash-basierte Signaturen und ZK-EVMs.

Datenschutz und die KI-Schnittstelle Datenschutz ist eine weitere entscheidende Säule. Die Ethereum Foundation hat das Privacy and Scaling Explorations (PSC)-Team gegründet, um Bemühungen zu koordinieren, Tools zu unterstützen und datenschutzrelevante Protokollintegrationen zu erforschen. Stanczak sieht dies als entscheidend für die Interaktion von Ethereum mit KI an, da es Anwendungsfälle wie zensurresistente Finanzmärkte, datenschutzfreundliche KI und Open-Source-Agentensysteme ermöglicht. Er betonte, dass Ethereums Kultur, mehrere Disziplinen – von Finanzen und Kunst bis hin zu Robotik und KI – zu verbinden, unerlässlich ist, um die Herausforderungen und Chancen des nächsten Jahrzehnts zu meistern.

Sreeram Kannan: Das Vertrauens-Framework für ambitionierte Krypto-Anwendungen mit EigenCloud

Sreeram Kannan, Gründer von Eigen Labs, forderte das Publikum auf, über den aktuellen Umfang von Krypto-Anwendungen hinauszudenken, und präsentierte ein Framework zum Verständnis des Kernwerts von Krypto sowie EigenCloud als Plattform zur Verwirklichung dieser Vision.

Kryptos Kernthese: Eine Verifizierbarkeitsschicht „All dem liegt die Kernthese zugrunde, dass Krypto die Vertrauens- oder Verifizierbarkeitsschicht ist, auf der man sehr leistungsstarke Anwendungen aufbauen kann“, erklärte Kannan. Er stellte ein „TAM vs. Vertrauen“-Framework vor, das veranschaulicht, dass der gesamte adressierbare Markt (TAM) für eine Krypto-Anwendung exponentiell wächst, wenn das Vertrauen, das sie untermauert, zunimmt. Der Bitcoin-Markt wächst, wenn er vertrauenswürdiger wird als Fiat-Währungen; der Markt einer Kreditplattform wächst, wenn ihre Garantie für die Solvenz des Kreditnehmers glaubwürdiger wird.

EigenCloud: Entfesselung der Programmierbarkeit Kannan argumentierte, dass der primäre Engpass beim Aufbau ambitionierterer Apps – wie einem dezentralisierten Uber oder vertrauenswürdigen KI-Plattformen – nicht die Leistung, sondern die Programmierbarkeit ist. Um dies zu lösen, führt EigenCloud eine neue Architektur ein, die Anwendungslogik von Token-Logik trennt.

„Lassen Sie uns die Token-Logik On-Chain auf Ethereum belassen“, schlug er vor, „aber die Anwendungslogik wird nach außen verlagert. Sie können Ihre Kernlogik jetzt tatsächlich in beliebigen Containern schreiben... sie auf jedem Gerät Ihrer Wahl ausführen, sei es eine CPU oder eine GPU... und diese Ergebnisse dann überprüfbar On-Chain zurückführen.“

Dieser Ansatz, so argumentierte er, erweitert Krypto von einem „Laptop- oder Server-Maßstab auf Cloud-Maßstab“ und ermöglicht es Entwicklern, die wirklich disruptiven Anwendungen zu entwickeln, die in den frühen Tagen von Krypto angedacht waren.

Panel: Ein tiefer Einblick in die Blockchain-Architektur

Ein Panel mit Leiyang von MegaETH, Adi von Realo und Solomon von der Solana Foundation untersuchte die Kompromisse zwischen monolithischen, modularen und „supermodularen“ Architekturen.

  • MegaETH (Modulares L2): Leiyang beschrieb den Ansatz von MegaETH, einen zentralisierten Sequencer für extreme Geschwindigkeit zu verwenden, während die Sicherheit an Ethereum delegiert wird. Dieses Design zielt darauf ab, ein Echtzeit-Erlebnis auf Web2-Niveau für Anwendungen zu liefern und die ambitionierten „ICO-Ära“-Ideen wiederzubeleben, die zuvor durch die Leistung begrenzt waren.
  • Solana (Monolithisches L1): Solomon erklärte, dass Solanas Architektur mit ihren hohen Knotenanforderungen bewusst auf maximalen Durchsatz ausgelegt ist, um ihre Vision zu unterstützen, alle globalen Finanzaktivitäten On-Chain abzubilden. Der aktuelle Fokus liegt auf der Ausgabe von Vermögenswerten und Zahlungen. Zur Interoperabilität war Solomon offen: „Im Allgemeinen kümmern wir uns nicht wirklich um Interoperabilität... Es geht darum, so viel Asset-Liquidität und Nutzung wie möglich On-Chain zu bringen.“
  • Realo („Supermodulares“ L1): Adi stellte Realos „supermodulares“ Konzept vor, das wesentliche Dienste wie Oracles direkt in die Basisschicht konsolidiert, um die Reibung für Entwickler zu reduzieren. Dieses Design zielt darauf ab, die Blockchain nativ mit der realen Welt zu verbinden, mit einem Go-to-Market-Fokus auf RWAs und der Absicht, die Blockchain für Endbenutzer unsichtbar zu machen.

Panel: Die reale Schnittstelle von KI und Blockchain

Moderiert von Ed Roman von HackVC präsentierte dieses Panel drei unterschiedliche Ansätze zur Verschmelzung von KI und Krypto.

  • Ping AI (Bill): Ping AI baut eine „persönliche KI“ auf, bei der Benutzer die Selbstverwahrung ihrer Daten behalten. Die Vision ist es, das traditionelle Ad-Exchange-Modell zu ersetzen. Anstatt dass Unternehmen Benutzerdaten monetarisieren, wird das System von Ping AI Benutzer direkt belohnen, wenn ihre Daten zu einer Konversion führen, wodurch sie den wirtschaftlichen Wert ihres digitalen Fußabdrucks erfassen können.
  • Public AI (Jordan): Als „menschliche Schicht der KI“ beschrieben, ist Public AI ein Marktplatz für die Beschaffung hochwertiger, On-Demand-Daten, die nicht gescrapt oder synthetisch generiert werden können. Es verwendet ein On-Chain-Reputationssystem und Staking-Mechanismen, um sicherzustellen, dass Beitragende Signal und nicht Rauschen liefern, und belohnt sie für ihre Arbeit beim Aufbau besserer KI-Modelle.
  • Gradient (Eric): Gradient schafft eine dezentralisierte Laufzeitumgebung für KI, die verteilte Inferenz und Training in einem Netzwerk von unterausgelasteter Consumer-Hardware ermöglicht. Ziel ist es, der zentralisierenden Macht großer KI-Unternehmen entgegenzuwirken, indem eine globale Gemeinschaft Modelle kollaborativ trainieren und bereitstellen kann, wodurch „intelligente Souveränität“ erhalten bleibt.

Weitere Highlights des Gipfels

  • Orin Katz (Starkware) präsentierte Bausteine für „konforme On-Chain-Privatsphäre“ und erläuterte, wie ZK-Proofs verwendet werden können, um Privacy Pools und private Token (ZRC20s) zu erstellen, die Mechanismen wie „Viewing Keys“ für die regulatorische Aufsicht enthalten.
  • Sam Green (Cambrian) gab einen Überblick über die Landschaft des „Agentic Finance“ und kategorisierte Krypto-Agenten in Handel, Liquiditätsbereitstellung, Kreditvergabe, Vorhersage und Information, und hob die Notwendigkeit schneller, umfassender und überprüfbarer Daten hervor, um sie zu betreiben.
  • Max Siegel (Privy) teilte Erkenntnisse aus dem Onboarding von über 75 Millionen Benutzern und betonte die Notwendigkeit, Benutzer dort abzuholen, wo sie sind, Produkterlebnisse zu vereinfachen und Produktbedürfnisse die Infrastrukturentscheidungen bestimmen zu lassen, nicht umgekehrt.
  • Nil Dalal (Coinbase) stellte den „Onchain Agentic Commerce Stack“ und den offenen Standard X42 vor, ein Krypto-natives Protokoll, das ein „maschinenbezahlbares Web“ schaffen soll, in dem KI-Agenten nahtlos Transaktionen mit Stablecoins für Daten, APIs und Dienste durchführen können.
  • Gordon Liao & Austin Adams (Circle) enthüllten Circle Gateway, ein neues Primitiv zur Schaffung eines vereinheitlichten USDC-Guthabens, das kettenabstrahiert ist. Dies ermöglicht eine nahezu sofortige (<500 ms) Bereitstellung von Liquidität über mehrere Ketten hinweg, was die Kapitaleffizienz für Unternehmen und Solver dramatisch verbessert.

Der Tag endete mit einer klaren Botschaft: Die grundlegenden Schichten von Krypto reifen heran, und der Fokus verlagert sich entschieden auf den Aufbau robuster, benutzerfreundlicher und wirtschaftlich nachhaltiger Anwendungen, die die Lücke zwischen der On-Chain-Welt und der globalen Wirtschaft schließen können.

Vlad Tenev: Tokenisierung wird das Finanzsystem verschlingen

· 22 Minuten Lesezeit
Dora Noda
Software Engineer

Vlad Tenev hat sich als eine der optimistischsten Stimmen der traditionellen Finanzwelt in Bezug auf Kryptowährungen etabliert und erklärt, dass die Tokenisierung ein unaufhaltsamer „Güterzug“ ist, der letztendlich das gesamte Finanzsystem verschlingen wird. Im Laufe der Jahre 2024-2025 lieferte der Robinhood-CEO zunehmend kühne Prognosen über die unvermeidliche Konvergenz von Krypto und traditionellen Finanzmärkten, untermauert durch aggressive Produkteinführungen, darunter eine 200-Millionen-Dollar-Akquisition von Bitstamp, den Handel mit tokenisierten Aktien in Europa und eine proprietäre Layer-2-Blockchain. Seine Vision konzentriert sich auf die Blockchain-Technologie, die einen Kostenvorteil „um eine Größenordnung“ bietet, der die Unterscheidung zwischen Krypto und traditionellen Finanzmärkten innerhalb von 5-10 Jahren eliminieren wird, obwohl er offen zugibt, dass die USA aufgrund des „Beharrungsvermögens“ der bestehenden Infrastruktur hinter Europa zurückbleiben werden. Diese Transformation beschleunigte sich nach der Wahl 2024 dramatisch, wobei das Krypto-Geschäft von Robinhood nach der Wahl um das Fünffache zunahm, da sich die regulatorische Feindseligkeit unter der Trump-Regierung in Begeisterung verwandelte.

Die Güterzug-These: Tokenisierung wird alles verschlingen

Auf der Token2049-Konferenz in Singapur im Oktober 2025 lieferte Tenev seine denkwürdigste Aussage zur Zukunft von Krypto: „Tokenisierung ist wie ein Güterzug. Sie kann nicht aufgehalten werden, und irgendwann wird sie das gesamte Finanzsystem verschlingen.“ Dies war keine Übertreibung, sondern eine detaillierte These, die er im Laufe der Jahre 2024-2025 entwickelt hatte. Er prognostiziert, dass die meisten großen Märkte innerhalb von fünf Jahren Tokenisierungsrahmenwerke etablieren werden, wobei die vollständige globale Einführung ein Jahrzehnt oder länger dauern wird. Die Transformation wird die adressierbaren Finanzmärkte von einstelligen Billionen auf Zehn-Billionen-Dollar-Beträge erweitern.

Seine Überzeugung beruht auf den strukturellen Vorteilen der Blockchain-Technologie. „Die Kosten für den Betrieb eines Krypto-Geschäfts sind um eine Größenordnung niedriger. Es gibt einfach einen offensichtlichen Technologievorteil“, sagte er auf der Brainstorm Tech-Konferenz von Fortune im Juli 2024. Durch die Nutzung offener Blockchain-Infrastrukturen können Unternehmen teure Zwischenhändler für Handelsabwicklung, Verwahrung und Clearing eliminieren. Robinhood verwendet bereits Stablecoins intern, um Wochenendabrechnungen zu ermöglichen, und erlebt aus erster Hand die Effizienzgewinne durch 24/7-Sofortabrechnungen im Vergleich zu traditionellen Systemen.

Die Konvergenz zwischen Krypto und traditionellen Finanzmärkten bildet den Kern seiner Vision. „Ich denke tatsächlich, dass Kryptowährungen und traditionelle Finanzmärkte eine Weile in zwei getrennten Welten gelebt haben, aber sie werden vollständig verschmelzen“, erklärte er auf der Token2049. „Die Krypto-Technologie hat so viele Vorteile gegenüber der traditionellen Art und Weise, wie wir Dinge tun, dass es in Zukunft keine Unterscheidung mehr geben wird.“ Er sieht dies nicht als Ersatz der Finanzwelt durch Krypto, sondern als Blockchain, die zur unsichtbaren Infrastrukturschicht wird – vergleichbar mit dem Übergang von Aktenschränken zu Mainframes –, die das Finanzsystem dramatisch effizienter macht.

Stablecoins stellen die erste Welle dieser Transformation dar. Tenev beschreibt an den Dollar gekoppelte Stablecoins als die grundlegendste Form tokenisierter Vermögenswerte, wobei bereits Milliarden im Umlauf die Dominanz des US-Dollars im Ausland stärken. „So wie Stablecoins zum Standardweg geworden sind, um digitalen Zugang zu Dollars zu erhalten, werden tokenisierte Aktien zum Standardweg für Menschen außerhalb der USA, um Zugang zu amerikanischen Aktien zu erhalten“, prognostizierte er. Das Muster wird sich auf private Unternehmen, Immobilien und schließlich alle Anlageklassen ausweiten.

Aufbau der tokenisierten Zukunft mit Aktien-Tokens und Blockchain-Infrastruktur

Robinhood untermauerte Tenevs Rhetorik im Laufe der Jahre 2024-2025 mit konkreten Produkteinführungen. Im Juni 2025 veranstaltete das Unternehmen in Cannes, Frankreich, ein dramatisches Event mit dem Titel „To Catch a Token“, bei dem Tenev einen Metallzylinder mit „Schlüsseln zu den allerersten Aktien-Tokens für OpenAI“ präsentierte, während er an einem reflektierenden Pool mit Blick auf das Mittelmeer stand. Das Unternehmen führte über 200 tokenisierte US-Aktien und ETFs in der Europäischen Union ein, die einen 24/5-Handel ohne Provisionen oder Spreads ermöglichten, zunächst auf der Arbitrum-Blockchain.

Die Einführung war nicht ohne Kontroversen. OpenAI distanzierte sich sofort und erklärte: „Wir haben nicht mit Robinhood zusammengearbeitet, waren nicht daran beteiligt und unterstützen es nicht.“ Tenev verteidigte das Produkt und räumte ein, dass die Tokens „technisch“ keine Eigenkapitalanteile seien, aber sie würden Kleinanlegern Zugang zu privaten Vermögenswerten verschaffen, die sonst unzugänglich wären. Er tat die Kontroverse als Teil größerer US-Regulierungsverzögerungen ab und bemerkte: „Die Hindernisse sind eher rechtlicher als technischer Natur.“

Noch bedeutender war die Ankündigung von Robinhood, eine proprietäre Layer-2-Blockchain zu entwickeln, die für tokenisierte reale Vermögenswerte optimiert ist. Diese auf der Technologie von Arbitrum basierende Blockchain-Infrastruktur soll den 24/7-Handel, nahtloses Bridging zwischen Chains und Self-Custody-Funktionen unterstützen. Tokenisierte Aktien werden schließlich auf diese Plattform migrieren. Johann Kerbrat, Robinhoods General Manager für Krypto, erklärte die Strategie: „Krypto wurde von Ingenieuren für Ingenieure entwickelt und war den meisten Menschen nicht zugänglich. Wir bringen die Welt zu Krypto, indem wir es so einfach wie möglich machen.“

Tenevs Zeitplanprognosen offenbaren trotz seiner kühnen Vision einen gemessenen Optimismus. Er erwartet, dass die USA aufgrund der Infrastrukturträgheit „zu den letzten Volkswirtschaften gehören werden, die tatsächlich vollständig tokenisieren“. Mit einer Analogie zum Transportwesen bemerkte er: „Die größte Herausforderung in den USA ist, dass das Finanzsystem grundsätzlich funktioniert. Deshalb haben wir keine Hochgeschwindigkeitszüge – mittelschnelle Züge bringen einen gut genug ans Ziel.“ Diese offene Einschätzung erkennt an, dass funktionierende Systeme ein größeres Beharrungsvermögen haben als in Regionen, in denen die Blockchain eine dramatischere Verbesserung gegenüber dysfunktionalen Alternativen bietet.

Bitstamp-Akquisition erschließt institutionelle Krypto und globale Expansion

Robinhood schloss im Juni 2025 seine 200-Millionen-Dollar-Akquisition von Bitstamp ab und markierte damit einen strategischen Wendepunkt vom reinen Krypto-Handel für Privatkunden hin zu institutionellen Fähigkeiten und internationaler Skalierung. Bitstamp brachte über 50 aktive Krypto-Lizenzen in Europa, Großbritannien, den USA und Asien sowie 5.000 institutionelle Kunden und 8 Milliarden Dollar an Kryptowährungs-Assets unter Verwahrung mit. Diese Akquisition adressiert zwei Prioritäten, die Tenev wiederholt betonte: internationale Expansion und institutionelle Geschäftsentwicklung.

„Es gibt zwei interessante Dinge an der Bitstamp-Akquisition, die Sie wissen sollten. Das eine ist international. Das zweite ist institutionell“, erklärte Tenev im Q2 2024 Earnings Call. Die globalen Lizenzen beschleunigen Robinhoods Fähigkeit, neue Märkte zu erschließen, ohne die regulatorische Infrastruktur von Grund auf neu aufbauen zu müssen. Bitstamp ist in über 50 Ländern tätig und bietet eine sofortige globale Präsenz, deren organische Replikation Jahre dauern würde. „Das Ziel ist, dass Robinhood überall ist, überall dort, wo Kunden Smartphones haben, sollten sie ein Robinhood-Konto eröffnen können“, erklärte er.

Die institutionelle Dimension erweist sich als ebenso strategisch. Bitstamps etablierte Beziehungen zu institutionellen Kunden, Kreditinfrastruktur, Staking-Dienste und White-Label-Krypto-as-a-Service-Angebote verwandeln Robinhood von einem reinen Privatkundenanbieter in eine Full-Stack-Krypto-Plattform. „Auch Institutionen wollen kostengünstigen Marktzugang zu Krypto“, bemerkte Tenev. „Wir freuen uns sehr darauf, den gleichen Robinhood-Effekt, den wir im Privatkundengeschäft erzielt haben, mit Krypto in den institutionellen Bereich zu bringen.“

Die Integration schritt im Jahr 2025 schnell voran. Bis zum Q2 2025 meldete Robinhood ein nominales Handelsvolumen von 7 Milliarden Dollar an Krypto-Börsen von Bitstamp, das die 28 Milliarden Dollar an Krypto-Volumen der Robinhood-App ergänzte. Das Unternehmen kündigte außerdem Pläne an, Mitte des Jahres seine erste krypto-fokussierte Kundenveranstaltung in Frankreich abzuhalten, was die Prioritäten der internationalen Expansion signalisiert. Tenev betonte, dass im Gegensatz zu den USA, wo sie mit Aktien begannen und dann Krypto hinzufügten, internationale Märkte je nach regulatorischem Umfeld und Marktnachfrage mit Krypto beginnen könnten.

Krypto-Umsatz explodiert von 135 Millionen auf über 600 Millionen Dollar jährlich

Finanzkennzahlen unterstreichen die dramatische Verschiebung der Bedeutung von Krypto für Robinhoods Geschäftsmodell. Der jährliche Krypto-Umsatz stieg von 135 Millionen Dollar im Jahr 2023 auf 626 Millionen Dollar im Jahr 2024 – ein Anstieg von 363 %. Diese Beschleunigung setzte sich im Jahr 2025 fort, wobei allein das erste Quartal 252 Millionen Dollar an Krypto-Umsatz generierte, was über einem Drittel der gesamten transaktionsbasierten Einnahmen entspricht. Das vierte Quartal 2024 erwies sich als besonders explosiv, mit 358 Millionen Dollar an Krypto-Umsatz, einem Anstieg von über 700 % im Jahresvergleich, angetrieben durch den „Trump-Pump“ nach der Wahl und erweiterte Produktfähigkeiten.

Diese Zahlen spiegeln sowohl das Volumenwachstum als auch strategische Preisänderungen wider. Robinhoods Krypto-Take-Rate stieg von 35 Basispunkten Anfang 2024 auf 48 Basispunkte im Oktober 2024, wie CFO Jason Warnick erklärte: „Wir wollen immer großartige Preise für Kunden haben, aber auch die Rendite ausgleichen, die wir für Aktionäre aus dieser Aktivität generieren.“ Die nominalen Krypto-Handelsvolumen erreichten Ende 2024 monatlich etwa 28 Milliarden Dollar, wobei die Vermögenswerte unter Verwahrung im November 2024 insgesamt 38 Milliarden Dollar betrugen.

Tenev beschrieb das Umfeld nach der Wahl auf CNBC als das, was die Leute „Trump-Pump“ nennen, und bemerkte einen „weit verbreiteten Optimismus, dass die Trump-Regierung, die erklärt hat, Kryptowährungen zu umarmen und Amerika zum Zentrum der Kryptowährungsinnovation weltweit zu machen, eine viel zukunftsorientiertere Politik haben wird.“ Im Unchained-Podcast im Dezember 2024 enthüllte er, dass Robinhoods Krypto-Geschäft „nach der Wahl um das Fünffache zugenommen hat“.

Die Bitstamp-Akquisition fügt erhebliche Skalierung hinzu. Neben den 8 Milliarden Dollar an Krypto-Assets und der institutionellen Kundenbasis erweitern Bitstamps über 85 handelbare Krypto-Assets und Staking-Infrastruktur Robinhoods Produktfähigkeiten. Eine Analyse von Cantor Fitzgerald stellte fest, dass Robinhoods Krypto-Volumen im Mai 2025 um 36 % anstieg, während das von Coinbase fiel, was auf Marktanteilsgewinne hindeutet. Da Krypto 38 % der prognostizierten Einnahmen für 2025 ausmacht, hat sich das Geschäft von einem spekulativen Experiment zu einem zentralen Umsatztreiber entwickelt.

Vom regulatorischen „Flächenbombardement“ zur Offensive unter Trump

Tenevs Kommentare zur Krypto-Regulierung stellen eine der krassesten Vorher-Nachher-Erzählungen in seinen Aussagen von 2024-2025 dar. Auf der Bitcoin 2025-Konferenz in Las Vegas charakterisierte er das frühere regulatorische Umfeld unverblümt: „Unter der vorherigen Regierung waren wir… es war im Grunde ein Flächenbombardement der gesamten Branche.“ Er führte in einem Podcast aus: „In der vorherigen Regierung mit Gary Gensler bei der SEC befanden wir uns sehr in einer defensiven Haltung. Es gab Krypto, das, wie Sie wissen, im Grunde versucht wurde, aus den USA zu löschen.“

Dies war keine abstrakte Kritik. Robinhood Crypto erhielt im Mai 2024 eine SEC Wells Notice, die auf mögliche Durchsetzungsmaßnahmen hindeutete. Tenev reagierte energisch: „Dies ist eine enttäuschende Entwicklung. Wir sind fest davon überzeugt, dass US-Verbraucher Zugang zu dieser Anlageklasse haben sollten. Sie verdienen es, mit Menschen auf der ganzen Welt gleichgestellt zu sein.“ Die Untersuchung wurde schließlich im Februar 2025 ohne Maßnahmen abgeschlossen, was Chief Legal Officer Dan Gallagher zu der Aussage veranlasste: „Diese Untersuchung hätte niemals eröffnet werden dürfen. Robinhood Crypto hat die Bundeswertpapiergesetze immer respektiert und wird dies auch immer tun und niemals Transaktionen mit Wertpapieren zugelassen.“

Die Ankunft der Trump-Regierung veränderte die Landschaft. „Jetzt darf man plötzlich in die Offensive gehen“, sagte Tenev CBS News auf der Bitcoin 2025-Konferenz. „Und wir haben eine Regierung, die offen für die Technologie ist.“ Sein Optimismus erstreckte sich auf spezifisches Personal, insbesondere auf Paul Atkins' Nominierung zur Leitung der SEC: „Diese Regierung war Krypto gegenüber feindselig. Menschen zu haben, die es verstehen und annehmen, ist sehr wichtig für die Branche.“

Am bedeutendsten war vielleicht Tenevs Enthüllung direkter Gespräche mit Regulierungsbehörden zur Tokenisierung: „Wir haben uns tatsächlich mit der Krypto-Taskforce der SEC sowie der Regierung auseinandergesetzt. Und wir glauben tatsächlich, dass wir nicht einmal eine Kongressaktion benötigen, um die Tokenisierung zu realisieren. Die SEC kann es einfach tun.“ Dies stellt eine dramatische Verschiebung von der Regulierung durch Durchsetzung hin zur kollaborativen Rahmenentwicklung dar. Er sagte Bloomberg Businessweek: „Ihre Absicht scheint zu sein, sicherzustellen, dass die USA der beste Ort sind, um Geschäfte zu machen und führend in beiden aufkommenden Technologieindustrien zu sein: Krypto und KI.“

Tenev veröffentlichte im Januar 2025 auch einen Gastbeitrag in der Washington Post, in dem er sich für spezifische Politikreformen einsetzte, darunter die Schaffung von Registrierungssystemen für Sicherheitstokens, die Aktualisierung der Regeln für akkreditierte Investoren von vermögensbasierten zu wissensbasierten Zertifizierungen und die Festlegung klarer Richtlinien für Börsen, die Sicherheitstokens listen. „Die Welt tokenisiert, und die Vereinigten Staaten sollten nicht zurückbleiben“, schrieb er und bemerkte, dass die EU, Singapur, Hongkong und Abu Dhabi umfassende Rahmenwerke vorangebracht hätten, während die USA hinterherhinkten.

Bitcoin, Dogecoin und Stablecoins: Selektive Ansichten zu Krypto-Assets

Tenevs Aussagen offenbaren differenzierte Ansichten zu Krypto-Assets und nicht nur pauschale Begeisterung. Zu Bitcoin erkannte er die Entwicklung des Assets an: „Bitcoin wurde von weitgehend verspottet zu sehr ernst genommen“, und zitierte den Vergleich von Bitcoin mit Gold durch den Vorsitzenden der Federal Reserve, Powell, als institutionelle Validierung. Als er jedoch gefragt wurde, ob er MicroStrategys Strategie, Bitcoin als Treasury-Asset zu halten, folgen würde, lehnte Tenev ab. In einem Interview mit Anthony Pompliano erklärte er: „Wir müssen die Arbeit der Bilanzierung dafür leisten, und es ist im Grunde sowieso in der Bilanz. Es gibt also einen echten Grund dafür [aber] es könnte die Dinge für öffentliche Marktinvestoren komplizieren“ – was Robinhood möglicherweise eher als „Quasi-Bitcoin-Holding-Spiel“ denn als Handelsplattform erscheinen ließe.

Bemerkenswert ist, dass er feststellte, dass „Robinhood-Aktien bereits stark mit Bitcoin korrelieren“, auch ohne sie zu halten – die HOOD-Aktie stieg 2024 um 202 %, verglichen mit Bitcoins Gewinn von 110 %. „Ich würde also sagen, wir würden es nicht ausschließen. Wir haben es bisher nicht getan, aber das sind die Art von Überlegungen, die wir haben.“ Dies offenbart ein pragmatisches und kein ideologisches Denken über Krypto-Assets.

Dogecoin hat eine besondere Bedeutung in Robinhoods Geschichte. Im Unchained-Podcast sprach Tenev darüber, „wie Dogecoin zu einem der größten Assets von Robinhood für die Benutzerakquise wurde“, und räumte ein, dass Millionen von Benutzern über das Interesse an Meme-Coins auf die Plattform kamen. Johann Kerbrat erklärte: „Wir sehen Dogecoin nicht als negatives Asset für uns.“ Trotz der Bemühungen, sich von der Meme-Aktien-Manie von 2021 zu distanzieren, bietet Robinhood Dogecoin weiterhin an und betrachtet es als legitimen Einstiegspunkt für Krypto-interessierte Kleinanleger. Tenev twitterte sogar 2022 und fragte, ob „Doge wirklich die zukünftige Währung des Internets sein kann“, was eine echte Neugier auf die Eigenschaften des Assets als „inflationäre Münze“ zeigte.

Stablecoins erhalten Tenevs konstanteste Begeisterung als praktische Infrastruktur. Robinhood investierte in den USDG-Stablecoin des Global Dollar Network, den er im Q4 2024 Earnings Call beschrieb: „Wir haben USDG, mit dem wir mit einigen anderen großartigen Unternehmen zusammenarbeiten… einen Stablecoin, der den Inhabern Rendite zurückgibt, was wir für die Zukunft halten. Ich denke, viele der führenden Stablecoins haben keine gute Möglichkeit, den Inhabern Rendite zu geben.“ Noch wichtiger ist, dass Robinhood Stablecoins intern verwendet: „Wir sehen die Kraft davon selbst als Unternehmen… es gibt Vorteile der Technologie und der 24-Stunden-Sofortabrechnungen für uns als Geschäft. Insbesondere verwenden wir Stablecoins, um jetzt viele unserer Wochenendabrechnungen zu ermöglichen.“ Er prognostizierte, dass diese interne Adoption eine breitere institutionelle Stablecoin-Adoption branchenweit vorantreiben wird.

Für Ethereum und Solana startete Robinhood Staking-Dienste sowohl in Europa (ermöglicht durch MiCA-Regulierungen) als auch in den USA. Tenev bemerkte ein „wachsendes Interesse am Krypto-Staking“, ohne dass es traditionelle Cash-Yield-Produkte kannibalisierte. Das Unternehmen erweiterte seine europäischen Krypto-Angebote um SOL, MATIC und ADA, nachdem diese in den USA einer SEC-Prüfung unterzogen wurden, was geografische Arbitrage bei Regulierungsansätzen veranschaulicht.

Prognosemärkte entstehen als hybride Disruptionsmöglichkeit

Prognosemärkte stellen Tenevs überraschendste krypto-nahe Wette dar. Ende 2024 wurden Event-Kontrakte eingeführt, die bis Oktober 2025 schnell auf über 4 Milliarden gehandelte Kontrakte skalierten, davon allein 2 Milliarden Kontrakte im dritten Quartal 2025. Die Präsidentschaftswahl 2024 bewies das Konzept, wobei Tenev enthüllte, dass „über 500 Millionen Kontrakte in etwa einer Woche vor der Wahl gehandelt wurden“. Er betonte jedoch, dass dies nicht zyklisch sei: „Viele Leute hatten Skepsis, ob dies nur eine Wahlangelegenheit sein würde… Es ist wirklich viel größer als das.“

Auf der Token2049 formulierte Tenev die einzigartige Positionierung von Prognosemärkten: „Prognosemärkte haben einige Ähnlichkeiten mit traditionellen Sportwetten und Glücksspielen, es gibt auch Ähnlichkeiten mit dem aktiven Handel, da es börsengehandelte Produkte gibt. Es gibt auch einige Ähnlichkeiten mit traditionellen Mediennachrichtenprodukten, weil viele Menschen Prognosemärkte nicht zum Handeln oder Spekulieren nutzen, sondern weil sie es wissen wollen.“ Diese hybride Natur schafft Disruptionspotenzial in mehreren Branchen. „Robinhood wird im Mittelpunkt stehen, wenn es darum geht, Kleinanlegern Zugang zu verschaffen“, erklärte er.

Das Produkt erweiterte sich über die Politik hinaus auf Sport (College Football erwies sich als besonders beliebt), Kultur und KI-Themen. „Prognosemärkte kommunizieren Informationen schneller als Zeitungen oder Rundfunkmedien“, argumentierte Tenev und positionierte sie sowohl als Handelsinstrumente als auch als Informationsfindungsmechanismen. Im Q4 2024 Earnings Call versprach er: „Was Sie von uns erwarten sollten, ist eine umfassende Event-Plattform, die später in diesem Jahr Zugang zu Prognosemärkten über eine Vielzahl von Kontrakten bieten wird.“

Die internationale Expansion stellt aufgrund unterschiedlicher regulatorischer Klassifizierungen – Futures-Kontrakte in einigen Gerichtsbarkeiten, Glücksspiel in anderen – Herausforderungen dar. Robinhood nahm Gespräche mit der britischen Financial Conduct Authority und anderen Regulierungsbehörden über Rahmenwerke für Prognosemärkte auf. Tenev räumte ein: „Wie bei jeder neuen innovativen Anlageklasse gehen wir hier an die Grenzen. Und es gibt noch keine vollständige regulatorische Klarheit, insbesondere im Sport, den Sie erwähnt haben. Aber wir glauben daran und werden führend sein.“

KI-gestützte tokenisierte Ein-Personen-Unternehmen repräsentieren die Konvergenzvision

Auf der Bitcoin 2025-Konferenz enthüllte Tenev seine futuristischste These, die KI, Blockchain und Unternehmertum miteinander verbindet: „Wir werden mehr Ein-Personen-Unternehmen sehen. Sie werden tokenisiert und auf der Blockchain gehandelt, genau wie jedes andere Asset. Es wird also möglich sein, wirtschaftlich in eine Person oder ein Projekt zu investieren, das diese Person betreibt.“ Er zitierte explizit Satoshi Nakamoto als Prototyp: „Das ist im Wesentlichen wie Bitcoin selbst. Satoshi Nakamotos persönliche Marke wird durch Technologie angetrieben.“

Die Logik verbindet mehrere Trends. „Eines der Dinge, die KI ermöglicht, ist, dass sie immer mehr Wert mit immer weniger Ressourcen produziert“, erklärte Tenev. Wenn KI die für den Aufbau wertvoller Unternehmen erforderlichen Ressourcen dramatisch reduziert und Blockchain eine sofortige globale Investitionsinfrastruktur durch Tokenisierung bereitstellt, können Unternehmer Unternehmungen ohne traditionelle Unternehmensstrukturen, Mitarbeiter oder Risikokapital gründen und monetarisieren. Persönliche Marken werden zu handelbaren Vermögenswerten.

Diese Vision knüpft an Tenevs Rolle als Executive Chairman von Harmonic an, einem KI-Startup, das sich auf die Reduzierung von Halluzinationen durch Lean-Code-Generierung konzentriert. Sein mathematischer Hintergrund (Stanford BS, UCLA MS in Mathematik) untermauert den Optimismus, dass KI komplexe Probleme lösen kann. In einem Interview beschrieb er das Bestreben, „die Riemannsche Vermutung in einer mobilen App zu lösen“ – eine Anspielung auf eines der größten ungelösten Probleme der Mathematik.

Die These der tokenisierten Ein-Personen-Unternehmen befasst sich auch mit Bedenken hinsichtlich der Vermögenskonzentration. Tenevs Gastbeitrag in der Washington Post kritisierte die aktuellen Gesetze für akkreditierte Investoren, die den Zugang zu privaten Märkten auf vermögende Privatpersonen beschränken, und argumentierte, dass dies den Reichtum unter den oberen 20 % konzentriert. Wenn Frühphasenunternehmen Eigenkapital tokenisieren und es weltweit über die Blockchain mit entsprechenden regulatorischen Rahmenbedingungen verteilen können, wird die Vermögensbildung aus wachstumsstarken Unternehmen demokratischer zugänglich. „Es ist an der Zeit, unser Gespräch über Krypto von Bitcoin und Meme-Coins auf das zu aktualisieren, was die Blockchain wirklich ermöglicht: Eine neue Ära des ultra-inklusiven und anpassbaren Investierens, passend für dieses Jahrhundert“, schrieb er.

Robinhood positioniert sich an der Schnittstelle von Krypto und traditionellen Finanzmärkten

Tenev beschreibt Robinhoods einzigartige Wettbewerbspositionierung konsequent: „Ich denke, Robinhood ist einzigartig an der Schnittstelle von traditionellen Finanzmärkten und DeFi positioniert. Wir sind einer der wenigen Akteure, der sowohl in traditionellen Finanzanlagen als auch in Kryptowährungen eine Skalierung aufweist.“ Diese duale Fähigkeit schafft Netzwerkeffekte, die Wettbewerber nur schwer replizieren können. „Was Kunden am Handel mit Krypto auf Robinhood wirklich lieben, ist, dass sie nicht nur Zugang zu Krypto haben, sondern auch Aktien, Optionen, jetzt Futures und bald eine umfassende Suite von Event-Kontrakten an einem Ort handeln können“, sagte er Analysten.

Die Strategie beinhaltet den Aufbau einer umfassenden Infrastruktur über den gesamten Krypto-Stack. Robinhood bietet jetzt: Krypto-Handel mit über 85 Assets über Bitstamp, Staking für ETH und SOL, nicht-verwahrte Robinhood Wallet für den Zugang zu Tausenden weiterer Tokens und DeFi-Protokollen, tokenisierte Aktien und private Unternehmen, Krypto-Perpetual-Futures in Europa mit 3-fachem Hebel, proprietäre Layer-2-Blockchain in Entwicklung, USDG-Stablecoin-Investition und intelligentes Exchange-Routing, das aktiven Händlern ermöglicht, direkt zu den Orderbüchern der Börsen zu routen.

Diese vertikale Integration steht im Gegensatz zu spezialisierten Krypto-Börsen, denen die Integration in traditionelle Finanzmärkte fehlt, oder traditionellen Brokerhäusern, die sich mit Krypto beschäftigen. „Die Tokenisierung, sobald sie in den USA zulässig ist, wird meiner Meinung nach eine riesige Chance sein, bei der Robinhood im Mittelpunkt stehen wird“, erklärte Tenev im Q4 2024 Earnings Call. Das Unternehmen führte über 10 Produktlinien ein, die jeweils auf einen jährlichen Umsatz von über 100 Millionen Dollar zusteuern, wobei Krypto neben Optionen, Aktien, Futures, Kreditkarten und Altersvorsorgekonten eine wesentliche Säule darstellt.

Die Strategie für die Asset-Listung spiegelt das Gleichgewicht zwischen Innovation und Risikomanagement wider. Robinhood listet weniger Kryptowährungen als Wettbewerber – 20 in den USA, 40 in Europa – und verfolgt, was Tenev als „konservativen Ansatz“ bezeichnet. Nach Erhalt der SEC Wells Notice betonte er: „Wir haben unser Krypto-Geschäft nach Treu und Glauben betrieben. Wir waren in unserem Ansatz hinsichtlich der gelisteten Coins und angebotenen Dienste sehr konservativ.“ Die regulatorische Klarheit ändert jedoch diese Kalkulation: „Tatsächlich haben wir seit der Wahl sieben neue Assets hinzugefügt. Und da wir weiterhin mehr und mehr regulatorische Klarheit erhalten, sollten Sie erwarten, dass sich dies fortsetzt und beschleunigt.“

Die Wettbewerbslandschaft umfasst Coinbase als dominierende US-Krypto-Börse sowie traditionelle Brokerhäuser wie Schwab und Fidelity, die Krypto hinzufügen. CFO Jason Warnick ging in den Earnings Calls auf den Wettbewerb ein: „Obwohl es im Laufe der Zeit mehr Wettbewerb geben mag, erwarte ich auch, dass die Nachfrage nach Krypto größer sein wird. Ich denke, wir beginnen zu sehen, dass Krypto immer mehr Mainstream wird.“ Robinhoods Krypto-Volumenanstieg von 36 % im Mai 2025, während das von Coinbase zurückging, deutet darauf hin, dass der integrierte Plattformansatz Marktanteile gewinnt.

Zeitplan und Prognosen: Fünf Jahre bis zu Rahmenwerken, Jahrzehnte bis zur Fertigstellung

Tenev liefert spezifische Zeitplanprognosen, die unter Krypto-Optimisten selten sind. Auf der Token2049 erklärte er: „Ich denke, die meisten großen Märkte werden in den nächsten fünf Jahren einen Rahmen haben“, wobei er etwa 2030 für regulatorische Klarheit in den wichtigsten Finanzzentren anpeilt. Das Erreichen einer „100%igen Adoption könnte jedoch mehr als ein Jahrzehnt dauern“, was den Unterschied zwischen bestehenden Rahmenwerken und einer vollständigen Migration zu tokenisierten Systemen anerkennt.

Seine Prognosen gliedern sich nach Geografie und Anlageklasse. Europa ist führend bei den regulatorischen Rahmenwerken durch die MiCA-Verordnungen und wird voraussichtlich zuerst den Handel mit tokenisierten Aktien im Mainstream sehen. Die USA werden aufgrund des Beharrungsvermögens der Infrastruktur „zu den letzten Volkswirtschaften gehören, die tatsächlich vollständig tokenisieren“, aber die krypto-freundliche Haltung der Trump-Regierung beschleunigt die Zeitpläne im Vergleich zu früheren Erwartungen. Asien, insbesondere Singapur, Hongkong und Abu Dhabi, schreitet aufgrund sowohl regulatorischer Klarheit als auch weniger zu überwindender Altsysteme schnell voran.

Prognosen für Anlageklassen zeigen eine gestaffelte Adoption. Stablecoins haben bereits eine Produkt-Markt-Passung als „grundlegendste Form tokenisierter Assets“ erreicht. Aktien und ETFs treten jetzt in Europa in die Tokenisierungsphase ein, wobei die Zeitpläne in den USA von regulatorischen Entwicklungen abhängen. Eigenkapital von Privatunternehmen stellt eine kurzfristige Chance dar, wobei Robinhood trotz Kontroversen bereits tokenisierte OpenAI- und SpaceX-Aktien anbietet. Immobilien kommen als Nächstes – Tenev bemerkte, dass die Tokenisierung von Immobilien „mechanisch nicht anders ist als die Tokenisierung eines privaten Unternehmens“ – Vermögenswerte werden in Unternehmensstrukturen eingebracht, dann werden Tokens darauf ausgegeben.

Seine kühnste Behauptung deutet darauf hin, dass Krypto die gesamte traditionelle Finanzarchitektur vollständig absorbiert: „In Zukunft wird alles in irgendeiner Form On-Chain sein“ und „die Unterscheidung zwischen Krypto und TradFi wird verschwinden.“ Die Transformation erfolgt nicht dadurch, dass Krypto die Finanzwelt ersetzt, sondern dass Blockchain zur unsichtbaren Abwicklungs- und Verwahrungsschicht wird. „Man muss nicht genau hinsehen, um sich eine Welt vorzustellen, in der Aktien auf Blockchains sind“, sagte er Fortune. So wie Benutzer beim Surfen im Web nicht an TCP/IP denken, werden zukünftige Investoren nicht zwischen „Krypto“ und „regulären“ Assets unterscheiden – die Blockchain-Infrastruktur treibt einfach unsichtbar den gesamten Handel, die Verwahrung und die Abwicklung an.

Fazit: Technologiedeterminismus trifft auf regulatorischen Pragmatismus

Vlad Tenevs Kryptowährungs-Vision offenbart einen Technologiedeterministen, der glaubt, dass die Kosten- und Effizienzvorteile der Blockchain die Adoption unvermeidlich machen, kombiniert mit einem regulatorischen Pragmatiker, der anerkennt, dass Altsysteme jahrzehntelange Zeitpläne schaffen. Seine „Güterzug“-Metapher fängt diese Dualität ein – die Tokenisierung bewegt sich mit unaufhaltsamem Schwung, aber mit gemessener Geschwindigkeit, die den Bau regulatorischer Gleise erfordert.

Mehrere Erkenntnisse unterscheiden seine Perspektive vom typischen Krypto-Optimismus. Erstens gibt er offen zu, dass das US-Finanzsystem „grundsätzlich funktioniert“, und erkennt an, dass funktionierende Systeme einem Ersatz widerstehen, unabhängig von theoretischen Vorteilen. Zweitens evangelisiert er die Blockchain nicht ideologisch, sondern rahmt sie pragmatisch als Infrastrukturentwicklung ein, vergleichbar mit Aktenschränken, die Computern weichen. Drittens untermauern seine Umsatzkennzahlen und Produkteinführungen die Rhetorik mit Ausführung – Krypto wuchs von 135 Millionen auf über 600 Millionen Dollar jährlich, mit konkreten Produkten wie tokenisierten Aktien und einer proprietären Blockchain in Entwicklung.

Der dramatische regulatorische Wandel vom „Flächenbombardement“ unter der Biden-Regierung zum „Angriff“ unter Trump liefert den Katalysator, von dem Tenev glaubt, dass er die Wettbewerbsfähigkeit der USA ermöglicht. Sein direktes SEC-Engagement bei Tokenisierungsrahmenwerken und seine öffentliche Fürsprache durch Gastbeiträge positionieren Robinhood als Partner bei der Ausarbeitung von Regeln und nicht bei deren Umgehung. Ob seine Prognose einer Konvergenz zwischen Krypto und traditionellen Finanzmärkten innerhalb von 5-10 Jahren zutrifft, hängt stark davon ab, ob die Regulierungsbehörden Klarheit schaffen.

Am faszinierendsten ist, dass Tenevs Vision über Spekulation und Handel hinausgeht und eine strukturelle Transformation der Kapitalbildung selbst umfasst. Seine KI-gestützten tokenisierten Ein-Personen-Unternehmen und seine Befürwortung reformierter Gesetze für akkreditierte Investoren deuten auf die Überzeugung hin, dass Blockchain plus KI die Vermögensbildung und das Unternehmertum grundlegend demokratisiert. Dies verbindet seinen mathematischen Hintergrund, seine Einwanderungserfahrung und seine erklärte Mission, „Finanzen für alle zu demokratisieren“, zu einer kohärenten Weltanschauung, in der Technologie Barrieren zwischen normalen Menschen und Möglichkeiten zum Vermögensaufbau abbaut.

Ob diese Vision Wirklichkeit wird oder der regulatorischen Vereinnahmung, etablierten Interessen oder technischen Einschränkungen zum Opfer fällt, bleibt ungewiss. Aber Tenev hat Robinhoods Ressourcen und Ruf auf die Wette gesetzt, dass die Tokenisierung nicht nur eine Produktlinie, sondern die zukünftige Architektur des globalen Finanzsystems darstellt. Der Güterzug fährt – die Frage ist, ob er sein Ziel innerhalb seines Zeitplans erreicht.