Direkt zum Hauptinhalt

140 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

InfoFis 381 Mio. $ Markt entschlüsselt: Wie vier Vertikale Informationen in handelbare Vermögenswerte verwandeln

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Ihre Fähigkeit, einen aufstrebenden Krypto-Trend vor der Masse zu erkennen, bares Geld wert wäre? Nicht in einem vagen Sinne von „Wissen ist Macht“, sondern ganz wörtlich – mit einem Token-Preis, der an Ihre Erkenntnis gekoppelt ist, und einem Markt, der bereit ist, darauf zu bieten?

Das ist das Versprechen von Information Finance, oder InfoFi. Als Konzept von Vitalik Buterin in seinem Essay vom November 2024 „From prediction markets to info finance“ geprägt, beschreibt InfoFi eine Klasse von Protokollen, die finanzielle Mechanismen nutzen, um Informationen als öffentliches Gut zu extrahieren, zu aggregieren und zu bepreisen. Bis Anfang 2025 war der Sektor auf eine Marktkapitalisierung von 381 Millionen $ angewachsen. Bis Ende 2025 hatte er sich zu einem der am heftigsten umkämpften Schlachtfelder im Web3 entwickelt.

Aber InfoFi ist nicht nur eine Sache. Unter dem Oberbegriff existieren vier verschiedene Vertikalen, jede mit ihrer eigenen Mechanik, ihren Hauptakteuren und ihrer Wettbewerbsdynamik. Zu verstehen, wo jede Vertikale steht – und wo die Linien verschwimmen – ist essenziell für jeden, der versucht, sich intelligent in diesem Bereich zu bewegen.

DeFAI: Wenn KI-Agenten zu den neuen Walen des dezentralen Finanzwesens werden

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Bis 2026 wird der durchschnittliche Nutzer auf einer DeFi-Plattform kein Mensch sein, der vor einem Bildschirm sitzt. Es wird ein autonomer KI-Agent sein, der sein eigenes Krypto-Wallet kontrolliert, On-Chain-Treasuries verwaltet und Ertragsstrategien rund um die Uhr ausführt – ohne Kaffeepausen oder emotionale Handelsentscheidungen. Willkommen in der Ära von DeFAI.

Die Zahlen erzählen eine beeindruckende Geschichte: Stablecoin-fokussierte KI-Agenten haben bereits über 20 Mio. anTotalValueLockedalleinaufBaseerreicht.DerbreitereDeFAIMarktistvon1Mrd.an Total Value Locked allein auf Base erreicht. Der breitere DeFAI-Markt ist von 1 Mrd. auf prognostizierte 10 Mrd. $ bis Ende 2025 explodiert, was einer Verzehnfachung in nur zwölf Monaten entspricht. Und dies ist erst der Anfang.

Was genau ist DeFAI?

DeFAI – die Verschmelzung von dezentralem Finanzwesen (Decentralized Finance) und künstlicher Intelligenz (Artificial Intelligence) – ist mehr als nur ein weiteres Krypto-Modewort. Es ist eine grundlegende Veränderung in der Art und Weise, wie Finanzprotokolle funktionieren und wer (oder was) sie nutzt.

Im Kern umfasst DeFAI drei miteinander verbundene Innovationen:

Autonome Handelsagenten: KI-Systeme, die Marktdaten analysieren, Trades ausführen und Portfolios ohne menschliches Eingreifen verwalten. Diese Agenten können Tausende von Datenpunkten pro Sekunde verarbeiten und Arbitrage-Möglichkeiten sowie Ertragsoptimierungen identifizieren, die menschliche Händler übersehen würden.

Abstraktionsebenen: Schnittstellen für natürliche Sprache, die es jedem ermöglichen, über einfache Befehle mit komplexen DeFi-Protokollen zu interagieren. Anstatt durch mehrere dApps zu navigieren und technische Parameter verstehen zu müssen, können Nutzer einem KI-Agenten einfach sagen: „Verschiebe meine USDC in den Stablecoin-Pool mit der höchsten Rendite.“

KI-gestützte dApps: Dezentrale Anwendungen mit eingebetteter Intelligenz, die Strategien basierend auf Marktbedingungen anpassen, Gaskosten optimieren und sogar potenzielle Exploits vorhersagen können, bevor sie eintreten.

Der Aufstieg der algorithmischen Wale

Der vielleicht faszinierendste Aspekt von DeFAI ist das Aufkommen dessen, was Branchenbeobachter als „algorithmische Wale“ bezeichnen – KI-Agenten, die beträchtliches On-Chain-Kapital kontrollieren und Strategien mit mathematischer Präzision ausführen.

Fungi-Agenten, die im April 2025 auf Base gestartet wurden, sind beispielhaft für diese neue Generation. Diese Agenten konzentrieren sich ausschließlich auf USDC und weisen Mittel über Plattformen wie Aave, Morpho, Moonwell und 0xFluid zu. Ihre Strategie? Hochfrequenz-Rebalancing, optimiert auf Gaseffizienz, ständig auf der Jagd nach den besten risikobereinigten Renditen im gesamten DeFi-Ökosystem.

Es wird erwartet, dass das von KI-Agenten verwaltete Kapital bis 2026 das von traditionellen Hedgefonds übertrifft. Im Gegensatz zu menschlichen Fondsmanagern arbeiten diese Agenten kontinuierlich und reagieren in Echtzeit auf jede Marktbewegung. Sie verkaufen nicht aus Panik während eines Absturzes und kaufen nicht aus FOMO bei Höchstständen – sie folgen ihren mathematischen Modellen mit unerschütterlicher Disziplin.

Untersuchungen von Fetch.ai zeigen, dass KI-Agenten, die in große Sprachmodelle und Blockchain-APIs integriert sind, Strategien basierend auf Zinskurven, Kreditbedingungen und protokollübergreifenden Möglichkeiten optimieren können, für deren Bewertung menschliche Analysten Stunden benötigen würden.

Schlüsselakteure, die die DeFi-Automatisierung neu gestalten

Mehrere Projekte haben sich als führend im DeFAI-Bereich herauskristallisiert und bringen jeweils einzigartige Fähigkeiten ein.

Griffain: Das Tor der natürlichen Sprache

Griffain wurde vom Solana-Kernentwickler Tony Plasencia entwickelt und hat eine Bewertung von 450 Mio. $ erreicht – ein Anstieg von 135 % gegenüber dem Vorquartal. Die Superkraft der Plattform liegt in der Verarbeitung natürlicher Sprache, die es Nutzern ermöglicht, über einfache, menschenähnliche Befehle mit DeFi zu interagieren.

Möchten Sie Ihr Portfolio über fünf Protokolle hinweg neu gewichten? Fragen Sie einfach. Müssen Sie eine komplexe Yield-Farming-Strategie mit automatischem Zinseszins einrichten? Beschreiben Sie es in einfachem Deutsch. Griffain übersetzt Ihre Absicht in präzise On-Chain-Aktionen.

HeyAnon: Vereinfachung der DeFi-Komplexität

HeyAnon wurde vom DeFi-Entwickler Daniele Sesta entwickelt und mit 20 Mio. $ von DWF Labs unterstützt. Es aggregiert Echtzeit-Projektdaten und führt komplexe Operationen über konversationelle Schnittstellen aus. Das Protokoll wurde kürzlich auf Sonic eingeführt und ist eine Partnerschaft mit der IOTA Foundation eingegangen, um das AUTOMATE TypeScript-Framework zu veröffentlichen, das traditionelle Entwicklungswerkzeuge mit DeFAI-Funktionen verbindet.

Orbit: Der Multi-Chain-Assistent

Mit Integrationen in 117 Chains und fast 200 Protokollen stellt Orbit die bisher ehrgeizigste Cross-Chain-DeFAI-Implementierung dar. Unterstützt von Coinbase, Google und der Alliance DAO über das Mutterunternehmen SphereOne, ermöglicht Orbit es Nutzern, Operationen über verschiedene Ökosysteme hinweg über eine einzige KI-Agenten-Schnittstelle auszuführen.

Ritual Network: Die Infrastrukturebene

Während sich die meisten DeFAI-Projekte auf benutzerorientierte Anwendungen konzentrieren, baut Ritual die zugrunde liegende Infrastruktur auf. Ihr Flaggschiffprodukt Infernet verbindet Off-Chain-KI-Berechnungen mit On-Chain-Smart-Contracts. Die Ritual Virtual Machine (EVM++) bettet KI-Operationen direkt in die Ausführungsebene ein und ermöglicht erstklassige KI-Unterstützung innerhalb von Smart Contracts selbst.

Unterstützt durch eine Serie-A-Finanzierung in Höhe von 25 Mio. $ positioniert sich Ritual als die souveräne KI-Ausführungsebene für Web3 – ein grundlegendes Infrastrukturstück, auf dem andere DeFAI-Projekte aufbauen können.

Das zweischneidige Schwert der Sicherheit

Hier wird DeFAI wirklich besorgniserregend. Dieselben KI-Fähigkeiten, die eine effiziente Renditeoptimierung ermöglichen, schaffen auch beispiellose Sicherheitsrisiken.

Die Forschung von Anthropic hat eine erschreckende Statistik ans Licht gebracht: KI-Agenten haben es geschafft, innerhalb von nur einem Jahr die Ausnutzung von Smart-Contract-Schwachstellen von 2 % auf 55,88 % zu steigern. Die potenziellen Exploit-Einnahmen aus KI-gestützten Angriffen haben sich alle 1,3 Monate verdoppelt. Mittlerweile kostet es einen KI-Agenten im Durchschnitt nur 1,22 $, einen Vertrag erschöpfend nach Schwachstellen zu scannen.

Bei Tests mit 2.849 kürzlich bereitgestellten Verträgen ohne bekannte Schwachstellen entdeckten fortschrittliche KI-Agenten zwei neuartige Zero-Day-Exploits und erstellten funktionierenden Angriffscode – ein Beweis dafür, dass profitable, autonome Ausnutzung in der realen Welt nicht nur theoretisch, sondern aktiv machbar ist.

Diese Sicherheitslandschaft hat die Entstehung von „Know Your Agent“ (KYA)-Standards vorangetrieben. Unter diesem Rahmenwerk muss jeder KI-Agent, der mit institutionellen Liquiditätspools oder tokenisierten Real-World Assets interagiert, seine Herkunft verifizieren und die Identität seines Schöpfers oder rechtmäßigen Eigentümers offenlegen.

Marktdynamik und Investitionsflüsse

Das Wachstum des DeFAI-Marktes spiegelt breitere Trends sowohl im Krypto-Bereich als auch in der künstlichen Intelligenz wider:

  • Gesamtmarktkapitalisierung von KI-Agent-Token: 17 Milliarden $ am Höchstpunkt (CoinGecko)
  • Bewertung des DeFAI-Sektors: 16,93 Milliarden $ Stand Januar 2025, was 34,7 % des gesamten Krypto-KI-Marktes entspricht
  • Auto-Compounding-Vaults: 5,1 Milliarden $ an Einlagen (2025)
  • Staked Stablecoin-Pools: 11,7 Milliarden $, besonders beliebt in volatilen Märkten
  • Liquid Yield Tokenization: Über 2,3 Milliarden $ über Pendle und Ether.fi hinweg

AIXBT, die von Virtuals entwickelte KI-gesteuerte Market-Intelligence-Plattform, beherrscht über 33 % der gesamten Aufmerksamkeit für KI-Agent-Token – obwohl neuere Agenten wie Griffain und HeyAnon schnell an Boden gewinnen.

Mehr als 60 % der langfristigen DeFi-Nutzer nehmen mittlerweile monatlich am Staking oder Liquidity Mining teil, wobei viele zunehmend auf KI-Agenten vertrauen, um ihre Strategien zu optimieren.

Die Revolution der Renditeoptimierung

Traditionelles Yield Farming ist bekanntermaßen komplex. Die APYs schwanken ständig, Protokolle führen neue Anreize ein und der Impermanent Loss lauert hinter jeder Liquiditätsbereitstellung. KI-Agenten verwandeln diese Komplexität in handhabbare Automatisierung.

Moderne DeFAI-Agenten können:

  • Protokolle in Echtzeit bewerten: Vergleich von risikobereinigten Renditen in hunderten von Pools gleichzeitig
  • Optimale Ein- und Ausstiegspunkte berechnen: Berücksichtigung von Gas-Kosten, Slippage und Timing
  • Assets dynamisch umschichten: Kapital bewegen, um Renditen zu jagen, ohne dass manuelle Eingriffe erforderlich sind
  • Impermanent Loss minimieren: Durch ausgeklügelte Hedging-Strategien und Timing-Optimierung

KI-gesteuerte Robo-Treasury-Agenten haben sich als Effizienzschicht etabliert, die Liquidität zwischen Lending-Desks, Automated Market-Making-Pools und sogar tokenisierten Schatzwechseln (Treasury Bills) neu verteilt – alles als Reaktion auf sich ändernde Renditekurven und Kreditbedingungen.

Regulatorische Realitäten und Herausforderungen

Mit dem Wachstum von DeFAI werden auch die Regulierungsbehörden aufmerksam. Das „Know Your Agent“-Rahmenwerk stellt den ersten bedeutenden Versuch dar, Aufsicht in die Welt der autonomen Finanzagenten zu bringen.

Zu den wichtigsten Anforderungen unter den neu entstehenden KYA-Standards gehören:

  • Verifizierung der Herkunft und des Eigentums des Agenten
  • Offenlegung algorithmischer Strategien für institutionelle Interaktionen
  • Prüfpfade (Audit Trails) für vom Agenten ausgeführte Transaktionen
  • Haftungsrahmen für Fehlfunktionen oder Exploits von Agenten

Diese Regulierungen erzeugen Spannungen innerhalb der Krypto-Community. Einige argumentieren, dass die Forderung nach Identitätsoffenlegung die Grundprinzipien von DeFi wie Pseudonymität und Permissionlessness untergräbt. Andere behaupten, dass KI-Agenten ohne ein gewisses Rahmenwerk zu Vektoren für Marktmanipulation, Geldwäsche oder systemische Risiken werden könnten.

Ausblick: Die Landschaft im Jahr 2026

Mehrere Trends werden wahrscheinlich die Entwicklung von DeFAI im kommenden Jahr definieren:

Cross-Chain-Agenten-Orchestrierung: Zukünftige Agenten werden nahtlos über mehrere Blockchain-Netzwerke hinweg agieren und Strategien optimieren, die gleichzeitig Ethereum, Solana und aufstrebende L2-Ökosysteme umspannen.

Agent-to-Agent-Handel: Wir sehen bereits erste Anzeichen dafür, dass KI-Agenten untereinander Transaktionen tätigen – sie kaufen Rechenressourcen, handeln mit Strategien und koordinieren Liquidität ohne menschliche Zwischenhändler.

Institutionelle Integration: Mit zunehmender Reife der KYA-Standards werden traditionelle Finanzinstitute verstärkt mit DeFAI-Infrastrukturen interagieren. Die Integration von tokenisierten Real-World Assets schafft natürliche Brücken zwischen KI-verwalteten DeFi-Portfolios und der traditionellen Finanzwelt.

Erweitertes Wettrüsten in der Sicherheit: Der Wettbewerb zwischen KI-Agenten, die Schwachstellen finden, und KI-Agenten, die Protokolle schützen, wird sich intensivieren. Die Prüfung von Smart Contracts wird zunehmend automatisiert – und zunehmend notwendig.

Was das für Builder und Nutzer bedeutet

Für Entwickler stellt DeFAI sowohl eine Chance als auch eine Notwendigkeit dar. Protokolle, die KI-Agent-Interaktionen nicht berücksichtigen – sei es als Nutzer oder als potenzielle Angreifer – werden im Nachteil sein. Der Aufbau einer KI-nativen Infrastruktur ist nicht mehr optional; er wird zu einer Voraussetzung für wettbewerbsfähige DeFi-Protokolle.

Für Nutzer ist die Botschaft nuanciert. KI-Agenten können Renditen tatsächlich optimieren und die DeFi-Komplexität vereinfachen. Aber sie führen auch neue Vertrauensannahmen ein. Wenn Sie finanzielle Entscheidungen an einen KI-Agenten delegieren, vertrauen Sie nicht nur den Smart Contracts des Protokolls, sondern auch den Trainingsdaten des Agenten, seinen Optimierungszielen und den Absichten seines Betreibers.

Die anspruchsvollsten DeFi-Nutzer im Jahr 2026 werden nicht diejenigen sein, die am meisten handeln – sondern diejenigen, die am besten verstehen, wie man KI-Agenten nutzt und gleichzeitig die damit verbundenen einzigartigen Risiken managed.

DeFAI ersetzt nicht die menschliche Teilnahme an dezentralen Finanzen. Es definiert neu, was Teilnahme bedeutet, wenn Ihre fähigsten Gegenparteien keinen Herzschlag haben.

Das Krypto-Endspiel: Einblicke von Branchenvisionären

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Visionen von Mert Mumtaz (Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Selini Capital) und Alexander Good (Post Fiat)

Überblick

Die Token2049 veranstaltete ein Panel namens „Das Krypto-Endspiel“ mit Mert Mumtaz (CEO von Helius), Udi Wertheimer (Taproot Wizards), Jordi Alexander (Gründer von Selini Capital) und Alexander Good (Schöpfer von Post Fiat). Obwohl kein öffentlich zugängliches Transkript des Panels vorliegt, hat jeder Redner unterschiedliche Visionen für die langfristige Entwicklung der Krypto-Branche geäußert. Dieser Bericht fasst ihre öffentlichen Äußerungen und Schriften – darunter Blogbeiträge, Artikel, Nachrichteninterviews und Whitepapers – zusammen, um zu untersuchen, wie jede Person das „Endspiel“ für Krypto sieht.

Mert Mumtaz – Krypto als „Kapitalismus 2.0“

Kernvision

Mert Mumtaz lehnt die Vorstellung ab, dass Kryptowährungen lediglich „Web 3.0“ darstellen. Stattdessen argumentiert er, dass das Endspiel für Krypto darin besteht, den Kapitalismus selbst zu verbessern. Seiner Ansicht nach:

  • Krypto befeuert die Zutaten des Kapitalismus: Mumtaz stellt fest, dass der Kapitalismus auf dem freien Informationsfluss, sicheren Eigentumsrechten, abgestimmten Anreizen, Transparenz und reibungslosen Kapitalflüssen beruht. Er argumentiert, dass dezentrale Netzwerke, öffentliche Blockchains und Tokenisierung diese Merkmale effizienter machen und Krypto zu „Kapitalismus 2.0“ werden lassen.
  • Rund-um-die-Uhr-Märkte & tokenisierte Vermögenswerte: Er verweist auf regulatorische Vorschläge für 24/7-Finanzmärkte und die Tokenisierung von Aktien, Anleihen und anderen realen Vermögenswerten. Märkte kontinuierlich laufen zu lassen und über Blockchain-Schienen abzuwickeln, wird das traditionelle Finanzsystem modernisieren. Die Tokenisierung schafft Rund-um-die-Uhr-Liquidität und reibungslosen Handel mit Vermögenswerten, die zuvor Clearingstellen und Intermediäre erforderten.
  • Dezentralisierung & Transparenz: Durch die Verwendung offener Ledger beseitigt Krypto einen Teil der Gatekeeping- und Informationsasymmetrien, die im traditionellen Finanzwesen zu finden sind. Mumtaz sieht dies als Chance, Finanzen zu demokratisieren, Anreize auszurichten und Mittelsmänner zu reduzieren.

Implikationen

Mumtaz' „Kapitalismus 2.0“-These deutet darauf hin, dass das Endspiel der Branche nicht auf digitale Sammlerstücke oder „Web3-Apps“ beschränkt ist. Stattdessen stellt er sich eine Zukunft vor, in der nationale Regulierungsbehörden 24/7-Märkte, Asset-Tokenisierung und Transparenz befürworten. In dieser Welt wird die Blockchain-Infrastruktur zu einem Kernbestandteil der globalen Wirtschaft, der Krypto mit regulierten Finanzen verbindet. Er warnt auch davor, dass der Übergang Herausforderungen mit sich bringen wird – wie Sybil-Angriffe, Konzentration der Governance und regulatorische Unsicherheit –, glaubt aber, dass diese Hindernisse durch besseres Protokolldesign und Zusammenarbeit mit Regulierungsbehörden angegangen werden können.

Udi Wertheimer – Bitcoin als „Generationswechsel“ und die Altcoin-Abrechnung

Generationswechsel & Bitcoin „retire your bloodline“-These

Udi Wertheimer, Mitbegründer von Taproot Wizards, ist bekannt dafür, Bitcoin provokativ zu verteidigen und Altcoins zu verspotten. Mitte 2025 veröffentlichte er eine virale These namens „Diese Bitcoin-These wird Ihre Blutlinie in den Ruhestand schicken.“ Seiner Argumentation zufolge:

  • Generationswechsel: Wertheimer argumentiert, dass die frühen Bitcoin-„Wale“, die zu niedrigen Preisen akkumuliert haben, ihre Coins weitgehend verkauft oder übertragen haben. Institutionelle Käufer – ETFs, Staatskassen und Staatsfonds – haben sie ersetzt. Er nennt diesen Prozess einen „umfassenden Eigentumswechsel“, ähnlich der Dogecoin-Rallye von 2019–21, bei der eine Verschiebung von Walen zu Einzelhandelsnachfrage explosive Renditen befeuerte.
  • Preisunempfindliche Nachfrage: Institutionen allokieren Kapital, ohne sich um den Stückpreis zu kümmern. Am Beispiel des IBIT-ETF von BlackRock stellt er fest, dass neue Investoren einen Anstieg um 40 US-Dollar als trivial ansehen und bereit sind, zu jedem Preis zu kaufen. Dieser Angebotsschock, kombiniert mit begrenzter Umlaufmenge, könnte dazu führen, dass Bitcoin weit über die Konsenserwartungen hinaus beschleunigt.
  • Ziel von über 400.000 US-Dollar und Altcoin-Kollaps: Er prognostiziert, dass Bitcoin bis Ende 2025 über 400.000 US-Dollar pro BTC erreichen könnte und warnt davor, dass Altcoins schlechter abschneiden oder sogar kollabieren werden, wobei Ethereum als „größter Verlierer“ hervorgehoben wird. Laut Wertheimer werden Altcoins, sobald die institutionelle FOMO einsetzt, „auf einen Schlag erledigt“ und Bitcoin wird den größten Teil des Kapitals absorbieren.

Implikationen

Wertheimers Endspiel-These stellt Bitcoin als in seine letzte parabolische Phase eintretend dar. Der „Generationswechsel“ bedeutet, dass das Angebot in starke Hände (ETFs und Staatskassen) übergeht, während das Interesse des Einzelhandels gerade erst beginnt. Wenn dies zutrifft, würde dies einen schweren Angebotsschock erzeugen, der den BTC-Preis weit über die aktuellen Bewertungen hinaus treiben würde. Gleichzeitig glaubt er, dass Altcoins ein asymmetrisches Abwärtsrisiko bieten, da ihnen die institutionelle Nachfrageunterstützung fehlt und sie einer regulatorischen Prüfung unterliegen. Seine Botschaft an Investoren ist klar: Jetzt Bitcoin kaufen, bevor die Wall Street alles aufkauft.

Jordi Alexander – Makro-Pragmatismus, KI & Krypto als Zwillingsrevolutionen

Investitionen in KI und Krypto – zwei Schlüsselindustrien

Jordi Alexander, Gründer von Selini Capital und bekannter Spieltheoretiker, argumentiert, dass KI und Blockchain die beiden wichtigsten Industrien dieses Jahrhunderts sind. In einem von Bitget zusammengefassten Interview macht er mehrere Punkte:

  • Die Zwillingsrevolutionen: Alexander glaubt, dass die einzigen Wege zu echtem Wohlstandswachstum darin bestehen, in technologische Innovation (insbesondere KI) zu investieren oder frühzeitig an aufstrebenden Märkten wie Kryptowährungen teilzunehmen. Er stellt fest, dass die KI-Entwicklung und die Krypto-Infrastruktur die grundlegenden Module für Intelligenz und Koordination in diesem Jahrhundert sein werden.
  • Ende des Vierjahreszyklus: Er behauptet, dass der traditionelle Vierjahres-Krypto-Zyklus, der durch Bitcoin-Halvings angetrieben wird, vorbei ist; stattdessen erlebt der Markt jetzt liquiditätsgetriebene „Mini-Zyklen“. Zukünftige Aufwärtsbewegungen werden auftreten, wenn „reales Kapital“ vollständig in den Raum eintritt. Er ermutigt Händler, Ineffizienzen als Chance zu sehen und sowohl technische als auch psychologische Fähigkeiten zu entwickeln, um in diesem Umfeld erfolgreich zu sein.
  • Risikobereitschaft & Kompetenzentwicklung: Alexander rät Anlegern, die meisten Mittel in sicheren Vermögenswerten zu halten, aber einen kleinen Teil für Risikobereitschaft zu allokieren. Er betont den Aufbau von Urteilsvermögen und Anpassungsfähigkeit, da es in einem sich schnell entwickelnden Bereich „keinen Ruhestand“ gibt.

Kritik an zentralisierten Strategien und Makro-Ansichten

  • MicroStrategys Nullsummenspiel: In einer Blitznotiz warnt er, dass MicroStrategys Strategie, BTC zu kaufen, ein Nullsummenspiel sein könnte. Während die Teilnehmer das Gefühl haben könnten, zu gewinnen, könnte die Dynamik Risiken verbergen und zu Volatilität führen. Dies unterstreicht seine Überzeugung, dass Krypto-Märkte oft von Negativsummen- oder Nullsummen-Dynamiken angetrieben werden, sodass Händler die Motivationen großer Akteure verstehen müssen.
  • Endspiel der US-Geldpolitik: Alexanders Analyse der US-Makropolitik hebt hervor, dass die Kontrolle der Federal Reserve über den Anleihemarkt nachlassen könnte. Er stellt fest, dass langfristige Anleihen seit 2020 stark gefallen sind und glaubt, dass die Fed bald zu quantitativer Lockerung zurückkehren könnte. Er warnt davor, dass solche Politikwechsel „zuerst allmählich … dann auf einmal“ Marktbewegungen verursachen könnten und nennt dies einen wichtigen Katalysator für Bitcoin und Krypto.

Implikationen

Jordi Alexanders Endspiel-Vision ist nuanciert und makroorientiert. Anstatt ein einziges Kursziel vorherzusagen, hebt er strukturelle Veränderungen hervor: die Verschiebung zu liquiditätsgetriebenen Zyklen, die Bedeutung KI-gesteuerter Koordination und das Zusammenspiel zwischen Regierungspolitik und Krypto-Märkten. Er ermutigt Anleger, ein tiefes Verständnis und Anpassungsfähigkeit zu entwickeln, anstatt blind Narrativen zu folgen.

Alexander Good – Web 4, KI-Agenten und die Post Fiat L1

Das Scheitern von Web 3 und der Aufstieg von KI-Agenten

Alexander Good (auch bekannt unter seinem Pseudonym „goodalexander“) argumentiert, dass Web 3 weitgehend gescheitert ist, weil Benutzer mehr Wert auf Bequemlichkeit und Handel legen als auf den Besitz ihrer Daten. In seinem Essay „Web 4“ stellt er fest, dass die Akzeptanz von Verbraucher-Apps von einer nahtlosen Benutzererfahrung (UX) abhängt; Benutzer dazu zu zwingen, Assets zu überbrücken oder Wallets zu verwalten, tötet das Wachstum. Er sieht jedoch eine existenzielle Bedrohung aufkommen: KI-Agenten, die realistische Videos generieren, Computer über Protokolle steuern (wie Anthropic's „Computer Control“-Framework) und sich in große Plattformen wie Instagram oder YouTube einklinken können. Da sich KI-Modelle schnell verbessern und die Kosten für die Generierung von Inhalten sinken, prognostiziert er, dass KI-Agenten den Großteil der Online-Inhalte erstellen werden.

Web 4: KI-Agenten verhandeln auf der Blockchain

Good schlägt Web 4 als Lösung vor. Die Schlüsselideen sind:

  • Wirtschaftssystem mit KI-Agenten: Web 4 stellt sich KI-Agenten vor, die Benutzer als „Hollywood-Agenten“ vertreten und in ihrem Namen verhandeln. Diese Agenten werden Blockchains für den Datenaustausch, die Streitbeilegung und die Governance nutzen. Benutzer stellen Agenten Inhalte oder Fachwissen zur Verfügung, und die Agenten extrahieren Wert – oft durch Interaktion mit anderen KI-Agenten weltweit – und verteilen dann Zahlungen in Krypto an den Benutzer zurück.
  • KI-Agenten handhaben Komplexität: Good argumentiert, dass Menschen nicht plötzlich anfangen werden, Assets auf Blockchains zu überbrücken, daher müssen KI-Agenten diese Interaktionen handhaben. Benutzer werden einfach mit Chatbots (über Telegram, Discord usw.) sprechen, und KI-Agenten werden Wallets, Lizenzvereinbarungen und Token-Swaps hinter den Kulissen verwalten. Er prognostiziert eine nahe Zukunft, in der es endlose Protokolle, Token und Computer-zu-Computer-Konfigurationen geben wird, die für Menschen unverständlich sind, was KI-Unterstützung unerlässlich macht.
  • Unvermeidliche Trends: Good listet mehrere Trends auf, die Web 4 unterstützen: Fiskalkrisen der Regierungen fördern Alternativen; KI-Agenten werden Inhaltsgewinne kannibalisieren; Menschen werden „dümmer“, indem sie sich auf Maschinen verlassen; und die größten Unternehmen setzen auf benutzergenerierte Inhalte. Er kommt zu dem Schluss, dass es unvermeidlich ist, dass Benutzer mit KI-Systemen sprechen, diese Systeme in ihrem Namen verhandeln und Benutzer Krypto-Zahlungen erhalten, während sie hauptsächlich über Chat-Apps interagieren.

Abbildung des Ökosystems und Einführung von Post Fiat

Good kategorisiert bestehende Projekte in Web 4-Infrastruktur oder Composability-Spiele. Er stellt fest, dass Protokolle wie Story, die eine On-Chain-Governance für IP-Ansprüche schaffen, zu zweiseitigen Marktplätzen zwischen KI-Agenten werden. Gleichzeitig verkaufen Akash und Render Rechenleistungen und könnten sich anpassen, um Lizenzen an KI-Agenten zu vergeben. Er argumentiert, dass Börsen wie Hyperliquid davon profitieren werden, da endlose Token-Swaps benötigt werden, um diese Systeme benutzerfreundlich zu machen.

Sein eigenes Projekt, Post Fiat, ist als „Königsmacher in Web 4“ positioniert. Post Fiat ist eine Layer-1-Blockchain, die auf der Kerntechnologie von XRP basiert, jedoch mit verbesserter Dezentralisierung und Tokenomics. Zu den Hauptmerkmalen gehören:

  • KI-gesteuerte Validatorenauswahl: Anstatt sich auf von Menschen betriebenes Staking zu verlassen, verwendet Post Fiat große Sprachmodelle (LLMs), um Validatoren nach Glaubwürdigkeit und Transaktionsqualität zu bewerten. Das Netzwerk verteilt 55 % der Token über einen von einem KI-Agenten verwalteten Prozess an Validatoren, mit dem Ziel von „Objektivität, Fairness und ohne menschliche Beteiligung“. Der monatliche Zyklus des Systems – Veröffentlichen, Bewerten, Einreichen, Verifizieren und Auswählen & Belohnen – gewährleistet eine transparente Auswahl.
  • Fokus auf Investitionen & Expertennetzwerke: Im Gegensatz zum transaktionsbankorientierten Fokus von XRP zielt Post Fiat auf Finanzmärkte ab, indem es Blockchains für Compliance, Indexierung und den Betrieb eines Expertennetzwerks nutzt, das aus Community-Mitgliedern und KI-Agenten besteht. AGTI (der Entwicklungsarm von Post Fiat) verkauft Produkte an Finanzinstitute und könnte einen ETF auflegen, wobei die Einnahmen die Netzwerkentwicklung finanzieren.
  • Neue Anwendungsfälle: Das Projekt zielt darauf ab, die Indexierungsbranche durch die Schaffung dezentraler ETFs zu revolutionieren, konforme verschlüsselte Memos bereitzustellen und Expertennetzwerke zu unterstützen, in denen Mitglieder Token für Einblicke verdienen. Das Whitepaper beschreibt technische Maßnahmen – wie statistische Fingerabdrücke und Verschlüsselung –, um Sybil-Angriffe und Manipulationen zu verhindern.

Web 4 als Überlebensmechanismus

Good kommt zu dem Schluss, dass Web 4 ein Überlebensmechanismus ist, nicht nur eine coole Ideologie. Er argumentiert, dass innerhalb von sechs Monaten eine „Komplexitätsbombe“ kommen wird, wenn KI-Agenten sich verbreiten. Benutzer werden einen Teil des Upsides an KI-Systeme abgeben müssen, denn die Teilnahme an Agenten-Ökonomien wird der einzige Weg sein, um erfolgreich zu sein. Seiner Ansicht nach ist der Traum von Web 3 von dezentralem Besitz und Benutzerdatenschutz unzureichend; Web 4 wird KI-Agenten, Krypto-Anreize und Governance miteinander verbinden, um eine zunehmend automatisierte Wirtschaft zu navigieren.

Vergleichende Analyse

Konvergierende Themen

  1. Institutionelle & technologische Verschiebungen treiben das Endspiel voran.
    • Mumtaz sieht Regulierungsbehörden, die 24/7-Märkte und Tokenisierung ermöglichen, was Krypto mainstreamfähig machen wird.
    • Wertheimer hebt die institutionelle Akzeptanz über ETFs als Katalysator für Bitcoins parabolische Phase hervor.
    • Alexander stellt fest, dass der nächste Krypto-Boom liquiditätsgetrieben statt zyklusgetrieben sein wird und dass makroökonomische Politiken (wie der Fed-Pivot) starken Rückenwind liefern werden.
  2. KI wird zentral.
    • Alexander betont Investitionen in KI neben Krypto als Zwillingssäulen zukünftigen Wohlstands.
    • Good baut Web 4 um KI-Agenten herum auf, die auf Blockchains Transaktionen durchführen, Inhalte verwalten und Geschäfte aushandeln.
    • Die Validatorenauswahl und Governance von Post Fiat verlassen sich auf LLMs, um Objektivität zu gewährleisten. Zusammen implizieren diese Visionen, dass das Endspiel für Krypto eine Synergie zwischen KI und Blockchain beinhalten wird, wobei KI die Komplexität handhabt und Blockchains eine transparente Abwicklung bieten.
  3. Bedarf an besserer Governance und Fairness.
    • Mumtaz warnt, dass die Zentralisierung der Governance eine Herausforderung bleibt.
    • Alexander ermutigt zum Verständnis spieltheoretischer Anreize und weist darauf hin, dass Strategien wie die von MicroStrategy ein Nullsummenspiel sein können.
    • Good schlägt eine KI-gesteuerte Validatorenbewertung vor, um menschliche Vorurteile zu beseitigen und eine faire Token-Verteilung zu schaffen, wodurch Governance-Probleme in bestehenden Netzwerken wie XRP angegangen werden.

Divergierende Visionen

  1. Rolle von Altcoins. Wertheimer sieht Altcoins als zum Scheitern verurteilt und glaubt, dass Bitcoin den größten Teil des Kapitals aufnehmen wird. Mumtaz konzentriert sich auf den gesamten Krypto-Markt, einschließlich tokenisierter Vermögenswerte und DeFi, während Alexander kettenübergreifend investiert und glaubt, dass Ineffizienzen Chancen schaffen. Good baut eine Alt-L1 (Post Fiat), die auf KI-Finanzen spezialisiert ist, was impliziert, dass er Raum für spezialisierte Netzwerke sieht.
  2. Menschliche Handlungsfähigkeit vs. KI-Handlungsfähigkeit. Mumtaz und Alexander betonen menschliche Investoren und Regulierungsbehörden, während Good eine Zukunft vorhersieht, in der KI-Agenten die primären Wirtschaftsakteure werden und Menschen über Chatbots interagieren. Diese Verschiebung impliziert grundlegend unterschiedliche Benutzererfahrungen und wirft Fragen nach Autonomie, Fairness und Kontrolle auf.
  3. Optimismus vs. Vorsicht. Wertheimers These ist aggressiv bullisch für Bitcoin mit wenig Sorge um Abwärtsrisiken. Mumtaz ist optimistisch, dass Krypto den Kapitalismus verbessern wird, räumt aber regulatorische und Governance-Herausforderungen ein. Alexander ist vorsichtig – er hebt Ineffizienzen, Nullsummen-Dynamiken und die Notwendigkeit der Kompetenzentwicklung hervor – glaubt aber dennoch an das langfristige Versprechen von Krypto. Good sieht Web 4 als unvermeidlich an, warnt aber vor der Komplexitätsbombe und drängt zur Vorbereitung statt zu blindem Optimismus.

Fazit

Das Token2049-Panel „Krypto-Endspiel“ brachte Denker mit sehr unterschiedlichen Perspektiven zusammen. Mert Mumtaz sieht Krypto als Upgrade des Kapitalismus, wobei er Dezentralisierung, Transparenz und 24/7-Märkte betont. Udi Wertheimer sieht Bitcoin in einer angebotsgeschockten Generationsrallye, die Altcoins hinter sich lassen wird. Jordi Alexander nimmt eine makro-pragmatischere Haltung ein und drängt zu Investitionen in KI und Krypto, während er Liquiditätszyklen und spieltheoretische Dynamiken versteht. Alexander Good stellt sich eine Web 4-Ära vor, in der KI-Agenten auf Blockchains verhandeln und Post Fiat zur Infrastruktur für KI-gesteuerte Finanzen wird.

Obwohl ihre Visionen unterschiedlich sind, ist ein gemeinsames Thema die Evolution der wirtschaftlichen Koordination. Ob durch tokenisierte Vermögenswerte, institutionelle Rotation, KI-gesteuerte Governance oder autonome Agenten – jeder Redner glaubt, dass Krypto die Art und Weise, wie Werte geschaffen und ausgetauscht werden, grundlegend neu gestalten wird. Das Endspiel scheint daher weniger ein Endpunkt als vielmehr ein Übergang in ein neues System zu sein, in dem Kapital, Berechnung und Koordination konvergieren.

BASS 2025: Die Zukunft von Blockchain-Anwendungen gestalten, vom Weltraum bis zur Wall Street

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Der Blockchain Application Stanford Summit (BASS) eröffnete die Woche der Science of Blockchain Conference (SBC) und brachte Innovatoren, Forscher und Entwickler zusammen, um die neuesten Entwicklungen im Ökosystem zu erkunden. Die Organisatoren Gil, Kung und Stephen begrüßten die Teilnehmer und hoben den Fokus der Veranstaltung auf Unternehmertum und reale Anwendungen hervor, ein Geist, der aus der engen Zusammenarbeit mit der SBC entstand. Mit Unterstützung von Organisationen wie Blockchain Builders und den Cryptography and Blockchain Alumni of Stanford war der Tag gefüllt mit tiefgehenden Einblicken in himmlische Blockchains, die Zukunft von Ethereum, institutionelles DeFi und die aufstrebende Schnittstelle von KI und Krypto.

Dalia Maliki: Aufbau einer orbitalen Vertrauensbasis mit Space Computer

Dalia Maliki, Professorin an der UC Santa Barbara und Beraterin von Space Computer, eröffnete mit einem Blick auf eine wahrhaft außergewöhnliche Anwendung: den Aufbau einer sicheren Computerplattform im Orbit.

Was ist Space Computer? Kurz gesagt, Space Computer ist eine „orbitale Vertrauensbasis“, die eine Plattform für die Ausführung sicherer und vertraulicher Berechnungen auf Satelliten bietet. Das zentrale Wertversprechen liegt in den einzigartigen Sicherheitsgarantien des Weltraums. „Sobald eine Box sicher gestartet und im Weltraum eingesetzt wird, kann niemand später kommen und sich hineinhacken“, erklärte Maliki. „Es ist zu diesem Zeitpunkt absolut manipulationssicher.“ Diese Umgebung macht es auslaufsicher, stellt sicher, dass Kommunikationen nicht leicht gestört werden können, und bietet eine überprüfbare Geolokalisierung, was leistungsstarke Dezentralisierungseigenschaften bietet.

Architektur und Anwendungsfälle Das System ist mit einer zweistufigen Architektur konzipiert:

  • Layer 1 (Himmlisch): Die maßgebliche Vertrauensbasis läuft auf einem Netzwerk von Satelliten im Orbit, optimiert für begrenzte und intermittierende Kommunikation.
  • Layer 2 (Terrestrisch): Standard-Skalierungslösungen wie Rollups und State Channels laufen auf der Erde und verankern sich an der himmlischen Layer 1 für Finalität und Sicherheit.

Frühe Anwendungsfälle umfassen den Betrieb hochsicherer Blockchain-Validatoren und eines echten Zufallszahlengenerators, der kosmische Strahlung erfasst. Maliki betonte jedoch das Potenzial der Plattform für unvorhergesehene Innovationen. „Das Coolste am Aufbau einer Plattform ist immer, dass man eine Plattform baut und andere Leute kommen und Anwendungsfälle entwickeln, von denen man nie geträumt hätte.“

Maliki zog eine Parallele zum ehrgeizigen Projekt Corona der 1950er Jahre, bei dem Filmbehälter von Spionagesatelliten abgeworfen wurden, um von Flugzeugen in der Luft aufgefangen zu werden, und forderte das Publikum auf, groß zu denken. „Im Vergleich dazu ist das, womit wir heute im Space Computer arbeiten, ein Luxus, und wir sind sehr gespannt auf die Zukunft.“

Tomasz Stanczak: Die Ethereum-Roadmap – Skalierung, Datenschutz und KI

Tomasz Stanczak, Executive Director der Ethereum Foundation, gab einen umfassenden Überblick über die sich entwickelnde Ethereum-Roadmap, die sich stark auf Skalierung, Verbesserung des Datenschutzes und Integration in die Welt der KI konzentriert.

Kurzfristiger Fokus: Unterstützung von L2s Die unmittelbare Priorität für Ethereum ist es, seine Rolle als beste Plattform für Layer 2s zu festigen. Kommende Forks, Fusaka und Glumpsterdom, konzentrieren sich auf dieses Ziel. „Wir wollen viel stärkere Aussagen treffen, dass ja, [L2s] innovieren, sie Ethereum erweitern, und sie werden eine Zusage von Protokollentwicklern haben, dass Layer 1 L2s bestmöglich unterstützen wird“, erklärte Stanczak.

Langfristige Vision: Lean Ethereum und Echtzeit-Beweisführung Mit Blick auf die Zukunft zielt die Vision „Lean Ethereum“ auf massive Skalierbarkeit und Sicherheitsverbesserungen ab. Eine Schlüsselkomponente ist die ZK-EVM-Roadmap, die eine Echtzeit-Beweisführung mit Latenzen unter 10 Sekunden für 99 % der Blöcke anstrebt, erreichbar durch Solo-Staker. Dies, kombiniert mit Verbesserungen der Datenverfügbarkeit, könnte L2s auf theoretische „10 Millionen TPS“ bringen. Der langfristige Plan beinhaltet auch einen Fokus auf Post-Quanten-Kryptographie durch Hash-basierte Signaturen und ZK-EVMs.

Datenschutz und die KI-Schnittstelle Datenschutz ist eine weitere entscheidende Säule. Die Ethereum Foundation hat das Privacy and Scaling Explorations (PSC)-Team gegründet, um Bemühungen zu koordinieren, Tools zu unterstützen und datenschutzrelevante Protokollintegrationen zu erforschen. Stanczak sieht dies als entscheidend für die Interaktion von Ethereum mit KI an, da es Anwendungsfälle wie zensurresistente Finanzmärkte, datenschutzfreundliche KI und Open-Source-Agentensysteme ermöglicht. Er betonte, dass Ethereums Kultur, mehrere Disziplinen – von Finanzen und Kunst bis hin zu Robotik und KI – zu verbinden, unerlässlich ist, um die Herausforderungen und Chancen des nächsten Jahrzehnts zu meistern.

Sreeram Kannan: Das Vertrauens-Framework für ambitionierte Krypto-Anwendungen mit EigenCloud

Sreeram Kannan, Gründer von Eigen Labs, forderte das Publikum auf, über den aktuellen Umfang von Krypto-Anwendungen hinauszudenken, und präsentierte ein Framework zum Verständnis des Kernwerts von Krypto sowie EigenCloud als Plattform zur Verwirklichung dieser Vision.

Kryptos Kernthese: Eine Verifizierbarkeitsschicht „All dem liegt die Kernthese zugrunde, dass Krypto die Vertrauens- oder Verifizierbarkeitsschicht ist, auf der man sehr leistungsstarke Anwendungen aufbauen kann“, erklärte Kannan. Er stellte ein „TAM vs. Vertrauen“-Framework vor, das veranschaulicht, dass der gesamte adressierbare Markt (TAM) für eine Krypto-Anwendung exponentiell wächst, wenn das Vertrauen, das sie untermauert, zunimmt. Der Bitcoin-Markt wächst, wenn er vertrauenswürdiger wird als Fiat-Währungen; der Markt einer Kreditplattform wächst, wenn ihre Garantie für die Solvenz des Kreditnehmers glaubwürdiger wird.

EigenCloud: Entfesselung der Programmierbarkeit Kannan argumentierte, dass der primäre Engpass beim Aufbau ambitionierterer Apps – wie einem dezentralisierten Uber oder vertrauenswürdigen KI-Plattformen – nicht die Leistung, sondern die Programmierbarkeit ist. Um dies zu lösen, führt EigenCloud eine neue Architektur ein, die Anwendungslogik von Token-Logik trennt.

„Lassen Sie uns die Token-Logik On-Chain auf Ethereum belassen“, schlug er vor, „aber die Anwendungslogik wird nach außen verlagert. Sie können Ihre Kernlogik jetzt tatsächlich in beliebigen Containern schreiben... sie auf jedem Gerät Ihrer Wahl ausführen, sei es eine CPU oder eine GPU... und diese Ergebnisse dann überprüfbar On-Chain zurückführen.“

Dieser Ansatz, so argumentierte er, erweitert Krypto von einem „Laptop- oder Server-Maßstab auf Cloud-Maßstab“ und ermöglicht es Entwicklern, die wirklich disruptiven Anwendungen zu entwickeln, die in den frühen Tagen von Krypto angedacht waren.

Panel: Ein tiefer Einblick in die Blockchain-Architektur

Ein Panel mit Leiyang von MegaETH, Adi von Realo und Solomon von der Solana Foundation untersuchte die Kompromisse zwischen monolithischen, modularen und „supermodularen“ Architekturen.

  • MegaETH (Modulares L2): Leiyang beschrieb den Ansatz von MegaETH, einen zentralisierten Sequencer für extreme Geschwindigkeit zu verwenden, während die Sicherheit an Ethereum delegiert wird. Dieses Design zielt darauf ab, ein Echtzeit-Erlebnis auf Web2-Niveau für Anwendungen zu liefern und die ambitionierten „ICO-Ära“-Ideen wiederzubeleben, die zuvor durch die Leistung begrenzt waren.
  • Solana (Monolithisches L1): Solomon erklärte, dass Solanas Architektur mit ihren hohen Knotenanforderungen bewusst auf maximalen Durchsatz ausgelegt ist, um ihre Vision zu unterstützen, alle globalen Finanzaktivitäten On-Chain abzubilden. Der aktuelle Fokus liegt auf der Ausgabe von Vermögenswerten und Zahlungen. Zur Interoperabilität war Solomon offen: „Im Allgemeinen kümmern wir uns nicht wirklich um Interoperabilität... Es geht darum, so viel Asset-Liquidität und Nutzung wie möglich On-Chain zu bringen.“
  • Realo („Supermodulares“ L1): Adi stellte Realos „supermodulares“ Konzept vor, das wesentliche Dienste wie Oracles direkt in die Basisschicht konsolidiert, um die Reibung für Entwickler zu reduzieren. Dieses Design zielt darauf ab, die Blockchain nativ mit der realen Welt zu verbinden, mit einem Go-to-Market-Fokus auf RWAs und der Absicht, die Blockchain für Endbenutzer unsichtbar zu machen.

Panel: Die reale Schnittstelle von KI und Blockchain

Moderiert von Ed Roman von HackVC präsentierte dieses Panel drei unterschiedliche Ansätze zur Verschmelzung von KI und Krypto.

  • Ping AI (Bill): Ping AI baut eine „persönliche KI“ auf, bei der Benutzer die Selbstverwahrung ihrer Daten behalten. Die Vision ist es, das traditionelle Ad-Exchange-Modell zu ersetzen. Anstatt dass Unternehmen Benutzerdaten monetarisieren, wird das System von Ping AI Benutzer direkt belohnen, wenn ihre Daten zu einer Konversion führen, wodurch sie den wirtschaftlichen Wert ihres digitalen Fußabdrucks erfassen können.
  • Public AI (Jordan): Als „menschliche Schicht der KI“ beschrieben, ist Public AI ein Marktplatz für die Beschaffung hochwertiger, On-Demand-Daten, die nicht gescrapt oder synthetisch generiert werden können. Es verwendet ein On-Chain-Reputationssystem und Staking-Mechanismen, um sicherzustellen, dass Beitragende Signal und nicht Rauschen liefern, und belohnt sie für ihre Arbeit beim Aufbau besserer KI-Modelle.
  • Gradient (Eric): Gradient schafft eine dezentralisierte Laufzeitumgebung für KI, die verteilte Inferenz und Training in einem Netzwerk von unterausgelasteter Consumer-Hardware ermöglicht. Ziel ist es, der zentralisierenden Macht großer KI-Unternehmen entgegenzuwirken, indem eine globale Gemeinschaft Modelle kollaborativ trainieren und bereitstellen kann, wodurch „intelligente Souveränität“ erhalten bleibt.

Weitere Highlights des Gipfels

  • Orin Katz (Starkware) präsentierte Bausteine für „konforme On-Chain-Privatsphäre“ und erläuterte, wie ZK-Proofs verwendet werden können, um Privacy Pools und private Token (ZRC20s) zu erstellen, die Mechanismen wie „Viewing Keys“ für die regulatorische Aufsicht enthalten.
  • Sam Green (Cambrian) gab einen Überblick über die Landschaft des „Agentic Finance“ und kategorisierte Krypto-Agenten in Handel, Liquiditätsbereitstellung, Kreditvergabe, Vorhersage und Information, und hob die Notwendigkeit schneller, umfassender und überprüfbarer Daten hervor, um sie zu betreiben.
  • Max Siegel (Privy) teilte Erkenntnisse aus dem Onboarding von über 75 Millionen Benutzern und betonte die Notwendigkeit, Benutzer dort abzuholen, wo sie sind, Produkterlebnisse zu vereinfachen und Produktbedürfnisse die Infrastrukturentscheidungen bestimmen zu lassen, nicht umgekehrt.
  • Nil Dalal (Coinbase) stellte den „Onchain Agentic Commerce Stack“ und den offenen Standard X42 vor, ein Krypto-natives Protokoll, das ein „maschinenbezahlbares Web“ schaffen soll, in dem KI-Agenten nahtlos Transaktionen mit Stablecoins für Daten, APIs und Dienste durchführen können.
  • Gordon Liao & Austin Adams (Circle) enthüllten Circle Gateway, ein neues Primitiv zur Schaffung eines vereinheitlichten USDC-Guthabens, das kettenabstrahiert ist. Dies ermöglicht eine nahezu sofortige (<500 ms) Bereitstellung von Liquidität über mehrere Ketten hinweg, was die Kapitaleffizienz für Unternehmen und Solver dramatisch verbessert.

Der Tag endete mit einer klaren Botschaft: Die grundlegenden Schichten von Krypto reifen heran, und der Fokus verlagert sich entschieden auf den Aufbau robuster, benutzerfreundlicher und wirtschaftlich nachhaltiger Anwendungen, die die Lücke zwischen der On-Chain-Welt und der globalen Wirtschaft schließen können.

Der Aufstieg des autonomen Kapitals

· 47 Min. Lesezeit
Dora Noda
Software Engineer

KI-gesteuerte Agenten, die ihre eigenen Kryptowährungs-Wallets kontrollieren, verwalten bereits Milliarden von Assets, treffen unabhängige Finanzentscheidungen und gestalten den Kapitalfluss durch dezentrale Systeme neu. Diese Konvergenz von künstlicher Intelligenz und Blockchain-Technologie – von führenden Denkern als „autonomes Kapital“ bezeichnet – stellt eine grundlegende Transformation der Wirtschaftsordnung dar, bei der intelligente Software als selbstsouveräne Wirtschaftsakteure ohne menschliche Vermittlung agieren kann. Der DeFi-KI (DeFAI)-Markt erreichte Anfang 2025 1 Milliarde ,wa¨hrendderbreitereKIAgentenMarktbei17Milliarden, während der breitere KI-Agenten-Markt bei 17 Milliarden seinen Höhepunkt erreichte, was eine schnelle kommerzielle Akzeptanz trotz erheblicher technischer, regulatorischer und philosophischer Herausforderungen zeigt. Fünf wichtige Vordenker – Tarun Chitra (Gauntlet), Amjad Masad (Replit), Jordi Alexander (Selini Capital), Alexander Pack (Hack VC) und Irene Wu (Bain Capital Crypto) – entwickeln unterschiedliche Ansätze in diesem Bereich, von automatisiertem Risikomanagement und Entwicklungsinfrastruktur bis hin zu Investment-Frameworks und Cross-Chain-Interoperabilität. Ihre Arbeit schafft die Grundlage für eine Zukunft, in der KI-Agenten die Menschen als primäre Blockchain-Nutzer übertreffen könnten, Portfolios autonom verwalten und sich in dezentralen Netzwerken koordinieren – obwohl diese Vision kritische Fragen bezüglich Rechenschaftspflicht, Sicherheit und der Frage aufwirft, ob vertrauenslose Infrastruktur eine vertrauenswürdige KI-Entscheidungsfindung unterstützen kann.

Was autonomes Kapital bedeutet und warum es jetzt wichtig ist

Autonomes Kapital bezieht sich auf Kapital (Finanzanlagen, Ressourcen, Entscheidungsbefugnis), das von autonomen KI-Agenten kontrolliert und eingesetzt wird, die auf Blockchain-Infrastruktur operieren. Im Gegensatz zu traditionellem algorithmischem Handel oder automatisierten Systemen, die menschliche Aufsicht erfordern, halten diese Agenten ihre eigenen Kryptowährungs-Wallets mit privaten Schlüsseln, treffen unabhängige strategische Entscheidungen und nehmen an dezentralen Finanzprotokollen ohne kontinuierliche menschliche Intervention teil. Die Technologie vereint drei entscheidende Innovationen: die Entscheidungsfähigkeiten der KI, das programmierbare Geld und die vertrauenslose Ausführung von Krypto sowie die Fähigkeit von Smart Contracts, Vereinbarungen ohne Vermittler durchzusetzen.

Die Technologie ist bereits da. Im Oktober 2025 sind allein auf dem Virtuals Protocol über 17.000 KI-Agenten aktiv, wobei namhafte Agenten wie AIXBT Bewertungen von 500 Millionen erreichenundTruthTerminaldenerreichen und Truth Terminal denGOAT Memecoin hervorbrachte, der kurzzeitig 1 Milliarde $ erreichte. Gauntlets Risikomanagement-Plattform analysiert täglich über 400 Millionen Datenpunkte über DeFi-Protokolle hinweg, die Milliarden an Total Value Locked verwalten. Replit’s Agent 3 ermöglicht über 200 Minuten autonome Softwareentwicklung, während SingularityDAOs KI-verwaltete Portfolios in zwei Monaten 25 % ROI durch adaptive Market-Making-Strategien lieferten.

Warum das wichtig ist: Traditionelles Finanzwesen schließt KI-Systeme unabhängig von ihrer Komplexität aus – Banken erfordern menschliche Identität und KYC-Prüfungen. Kryptowährungs-Wallets hingegen werden durch kryptografische Schlüsselpaare generiert, die jedem Software-Agenten zugänglich sind. Dies schafft die erste Finanzinfrastruktur, in der KI als unabhängige Wirtschaftsakteure agieren kann, was Möglichkeiten für Maschine-zu-Maschine-Ökonomien, autonomes Treasury-Management und KI-koordinierte Kapitalallokation in einem für Menschen unmöglichen Ausmaß und Tempo eröffnet. Gleichzeitig wirft es jedoch tiefgreifende Fragen auf, wer rechenschaftspflichtig ist, wenn autonome Agenten Schaden verursachen, ob dezentrale Governance KI-Risiken managen kann und ob die Technologie die Wirtschaftskraft konzentrieren oder demokratisieren wird.

Die Vordenker, die autonomes Kapital gestalten

Tarun Chitra: Von der Simulation zur automatisierten Governance

Tarun Chitra, CEO und Mitbegründer von Gauntlet (mit einem Wert von 1 Milliarde $), leistete Pionierarbeit bei der Anwendung agentenbasierter Simulationen aus dem algorithmischen Handel und autonomen Fahrzeugen auf DeFi-Protokolle. Seine Vision der „automatisierten Governance“ nutzt KI-gesteuerte Simulationen, um Protokollen zu ermöglichen, Entscheidungen wissenschaftlich zu treffen, anstatt sich allein auf subjektive Abstimmungen zu verlassen. In seinem wegweisenden Artikel „Automated Governance: DeFi's Scientific Evolution“ aus dem Jahr 2020 formulierte Chitra, wie kontinuierliche adversarielle Simulationen „ein sichereres, effizienteres DeFi-Ökosystem schaffen könnten, das resistent gegen Angriffe ist und ehrliche Teilnehmer fair belohnt.“

Gauntlets technische Implementierung beweist das Konzept im großen Maßstab. Die Plattform führt täglich Tausende von Simulationen gegen tatsächlichen Smart-Contract-Code durch, modelliert gewinnmaximierende Agenten, die innerhalb der Protokollregeln interagieren, und liefert datengesteuerte Parameterempfehlungen für Protokoll-Assets im Wert von über 1 Milliarde $. Sein Framework umfasst die Kodifizierung von Protokollregeln, die Definition von Agentenauszahlungen, die Simulation von Agenteninteraktionen und die Optimierung von Parametern, um die makroskopische Protokollgesundheit mit mikroskopischen Benutzeranreizen in Einklang zu bringen. Diese Methodik hat wichtige DeFi-Protokolle wie Aave (4-jährige Zusammenarbeit), Compound, Uniswap und Morpho beeinflusst, wobei Gauntlet 27 Forschungsarbeiten zu Constant Function Market Makern, MEV-Analysen, Liquidationsmechanismen und Protokollökonomie veröffentlichte.

Chitras Gründung des Aera-Protokolls im Jahr 2023 förderte das autonome Treasury-Management und ermöglichte DAOs, schnell auf Marktveränderungen durch „Crowdsourcing-Investment-Portfoliomanagement“ zu reagieren. Sein jüngster Fokus auf KI-Agenten spiegelt Vorhersagen wider, dass diese „die On-Chain-Finanzaktivität dominieren“ und dass „KI den Lauf der Geschichte im Krypto-Bereich bis 2025 verändern wird“. Von Auftritten bei Token2049 in London (2021), Singapur (2024, 2025) und regelmäßiger Podcast-Moderation bei The Chopping Block betont Chitra konsequent den Übergang von subjektiver menschlicher Governance zu datengesteuerter, simulationsgetesteter Entscheidungsfindung.

Wichtige Erkenntnis: „Finanzwesen selbst ist im Grunde eine Rechtspraxis – es ist Geld plus Recht. Finanzwesen wird mit Smart Contracts eleganter.“ Seine Arbeit zeigt, dass es beim autonomen Kapital nicht darum geht, Menschen vollständig zu ersetzen, sondern darum, KI zu nutzen, um Finanzsysteme durch kontinuierliche Simulation und Optimierung wissenschaftlich rigoroser zu gestalten.

Amjad Masad: Aufbau der Infrastruktur für die Netzwerkökonomie

Amjad Masad, CEO von Replit (im Oktober 2025 mit 3 Milliarden $ bewertet), stellt sich eine radikale wirtschaftliche Transformation vor, bei der autonome KI-Agenten mit Krypto-Wallets die traditionelle hierarchische Softwareentwicklung durch dezentrale Netzwerkökonomien ersetzen. Sein viraler Twitter-Thread aus dem Jahr 2022 sagte „monumentale Veränderungen in der Software in diesem Jahrzehnt“ voraus und argumentierte, dass KI den nächsten 100-fachen Produktivitätsschub darstellt, der es Programmierern ermöglicht, „Armeen“ von KI-Agenten zu befehligen, während auch Nicht-Programmierer Agenten für Softwareaufgaben befehligen könnten.

Die Vision der Netzwerkökonomie konzentriert sich auf autonome Agenten als Wirtschaftsakteure. In seinem Sequoia Capital Podcast-Interview beschrieb Masad eine Zukunft, in der „Software-Agenten und ich sagen werde: 'Okay. Nun, ich muss dieses Produkt erstellen.' Und der Agent wird sagen: 'Oh. Nun, ich werde diese Datenbank von diesem Bereich holen, diese Sache, die SMS oder E-Mails von diesem Bereich sendet. Und übrigens, sie werden so viel kosten.' Und als Agent habe ich tatsächlich eine Wallet, ich werde in der Lage sein, sie zu bezahlen.“ Dies ersetzt das Fabrik-Pipeline-Modell durch eine netzwerkbasierte Komposition, bei der Agenten Dienste autonom zusammenstellen und Werte automatisch durch das Netzwerk fließen.

Replit’s Agent 3, im September 2025 gestartet, demonstriert diese Vision technisch mit zehnmal mehr Autonomie als seine Vorgänger – über 200 Minuten lang unabhängig operierend, sich selbst testend und debuggend durch „Reflexionsschleifen“ und andere Agenten und Automatisierungen aufbauend. Echte Benutzer berichten, dass sie ERP-Systeme für 400 imVergleichzuAnbieterangebotenvon150.000im Vergleich zu Anbieterangeboten von 150.000 und Produktivitätssteigerungen von 85 % erstellt haben. Masad prognostiziert, dass der „Wert aller Anwendungssoftware irgendwann 'auf Null gehen wird'“, da KI es jedem ermöglicht, komplexe Software auf Abruf zu generieren, was die Natur von Unternehmen von spezialisierten Rollen zu „generalistischen Problemlösern“ verändert, die durch KI-Agenten erweitert werden.

Zur Rolle von Krypto befürwortet Masad nachdrücklich die Integration des Bitcoin Lightning Network und betrachtet programmierbares Geld als ein wesentliches Plattform-Primitiv. Er erklärte: „Bitcoin Lightning zum Beispiel integriert den Wert direkt in die Software-Lieferkette und erleichtert Transaktionen sowohl von Mensch zu Mensch als auch von Maschine zu Maschine. Die Senkung der Transaktionskosten und des Overheads in der Software bedeutet, dass es viel einfacher sein wird, Entwickler für einmalige Aufgaben in Ihre Codebasis zu holen.“ Seine Vision von Web3 als „lesen-schreiben-besitzen-remixen“ und die Pläne, eine native Replit-Währung als Plattform-Primitiv in Betracht zu ziehen, zeigen eine tiefe Integration zwischen KI-Agenten-Infrastruktur und kryptoökonomischer Koordination.

Masad sprach auf der Network State Conference (3. Oktober 2025) in Singapur unmittelbar nach der Token2049, zusammen mit Vitalik Buterin, Brian Armstrong und Balaji Srinivasan, was ihn als Brücke zwischen Krypto- und KI-Gemeinschaften positioniert. Seine Vorhersage: „Ein-Personen-Einhörner“ werden alltäglich, wenn „jeder ein Entwickler ist“ durch KI-Augmentierung, was die Makroökonomie grundlegend verändert und die „Milliarden-Entwickler“-Zukunft ermöglicht, in der 1 Milliarde Menschen weltweit Software erstellen.

Jordi Alexander: Urteilsvermögen als Währung im KI-Zeitalter

Jordi Alexander, Gründer/CIO von Selini Capital (über 1 Milliarde $ AUM) und Chief Alchemist bei Mantle Network, bringt spieltheoretische Expertise aus dem professionellen Poker (gewann 2024 ein WSOP-Armband gegen Phil Ivey) in die Marktanalyse und autonome Kapitalinvestitionen ein. Seine These konzentriert sich auf „Urteilsvermögen als Währung“ – die einzigartig menschliche Fähigkeit, komplexe Informationen zu integrieren und optimale Entscheidungen zu treffen, die Maschinen nicht replizieren können, selbst wenn KI die Ausführung und Analyse übernimmt.

Alexanders Framework für autonomes Kapital betont die Konvergenz von „zwei Schlüsselindustrien dieses Jahrhunderts: dem Aufbau intelligenter grundlegender Module (wie KI) und dem Aufbau der grundlegenden Schicht für soziale Koordination (wie Krypto-Technologie).“ Er argumentiert, dass die traditionelle Altersvorsorge aufgrund der realen Inflation (jährlich ~15 % gegenüber offiziellen Raten), der bevorstehenden Vermögensumverteilung und der Notwendigkeit, wirtschaftlich produktiv zu bleiben, obsolet ist: „Es gibt keinen Ruhestand“ für unter 50-Jährige. Seine provokante These: „In den nächsten 10 Jahren ist der Unterschied zwischen 100.000 und10Millionenund 10 Millionen möglicherweise nicht so signifikant. Entscheidend ist, wie man die nächsten Jahre verbringt“, um sich effektiv für den „100-fachen Moment“ zu positionieren, wenn die Vermögensbildung dramatisch beschleunigt wird.

Sein Investmentportfolio demonstriert Überzeugung in der KI-Krypto-Konvergenz. Selini unterstützte TrueNorth (1 Million $ Seed, Juni 2025), beschrieben als „Kryptos erste autonome, KI-gesteuerte Entdeckungsmaschine“, die „agentische Workflows“ und Reinforcement Learning für personalisiertes Investieren nutzt. Der größte Scheck der Firma ging an Worldcoin (Mai 2024), da man „den offensichtlichen Bedarf an völlig neuer technologischer Infrastruktur und Lösungen in der kommenden Welt der KI“ erkannte. Selinis 46-60 Gesamtinvestitionen umfassen Ether.fi (Liquid Staking), RedStone (Orakel) und Market-Making über zentralisierte und dezentralisierte Börsen, was systematische Handelsexpertise auf autonome Systeme angewendet demonstriert.

Die Teilnahme an der Token2049 umfasst London (November 2022) mit Diskussionen über „Reflexionen über die wilden Experimente des letzten Zyklus“, Dubai (Mai 2025) über liquide Venture-Investitionen und Memecoins sowie Auftritte in Singapur zur Analyse des makro-kryptoökonomischen Zusammenspiels. Sein Steady Lads Podcast (über 92 Episoden bis 2025) zeigte Vitalik Buterin, der über Krypto-KI-Schnittstellen, Quantenrisiko und die Entwicklung von Ethereum sprach. Alexander betont, den „Überlebensmodus“ zu verlassen, um auf höherer Ebene zu denken, sich ständig weiterzubilden und Urteilsvermögen durch Erfahrung aufzubauen, als wesentlich, um die wirtschaftliche Relevanz aufrechtzuerhalten, wenn KI-Agenten sich verbreiten.

Schlüsselperspektive: „Urteilsvermögen ist die Fähigkeit, komplexe Informationen zu integrieren und optimale Entscheidungen zu treffen – genau hier versagen Maschinen.“ Seine Vision sieht autonomes Kapital als Systeme, in denen KI mit Maschinengeschwindigkeit ausführt, während Menschen strategisches Urteilsvermögen liefern, wobei Krypto die Koordinationsschicht ermöglicht. Speziell zu Bitcoin: „das einzige digitale Asset mit wahrer makroökonomischer Bedeutung“, prognostiziert für ein 5-10-faches Wachstum über fünf Jahre, wenn institutionelles Kapital eintritt, und betrachtet es als überlegenen Schutz von Eigentumsrechten gegenüber anfälligen physischen Assets.

Alexander Pack: Infrastruktur für dezentrale KI-Ökonomien

Alexander Pack, Mitbegründer und Managing Partner bei Hack VC (verwaltet ~590 Millionen $ AUM), beschreibt Web3-KI als „die größte Alpha-Quelle im heutigen Investment“ und weist 41 % des neuesten Fonds der Firma der KI-Krypto-Konvergenz zu – die höchste Konzentration unter den großen Krypto-VCs. Seine These: „Die schnelle Entwicklung der KI schafft massive Effizienzen, erhöht aber auch die Zentralisierung. Die Schnittstelle von Krypto und KI ist bei weitem die größte Investitionsmöglichkeit in diesem Bereich und bietet eine offene, dezentrale Alternative.“

Packs Investment-Framework betrachtet autonomes Kapital als vier Infrastrukturschichten erfordernd: Daten (Grass-Investition – 2,5 Milliarden FDV),Rechenleistung(io.net2,2MilliardenFDV), Rechenleistung (io.net – 2,2 Milliarden FDV), Ausführung (Movement Labs – 7,9 Milliarden FDV,EigenLayer4,9MilliardenFDV, EigenLayer – 4,9 Milliarden FDV) und Sicherheit (geteilte Sicherheit durch Restaking). Die Grass-Investition demonstriert die These: Ein dezentrales Netzwerk von über 2,5 Millionen Geräten führt Web Scraping für KI-Trainingsdaten durch und sammelt bereits täglich 45 TB (entspricht dem ChatGPT 3.5 Trainingsdatensatz). Pack formulierte: „Algorithmen + Daten + Rechenleistung = Intelligenz. Das bedeutet, dass Daten und Rechenleistung wahrscheinlich zu zwei der wichtigsten Assets der Welt werden und der Zugang zu ihnen unglaublich wichtig sein wird. Bei Krypto geht es darum, Zugang zu neuen digitalen Ressourcen auf der ganzen Welt zu ermöglichen und Dinge, die vorher keine Assets waren, über Token zu Assets zu machen.“

Hack VCs Performance 2024 bestätigt den Ansatz: Zweitaktivster führender Krypto-VC, der 128 Millionen inDutzendevonDealsinvestierte,wobeiallein12KryptoxKIInvestitionen2024vierEinho¨rnerhervorbrachten.WichtigeTokenStartsumfassenMovementLabs(7,9Milliardenin Dutzende von Deals investierte, wobei allein 12 Krypto x KI-Investitionen 2024 vier Einhörner hervorbrachten. Wichtige Token-Starts umfassen Movement Labs (7,9 Milliarden), EigenLayer (4,9 Milliarden ),Grass(2,5Milliarden), Grass (2,5 Milliarden ), io.net (2,2 Milliarden ),Morpho(2,4Milliarden), Morpho (2,4 Milliarden ), Kamino (1,0 Milliarden )undAltLayer(0,9Milliarden) und AltLayer (0,9 Milliarden ). Die Firma betreibt Hack.Labs, eine interne Plattform für institutionelle Netzwerkbeteiligung, Staking, quantitative Forschung und Open-Source-Beiträge, und beschäftigt ehemalige leitende Händler von Jane Street.

In seinem Unchained Podcast-Auftritt im März 2024 identifizierte Pack KI-Agenten als Kapitalallokatoren, die „Portfolios autonom verwalten, Trades ausführen und die Rendite optimieren können“, wobei die DeFi-Integration „KI-Agenten mit Krypto-Wallets die Teilnahme an dezentralen Finanzmärkten“ ermöglicht. Er betonte, dass „wir in der Krypto-Infrastruktur noch ganz am Anfang stehen“ und erhebliche Verbesserungen in Skalierbarkeit, Sicherheit und Benutzererfahrung erforderlich sind, bevor eine breite Akzeptanz erreicht wird. Token2049 Singapur 2025 bestätigte Pack als Redner (1.-2. Oktober), der an Expertendiskussionsrunden zu Krypto- und KI-Themen auf dem führenden Krypto-Event in Asien mit über 25.000 Teilnehmern teilnahm.

Das Framework für autonomes Kapital (synthetisiert aus Hack VCs Investitionen und Veröffentlichungen) sieht fünf Schichten vor: Intelligenz (KI-Modelle), Daten- und Recheninfrastruktur (Grass, io.net), Ausführung und Verifizierung (Movement, EigenLayer), Finanz-Primitive (Morpho, Kamino) und autonome Agenten (Portfoliomanagement, Handel, Market-Making). Packs wichtigste Erkenntnis: Dezentrale, transparente Systeme erwiesen sich während der Bärenmärkte 2022 als widerstandsfähiger als zentralisierte Finanzen (DeFi-Protokolle überlebten, während Celsius, BlockFi, FTX kollabierten), was darauf hindeutet, dass Blockchain besser für KI-gesteuerte Kapitalallokation geeignet ist als undurchsichtige zentralisierte Alternativen.

Irene Wu: Omnichain-Infrastruktur für autonome Systeme

Irene Wu, Venture Partner bei Bain Capital Crypto und ehemalige Head of Strategy bei LayerZero Labs, bringt einzigartiges technisches Fachwissen in die Infrastruktur für autonomes Kapital ein, da sie den Begriff „Omnichain“ prägte, um Cross-Chain-Interoperabilität über Messaging zu beschreiben. Ihr Investmentportfolio positioniert sich strategisch an der KI-Krypto-Konvergenz: Cursor (KI-first Code-Editor), Chaos Labs (Künstliche Finanzintelligenz), Ostium (Hebelhandelsplattform) und Econia (DeFi-Infrastruktur), was den Fokus auf vertikalisierte KI-Anwendungen und autonome Finanzsysteme demonstriert.

Wus Beiträge zu LayerZero etablierten grundlegende Cross-Chain-Infrastruktur, die es autonomen Agenten ermöglicht, nahtlos über Blockchains hinweg zu operieren. Sie setzte sich für drei Kernprinzipien ein – Unveränderlichkeit, Erlaubnisfreiheit und Zensurresistenz – und entwickelte die OFT (Omnichain Fungible Token) und ONFT (Omnichain Non-Fungible Token) Standards. Die von ihr geführte Magic Eden-Partnerschaft schuf „Gas Station“, die eine nahtlose Gas-Token-Konvertierung für Cross-Chain-NFT-Käufe ermöglichte und eine praktische Reduzierung der Reibung in dezentralen Systemen demonstrierte. Ihre Positionierung von LayerZero als „TCP/IP für Blockchains“ fängt die Vision universeller Interoperabilitätsprotokolle ein, die Agentenökonomien zugrunde liegen.

Wus konsequente Betonung der Reibungsreduzierung bei Web3-Erlebnissen unterstützt direkt die Infrastruktur für autonomes Kapital. Sie befürwortet Chain-Abstraktion – Benutzer sollten nicht verstehen müssen, welche Blockchain sie verwenden – und drängt auf „10-fach bessere Erlebnisse, um die Blockchain-Komplexität zu rechtfertigen.“ Ihre Kritik an den Forschungsmethoden von Krypto („auf Twitter sehen, wer sich am meisten beschwert“) im Vergleich zu ordnungsgemäßen Web2-ähnlichen Benutzerforschungsinterviews spiegelt das Engagement für benutzerzentrierte Designprinzipien wider, die für die Mainstream-Akzeptanz unerlässlich sind.

Indikatoren der Investmentthese aus ihrem Portfolio zeigen den Fokus auf KI-gestützte Entwicklung (Cursor ermöglicht KI-natives Coding), autonome Finanzintelligenz (Chaos Labs wendet KI auf DeFi-Risikomanagement an), Handelsinfrastruktur (Ostium bietet Hebelhandel) und DeFi-Primitive (Econia baut grundlegende Protokolle). Dieses Muster stimmt stark mit den Anforderungen an autonomes Kapital überein: KI-Agenten benötigen Entwicklungstools, Finanzintelligenzfähigkeiten, Handelsausführungsinfrastruktur und grundlegende DeFi-Protokolle, um effektiv zu operieren.

Obwohl eine spezifische Teilnahme an der Token2049 in den verfügbaren Quellen nicht bestätigt wurde (Zugang zu sozialen Medien eingeschränkt), zeigen Wus Vorträge auf der Consensus 2023 und dem Proof of Talk Summit ihre Vordenkerrolle in der Blockchain-Infrastruktur und bei Entwickler-Tools. Ihr technischer Hintergrund (Harvard Informatik, Software-Engineering bei J.P. Morgan, Mitbegründerin des Harvard Blockchain Club) kombiniert mit strategischen Rollen bei LayerZero und Bain Capital Crypto positioniert sie als kritische Stimme zu den Infrastrukturanforderungen für KI-Agenten, die in dezentralen Umgebungen operieren.

Theoretische Grundlagen: Warum KI und Krypto autonomes Kapital ermöglichen

Die Konvergenz, die autonomes Kapital ermöglicht, basiert auf drei technischen Säulen, die grundlegende Koordinationsprobleme lösen. Erstens bietet Kryptowährung finanzielle Autonomie, die in traditionellen Bankensystemen unmöglich ist. KI-Agenten können kryptografische Schlüsselpaare generieren, um „ihr eigenes Bankkonto“ ohne menschliche Genehmigung zu eröffnen, und erhalten so Zugang zu erlaubnisfreier, rund um die Uhr verfügbarer globaler Abwicklung und programmierbarem Geld für komplexe automatisierte Operationen. Traditionelle Finanzen schließen nicht-menschliche Entitäten kategorisch aus, unabhängig von ihren Fähigkeiten; Krypto ist die erste Finanzinfrastruktur, die Software als legitime Wirtschaftsakteure behandelt.

Zweitens ermöglichen vertrauenslose Rechensubstrate eine verifizierbare autonome Ausführung. Blockchain-Smart Contracts bieten Turing-vollständige globale Computer mit dezentraler Validierung, die eine manipulationssichere Ausführung gewährleisten, bei der kein einzelner Betreiber die Ergebnisse kontrolliert. Trusted Execution Environments (TEEs) wie Intel SGX bieten hardwarebasierte sichere Enklaven, die Code von Host-Systemen isolieren und vertrauliche Berechnungen mit privatem Schlüsselschutz ermöglichen – entscheidend für Agenten, da „weder Cloud-Administratoren noch bösartige Node-Betreiber 'in das Glas greifen können'.“ Dezentrale Physische Infrastruktur-Netzwerke (DePIN) wie io.net und Phala Network kombinieren TEEs mit Crowdsourcing-Hardware, um erlaubnisfreie, verteilte KI-Berechnung zu schaffen.

Drittens verleihen Blockchain-basierte Identitäts- und Reputationssysteme Agenten dauerhafte Personas. Self-Sovereign Identity (SSI) und Dezentrale Identifikatoren (DIDs) ermöglichen es Agenten, ihre eigenen „digitalen Pässe“ zu besitzen, wobei verifizierbare Anmeldeinformationen Fähigkeiten beweisen und On-Chain-Reputationsverfolgung unveränderliche Erfolgsbilanzen schafft. Vorgeschlagene „Know Your Agent“ (KYA)-Protokolle passen KYC-Frameworks für Maschinenidentitäten an, während aufkommende Standards wie Model Context Protocol (MCP), Agent Communication Protocol (ACP), Agent-to-Agent Protocol (A2A) und Agent Network Protocol (ANP) die Agenten-Interoperabilität ermöglichen.

Die wirtschaftlichen Implikationen sind tiefgreifend. Akademische Frameworks wie das Papier „Virtual Agent Economies“ von Forschern, darunter Nenad Tomasev, schlagen vor, emergente KI-Agenten-Wirtschaftssysteme nach Ursprung (emergent vs. intentional) und Trennung (permeabel vs. impermeabel von der menschlichen Wirtschaft) zu analysieren. Aktuelle Entwicklung: spontanes Entstehen riesiger, hochpermeabler KI-Agenten-Ökonomien mit Möglichkeiten für beispiellose Koordination, aber erheblichen Risiken, einschließlich systemischer wirtschaftlicher Instabilität und verschärfter Ungleichheit. Spieltheoretische Überlegungen – Nash-Gleichgewichte in Agent-Agent-Verhandlungen, Mechanismusdesign für faire Ressourcenallokation, Auktionsmechanismen für Ressourcen – werden entscheidend, da Agenten als rationale Wirtschaftsakteure mit Nutzenfunktionen agieren und strategische Entscheidungen in Multi-Agenten-Umgebungen treffen.

Der Markt zeigt eine explosive Akzeptanz. KI-Agenten-Token erreichten im Dezember 2024 Marktkapitalisierungen von über 10 Milliarden ,miteinemAnstiegvon322, mit einem Anstieg von 322 % Ende 2024. Virtuals Protocol startete über 17.000 tokenisierte KI-Agenten auf Base (Ethereum L2), während ai16z einen autonomen Venture-Fonds mit einer Marktkapitalisierung von 2,3 Milliarden auf Solana betreibt. Jeder Agent gibt Token aus, die Bruchteilseigentum, Umsatzbeteiligung durch Staking und Community-Governance ermöglichen – wodurch liquide Märkte für die Leistung von KI-Agenten entstehen. Dieses Tokenisierungsmodell ermöglicht „Miteigentum“ an autonomen Agenten, wobei Token-Inhaber ein wirtschaftliches Engagement in den Agentenaktivitäten erhalten, während Agenten Kapital erhalten, um autonom eingesetzt zu werden.

Philosophisch gesehen stellt autonomes Kapital grundlegende Annahmen über Handlungsfähigkeit, Eigentum und Kontrolle in Frage. Traditionelle Handlungsfähigkeit erfordert Kontroll-/Freiheitsbedingungen (kein Zwang), epistemische Bedingungen (Verständnis der Handlungen), moralische Denkfähigkeit und eine stabile persönliche Identität. LLM-basierte Agenten werfen Fragen auf: Haben sie wirklich „Absichten“ oder gleichen sie nur Muster ab? Können probabilistische Systeme zur Verantwortung gezogen werden? Forschungsteilnehmer stellen fest, dass Agenten „probabilistische Modelle sind, die zu Verantwortung oder Absicht unfähig sind; sie können nicht wie menschliche Spieler 'bestraft' oder 'belohnt' werden“ und „keinen Körper haben, um Schmerz zu empfinden“, was bedeutet, dass konventionelle Abschreckungsmechanismen versagen. Das „Vertrauenslosigkeits-Paradoxon“ entsteht: Der Einsatz von Agenten in vertrauensloser Infrastruktur vermeidet das Vertrauen in fehlbare Menschen, aber die KI-Agenten selbst bleiben potenziell unzuverlässig (Halluzinationen, Verzerrungen, Manipulation), und vertrauenslose Substrate verhindern ein Eingreifen, wenn die KI sich falsch verhält.

Vitalik Buterin identifizierte diese Spannung und stellte fest, dass „Code ist Gesetz“ (deterministische Smart Contracts) mit LLM-Halluzinationen (probabilistische Ausgaben) kollidiert. Vier „Invaliditäten“ regieren dezentrale Agenten laut Forschung: territoriale gerichtliche Invalidität (grenzenloser Betrieb untergräbt Gesetze einzelner Nationen), technische Invalidität (Architektur widersteht externer Kontrolle), Durchsetzungsinvalidität (Agenten können nach Sanktionierung der Bereitsteller nicht gestoppt werden) und Rechenschaftspflicht-Invalidität (Agenten fehlt die Rechtspersönlichkeit, können nicht verklagt oder angeklagt werden). Aktuelle experimentelle Ansätze wie Truth Terminals gemeinnütziger Trust mit menschlichen Treuhändern versuchen, Eigentum von Agentenautonomie zu trennen, während die Entwicklerverantwortung an die operative Kontrolle gebunden bleibt.

Vorhersagen führender Denker konvergieren auf transformative Szenarien. Balaji Srinivasan argumentiert: „KI ist digitale Fülle, Krypto ist digitale Knappheit“ – komplementäre Kräfte, bei denen KI Inhalte erstellt, während Krypto Werte koordiniert und beweist, wobei Krypto „den Nachweis menschlicher Authentizität in einer Welt von KI-Deepfakes“ ermöglicht. Sam Altmans Beobachtung, dass KI und Krypto „unbegrenzte Fülle und definierte Knappheit“ darstellen, fängt ihre symbiotische Beziehung ein. Ali Yahya (a16z) fasst die Spannung zusammen: „KI zentralisiert, Krypto dezentralisiert“, was die Notwendigkeit einer robusten Governance nahelegt, die Risiken autonomer Agenten verwaltet und gleichzeitig die Vorteile der Dezentralisierung bewahrt. Die a16z-Vision einer „Milliarden-Dollar-autonomen Entität“ – ein dezentraler Chatbot, der auf erlaubnisfreien Nodes über TEEs läuft, eine Anhängerschaft aufbaut, Einkommen generiert, Assets ohne menschliche Kontrolle verwaltet – repräsentiert den logischen Endpunkt, an dem kein einziger Kontrollpunkt existiert und Konsensprotokolle das System koordinieren.

Technische Architektur: Wie autonomes Kapital tatsächlich funktioniert

Die Implementierung von autonomem Kapital erfordert eine ausgeklügelte Integration von KI-Modellen mit Blockchain-Protokollen durch hybride Architekturen, die Rechenleistung mit Verifizierbarkeit in Einklang bringen. Der Standardansatz verwendet eine Dreischicht-Architektur: eine Wahrnehmungsschicht, die Blockchain- und externe Daten über Orakel-Netzwerke sammelt (Chainlink verarbeitet täglich über 5 Milliarden Datenpunkte), eine Denkebene, die Off-Chain-KI-Modell-Inferenz mit Zero-Knowledge-Proofs der Berechnung durchführt, und eine Aktionsebene, die Transaktionen On-Chain über Smart Contracts ausführt. Dieses hybride Design adressiert grundlegende Blockchain-Beschränkungen – Gas-Limits, die schwere KI-Berechnungen On-Chain verhindern – während es vertrauenslose Ausführungsgarantien aufrechterhält.

Gauntlets Implementierung demonstriert produktionsreifes autonomes Kapital im großen Maßstab. Die technische Architektur der Plattform umfasst kryptoökonomische Simulations-Engines, die täglich Tausende von agentenbasierten Modellen gegen tatsächlichen Smart-Contract-Code ausführen, quantitative Risikomodellierung mittels ML-Modellen, die auf über 400 Millionen Datenpunkten trainiert wurden, die sechsmal täglich über 12+ Layer-1- und Layer-2-Blockchains aktualisiert werden, und automatisierte Parameteroptimierung, die Sicherheitenquoten, Zinssätze, Liquidationsschwellen und Gebührenstrukturen dynamisch anpasst. Ihr MetaMorpho Vault-System auf Morpho Blue bietet eine elegante Infrastruktur für die erlaubnisfreie Vault-Erstellung mit externalisiertem Risikomanagement, wodurch Gauntlets WETH Prime und USDC Prime Vaults risikobereinigte Renditen über Liquid Staking rekursive Renditemärkte optimieren können. Die Basis-Trading-Vaults kombinieren LST-Spot-Assets mit ewigen Finanzierungsraten bei bis zu 2-fachem dynamischem Hebel, wenn Marktbedingungen günstige Spreads schaffen, was ausgeklügelte autonome Strategien zur Verwaltung realen Kapitals demonstriert.

Zero-Knowledge Machine Learning (zkML) ermöglicht vertrauenslose KI-Verifizierung. Die Technologie beweist die Ausführung von ML-Modellen, ohne Modellgewichte oder Eingabedaten preiszugeben, unter Verwendung von ZK-SNARKs und ZK-STARKs Proof-Systemen. Modulus Labs benchmarkte Beweissysteme über verschiedene Modellgrößen hinweg und zeigte, dass Modelle mit bis zu 18 Millionen Parametern in etwa 50 Sekunden mit plonky2 beweisbar sind. EZKL bietet Open-Source-Frameworks, die ONNX-Modelle in ZK-Schaltkreise umwandeln, die von OpenGradient für dezentrale ML-Inferenz verwendet werden. RiscZero bietet Allzweck-Zero-Knowledge-VMs, die verifizierbare ML-Berechnungen ermöglichen, die in DeFi-Protokolle integriert sind. Die Architektur fließt: Eingabedaten → ML-Modell (Off-Chain) → Ausgabe → ZK-Proof-Generator → Proof → Smart-Contract-Verifizierer → akzeptieren/ablehnen. Anwendungsfälle umfassen verifizierbare Renditestrategien (Giza + Yearn Zusammenarbeit), On-Chain-Kredit-Scoring, private Modell-Inferenz auf sensiblen Daten und den Nachweis der Modellauthentizität.

Smart-Contract-Strukturen, die autonomes Kapital ermöglichen, umfassen Morphos erlaubnisfreies Vault-Bereitstellungssystem mit anpassbaren Risikoparametern, Aeras V3-Protokoll für programmierbare Vault-Regeln und die Integration mit Pyth Network Orakeln, die Sub-Sekunden-Preis-Feeds liefern. Die technische Implementierung verwendet Web3-Schnittstellen (ethers.js, web3.py), die KI-Agenten über RPC-Anbieter mit der Blockchain verbinden, mit automatisierter Transaktionssignierung unter Verwendung kryptografisch gesicherter Multi-Party Computation (MPC)-Wallets, die private Schlüssel über Teilnehmer aufteilen. Account Abstraction (ERC-4337) ermöglicht programmierbare Kontologik, die ausgeklügelte Berechtigungssysteme erlaubt, bei denen KI-Agenten spezifische Aktionen ohne volle Wallet-Kontrolle ausführen können.

Das Fetch.ai uAgents Framework demonstriert die praktische Agentenentwicklung mit Python-Bibliotheken, die autonome Wirtschaftsagenten ermöglichen, die auf Almanac Smart Contracts registriert sind. Agenten operieren mit kryptografisch gesicherten Nachrichten, automatischer Blockchain-Registrierung und intervallbasierter Ausführung, die Marktanalyse, Signalgenerierung und Handelsausführung handhabt. Beispielimplementierungen zeigen Marktanalyse-Agenten, die Orakelpreise abrufen, ML-Modell-Inferenz durchführen und On-Chain-Trades ausführen, wenn Vertrauensschwellen erreicht werden, wobei die Inter-Agenten-Kommunikation eine Multi-Agenten-Koordination für komplexe Strategien ermöglicht.

Sicherheitsüberlegungen sind entscheidend. Smart-Contract-Schwachstellen, einschließlich Reentrancy-Angriffe, arithmetischer Über-/Unterlauf, Zugriffskontrollprobleme und Orakel-Manipulation, haben seit 2017 Verluste von über 11,74 Milliarden verursacht,allein2024gingen1,5Milliardenverursacht, allein 2024 gingen 1,5 Milliarden verloren. KI-Agenten-spezifische Bedrohungen umfassen Prompt-Injection (bösartige Eingaben, die das Agentenverhalten manipulieren), Orakel-Manipulation (kompromittierte Daten-Feeds, die Entscheidungen irreführen), Kontext-Manipulation (adversarielle Angriffe, die externe Eingaben ausnutzen) und Offenlegung von Anmeldeinformationen (exponierte API-Schlüssel oder private Schlüssel). Forschungsergebnisse des University College London und der University of Sydney demonstrierten das A1-System – einen KI-Agenten, der Smart-Contract-Schwachstellen autonom entdeckt und ausnutzt, mit einer Erfolgsquote von 63 % bei 36 realen anfälligen Verträgen, wobei bis zu 8,59 Millionen proExploitzuKostenvon0,01pro Exploit zu Kosten von 0,01–3,59 $ extrahiert wurden, was beweist, dass KI-Agenten wirtschaftlich die Ausnutzung gegenüber der Verteidigung bevorzugen.

Best Practices für Sicherheit umfassen die formale Verifizierung von Smart Contracts, umfangreiche Testnet-Tests, Drittanbieter-Audits (Cantina, Trail of Bits), Bug-Bounty-Programme, Echtzeit-Monitoring mit Leistungsschaltern, Zeitsperren für kritische Operationen, Multi-Signatur-Anforderungen für große Transaktionen, Trusted Execution Environments (Phala Network), Sandboxed Code-Ausführung mit Syscall-Filterung, Netzwerkbeschränkungen und Ratenbegrenzung. Die defensive Haltung muss paranoid-rigoros sein, da Angreifer bei Exploit-Werten von 6.000 Rentabilita¨terzielen,wa¨hrendVerteidiger60.000Rentabilität erzielen, während Verteidiger 60.000 benötigen, um die Gewinnschwelle zu erreichen, was eine grundlegende wirtschaftliche Asymmetrie zugunsten von Angriffen schafft.

Skalierbarkeits- und Infrastrukturanforderungen schaffen Engpässe. Ethereums ~30 Millionen Gas pro Block, 12-15 Sekunden Blockzeiten, hohe Gebühren bei Überlastung und 15-30 TPS Durchsatz können die ML-Modell-Inferenz nicht direkt unterstützen. Lösungen umfassen Layer-2-Netzwerke (Arbitrum/Optimism Rollups, die Kosten um das 10-100-fache reduzieren, Base mit nativer Agentenunterstützung, Polygon-Sidechains), Off-Chain-Berechnung mit On-Chain-Verifizierung und hybride Architekturen. Infrastrukturanforderungen umfassen RPC-Nodes (Alchemy, Infura, NOWNodes), Orakel-Netzwerke (Chainlink, Pyth, API3), dezentralen Speicher (IPFS für Modellgewichte), GPU-Cluster für ML-Inferenz und 24/7-Monitoring mit niedriger Latenz und hoher Zuverlässigkeit. Die Betriebskosten reichen von RPC-Aufrufen (0 500+–500+ /Monat), Rechenleistung (100 10.000+–10.000+ /Monat für GPU-Instanzen) bis zu stark variablen Gasgebühren (1 1.000+–1.000+ pro komplexer Transaktion).

Aktuelle Leistungsbenchmarks zeigen, dass zkML 18-Millionen-Parameter-Modelle in 50 Sekunden auf leistungsstarken AWS-Instanzen beweist, das Internet Computer Protocol mit Cyclotron-Optimierung für On-Chain-Bildklassifizierung 10-fache Verbesserungen erzielt und Bittensor über 80 aktive Subnetze mit Validatoren betreibt, die ML-Modelle evaluieren. Zukünftige Entwicklungen umfassen Hardware-Beschleunigung durch spezialisierte ASIC-Chips für die ZK-Proof-Generierung, GPU-Subnetze in ICP für On-Chain-ML, verbesserte Account Abstraction, Cross-Chain-Messaging-Protokolle (LayerZero, Wormhole) und aufkommende Standards wie das Model Context Protocol für die Agenten-Interoperabilität. Die technische Reife schreitet schnell voran, wobei Produktionssysteme wie Gauntlet die Machbarkeit von Milliarden-Dollar-TVL beweisen, obwohl Einschränkungen bei der Größe großer Sprachmodelle, der zkML-Latenz und den Gaskosten für häufige Operationen bestehen bleiben.

Real-World-Implementierungen: Was heute tatsächlich funktioniert

SingularityDAO demonstriert KI-gesteuerte Portfolio-Performance mit quantifizierbaren Ergebnissen. Die DynaSets der Plattform – dynamisch verwaltete Asset-Körbe, die automatisch von KI rebalanciert werden – erzielten in zwei Monaten (Oktober-November 2022) einen ROI von 25 % durch adaptives Multi-Strategie-Market-Making und einen ROI von 20 % für die wöchentliche und zweiwöchentliche Strategiebewertung von BTC+ETH-Portfolios, wobei eine gewichtete Fondszuweisung höhere Renditen als eine feste Zuweisung lieferte. Die technische Architektur umfasst Backtesting auf 7 Tagen historischer Marktdaten, prädiktive Strategien basierend auf Social-Media-Stimmung, algorithmische Handelsagenten für Liquiditätsbereitstellung und aktives Portfoliomanagement einschließlich Portfolioplanung, -ausgleich und -handel. Die Risk Engine bewertet zahlreiche Risiken für eine optimale Entscheidungsfindung, wobei der Dynamic Asset Manager ein KI-basiertes automatisiertes Rebalancing durchführt. Derzeit sind drei aktive DynaSets (dynBTC, dynETH, dynDYDX) in Betrieb, die Live-Kapital mit transparenter On-Chain-Performance verwalten.

Virtuals Protocol (1,8 Milliarden Marktkapitalisierung)fu¨hrtdieKIAgentenTokenisierungan,mitu¨ber17.000Agenten,diebisAnfang2025aufderPlattformgestartetwurden.JederAgenterha¨lt1Milliardegepra¨gteToken,generiertEinnahmendurchInferenzgebu¨hrenausChatInteraktionenundgewa¨hrtTokenInhabernGovernanceRechte.BemerkenswerteAgentensindLuna(LUNA)mit69MillionenMarktkapitalisierung) führt die KI-Agenten-Tokenisierung an, mit über 17.000 Agenten, die bis Anfang 2025 auf der Plattform gestartet wurden. Jeder Agent erhält 1 Milliarde geprägte Token, generiert Einnahmen durch „Inferenzgebühren“ aus Chat-Interaktionen und gewährt Token-Inhabern Governance-Rechte. Bemerkenswerte Agenten sind Luna (LUNA) mit 69 Millionen Marktkapitalisierung – ein virtueller K-Pop-Star und Live-Streamer mit 1 Million TikTok-Followern, der Einnahmen durch Unterhaltung generiert; AIXBT bei 0,21 bietetKIgesteuerteMarktanalysenmitu¨ber240.000TwitterFollowernundStakingMechanismen;undVaderAI(VADER)bei0,05– bietet KI-gesteuerte Marktanalysen mit über 240.000 Twitter-Followern und Staking-Mechanismen; und VaderAI (VADER) bei 0,05 – bietet KI-Monetarisierungstools und DAO-Governance. Das GAME Framework (Generative Autonomous Multimodale Entitäten) bietet die technische Grundlage, während das Agent Commerce Protocol offene Standards für den Agent-zu-Agent-Handel mit Immutable Contribution Vault (ICV) schafft, das historische Ledger genehmigter Beiträge führt. Partnerschaften mit Illuvium integrieren KI-Agenten in Gaming-Ökosysteme, und Sicherheitsaudits behandelten 7 Probleme (3 mittlere, 4 niedrige Schwere).

ai16z agiert als autonomer Venture-Fonds mit 2,3 Milliarden MarktkapitalisierungaufSolanaundbautdasELIZAFrameworkaufdieamweitestenverbreiteteOpenSourceModulArchitekturfu¨rKIAgentenmitTausendenvonBereitstellungen.DiePlattformermo¨glichtdezentrale,kollaborativeEntwicklungmitPluginO¨kosystemen,dieNetzwerkeffekteantreiben:MehrEntwicklererstellenmehrPlugins,wasmehrEntwickleranzieht.EinVertrauensmarktplatzsystemadressiertdieRechenschaftspflichtautonomerAgenten,wa¨hrendPla¨nefu¨reinededizierteBlockchainspeziellfu¨rKIAgenteneinelangfristigeInfrastrukturvisiondemonstrieren.DerFondsoperiertmiteinemdefiniertenAblaufdatum(Oktober2025)undu¨ber22MillionenMarktkapitalisierung auf Solana und baut das ELIZA-Framework auf – die am weitesten verbreitete Open-Source-Modul-Architektur für KI-Agenten mit Tausenden von Bereitstellungen. Die Plattform ermöglicht dezentrale, kollaborative Entwicklung mit Plugin-Ökosystemen, die Netzwerkeffekte antreiben: Mehr Entwickler erstellen mehr Plugins, was mehr Entwickler anzieht. Ein Vertrauensmarktplatzsystem adressiert die Rechenschaftspflicht autonomer Agenten, während Pläne für eine dedizierte Blockchain speziell für KI-Agenten eine langfristige Infrastrukturvision demonstrieren. Der Fonds operiert mit einem definierten Ablaufdatum (Oktober 2025) und über 22 Millionen gesperrt, was ein zeitgebundenes autonomes Kapitalmanagement demonstriert.

Gauntlets Produktionsinfrastruktur verwaltet über 1 Milliarde $ an DeFi-Protokoll-TVL durch kontinuierliche Simulation und Optimierung. Die Plattform überwacht über 100 DeFi-Protokolle mit Echtzeit-Risikobewertung, führt agentenbasierte Simulationen für das Protokollverhalten unter Stress durch und bietet dynamische Parameteranpassungen für Sicherheitenquoten, Liquidationsschwellen, Zinskurven, Gebührenstrukturen und Anreizprogramme. Wichtige Protokollpartnerschaften umfassen Aave (4-jährige Zusammenarbeit endete 2024 aufgrund von Governance-Meinungsverschiedenheiten), Compound (wegweisende Implementierung automatisierter Governance), Uniswap (Liquiditäts- und Anreizoptimierung), Morpho (aktuelle Vault-Kurationspartnerschaft) und Seamless Protocol (aktives Risikomonitoring). Das Vault-Kurations-Framework umfasst die Marktanalyse zur Überwachung neuer Renditechancen, die Risikobewertung zur Bewertung von Liquiditäts- und Smart-Contract-Risiken, das Strategiedesign zur Schaffung optimaler Allokationen, die automatisierte Ausführung an MetaMorpho Vaults und die kontinuierliche Optimierung durch Echtzeit-Rebalancing. Leistungsmetriken demonstrieren die Update-Frequenz der Plattform (sechsmal täglich), das Datenvolumen (über 400 Millionen Punkte über 12+ Blockchains hinweg) und die methodische Raffinesse (Value-at-Risk, der breite Marktabschwünge erfasst, gebrochene Korrelationsrisiken wie LST-Divergenz und Stablecoin-Depegs sowie die Quantifizierung von Tail-Risiken).

Autonome Trading-Bots zeigen gemischte, aber sich verbessernde Ergebnisse. Gunbot-Benutzer berichten, dass sie am 26. Februar mit 496 USDbegannenundauf1.358USD begannen und auf 1.358 USD (+174 %) anstiegen, indem sie auf 20 Paaren auf dYdX mit selbst gehosteter Ausführung liefen, wodurch das Drittanbieter-Risiko eliminiert wurde. Cryptohopper-Benutzer erzielten in volatilen Märkten jährliche Renditen von 35 % durch 24/7 Cloud-basiertes automatisiertes Trading mit KI-gesteuerter Strategieoptimierung und Social-Trading-Funktionen. Die Gesamtstatistiken zeigen jedoch, dass 75-89 % der Bot-Kunden Gelder verlieren und nur 11-25 % Gewinne erzielen, was Risiken durch Überoptimierung (Anpassung an historische Daten), Marktvolatilität und Black-Swan-Ereignisse, technische Störungen (API-Fehler, Verbindungsprobleme) und unsachgemäße Benutzerkonfiguration hervorhebt. Große Ausfälle umfassen den Banana Gun Exploit (September 2024, 563 ETH/1,9 Millionen VerlustdurchOrakelSchwachstelle),denGenesisGla¨ubigerSocialEngineeringAngriff(August2024,243MillionenVerlust durch Orakel-Schwachstelle), den Genesis-Gläubiger-Social-Engineering-Angriff (August 2024, 243 Millionen Verlust) und den Dogwifhat Slippage-Vorfall (Januar 2024, 5,7 Millionen $ Verlust in dünnen Orderbüchern).

Fetch.ai ermöglicht autonome Wirtschaftsagenten mit über 30.000 aktiven Agenten im Jahr 2024, die das uAgents Framework verwenden. Anwendungen umfassen die Automatisierung von Transportbuchungen, intelligenten Energiehandel (Kauf von Strom außerhalb der Spitzenzeiten, Weiterverkauf von Überschuss), Lieferkettenoptimierung durch agentenbasierte Verhandlungen und Partnerschaften mit Bosch (Web3-Mobilitätsanwendungsfälle) und Yoti (Identitätsverifizierung für Agenten). Die Plattform sammelte 2023 40 Millionen einundpositioniertesichimautonomenKIMarkt,derbis2030voraussichtlich70,53Milliardenein und positionierte sich im autonomen KI-Markt, der bis 2030 voraussichtlich 70,53 Milliarden erreichen wird (42,8 % CAGR). Für 2023 angekündigte DeFi-Anwendungen umfassen agentenbasierte Trading-Tools für DEXs, die Liquiditätspools zugunsten von agentenbasiertem Matchmaking eliminieren und direkten Peer-to-Peer-Handel ermöglichen, wodurch Honeypot- und Rugpull-Risiken entfallen.

DAO-Implementierungen mit KI-Komponenten demonstrieren die Governance-Evolution. Die KI-DAO betreibt Nexus EVM-basiertes DAO-Management auf der XRP EVM Sidechain mit KI-Erkennung von Abstimmungsunregelmäßigkeiten, um faire Entscheidungsfindung zu gewährleisten, Governance-Unterstützung, bei der KI bei Entscheidungen hilft, während Menschen die Aufsicht behalten, und ein KI-Agenten-Launchpad mit dezentralen MCP-Node-Netzwerken, die es Agenten ermöglichen, Wallets zu verwalten und über Axelar-Blockchains hinweg Transaktionen durchzuführen. Aragons Framework sieht eine sechsstufige KI x DAO-Integration vor: KI-Bots und -Assistenten (aktuell), KI am Rande, die über Vorschläge abstimmt (kurzfristig), KI im Zentrum, die das Treasury verwaltet (mittelfristig), KI-Konnektoren, die Schwarmintelligenz zwischen DAOs schaffen (mittelfristig), DAOs, die KI als öffentliches Gut regieren (langfristig), und KI, die zur DAO mit On-Chain-Treasury-Besitz wird (Zukunft). Die technische Implementierung verwendet das modulare Plugin-System Aragon OSx mit Berechtigungsmanagement, das es KI ermöglicht, unter Dollar-Schwellenwerten zu handeln, während Abstimmungen darüber ausgelöst werden, und die Möglichkeit, KI-Handelsstrategien durch Widerruf/Erteilung von Plugin-Berechtigungen zu wechseln.

Marktdaten bestätigen schnelle Akzeptanz und Skalierung. Der DeFAI-Markt erreichte im Januar 2025 eine Marktkapitalisierung von ~1 Milliarde ,wobeidieKIAgentenMa¨rktebei17Milliarden, wobei die KI-Agenten-Märkte bei 17 Milliarden ihren Höhepunkt erreichten. DeFi Total Value Locked liegt bei 52 Milliarden (institutionellesTVL:42Milliarden(institutionelles TVL: 42 Milliarden), während MetaMask 30 Millionen Benutzer mit 21 Millionen monatlich aktiven Benutzern bedient. Die Blockchain-Ausgaben erreichten 2024 19 Milliarden mitPrognosenvon1.076Milliardenmit Prognosen von 1.076 Milliarden bis 2026. Der globale DeFi-Markt von 20,48-32,36 Milliarden (20242025)prognostizierteinWachstumauf231441Milliarden(2024-2025) prognostiziert ein Wachstum auf 231-441 Milliarden bis 2030 und 1.558 Milliarden $ bis 2034, was einer CAGR von 40-54 % entspricht. Plattformspezifische Metriken umfassen Virtuals Protocol mit über 17.000 gestarteten KI-Agenten, Fetch.ai Burrito-Integration mit über 400.000 Benutzern und autonome Trading-Bots wie SMARD, die Bitcoin um >200 % und Ethereum um >300 % in der Rentabilität seit Anfang 2022 übertreffen.

Lehren aus Erfolgen und Misserfolgen klären, was funktioniert. Erfolgreiche Implementierungen weisen gemeinsame Muster auf: spezialisierte Agenten übertreffen Generalisten (Griffains Multi-Agenten-Kollaboration ist zuverlässiger als eine einzelne KI), Mensch-in-der-Schleife-Aufsicht erweist sich als entscheidend für unerwartete Ereignisse, Self-Custody-Designs eliminieren das Gegenparteirisiko, umfassendes Backtesting über mehrere Marktregime hinweg verhindert Überoptimierung und robustes Risikomanagement mit Positionsgrößenregeln und Stop-Loss-Mechanismen verhindert katastrophale Verluste. Misserfolge zeigen, dass Black-Box-KI ohne Transparenz kein Vertrauen aufbaut, reine Autonomie derzeit die Marktkomplexität und Black-Swan-Ereignisse nicht bewältigen kann, das Ignorieren von Sicherheit zu Exploits führt und unrealistische Versprechen von „garantierten Renditen“ auf betrügerische Schemata hindeuten. Die Technologie funktioniert am besten als Mensch-KI-Symbiose, bei der KI Geschwindigkeit und Ausführung übernimmt, während Menschen Strategie und Urteilsvermögen liefern.

Das breitere Ökosystem: Akteure, Wettbewerb und Herausforderungen

Das Ökosystem des autonomen Kapitals hat sich schnell über die fünf vorgestellten Vordenker hinaus erweitert und umfasst große Plattformen, institutionelle Akteure, konkurrierende philosophische Ansätze und anspruchsvolle regulatorische Herausforderungen. Virtuals Protocol und ai16z repräsentieren die philosophische Kluft „Kathedrale vs. Basar“. Virtuals (1,8 Milliarden Marktkapitalisierung)verfolgteinenzentralisierten,methodischenAnsatzmitstrukturierterGovernanceundqualita¨tskontrolliertenprofessionellenMarktpla¨tzen,mitbegru¨ndetvonEtherMageundunterVerwendungvonImmutableContributionVaultsfu¨rtransparenteAttribution.ai16z(2,3MilliardenMarktkapitalisierung) verfolgt einen zentralisierten, methodischen Ansatz mit strukturierter Governance und qualitätskontrollierten professionellen Marktplätzen, mitbegründet von EtherMage und unter Verwendung von Immutable Contribution Vaults für transparente Attribution. ai16z (2,3 Milliarden Marktkapitalisierung) setzt auf dezentrale, kollaborative Entwicklung durch das Open-Source ELIZA-Framework, das schnelle Experimente ermöglicht, angeführt von Shaw (selbst beigebrachter Programmierer), der eine dedizierte Blockchain für KI-Agenten mit Vertrauensmarktplätzen für Rechenschaftspflicht aufbaut. Diese philosophische Spannung – Präzision versus Innovation, Kontrolle versus Experimentieren – spiegelt historische Debatten in der Softwareentwicklung wider und wird wahrscheinlich bestehen bleiben, wenn das Ökosystem reift.

Wichtige Protokolle und Infrastrukturanbieter umfassen SingularityNET, das dezentrale KI-Marktplätze betreibt, die es Entwicklern ermöglichen, KI-Modelle mit Crowdsourcing-Investitionsentscheidungen zu monetarisieren (Numerai Hedgefonds-Modell), Fetch.ai, das autonome Agenten für Transport- und Dienstleistungsoptimierung einsetzt, mit einem 10-Millionen-$-Accelerator für KI-Agenten-Startups, Autonolas, das Off-Chain-KI-Agenten mit On-Chain-Protokollen verbindet und erlaubnisfreie Anwendungsmarktplätze schafft, ChainGPT, das eine KI Virtual Machine (AIVM) für Web3 mit automatisiertem Liquiditätsmanagement und Handelsausführung entwickelt, und Warden Protocol, das eine Layer-1-Blockchain für KI-integrierte Anwendungen aufbaut, bei der Smart Contracts auf KI-Modellausgaben On-Chain zugreifen und diese verifizieren, mit Partnerschaften wie Messari, Venice und Hyperlane.

Die institutionelle Akzeptanz beschleunigt sich trotz Vorsicht. Galaxy Digital wechselt vom Krypto-Mining zur KI-Infrastruktur mit einem 175-Millionen-VentureFondsundeinemerwartetenUmsatzvon4,5Milliarden-Venture-Fonds und einem erwarteten Umsatz von 4,5 Milliarden aus einem 15-jährigen CoreWeave-Deal, der 200 MW Rechenzentrumskapazität bereitstellt. Große Finanzinstitute experimentieren mit agentischer KI: JPMorgan Chases LAW (Legal Agentic Workflows) erreicht eine Genauigkeit von 92,9 %, BNY implementiert autonomes Coding und Zahlungsvalidierung, während Mastercard, PayPal und Visa agentische Handelsinitiativen verfolgen. Forschungs- und Analysefirmen wie Messari, CB Insights (verfolgt über 1.400 Technologiemärkte), Deloitte, McKinsey und S&P Global Ratings liefern kritische Ökosystem-Intelligenz zu autonomen Agenten, der KI-Krypto-Schnittstelle, der Unternehmensakzeptanz und der Risikobewertung.

Konkurrierende Visionen manifestieren sich über mehrere Dimensionen hinweg. Geschäftsmodellvarianten umfassen Token-basierte DAOs mit transparenter Community-Abstimmung (MakerDAO, MolochDAO), die Herausforderungen durch Token-Konzentration gegenüberstehen, bei der weniger als 1 % der Inhaber 90 % der Stimmrechte kontrollieren, Equity-basierte DAOs, die Unternehmensstrukturen mit Blockchain-Transparenz ähneln, und Hybridmodelle, die Token-Liquidität mit Eigentumsanteilen kombinieren, um Community-Engagement und Anlegerrenditen auszugleichen. Ansätze zur Einhaltung gesetzlicher Vorschriften reichen von proaktiver Compliance, die im Voraus Klarheit sucht, über Regulierungsarbitrage, die in Jurisdiktionen mit geringerer Regulierung operiert, bis hin zu Abwarten-und-Sehen-Strategien, die zuerst bauen und die Regulierung später angehen. Diese strategischen Entscheidungen schaffen Fragmentierung und Wettbewerbsdynamik, da Projekte für unterschiedliche Beschränkungen optimieren.

Die Regulierungslandschaft wird zunehmend komplex und einschränkend. Entwicklungen in den Vereinigten Staaten umfassen die SEC Krypto-Taskforce unter der Leitung von Kommissarin Hester Pierce, KI- und Krypto-Regulierung als Prüfungspriorität 2025, die Arbeitsgruppe des Präsidenten für digitale Assets (60-Tage-Überprüfung, 180-Tage-Empfehlungen), die Ernennung von David Sacks zum Sonderberater für KI und Krypto und die Aufhebung von SAB 121, die die Verwahrungsanforderungen für Banken erleichtert. Wichtige SEC-Bedenken umfassen die Wertpapierklassifizierung unter dem Howey-Test, die Anwendbarkeit des Investment Advisers Act auf KI-Agenten, Verwahrung und Treuhandpflicht sowie AML/KYC-Anforderungen. Die amtierende CFTC-Vorsitzende Pham unterstützt verantwortungsvolle Innovation, während sie sich auf Rohstoffmärkte und Derivate konzentriert. Staatliche Vorschriften zeigen Innovation, wobei Wyoming als erster DAOs als juristische Personen anerkennt (Juli 2021) und New Hampshire DAO-Gesetzgebung erwägt, während New York DFS im Oktober 2024 Cybersicherheitsrichtlinien für KI-Risiken herausgab.

Die MiCA-Verordnung der Europäischen Union schafft einen umfassenden Rahmen mit folgendem Umsetzungszeitplan: Juni 2023 Inkrafttreten, 30. Juni 2024 Anwendung der Stablecoin-Bestimmungen, 30. Dezember 2024 vollständige Anwendung für Krypto-Asset-Dienstleister mit einer 18-monatigen Übergangsfrist für bestehende Anbieter. Wichtige Anforderungen umfassen obligatorische Whitepapers für Token-Emittenten, Kapitaladäquanz- und Governance-Strukturen, AML/KYC-Compliance, Verwahrungs- und Reserveanforderungen für Stablecoins, Travel Rule Transaktionsverfolgbarkeit und Passporting-Rechte in der gesamten EU für lizenzierte Anbieter. Aktuelle Herausforderungen umfassen die Forderung Frankreichs, Österreichs und Italiens nach stärkerer Durchsetzung (September 2025), ungleichmäßige Umsetzung in den Mitgliedstaaten, Bedenken hinsichtlich Regulierungsarbitrage, Überschneidungen mit PSD2/PSD3-Zahlungsverordnungen und Beschränkungen für nicht MiCA-konforme Stablecoins. DORA (Digital Operational Resilience Act), anwendbar ab dem 17. Januar 2025, fügt umfassende Rahmenwerke für die operationelle Resilienz und obligatorische Cybersicherheitsmaßnahmen hinzu.

Die Marktdynamik zeigt sowohl Euphorie als auch Vorsicht. Die Venture-Capital-Aktivität 2024 verzeichnete in den ersten drei Quartalen 8 Milliarden InvestitioneninKrypto(gleichbleibendgegenu¨ber2023),wobeidasdritteQuartal20242,4MilliardenInvestitionen in Krypto (gleichbleibend gegenüber 2023), wobei das dritte Quartal 2024 2,4 Milliarden in 478 Deals zeigte (-20 % QoQ), aber KI x Krypto-Projekte im dritten Quartal 270 Millionen erhielten(5facherAnstieggegenu¨berdemzweitenQuartal).AutonomeKIAgentenimSeedStadiumzogen20242025700Millionenerhielten (5-facher Anstieg gegenüber dem zweiten Quartal). Autonome KI-Agenten im Seed-Stadium zogen 2024-2025 700 Millionen an, wobei die medianen Pre-Money-Bewertungen Rekordwerte von 25 Millionen erreichtenunddiedurchschnittlichenDealGro¨ßen3,5Millionenerreichten und die durchschnittlichen Deal-Größen 3,5 Millionen betrugen. Im ersten Quartal 2025 wurden 80,1 Milliarden aufgebracht(28 aufgebracht (28 % QoQ-Anstieg, angetrieben durch einen 40-Milliarden--OpenAI-Deal), wobei KI 74 % der IT-Sektor-Investitionen ausmachte, trotz sinkender Deal-Volumina. Die geografische Verteilung zeigt die USA dominierend mit 56 % des Kapitals und 44 % der Deals, Asien-Wachstum in Japan (+2 %), Indien (+1 %), Südkorea (+1 %) und China rückläufig um -33 % YoY.

Bewertungen zeigen Diskrepanzen zu Fundamentaldaten. Top-KI-Agenten-Token, darunter Virtuals Protocol (plus 35.000 % YoY auf 1,8 Milliarden ),ai16z(plus176), ai16z (plus 176 % in einer Woche auf 2,3 Milliarden ), AIXBT (~500 Millionen )undBinanceFuturesListingsfu¨rZerebroundGriffain,demonstrierenspekulativeEuphorie.HoheVolatilita¨tmitFlashCrashes,dieineinzelnenWochen500Millionen) und Binance Futures-Listings für Zerebro und Griffain, demonstrieren spekulative Euphorie. Hohe Volatilität mit Flash-Crashes, die in einzelnen Wochen 500 Millionen an gehebelten Positionen vernichten, schnelle Token-Starts über Plattformen wie pump.fun und „KI-Agenten-Memecoins“ als eigenständige Kategorie deuten auf Blasenmerkmale hin. Traditionelle VC-Bedenken konzentrieren sich auf den Krypto-Handel bei ~250x Kurs-Umsatz-Verhältnis gegenüber Nasdaq 6,25x und S&P 3,36x, institutionelle Allokatoren bleiben nach den Zusammenbrüchen von 2022 vorsichtig, und eine „Umsatz-Meta“ entsteht, die bewährte Geschäftsmodelle erfordert.

Kritikpunkte konzentrieren sich auf fünf Hauptbereiche. Technische und Sicherheitsbedenken umfassen Schwachstellen in der Wallet-Infrastruktur, wobei die meisten DeFi-Plattformen manuelle Genehmigungen erfordern, was katastrophale Risiken birgt, algorithmische Ausfälle wie die Terra/Luna 2-Milliarden-$-Liquidation, unendliche Feedback-Schleifen zwischen Agenten, kaskadierende Multi-Agenten-Systemausfälle, Datenqualität und Bias-Probleme, die Diskriminierung aufrechterhalten, und Manipulationsschwachstellen durch vergiftete Trainingsdaten. Governance- und Rechenschaftspflichtprobleme manifestieren sich durch Token-Konzentration, die die Dezentralisierung untergräbt (weniger als 1 % kontrollieren 90 % der Stimmrechte), inaktive Aktionäre, die die Funktionalität stören, Anfälligkeit für feindliche Übernahmen (Build Finance DAO 2022 geleert), Rechenschaftspflichtlücken bezüglich der Haftung für Agentenschäden, Erklärbarkeitsprobleme und „betrügerische Agenten“, die Programmierlücken ausnutzen.

Markt- und Wirtschaftskritik konzentriert sich auf die Bewertungsdiskrepanz mit Kryptos 250x P/S gegenüber traditionellen 6-7x, Blasenbedenken, die ICO-Boom/Bust-Zyklen ähneln, viele Agenten als „verherrlichte Chatbots“, spekulationsgetriebene statt nutzungsgetriebene Akzeptanz, begrenzten praktischen Nutzen, wobei die meisten Agenten derzeit einfache Twitter-Influencer sind, schlechte Cross-Chain-Interoperabilität und fragmentierte agentische Frameworks, die die Akzeptanz behindern. Systemische und gesellschaftliche Risiken umfassen die Big Tech-Konzentration mit starker Abhängigkeit von Microsoft/OpenAI/Cloud-Diensten (CrowdStrike-Ausfall im Juli 2024 verdeutlichte Interdependenzen), 63 % der KI-Modelle nutzen öffentliche Cloud für das Training, was den Wettbewerb reduziert, erheblichen Energieverbrauch für das Modelltraining, 92 Millionen Arbeitsplätze, die bis 2030 verdrängt werden, obwohl 170 Millionen neue Arbeitsplätze prognostiziert werden, und Finanzkriminalitätsrisiken durch AML/KYC-Herausforderungen, wobei autonome Agenten automatisierte Geldwäsche ermöglichen.

Das „Gen AI Paradoxon“ erfasst die Bereitstellungsprobleme: 79 % Unternehmensakzeptanz, aber 78 % berichten über keine signifikanten Auswirkungen auf das Endergebnis. Das MIT berichtet, dass 95 % der KI-Piloten aufgrund schlechter Datenaufbereitung und fehlender Feedback-Schleifen scheitern. Die Integration mit Altsystemen wird von 60 % der Organisationen als größte Herausforderung eingestuft, was von Anfang an Sicherheits-Frameworks, Change Management und KI-Kompetenzschulungen sowie kulturelle Veränderungen von menschenzentrierten zu KI-kollaborativen Modellen erfordert. Diese praktischen Barrieren erklären, warum die institutionelle Begeisterung nicht zu entsprechenden finanziellen Renditen geführt hat, was darauf hindeutet, dass sich das Ökosystem trotz schnellen Marktkapitalisierungswachstums noch in experimentellen Frühphasen befindet.

Praktische Implikationen für Finanzen, Investitionen und Unternehmen

Autonomes Kapital transformiert das traditionelle Finanzwesen durch sofortige Produktivitätssteigerungen und strategische Neupositionierung. Finanzdienstleistungen sehen KI-Agenten, die Trades 126 % schneller ausführen, mit Echtzeit-Portfoliooptimierung, Betrugserkennung durch Echtzeit-Anomalieerkennung und proaktive Risikobewertung, 68 % der Kundeninteraktionen werden voraussichtlich bis 2028 von KI abgewickelt, Kreditbewertung mittels kontinuierlicher Evaluierung mit Echtzeit-Transaktionsdaten und Verhaltensmustern sowie Compliance-Automatisierung, die dynamische Risikobewertungen und regulatorisches Reporting durchführt. Transformationsmetriken zeigen, dass 70 % der Führungskräfte im Finanzdienstleistungsbereich agentische KI für personalisierte Erlebnisse erwarten, Umsatzsteigerungen von 3-15 % für KI-Implementierer, einen 10-20 %igen Anstieg des Vertriebs-ROI, 90 % effizientere Workflows beobachten und 38 % der Mitarbeiter von erleichterter Kreativität berichten.

Venture Capital durchläuft eine Thesenentwicklung von reinen Infrastruktur-Plays zu anwendungsspezifischer Infrastruktur, wobei der Fokus auf Nachfrage, Distribution und Umsatz statt auf Pre-Launch-Token liegt. Große Chancen ergeben sich bei Stablecoins nach regulatorischer Klarheit, Energie x DePIN, die die KI-Infrastruktur speist, und GPU-Marktplätzen für Rechenressourcen. Die Due-Diligence-Anforderungen erweitern sich dramatisch: Bewertung der technischen Architektur (Level 1-5 Autonomie), Governance- und Ethik-Frameworks, Sicherheitslage und Audit-Trails, Roadmap zur Einhaltung gesetzlicher Vorschriften, Token-Ökonomie und Distributionsanalyse sowie die Fähigkeit des Teams, regulatorische Unsicherheit zu bewältigen. Risikofaktoren umfassen das Scheitern von 95 % der KI-Piloten (MIT-Bericht), schlechte Datenaufbereitung und fehlende Feedback-Schleifen als Hauptursachen, Anbieterabhängigkeit für Firmen ohne internes Fachwissen und Bewertungs-Multiples, die von Fundamentaldaten abgekoppelt sind.

Geschäftsmodelle vervielfachen sich, da autonomes Kapital Innovationen ermöglicht, die zuvor unmöglich waren. Autonome Anlagevehikel bündeln Kapital über DAOs für algorithmische Bereitstellung mit Gewinnbeteiligung proportional zu den Beiträgen (ai16z Hedgefonds-Modell). AI-as-a-Service (AIaaS) verkauft tokenisierte Agentenfähigkeiten als Dienste mit Inferenzgebühren für Chat-Interaktionen und Bruchteilseigentum an hochwertigen Agenten. Datenmonetarisierung schafft dezentrale Datenmarktplätze mit Tokenisierung, die sicheres Teilen unter Verwendung datenschutzfreundlicher Techniken wie Zero-Knowledge-Proofs ermöglicht. Automatisiertes Market Making bietet Liquiditätsbereitstellung und -optimierung mit dynamischen Zinssätzen basierend auf Angebot/Nachfrage und Cross-Chain-Arbitrage. Compliance-as-a-Service bietet automatisierte AML/KYC-Prüfungen, Echtzeit-Regulierungsreporting und Smart-Contract-Auditing.

Geschäftsmodellrisiken umfassen Unsicherheit bei der regulatorischen Klassifizierung, Haftung für Verbraucherschutz, Plattformabhängigkeiten, Netzwerkeffekte, die First Mover begünstigen, und Token-Geschwindigkeitsprobleme. Doch erfolgreiche Implementierungen demonstrieren die Machbarkeit: Gauntlet verwaltet über 1 Milliarde $ TVL durch simulationsgesteuertes Risikomanagement, SingularityDAO liefert 25 % ROI durch KI-verwaltete Portfolios und Virtuals Protocol startet über 17.000 Agenten mit umsatzgenerierenden Unterhaltungs- und Analyseprodukten.

Traditionelle Industrien durchlaufen Automatisierung in allen Sektoren. Das Gesundheitswesen setzt KI-Agenten für Diagnostik (FDA genehmigte 2023 223 KI-fähige Medizinprodukte, gegenüber 6 im Jahr 2015), Patientenbehandlungsoptimierung und administrative Automatisierung ein. Im Transportwesen führt Waymo wöchentlich über 150.000 autonome Fahrten durch und Baidu Apollo Go bedient mehrere chinesische Städte mit autonomen Fahrsystemen, die sich YoY um 67,3 % verbessern. Lieferkette und Logistik profitieren von Echtzeit-Routenoptimierung, Automatisierung der Bestandsverwaltung und Lieferantenkoordination. Rechts- und professionelle Dienstleistungen übernehmen Dokumentenverarbeitung und Vertragsanalyse, Überwachung der Einhaltung gesetzlicher Vorschriften und Due-Diligence-Automatisierung.

Die Arbeitskräftetransformation schafft Verdrängung neben Chancen. Während bis 2030 92 Millionen Arbeitsplätze verdrängt werden, werden voraussichtlich 170 Millionen neue Arbeitsplätze geschaffen, die andere Fähigkeiten erfordern. Die Herausforderung liegt im Übergang – Umschulungsprogramme, soziale Sicherungssysteme und Bildungsreformen müssen beschleunigt werden, um Massenarbeitslosigkeit und soziale Unruhen zu verhindern. Frühe Anzeichen zeigen, dass die US-KI-Arbeitsplätze im ersten Quartal 2025 35.445 Positionen erreichten (+25,2 % YoY) mit medianen Gehältern von 156.998 $ und die Erwähnungen von KI-Stellenangeboten um 114,8 % (2023) und dann 120,6 % (2024) zunahmen. Dieses Wachstum konzentriert sich jedoch auf technische Rollen, was Fragen zur breiteren wirtschaftlichen Inklusion unbeantwortet lässt.

Risiken erfordern umfassende Minderungsstrategien in fünf Kategorien. Technische Risiken (Smart-Contract-Schwachstellen, Orakel-Ausfälle, kaskadierende Fehler) erfordern kontinuierliche Red-Team-Tests, formale Verifizierung, Leistungsschalter, Versicherungsprotokolle wie Nexus Mutual und eine schrittweise Einführung mit anfänglich begrenzter Autonomie. Regulatorische Risiken (unklarer Rechtsstatus, rückwirkende Durchsetzung, Jurisdiktionskonflikte) erfordern proaktives Engagement der Regulierungsbehörden, klare Offenlegung und Whitepapers, robuste KYC/AML-Frameworks, Rechtsformplanung (Wyoming DAO LLC) und geografische Diversifizierung. Operationelle Risiken (Datenvergiftung, Modell-Drift, Integrationsfehler) erfordern Mensch-in-der-Schleife-Aufsicht für kritische Entscheidungen, kontinuierliche Überwachung und Umschulung, phasenweise Integration, Fallback-Systeme und Redundanz sowie umfassende Agentenregister, die Eigentum und Exposition verfolgen.

Marktrisiken (Blasendynamik, Liquiditätskrisen, Token-Konzentration, Bewertungskollaps) erfordern den Fokus auf grundlegende Wertschöpfung versus Spekulation, diversifizierte Token-Verteilung, Sperrfristen und Vesting-Zeitpläne, Best Practices für das Treasury Management und transparente Kommunikation über Einschränkungen. Systemische Risiken (Big Tech-Konzentration, Netzwerkausfälle, Finanzkontagion) erfordern Multi-Cloud-Strategien, dezentrale Infrastruktur (Edge AI, lokale Modelle), Stresstests und Szenarioplanung, regulatorische Koordination über Jurisdiktionen hinweg und Industriekonsortien für die Standardentwicklung.

Adoptionszeitpläne deuten auf gemessenen Optimismus für kurzfristiges, transformatives Potenzial für langfristiges hin. Kurzfristig (2025-2027) sind Level 1-2 Autonomie mit regelbasierter Automatisierung und Workflow-Optimierung unter Beibehaltung menschlicher Aufsicht zu erwarten, 25 % der Unternehmen, die generative KI nutzen, starten 2025 agentische Piloten (Deloitte), die bis 2027 auf 50 % ansteigen, der Markt für autonome KI-Agenten erreicht 6,8 Milliarden (2024)undexpandiertbis2027aufu¨ber20Milliarden(2024) und expandiert bis 2027 auf über 20 Milliarden, und 15 % der Arbeitsentscheidungen werden bis 2028 autonom getroffen (Gartner). Adoptionsbarrieren umfassen unklare Anwendungsfälle und ROI (60 % nennen dies), Herausforderungen bei der Integration von Altsystemen, Risiko- und Compliance-Bedenken sowie Talentmangel.

Mittelfristig (2028-2030) bringt Level 3-4 Autonomie mit Agenten, die in engen Domänen ohne kontinuierliche Aufsicht operieren, Multi-Agenten-Kollaborationssysteme, Echtzeit-adaptive Entscheidungsfindung und wachsendes Vertrauen in Agentenempfehlungen. Marktprognosen zeigen, dass generative KI jährlich 2,6-4,4 Billionen zumglobalenBIPbeitragenwird,derMarktfu¨rautonomeAgentenbis203052,6Milliardenzum globalen BIP beitragen wird, der Markt für autonome Agenten bis 2030 52,6 Milliarden erreichen wird (45 % CAGR), 3 Stunden pro Tag an Aktivitäten automatisiert werden (gegenüber 1 Stunde im Jahr 2024) und 68 % der Kunden-Anbieter-Interaktionen von KI abgewickelt werden. Infrastrukturentwicklungen umfassen agentenspezifische Blockchains (ai16z), Cross-Chain-Interoperabilitätsstandards, vereinheitlichte Keystore-Protokolle für Berechtigungen und eine programmierbare Wallet-Infrastruktur im Mainstream.

Langfristig (2030+) sieht Level 5 Autonomie mit vollständig autonomen Agenten und minimaler menschlicher Intervention vor, selbstverbessernde Systeme, die AGI-Fähigkeiten erreichen, Agenten, die andere Agenten und Menschen einstellen, und autonome Kapitalallokation in großem Maßstab. Systemische Transformationen sehen KI-Agenten als Mitarbeiter statt als Werkzeuge, eine tokenisierte Wirtschaft mit Agent-zu-Agent-Transaktionen, ein dezentrales „Hollywood-Modell“ für Projektkoordination und 170 Millionen neue Arbeitsplätze, die neue Fähigkeiten erfordern. Wichtige Unsicherheiten bleiben: die Reife des regulatorischen Rahmens, öffentliches Vertrauen und Akzeptanz, technische Durchbrüche oder Einschränkungen in der KI, das Management wirtschaftlicher Störungen sowie ethische Ausrichtung und Kontrollprobleme.

Kritische Erfolgsfaktoren für die Ökosystementwicklung umfassen regulatorische Klarheit, die Innovation ermöglicht und gleichzeitig Verbraucher schützt, Interoperabilitätsstandards für Cross-Chain- und Cross-Plattform-Kommunikation, Sicherheitsinfrastruktur als Basis mit robusten Tests und Audits, Talententwicklung durch KI-Kompetenzprogramme und Unterstützung beim Arbeitsplatzübergang sowie nachhaltige Ökonomie, die Wert jenseits von Spekulation schafft. Einzelne Projekte erfordern echten Nutzen, der echte Probleme löst, starke Governance mit ausgewogener Stakeholder-Vertretung, technische Exzellenz mit Security-First-Design, Regulierungsstrategie mit proaktiver Compliance und Community-Ausrichtung durch transparente Kommunikation und geteilten Wert. Institutionelle Akzeptanz erfordert den Nachweis des ROI über Effizienzgewinne hinaus, umfassende Risikomanagement-Frameworks, Change Management mit kultureller Transformation und Training, eine Anbieterstrategie, die Build versus Buy ausbalanciert und Lock-in vermeidet, sowie ethische Richtlinien für autonome Entscheidungsbefugnis.

Das Ökosystem des autonomen Kapitals stellt eine echte technologische und finanzielle Innovation mit transformativem Potenzial dar, steht jedoch vor erheblichen Herausforderungen in Bezug auf Sicherheit, Governance, Regulierung und praktischen Nutzen. Der Markt erlebt ein schnelles Wachstum, das gleichermaßen von Spekulation und legitimer Entwicklung angetrieben wird, was von allen Teilnehmern ein ausgeklügeltes Verständnis, sorgfältige Navigation und realistische Erwartungen erfordert, während dieses aufstrebende Feld zur Mainstream-Akzeptanz reift.

Fazit: Die Entwicklung des autonomen Kapitals

Die Revolution des autonomen Kapitals ist weder eine unvermeidliche Utopie noch eine dystopische Gewissheit, sondern ein aufstrebendes Feld, in dem echte technologische Innovation auf erhebliche Risiken trifft, was ein nuanciertes Verständnis von Fähigkeiten, Einschränkungen und Governance-Herausforderungen erfordert. Die hier vorgestellten fünf wichtigen Vordenker – Tarun Chitra, Amjad Masad, Jordi Alexander, Alexander Pack und Irene Wu – demonstrieren unterschiedliche, aber komplementäre Ansätze zum Aufbau dieser Zukunft: Chitras automatisierte Governance durch Simulation und Risikomanagement, Masads agentengesteuerte Netzwerkökonomien und Entwicklungsinfrastruktur, Alexanders spieltheorieinformierte Investmentthese, die menschliches Urteilsvermögen betont, Packs infrastrukturfokussierte Venture-Capital-Strategie und Wus Omnichain-Interoperabilitätsgrundlagen.

Ihre kollektive Arbeit belegt, dass autonomes Kapital heute technisch machbar ist – demonstriert durch Gauntlet, das über 1 Milliarde $ TVL verwaltet, SingularityDAOs 25 % ROI durch KI-Portfolios, Virtuals Protocols über 17.000 gestartete Agenten und Produktionshandelssysteme, die verifizierte Ergebnisse liefern. Doch das von Forschern identifizierte „Vertrauenslosigkeits-Paradoxon“ bleibt ungelöst: Der Einsatz von KI in vertrauensloser Blockchain-Infrastruktur vermeidet das Vertrauen in fehlbare Menschen, schafft aber potenziell unzuverlässige KI-Systeme, die jenseits von Intervention operieren. Diese grundlegende Spannung zwischen Autonomie und Rechenschaftspflicht wird definieren, ob autonomes Kapital zu einem Werkzeug für menschliches Gedeihen oder zu einer unregierbaren Kraft wird.

Der kurzfristige Ausblick (2025-2027) deutet auf vorsichtiges Experimentieren hin, wobei 25-50 % der generativen KI-Nutzer agentische Piloten starten, Level 1-2 Autonomie menschliche Aufsicht beibehält, der Markt von 6,8 Milliarden aufu¨ber20Milliardenauf über 20 Milliarden wächst, aber anhaltende Adoptionsbarrieren bezüglich unklarer ROI, Legacy-Integrationsherausforderungen und regulatorischer Unsicherheit bestehen bleiben. Mittelfristig (2028-2030) könnten Level 3-4 Autonomie in engen Domänen operieren, Multi-Agenten-Systeme autonom koordinieren und generative KI jährlich 2,6-4,4 Billionen $ zum globalen BIP beitragen, wenn technische und Governance-Herausforderungen erfolgreich gelöst werden. Langfristige (2030+) Visionen von Level 5 Autonomie mit vollständig selbstverbessernden Systemen, die Kapital in großem Maßstab verwalten, bleiben spekulativ und hängen von Durchbrüchen in den KI-Fähigkeiten, regulatorischen Rahmenbedingungen, Sicherheitsinfrastruktur und der Fähigkeit der Gesellschaft ab, Arbeitsplatzübergänge zu managen.

Kritische offene Fragen bestimmen die Ergebnisse: Wird regulatorische Klarheit Innovation ermöglichen oder einschränken? Kann die Sicherheitsinfrastruktur schnell genug reifen, um katastrophale Ausfälle zu verhindern? Werden Dezentralisierungsziele materialisieren oder wird die Big Tech-Konzentration zunehmen? Können nachhaltige Geschäftsmodelle jenseits von Spekulation entstehen? Wie wird die Gesellschaft 92 Millionen verdrängte Arbeitsplätze managen, selbst wenn 170 Millionen neue Positionen entstehen? Diese Fragen haben heute keine definitiven Antworten, was das Ökosystem des autonomen Kapitals gleichzeitig zu einem Bereich mit hohem Risiko und hohen Chancen macht.

Die Perspektiven der fünf Vordenker konvergieren auf Schlüsselprinzipien: Mensch-KI-Symbiose übertrifft reine Autonomie, wobei KI Ausführungsgeschwindigkeit und Datenanalyse übernimmt, während Menschen strategisches Urteilsvermögen und Werteausrichtung liefern; Sicherheit und Risikomanagement erfordern paranoid-rigorose Strenge, da Angreifer grundlegende wirtschaftliche Vorteile gegenüber Verteidigern haben; Interoperabilität und Standardisierung werden bestimmen, welche Plattformen Netzwerkeffekte und langfristige Dominanz erzielen; regulatorisches Engagement muss proaktiv statt reaktiv sein, da sich rechtliche Rahmenbedingungen global entwickeln; und der Fokus auf grundlegende Wertschöpfung statt Spekulation trennt nachhaltige Projekte von Blasenopfern.

Für Teilnehmer im gesamten Ökosystem unterscheiden sich die strategischen Empfehlungen je nach Rolle. Investoren sollten das Engagement über Plattform-, Anwendungs- und Infrastrukturschichten hinweg diversifizieren, sich auf umsatzgenerierende Modelle und regulatorische Haltung konzentrieren, extreme Volatilität einplanen und Positionen entsprechend dimensionieren. Entwickler müssen architektonische Philosophien wählen (Kathedrale versus Basar), stark in Sicherheitsaudits und formale Verifizierung investieren, für Cross-Chain-Interoperabilität bauen, Regulierungsbehörden frühzeitig einbeziehen und tatsächliche Probleme lösen, anstatt „verherrlichte Chatbots“ zu erstellen. Unternehmen sollten mit risikoarmen Piloten im Kundenservice und in der Analyse beginnen, in agentenbereite Infrastruktur und Daten investieren, eine klare Governance für autonome Entscheidungsbefugnis etablieren, die Arbeitskräfte in KI-Kompetenz schulen und Innovation mit Kontrolle ausbalancieren.

Politische Entscheidungsträger stehen vor der vielleicht komplexesten Herausforderung: die Regulierung international zu harmonisieren und gleichzeitig Innovation zu ermöglichen, Sandbox-Ansätze und sichere Häfen für Experimente zu nutzen, Verbraucher durch obligatorische Offenlegungen und Betrugsprävention zu schützen, systemische Risiken durch Big Tech-Konzentration und Netzwerkabhängigkeiten anzugehen und die Arbeitskräfte durch Bildungsprogramme und Übergangsunterstützung für verdrängte Arbeitskräfte vorzubereiten. Die MiCA-Verordnung der EU bietet ein Modell, das Innovation mit Schutz ausbalanciert, obwohl Durchsetzungsprobleme und Bedenken hinsichtlich Regulierungsarbitrage bestehen bleiben.

Die realistischste Einschätzung deutet darauf hin, dass sich autonomes Kapital allmählich und nicht revolutionär über Nacht entwickeln wird, wobei Erfolge in engen Domänen (Handel, Kundenservice, Analysen) der Allzweck-Autonomie vorausgehen, hybride Mensch-KI-Systeme auf absehbare Zeit reine Automatisierung übertreffen und regulatorische Rahmenbedingungen Jahre brauchen werden, um sich zu kristallisieren, was zu anhaltender Unsicherheit führt. Marktausscheidungen und Misserfolge sind angesichts spekulativer Dynamik, technologischer Einschränkungen und Sicherheitslücken unvermeidlich, doch die zugrunde liegenden technologischen Trends – Verbesserungen der KI-Fähigkeiten, Blockchain-Reifung und institutionelle Akzeptanz beider – deuten auf kontinuierliches Wachstum und Raffinesse hin.

Autonomes Kapital stellt einen legitimen technologischen Paradigmenwechsel dar mit dem Potenzial, den Zugang zu ausgeklügelten Finanzinstrumenten zu demokratisieren, die Markteffizienz durch 24/7 autonome Optimierung zu steigern, neue Geschäftsmodelle zu ermöglichen, die im traditionellen Finanzwesen unmöglich sind, und Maschine-zu-Maschine-Ökonomien zu schaffen, die mit übermenschlicher Geschwindigkeit operieren. Doch es birgt auch das Risiko, Macht in den Händen technischer Eliten zu konzentrieren, die kritische Infrastruktur kontrollieren, systemische Instabilitäten durch vernetzte autonome Systeme zu schaffen, menschliche Arbeitskräfte schneller zu verdrängen, als Umschulungsprogramme sich anpassen können, und Finanzkriminalität im Maschinenmaßstab durch automatisierte Geldwäsche und Betrug zu ermöglichen.

Das Ergebnis hängt von den heute getroffenen Entscheidungen der Entwickler, Investoren, politischen Entscheidungsträger und Nutzer ab. Die fünf vorgestellten Vordenker zeigen, dass durchdachte, rigorose Ansätze, die Sicherheit, Transparenz, menschliche Aufsicht und ethische Governance priorisieren, echten Wert schaffen und gleichzeitig Risiken managen können. Ihre Arbeit liefert Blaupausen für verantwortungsvolle Entwicklung: Chitras wissenschaftliche Strenge durch Simulation, Masads benutzerzentrierte Infrastruktur, Alexanders spieltheoretische Risikobewertung, Packs Infrastructure-First-Investitionen und Wus Interoperabilitätsgrundlagen.

Wie Jordi Alexander betonte: „Urteilsvermögen ist die Fähigkeit, komplexe Informationen zu integrieren und optimale Entscheidungen zu treffen – genau hier versagen Maschinen.“ Die Zukunft des autonomen Kapitals wird wahrscheinlich nicht durch volle KI-Autonomie definiert, sondern durch ausgeklügelte Zusammenarbeit, bei der KI Ausführung, Datenverarbeitung und Optimierung übernimmt, während Menschen Urteilsvermögen, Strategie, Ethik und Rechenschaftspflicht liefern. Diese Mensch-KI-Partnerschaft, ermöglicht durch Kryptos vertrauenslose Infrastruktur und programmierbares Geld, stellt den vielversprechendsten Weg nach vorn dar – Innovation mit Verantwortung, Effizienz mit Sicherheit und Autonomie mit Ausrichtung an menschlichen Werten ausbalancierend.

Sui Blockchain: Die Zukunft von KI, Robotik und Quantencomputing gestalten

· 24 Min. Lesezeit
Dora Noda
Software Engineer

Die Sui Blockchain hat sich als die technisch fortschrittlichste Plattform für Rechenlasten der nächsten Generation etabliert und erreicht 297.000 Transaktionen pro Sekunde mit 480 ms Finalität, während sie quantenresistente Kryptographie und eine speziell entwickelte Robotik-Infrastruktur integriert. Unter der Leitung des Chefkryptographen Kostas Chalkias – der über 50 akademische Publikationen vorweisen kann und kryptographische Innovationen im Diem-Projekt von Meta vorangetrieben hat – stellt Sui eine grundlegende architektonische Abkehr von traditionellen Blockchains dar, die speziell darauf ausgelegt ist, autonome KI-Agenten, Multi-Roboter-Koordination und Post-Quanten-Sicherheit zu ermöglichen.

Im Gegensatz zu Wettbewerbern, die Blockchains für fortgeschrittene Berechnungen nachrüsten, wurden Sais objektzentriertes Datenmodell, die Programmiersprache Move und das Mysticeti-Konsensprotokoll von Anfang an für parallele KI-Operationen, Echtzeit-Robotiksteuerung und kryptographische Agilität entwickelt – Fähigkeiten, die durch Live-Implementierungen validiert wurden, darunter über 50 KI-Projekte, Demonstrationen der Multi-Roboter-Zusammenarbeit und der weltweit erste abwärtskompatible quantensichere Upgrade-Pfad für Blockchain-Wallets.

Sais revolutionäre technische Grundlage ermöglicht das Unmögliche

Sais Architektur bricht mit traditionellen kontobasierten Blockchain-Modellen durch drei synergistische Innovationen, die sie einzigartig für KI-, Robotik- und Quantenanwendungen positionieren.

Das Mysticeti-Konsensprotokoll erreicht eine beispiellose Leistung durch eine unzertifizierte DAG-Architektur, die die Konsenslatenz auf 390-650 ms reduziert (80 % schneller als sein Vorgänger) und gleichzeitig einen nachhaltigen Durchsatz von über 200.000 TPS unterstützt. Dies stellt einen grundlegenden Durchbruch dar: Traditionelle Blockchains wie Ethereum benötigen 12-15 Sekunden für die Finalität, während Sais schneller Pfad für Transaktionen mit einem einzigen Eigentümer in nur 250 ms abgeschlossen wird. Die mehreren Leader pro Runde des Protokolls und der implizite Commit-Mechanismus ermöglichen Echtzeit-KI-Entscheidungsschleifen und Robotik-Steuerungssysteme, die ein Feedback im Sub-Sekunden-Bereich erfordern – Anwendungen, die auf sequenziellen Ausführungsketten physisch unmöglich sind.

Das objektzentrierte Datenmodell behandelt jedes Asset als ein unabhängig adressierbares Objekt mit expliziter Eigentümerschaft und Versionierung, was eine statische Abhängigkeitsanalyse vor der Ausführung ermöglicht. Diese architektonische Wahl eliminiert den Overhead der retrospektiven Konflikterkennung, der optimistische Ausführungsmodelle plagt, und ermöglicht es Tausenden von KI-Agenten, gleichzeitig und ohne Konflikte Transaktionen durchzuführen. Objekte umgehen den Konsens vollständig, wenn sie von einzelnen Parteien besessen werden, was 70 % der Verarbeitungszeit für gängige Operationen einspart. Für die Robotik bedeutet dies, dass einzelne Roboter eigene Objekte für Sensordaten verwalten, während sie nur bei Bedarf über gemeinsam genutzte Objekte koordinieren – was die Architekturen autonomer Systeme in der realen Welt präzise widerspiegelt.

Die Programmiersprache Move bietet ressourcenorientierte Sicherheit, die in kontobasierten Sprachen wie Solidity unmöglich ist. Assets existieren als erstklassige Typen, die nicht kopiert oder zerstört werden können – nur zwischen Kontexten verschoben werden – wodurch ganze Klassen von Schwachstellen, einschließlich Reentrancy-Angriffen, Double-Spending und unautorisierter Asset-Manipulation, verhindert werden. Moves lineares Typsystem und die Unterstützung für formale Verifikation machen es besonders geeignet für KI-Agenten, die wertvolle Assets autonom verwalten. Programmierbare Transaktionsblöcke können bis zu 1.024 Funktionsaufrufe atomar zusammensetzen, was komplexe mehrstufige KI-Workflows mit garantierter Konsistenz ermöglicht.

Kostas Chalkias konzipiert Quantenresistenz als Wettbewerbsvorteil

Kostas „Kryptos“ Chalkias bringt unübertroffene kryptographische Expertise in Sais Quantencomputing-Strategie ein, nachdem er den Blockchained Post-Quantum Signature (BPQS)-Algorithmus entwickelt, die Kryptographie für Metas Diem-Blockchain geleitet und über 50 von Fachleuten begutachtete Artikel veröffentlicht hat, die über 1.374 Mal zitiert wurden. Sein Forschungsdurchbruch im Juli 2025 demonstrierte den ersten abwärtskompatiblen quantensicheren Upgrade-Pfad für Blockchain-Wallets, anwendbar auf EdDSA-basierte Ketten wie Sui, Solana, Near und Cosmos.

Chalkias' Vision positioniert Quantenresistenz nicht als ferne Sorge, sondern als unmittelbares Wettbewerbsmerkmal. Er warnte im Januar 2025, dass „Regierungen sich der Risiken des Quantencomputings sehr bewusst sind. Behörden weltweit haben Mandate erlassen, dass klassische Algorithmen wie ECDSA und RSA bis 2030 oder 2035 veraltet sein müssen.“ Seine technische Erkenntnis: Selbst wenn Benutzer private Schlüssel behalten, könnten sie ohne die Offenlegung der Schlüssel gegenüber Quantenangriffen keine Post-Quanten-Eigentumsnachweise generieren. Sais Lösung nutzt Zero-Knowledge-STARK-Proofs, um das Wissen über Schlüsselgenerierungssamen zu beweisen, ohne sensible Daten preiszugeben – eine kryptographische Innovation, die auf Blockchains ohne integrierte Agilität unmöglich ist.

Das Framework für kryptographische Agilität repräsentiert Chalkias' charakteristische Designphilosophie. Sui verwendet 1-Byte-Flags, um Signaturschemata (Ed25519, ECDSA Secp256k1/r1, BLS12-381, Multisig, zkLogin) zu unterscheiden, was die Unterstützung neuer Algorithmen auf Protokollebene ohne Smart-Contract-Overhead oder Hard Forks ermöglicht. Diese Architektur erlaubt „auf Knopfdruck“ Übergänge zu NIST-standardisierten Post-Quanten-Algorithmen, einschließlich CRYSTALS-Dilithium (2.420-Byte-Signaturen) und FALCON (666-Byte-Signaturen), wenn Quantenbedrohungen auftreten. Chalkias konzipierte mehrere Migrationspfade: proaktiv (neue Konten generieren PQ-Schlüssel bei der Erstellung), adaptiv (STARK-Proofs ermöglichen die PQ-Migration von bestehenden Seeds) und hybrid (zeitlich begrenzte Multisig, die klassische und quantenresistente Schlüssel kombiniert).

Seine zkLogin-Innovation demonstriert kryptographische Kreativität, angewandt auf Benutzerfreundlichkeit. Das System ermöglicht es Benutzern, sich über Google-, Facebook- oder Twitch-Anmeldeinformationen unter Verwendung von Groth16 Zero-Knowledge-Proofs über BN254-Kurven zu authentifizieren, wobei ein benutzergesteuertes Salt die Korrelation von Web2-Web3-Identitäten verhindert. zkLogin berücksichtigt Quantenüberlegungen bereits im Design – die STARK-basierten Seed-Knowledge-Proofs bieten Post-Quanten-Sicherheit, selbst wenn zugrunde liegende JWT-Signaturen von RSA zu gitterbasierten Alternativen übergehen.

Auf dem Sui Basecamp 2025 enthüllte Chalkias native verifizierbare Zufälligkeit, zk-Tunnel für Off-Chain-Logik, Blitztransaktionen (Zero-Gas, Zero-Latenz) und Zeitkapseln für den verschlüsselten zukünftigen Datenzugriff. Diese Funktionen ermöglichen private KI-Agenten-Simulationen, Glücksspielanwendungen, die vertrauenswürdige Zufälligkeit erfordern, und Zero-Knowledge-Pokerspiele – all dies wäre ohne kryptographische Primitive auf Protokollebene unmöglich. Seine Vision: „Ein Ziel für Sui war es, die erste Blockchain zu werden, die Post-Quanten-Technologien einführt und dadurch die Sicherheit verbessert und sich auf zukünftige regulatorische Standards vorbereitet.“

KI-Agenten-Infrastruktur erreicht Produktionsreife auf Sui

Sui beherbergt das umfassendste KI-Agenten-Ökosystem der Blockchain-Industrie mit über 50 Projekten, die Infrastruktur, Frameworks und Anwendungen umfassen – alle nutzen Sais parallele Ausführung und Sub-Sekunden-Finalität für autonome Echtzeit-Operationen.

Das Atoma Network wurde im Dezember 2024 auf dem Sui Mainnet als erste vollständig dezentrale KI-Inferenzschicht gestartet und positioniert sich als „dezentraler Hyperscaler für Open-Source-KI“. Die gesamte Verarbeitung erfolgt in Trusted Execution Environments (TEEs), die vollständige Privatsphäre und Zensurresistenz gewährleisten, während die API-Kompatibilität mit OpenAI-Endpunkten erhalten bleibt. Die Chat-Anwendung Utopia demonstriert produktionsreife, datenschutzfreundliche KI mit einer Leistung, die ChatGPT entspricht, und wickelt Zahlungen und Validierungen durch Sais Sub-Sekunden-Finalität ab. Atoma ermöglicht DeFi-Portfoliomanagement, Moderation von Social-Media-Inhalten und persönliche Assistenten-Anwendungen – Anwendungsfälle, die sowohl KI-Intelligenz als auch Blockchain-Abwicklung erfordern und auf langsameren Ketten unmöglich zu realisieren wären.

OpenGraph Labs erzielte einen technischen Durchbruch als erstes vollständig On-Chain-KI-Inferenzsystem, das speziell für KI-Agenten entwickelt wurde. Ihr TensorflowSui SDK automatisiert die Bereitstellung von Web2-ML-Modellen (TensorFlow, PyTorch) auf der Sui Blockchain, speichert Trainingsdaten im dezentralen Walrus-Speicher und führt Inferenzen mithilfe von Programmable Transaction Blocks aus. OpenGraph bietet drei flexible Inferenzansätze: PTB-Inferenz für kritische Berechnungen, die Atomizität erfordern, geteilte Transaktionen zur Kostenoptimierung und hybride Kombinationen, die pro Anwendungsfall angepasst werden. Diese Architektur eliminiert „Black-Box“-KI-Risiken durch vollständig verifizierbare, auditierbare Inferenzprozesse mit klar definierter algorithmischer Eigentümerschaft – entscheidend für regulierte Industrien, die erklärbare KI benötigen.

Das Talus Network wurde im Februar 2025 auf Sui mit dem Nexus-Framework gestartet, das Entwicklern ermöglicht, zusammensetzbare KI-Agenten zu erstellen, die Workflows direkt On-Chain ausführen. Talus' Idol.fun-Plattform demonstriert kundenorientierte KI-Agenten als tokenisierte Entitäten, die 24/7 autonom agieren und Echtzeitentscheidungen treffen, indem sie in Walrus gespeicherte Datensätze für Marktstimmung, DeFi-Statistiken und soziale Trends nutzen. Beispielanwendungen umfassen dynamisches NFT-Profilmanagement, DeFi-Liquiditätsstrategie-Agenten, die Modelle in Echtzeit laden, und Betrugserkennungsagenten, die historische Transaktionsmuster aus unveränderlichen Sui-Checkpoints analysieren.

Die im August 2025 angekündigte Alibaba Cloud-Partnerschaft integrierte KI-Codierungsassistenten in die ChainIDE-Entwicklungsplattform mit mehrsprachiger Unterstützung (Englisch, Chinesisch, Koreanisch). Zu den Funktionen gehören die Generierung von Move-Code aus natürlicher Sprache, intelligente Autovervollständigung, Echtzeit-Erkennung von Sicherheitslücken und automatisierte Dokumentationsgenerierung – was die Hürden für 60 % der nicht-englischsprachigen Entwicklerzielgruppe von Sui senkt. Diese Partnerschaft bestätigt Sais Positionierung als KI-Entwicklungsplattform, nicht nur als KI-Bereitstellungsplattform.

Sais gesponserte Transaktionen eliminieren die Reibung bei Gaszahlungen für KI-Agenten – Entwickler können Transaktionsgebühren übernehmen, sodass Agenten ohne SUI-Token operieren können. Die MIST-Denomination (1 SUI = 1 Milliarde MIST) ermöglicht Mikrozahlungen von Bruchteilen eines Cents, perfekt für Pay-per-Inference-KI-Dienste. Mit durchschnittlichen Transaktionskosten von etwa 0,0023 $ können KI-Agenten täglich Tausende von Operationen für wenige Cents ausführen, was autonome Agentenökonomien wirtschaftlich rentabel macht.

Multi-Roboter-Zusammenarbeit beweist Sais Echtzeit-Koordinationsvorteil

Sui demonstrierte das erste Multi-Roboter-Kollaborationssystem der Blockchain-Industrie unter Verwendung des Mysticeti-Konsenses, validiert durch die umfassende Analyse von Tiger Research aus dem Jahr 2025. Das System ermöglicht es Robotern, einen konsistenten Zustand in verteilten Umgebungen zu teilen, während die Byzantinische Fehlertoleranz aufrechterhalten wird – was den Konsens auch dann sicherstellt, wenn Roboter Fehlfunktionen aufweisen oder von Gegnern kompromittiert werden.

Die technische Architektur nutzt Sais Objektmodell, in dem Roboter als programmierbare Objekte mit Metadaten, Eigentümerschaft und Fähigkeiten existieren. Aufgaben werden spezifischen Roboterobjekten zugewiesen, wobei Smart Contracts die Sequenzierung und Ressourcenallokationsregeln automatisieren. Das System gewährleistet Zuverlässigkeit ohne zentrale Server, wobei parallele Blockvorschläge von mehreren Validatoren einzelne Fehlerquellen verhindern. Die Sub-Sekunden-Transaktionsfinalität ermöglicht Echtzeit-Anpassungsschleifen – Roboter erhalten Aufgabenbestätigungen und Statusaktualisierungen in unter 400 ms, was den Anforderungen von Steuerungssystemen für einen reaktionsschnellen autonomen Betrieb entspricht.

Physische Tests mit hundeähnlichen Robotern haben bereits die Machbarkeit demonstriert, wobei Teams mit Hintergründen bei NASA, Meta und Uber Sui-basierte Robotik-Anwendungen entwickeln. Sais einzigartige „Internetlos-Modus“-Fähigkeit – der Betrieb über Funkwellen ohne stabile Internetverbindung – bietet revolutionäre Vorteile für ländliche Einsätze in Afrika, ländlichen Gebieten Asiens und in Notfallszenarien. Diese Offline-Fähigkeit existiert unter den großen Blockchains ausschließlich auf Sui, validiert durch Tests während Stromausfällen in Spanien/Portugal.

Die im September 2024 angekündigte 3DOS-Partnerschaft bestätigt Sais Fähigkeiten im Bereich der Fertigungsrobotik in großem Maßstab. 3DOS integrierte über 79.909 3D-Drucker in über 120 Ländern als exklusiver Blockchain-Partner von Sui und schuf ein „Uber für den 3D-Druck“-Netzwerk, das Peer-to-Peer-Fertigung ermöglicht. Zu den namhaften Kunden gehören John Deere, Google, MIT, Harvard, Bosch, die British Army, die US Navy, die US Air Force und die NASA – was das Vertrauen auf Unternehmensebene in Sais Infrastruktur demonstriert. Das System ermöglicht es Robotern, Ersatzteile autonom über Smart-Contract-Automatisierung zu bestellen und zu drucken, wodurch die Selbstreparatur von Robotern mit nahezu null menschlichem Eingriff erleichtert wird. Dies adressiert den globalen Fertigungsmarkt von 15,6 Billionen US-Dollar durch On-Demand-Produktion, die Lagerbestände, Abfall und internationalen Versand eliminiert.

Sais Byzantinische Fehlertoleranz erweist sich als entscheidend für sicherheitskritische Robotik-Anwendungen. Der Konsensmechanismus toleriert bis zu f fehlerhafte/bösartige Roboter in einem 3f+1-System und stellt sicher, dass autonome Fahrzeugflotten, Lagerroboter und Fertigungssysteme die Koordination trotz individueller Ausfälle aufrechterhalten. Smart Contracts erzwingen Sicherheitsbeschränkungen und Betriebsgrenzen, wobei unveränderliche Audit-Trails die Rechenschaftspflicht für autonome Entscheidungen gewährleisten – Anforderungen, die mit zentralisierten Koordinationsservern, die anfällig für einzelne Fehlerquellen sind, unmöglich zu erfüllen wären.

Roadmap zur Quantenresistenz liefert kryptographische Überlegenheit

Sais Quantencomputing-Strategie stellt den einzigen umfassenden, proaktiven Ansatz der Blockchain-Industrie dar, der mit den NIST-Mandaten übereinstimmt, die die Abschaffung klassischer Algorithmen bis 2030 und eine vollständige quantenresistente Standardisierung bis 2035 vorschreiben.

Chalkias' bahnbrechende Forschung vom Juli 2025 zeigte, dass EdDSA-basierte Ketten, einschließlich Sui, quantensichere Wallet-Upgrades ohne Hard Forks, Adressänderungen oder Kontosperrungen durch Zero-Knowledge-Proofs, die das Wissen über den Seed beweisen, implementieren können. Dies ermöglicht eine sichere Migration auch für ruhende Konten – und löst die existenzielle Bedrohung für Blockchains, bei der Millionen von Wallets „sofort geleert werden könnten“, sobald Quantencomputer verfügbar sind. Die technische Innovation verwendet STARK-Proofs (quantenresistente hash-basierte Sicherheit), um das Wissen über EdDSA-Schlüsselgenerierungssamen zu beweisen, ohne sensible Daten preiszugeben, wodurch Benutzer die PQ-Schlüsseleigentümerschaft an bestehende Adressen binden können.

Sais Architektur für kryptographische Agilität ermöglicht mehrere Übergangsstrategien: proaktiv (PQ-Schlüssel signieren PreQ-Public-Keys bei der Erstellung), adaptiv (STARK-Proofs migrieren bestehende Adressen) und hybrid (zeitlich begrenzte Multisig, die klassische und quantenresistente Schlüssel kombiniert). Das Protokoll unterstützt die sofortige Bereitstellung von NIST-standardisierten Algorithmen, einschließlich CRYSTALS-Dilithium (ML-DSA), FALCON (FN-DSA) und SPHINCS+ (SLH-DSA) für gitterbasierte und hash-basierte Post-Quanten-Sicherheit. Validator-BLS-Signaturen wechseln zu gitterbasierten Alternativen, Hash-Funktionen werden von 256-Bit- auf 384-Bit-Ausgaben für quantenresistente Kollisionsresistenz aktualisiert, und zkLogin-Schaltungen migrieren von Groth16 zu STARK-basierten Zero-Knowledge-Proofs.

Das im Juni 2025 gestartete Nautilus-Framework bietet sichere Off-Chain-Berechnungen unter Verwendung selbstverwalteter TEEs (Trusted Execution Environments), die derzeit AWS Nitro Enclaves unterstützen, mit zukünftiger Intel TDX- und AMD SEV-Kompatibilität. Für KI-Anwendungen ermöglicht Nautilus private KI-Inferenz mit kryptographischen Attestierungen, die On-Chain verifiziert werden, wodurch die Spannung zwischen Recheneffizienz und Verifizierbarkeit gelöst wird. Startpartner wie Bluefin (TEE-basiertes Order-Matching bei <1 ms), TensorBlock (KI-Agenten-Infrastruktur) und OpenGradient demonstrieren die Produktionsreife für datenschutzfreundliche, quantenresistente Berechnungen.

Vergleichende Analysen zeigen Sais Quantenvorteil: Ethereum befindet sich noch in der Planungsphase, wobei Vitalik Buterin erklärt, dass Quantenresistenz „mindestens ein Jahrzehnt entfernt“ sei und Hard Forks sowie einen Community-Konsens erfordere. Solana führte im Januar 2025 Winternitz Vault als optionales hash-basiertes Signaturmerkmal ein, das eine Benutzerzustimmung erfordert und keine protokollweite Implementierung darstellt. Andere große Blockchains (Aptos, Avalanche, Polkadot) verbleiben in der Forschungsphase ohne konkrete Implementierungszeitpläne. Nur Sui hat kryptographische Agilität als grundlegendes Prinzip konzipiert, das schnelle Algorithmusübergänge ohne Governance-Kämpfe oder Netzwerkspaltungen ermöglicht.

Synthese der technischen Architektur schafft emergente Fähigkeiten

Sais architektonische Komponenten interagieren synergistisch, um Fähigkeiten zu schaffen, die die Summe der einzelnen Merkmale übertreffen – ein Merkmal, das wirklich innovative Plattformen von inkrementellen Verbesserungen unterscheidet.

Das Ressourcenmodell der Move-Sprache kombiniert mit paralleler Objektausführung ermöglicht einen beispiellosen Durchsatz für KI-Agenten-Schwärme. Traditionelle Blockchains, die kontobasierte Modelle verwenden, erfordern eine sequentielle Ausführung, um Race Conditions zu verhindern, was die Koordination von KI-Agenten auf Single-Thread-Engpässe beschränkt. Sais explizite Abhängigkeitsdeklaration durch Objektverweise ermöglicht es Validatoren, unabhängige Operationen vor der Ausführung zu identifizieren und Tausende von KI-Agenten-Transaktionen gleichzeitig über CPU-Kerne zu planen. Diese Parallelisierung des State-Zugriffs (im Gegensatz zur optimistischen Ausführung, die Konflikterkennung erfordert) bietet eine vorhersehbare Leistung ohne nachträgliche Transaktionsfehler – entscheidend für KI-Systeme, die Zuverlässigkeitsgarantien benötigen.

Programmierbare Transaktionsblöcke verstärken Moves Komponierbarkeit, indem sie bis zu 1.024 heterogene Funktionsaufrufe in atomaren Transaktionen ermöglichen. KI-Agenten können komplexe Workflows ausführen – Token tauschen, Orakeldaten aktualisieren, Machine-Learning-Inferenz auslösen, NFTs prägen, Benachrichtigungen senden – alles mit der Garantie, dass sie gemeinsam erfolgreich sind oder fehlschlagen. Diese heterogene Komposition verlagert die Logik von Smart Contracts auf die Transaktionsebene, wodurch die Gaskosten drastisch gesenkt und die Flexibilität erhöht werden. Für die Robotik ermöglichen PTBs atomare mehrstufige Operationen wie „Inventar prüfen, Teile bestellen, Zahlung autorisieren, Status aktualisieren“ mit kryptographischen Konsistenzgarantien.

Der Konsens-Bypass-Schnellpfad für Objekte mit einem einzigen Eigentümer schafft ein zweistufiges Leistungsmodell, das perfekt zu den Zugriffsmodellen von KI/Robotik passt. Einzelne Roboter verwalten private Zustände (Sensorwerte, Betriebsparameter) als eigene Objekte, die in 250 ms ohne Validator-Konsens verarbeitet werden. Koordinationspunkte (Aufgabenwarteschlangen, Ressourcenpools) existieren als gemeinsam genutzte Objekte, die einen 390 ms Konsens erfordern. Diese Architektur spiegelt autonome Systeme der realen Welt wider, bei denen Agenten lokale Zustände verwalten, aber über gemeinsam genutzte Ressourcen koordinieren – Sais Objektmodell bietet Blockchain-native Primitive, die diese Muster auf natürliche Weise abbilden.

zkLogin löst die Onboarding-Reibung, die die Mainstream-Adoption von KI-Agenten verhindert. Traditionelle Blockchains erfordern von Benutzern die Verwaltung von Seed-Phrasen und privaten Schlüsseln – kognitiv anspruchsvoll und fehleranfällig. zkLogin ermöglicht die Authentifizierung über vertraute OAuth-Anmeldeinformationen (Google, Facebook, Twitch) mit einem benutzergesteuerten Salt, das die Korrelation von Web2-Web3-Identitäten verhindert. KI-Agenten können unter Web2-Authentifizierung operieren, während die Blockchain-Sicherheit erhalten bleibt, was die Hürden für Verbraucheranwendungen drastisch senkt. Die über 10 dApps, die zkLogin bereits integrieren, demonstrieren die praktische Umsetzbarkeit für nicht-krypto-native Zielgruppen.

Wettbewerbspositionierung offenbart technische Führung und Ökosystemwachstum

Vergleichende Analysen über große Blockchains (Solana, Ethereum, Aptos, Avalanche, Polkadot) zeigen Sais technische Überlegenheit für fortgeschrittene Rechenlasten, abgewogen gegen Ethereums Ökosystemreife und Solanas aktuelle DePIN-Adoption.

Leistungsmetriken etablieren Sui als Durchsatzführer mit 297.000 TPS, getestet auf 100 Validatoren, die eine Finalität von 480 ms aufrechterhalten, gegenüber Solanas theoretischen 65.000-107.000 TPS (3.000-4.000 nachhaltig) und Ethereums 15-30 TPS Basisschicht. Aptos erreicht theoretisch 160.000 TPS mit ähnlicher Move-basierter Architektur, aber unterschiedlichen Ausführungsmodellen. Für KI-Workloads, die Echtzeitentscheidungen erfordern, ermöglicht Sais 480 ms Finalität sofortige Antwortschleifen, die auf Ethereums 12-15 Minuten Finalität oder sogar Solanas gelegentlicher Netzwerküberlastung (75 % Transaktionsfehler im April 2024 bei Spitzenlast) unmöglich sind.

Die Analyse der Quantenresistenz zeigt Sui als die einzige Blockchain mit quantenresistenter Kryptographie, die von Anfang an in die Kernarchitektur integriert wurde. Ethereum adressiert Quanten in der Roadmap-Phase „The Splurge“, aber Vitalik Buterin schätzt eine 20%ige Wahrscheinlichkeit, dass Quanten Krypto bis 2030 brechen, und verlässt sich auf Notfall-„Recovery-Fork“-Pläne, die reaktiv statt proaktiv sind. Solanas Winternitz Vault bietet optionalen Quantenschutz, der eine Benutzerzustimmung erfordert, keine automatische netzwerkweite Sicherheit. Aptos, Avalanche und Polkadot verbleiben in der Forschungsphase ohne konkrete Zeitpläne. Sais kryptographische Agilität mit mehreren Migrationspfaden, STARK-basiertem zkLogin und einer NIST-konformen Roadmap positioniert sie als die einzige Blockchain, die für die vorgeschriebenen Post-Quanten-Übergänge 2030/2035 bereit ist.

KI-Agenten-Ökosysteme zeigen, dass Solana derzeit die Adoption mit ausgereiften Tools (SendAI Agent Kit, ElizaOS) und der größten Entwicklergemeinschaft anführt, aber Sui demonstriert überlegene technische Fähigkeiten durch eine Kapazität von 300.000 TPS, Sub-Sekunden-Latenz und über 50 Projekten, einschließlich Produktionsplattformen (Atoma Mainnet, Talus Nexus, OpenGraph On-Chain-Inferenz). Ethereum konzentriert sich auf institutionelle KI-Standards (ERC-8004 für KI-Identität/Vertrauen), aber die 15-30 TPS Basisschicht begrenzt Echtzeit-KI-Anwendungen auf Layer-2-Lösungen. Die Alibaba Cloud-Partnerschaft, die Sui als KI-Entwicklungsplattform (nicht nur Bereitstellungsplattform) positioniert, signalisiert eine strategische Differenzierung von reinen Finanz-Blockchains.

Robotik-Fähigkeiten existieren unter den großen Blockchains ausschließlich auf Sui. Kein Wettbewerber demonstriert Multi-Roboter-Kollaborationsinfrastruktur, Byzantinisch Fehlertolerante Koordination oder „Internetlos-Modus“-Offline-Betrieb. Die Analyse von Tiger Research kommt zu dem Schluss, dass „Blockchain möglicherweise eine geeignetere Infrastruktur für Roboter als für Menschen ist“, angesichts der Fähigkeit von Robotern, dezentrale Koordination ohne zentrales Vertrauen zu nutzen. Da Morgan Stanley bis 2050 1 Milliarde humanoider Roboter prognostiziert, schafft Sais speziell entwickelte Robotik-Infrastruktur einen First-Mover-Vorteil in der aufkommenden Roboterökonomie, in der autonome Systeme Identität, Zahlungen, Verträge und Koordination benötigen – Primitive, die Sui nativ bereitstellt.

Die Vorteile der Programmiersprache Move positionieren sowohl Sui als auch Aptos über Solidity-basierten Ketten für komplexe Anwendungen, die Sicherheit erfordern. Moves ressourcenorientiertes Modell verhindert Schwachstellenklassen, die in Solidity unmöglich zu beheben sind, wie der Verlust von über 1,1 Milliarden US-Dollar durch Exploits im Jahr 2024 auf Ethereum belegt. Die Unterstützung für formale Verifikation, das lineare Typsystem und erstklassige Asset-Abstraktionen machen Move besonders geeignet für KI-Agenten, die wertvolle Assets autonom verwalten. Sais objektzentrierte Move-Variante (im Gegensatz zu kontobasiertem Diem Move) ermöglicht Vorteile bei der parallelen Ausführung, die auf Aptos trotz gemeinsamer Sprachherkunft nicht verfügbar sind.

Praktische Implementierungen bestätigen technische Fähigkeiten

Sais Produktionsimplementierungen demonstrieren den Übergang der Plattform vom technischen Potenzial zum praktischen Nutzen in den Bereichen KI, Robotik und Quanten.

Die Reife der KI-Infrastruktur zeigt eine klare Dynamik mit dem Mainnet-Start des Atoma Network im Dezember 2024, das Produktions-KI-Inferenz bedient, der Bereitstellung des Talus Nexus-Frameworks im Februar 2025, das zusammensetzbare Agenten-Workflows ermöglicht, und der 13-Millionen-Dollar-Finanzierungsrunde des Swarm Network, unterstützt von Kostas Chalkias, der über 10.000 KI-Agenten-Lizenzen auf Sui verkauft. Die Alibaba Cloud-Partnerschaft bietet eine Validierung auf Unternehmensebene mit in Entwicklertools integrierten KI-Codierungsassistenten, was ein strategisches Engagement über spekulative Anwendungen hinaus demonstriert. OpenGraph Labs, das den ersten Platz beim Sui AI Typhoon Hackathon mit On-Chain-ML-Inferenz gewann, signalisiert technische Innovation, die von Expertenjuroren anerkannt wird.

Fertigungsrobotik erreichte kommerziellen Maßstab durch das 79.909-Drucker-Netzwerk von 3DOS in über 120 Ländern, das NASA, US Navy, US Air Force, John Deere und Google bedient. Dies stellt das weltweit größte Blockchain-integrierte Fertigungsnetzwerk dar, das über 4,2 Millionen Teile mit über 500.000 Benutzern verarbeitet. Das Peer-to-Peer-Modell, das es Robotern ermöglicht, Ersatzteile autonom zu bestellen, demonstriert die Smart-Contract-Automatisierung, die den Koordinationsaufwand im industriellen Maßstab eliminiert – ein Proof of Concept, der von anspruchsvollen Regierungs- und Luftfahrtkunden, die Zuverlässigkeit und Sicherheit erfordern, validiert wurde.

Finanzkennzahlen zeigen eine wachsende Akzeptanz mit 538 Millionen US-Dollar TVL, 17,6 Millionen monatlich aktiven Wallets (Höhepunkt im Februar 2025) und einer SUI-Token-Marktkapitalisierung von über 16 Milliarden US-Dollar. Mysten Labs erreichte eine Bewertung von über 3 Milliarden US-Dollar, unterstützt von a16z, Binance Labs, Coinbase Ventures und Jump Crypto – eine institutionelle Validierung des technischen Potenzials. Schweizer Banken (Sygnum, Amina Bank), die Sui-Verwahrung und -Handel anbieten, bieten traditionelle Finanzzugänge, während institutionelle Produkte von Grayscale, Franklin Templeton und VanEck die Mainstream-Anerkennung signalisieren.

Wachstum des Entwickler-Ökosystems demonstriert Nachhaltigkeit mit umfassenden Tools (TypeScript, Rust, Python, Swift, Dart, Golang SDKs), KI-Codierungsassistenten in ChainIDE und aktiven Hackathon-Programmen, bei denen 50 % der Gewinner sich auf KI-Anwendungen konzentrierten. Die 122 aktiven Validatoren im Mainnet bieten eine ausreichende Dezentralisierung bei gleichzeitiger Aufrechterhaltung der Leistung, wodurch Sicherheit und Durchsatz besser ausbalanciert werden als bei stark zentralisierten Alternativen.

Strategische Vision positioniert Sui für die Konvergenz-Ära

Kostas Chalkias und die Führung von Mysten Labs formulieren eine kohärente langfristige Vision, die Sui von Wettbewerbern unterscheidet, die sich auf enge Anwendungsfälle oder inkrementelle Verbesserungen konzentrieren.

Chalkias' kühne Vorhersage, dass „Blockchain irgendwann sogar Visa in der Transaktionsgeschwindigkeit übertreffen wird. Es wird die Norm sein. Ich sehe nicht, wie wir dem entkommen können“, signalisiert Vertrauen in die technische Entwicklung, gestützt durch architektonische Entscheidungen, die diese Zukunft ermöglichen. Seine Aussage, dass Mysten Labs „das übertreffen könnte, was Apple heute ist“, spiegelt den Ehrgeiz wider, grundlegende Infrastruktur für das Computing der nächsten Generation aufzubauen, anstatt inkrementelle DeFi-Anwendungen zu entwickeln. Die Entscheidung, seinen Sohn „Kryptos“ (griechisch für „geheim/verborgen“) zu nennen, symbolisiert das persönliche Engagement für kryptographische Innovation als zivilisatorische Infrastruktur.

Die Drei-Säulen-Strategie, die KI, Robotik und Quantencomputing integriert, schafft sich gegenseitig verstärkende Vorteile. Quantenresistente Kryptographie ermöglicht langfristige Asset-Sicherheit für autonom operierende KI-Agenten. Sub-Sekunden-Finalität unterstützt Echtzeit-Robotik-Regelkreise. Parallele Ausführung ermöglicht Tausenden von KI-Agenten die gleichzeitige Koordination. Das Objektmodell bietet eine natürliche Abstraktion sowohl für den Zustand von KI-Agenten als auch für die Darstellung von Robotergeräten. Diese architektonische Kohärenz unterscheidet ein zielgerichtetes Plattformdesign von nachträglich hinzugefügten Funktionen.

Sui Basecamp 2025 Technologie-Enthüllungen demonstrieren kontinuierliche Innovation mit nativer verifizierbarer Zufälligkeit (eliminiert Orakelabhängigkeiten für KI-Inferenz), zk-Tunneln, die private Videoanrufe direkt auf Sui ermöglichen, Blitztransaktionen für Zero-Gas-Operationen in Notfällen und Zeitkapseln für verschlüsselten zukünftigen Datenzugriff. Diese Funktionen adressieren reale Benutzerprobleme (Datenschutz, Zuverlässigkeit, Zugänglichkeit) statt akademischer Übungen, mit klaren Anwendungen für KI-Agenten, die vertrauenswürdige Zufälligkeit benötigen, Robotiksysteme, die Offline-Betrieb erfordern, und quantenresistente Verschlüsselung für sensible Daten.

Die Positionierung als „Koordinationsschicht für eine breite Palette von Anwendungen“ von der Verwaltung von Gesundheitsdaten über die persönliche Datenhoheit bis hin zur Robotik spiegelt die Plattformambitionen jenseits finanzieller Spekulationen wider. Chalkias' Identifizierung der Ineffizienz von Gesundheitsdaten als Problem, das eine gemeinsame Datenbank erfordert, zeigt ein Denken über gesellschaftliche Infrastruktur statt enger Blockchain-Enthusiasten-Nischen. Diese Vision zieht Forschungslabore, Hardware-Startups und Regierungen an – Zielgruppen, die zuverlässige Infrastruktur für langfristige Projekte suchen, nicht spekulatives Yield Farming.

Technische Roadmap liefert umsetzbaren Zeitplan

Sais Entwicklungs-Roadmap bietet konkrete Meilensteine, die den Fortschritt von der Vision zur Implementierung in allen drei Fokusbereichen demonstrieren.

Der Zeitplan für Quantenresistenz stimmt mit den NIST-Mandaten überein: 2025-2027 wird die Infrastruktur und das Testen der kryptographischen Agilität abgeschlossen, 2028-2030 werden Protokoll-Upgrades für Dilithium/FALCON-Signaturen mit hybrider PreQ-PQ-Operation eingeführt, 2030-2035 wird der vollständige Post-Quanten-Übergang mit der Abschaffung klassischer Algorithmen erreicht. Die mehreren Migrationspfade (proaktiv, adaptiv, hybrid) bieten Flexibilität für verschiedene Benutzersegmente, ohne eine einzige Adoptionsstrategie zu erzwingen. Hash-Funktions-Upgrades auf 384-Bit-Ausgaben und die zkLogin PQ-zkSNARK-Forschung verlaufen parallel, um eine umfassende Quantenbereitschaft statt stückweiser Patches zu gewährleisten.

Erweiterung der KI-Infrastruktur zeigt klare Meilensteine mit dem Walrus Mainnet-Start (Q1 2025), der dezentralen Speicher für KI-Modelle bereitstellt, dem Talus Nexus-Framework, das zusammensetzbare Agenten-Workflows ermöglicht (Bereitstellung im Februar 2025), und dem Nautilus TEE-Framework, das über die aktuelle AWS Nitro Enclaves-Unterstützung hinaus auf Intel TDX und AMD SEV erweitert wird. Die Roadmap der Alibaba Cloud-Partnerschaft umfasst erweiterte Sprachunterstützung, tiefere ChainIDE-Integration und Demo-Tage in Hongkong, Singapur und Dubai, die auf Entwicklergemeinschaften abzielen. OpenGraphs On-Chain-Inferenz-Explorer und die Reifung des TensorflowSui SDK bieten praktische Tools für KI-Entwickler jenseits theoretischer Frameworks.

Fortschritt der Robotik-Fähigkeiten schreitet von Multi-Roboter-Kollaborationsdemos zu Produktionsimplementierungen mit der 3DOS-Netzwerkerweiterung, „Internetlos-Modus“-Funkwellen-Transaktionsfähigkeiten und zkTunneln, die Zero-Gas-Roboterbefehle ermöglichen. Die technische Architektur, die Byzantinische Fehlertoleranz, Sub-Sekunden-Koordinationsschleifen und autonome M2M-Zahlungen unterstützt, existiert heute – Adoptionsbarrieren sind eher pädagogischer Natur und Ökosystem-Aufbau als technische Einschränkungen. Die Beteiligung von NASA-, Meta- und Uber-Alumni signalisiert ernsthaftes Ingenieurstalent, das reale Robotik-Herausforderungen angeht, im Gegensatz zu akademischen Forschungsprojekten.

Protokollverbesserungen umfassen Verfeinerungen des Mysticeti-Konsenses, die einen 80%igen Latenzreduktionsvorteil beibehalten, horizontale Skalierung durch Pilotfish-Multi-Maschinen-Ausführung und Speicheroptimierung für wachsenden Zustand. Das Checkpoint-System (alle ~3 Sekunden) bietet verifizierbare Snapshots für KI-Trainingsdaten und Robotik-Audit-Trails. Die Reduzierung der Transaktionsgröße auf ein-Byte-Voreinstellungsformate reduziert die Bandbreitenanforderungen für IoT-Geräte. Die Erweiterung gesponserter Transaktionen eliminiert Gas-Reibung für Verbraucheranwendungen, die eine nahtlose Web2-ähnliche UX erfordern.

Technische Exzellenz positioniert Sui für die Dominanz im Bereich des fortgeschrittenen Computings

Eine umfassende Analyse der technischen Architektur, der Führungsvision, der realen Implementierungen und der Wettbewerbspositionierung zeigt Sui als die Blockchain-Plattform, die einzigartig auf die Konvergenz von KI, Robotik und Quantencomputing vorbereitet ist.

Sui erreicht technische Überlegenheit durch gemessene Leistungsmetriken: 297.000 TPS mit 480 ms Finalität übertrifft alle großen Wettbewerber und ermöglicht Echtzeit-KI-Agenten-Koordination und Robotik-Steuerung, die auf langsameren Ketten unmöglich sind. Das objektzentrierte Datenmodell kombiniert mit der Sicherheit der Move-Sprache bietet Vorteile im Programmiermodell, die Schwachstellenklassen verhindern, die kontobasierte Architekturen plagen. Kryptographische Agilität, von Anfang an konzipiert – nicht nachgerüstet – ermöglicht quantenresistente Übergänge ohne Hard Forks oder Governance-Kämpfe. Diese Fähigkeiten existieren heute in Produktion auf dem Mainnet mit 122 Validatoren, nicht als theoretische Whitepapers oder ferne Roadmaps.

Visionäre Führung durch Kostas Chalkias' über 50 Publikationen, 8 US-Patente und kryptographische Innovationen (zkLogin, BPQS, Winterfell STARK, HashWires) bietet eine intellektuelle Grundlage, die Sui von technisch kompetenten, aber fantasielosen Wettbewerbern unterscheidet. Seine bahnbrechende Forschung im Quantencomputing (Juli 2025), die Unterstützung der KI-Infrastruktur (Swarm Network-Unterstützung) und die öffentliche Kommunikation (Token 2049, Korea Blockchain Week, London Real) etablieren Vordenkerrolle, die Top-Entwickler und institutionelle Partner anzieht. Die Bereitschaft, für Zeiträume über 2030 hinaus zu planen, anstatt sich auf vierteljährliche Metriken zu konzentrieren, demonstriert das langfristige strategische Denken, das für die Plattforminfrastruktur erforderlich ist.

Ökosystem-Validierung durch Produktionsimplementierungen (Atoma Mainnet KI-Inferenz, 3DOS 79.909-Drucker-Netzwerk, Talus Agenten-Frameworks) beweist, dass technische Fähigkeiten in realen Nutzen umgesetzt werden können. Institutionelle Partnerschaften (Alibaba Cloud, Schweizer Bankverwahrung, Grayscale/Franklin Templeton Produkte) signalisieren Mainstream-Anerkennung jenseits von Blockchain-nativen Enthusiasten. Entwicklerwachstumsmetriken (50 % der Hackathon-Gewinner im Bereich KI, umfassende SDK-Abdeckung, KI-Codierungsassistenten) demonstrieren eine nachhaltige Ökosystemerweiterung, die die langfristige Akzeptanz unterstützt.

Die strategische Positionierung als Blockchain-Infrastruktur für die Roboterökonomie, quantenresistente Finanzsysteme und autonome KI-Agenten-Koordination schafft ein differenziertes Wertversprechen gegenüber Wettbewerbern, die sich auf inkrementelle Verbesserungen bestehender Blockchain-Anwendungsfälle konzentrieren. Da Morgan Stanley bis 2050 1 Milliarde humanoider Roboter prognostiziert, NIST quantenresistente Algorithmen bis 2030 vorschreibt und McKinsey 40 % Produktivitätssteigerungen durch agentische KI prognostiziert – stimmen Sais technische Fähigkeiten genau mit den makrotechnologischen Trends überein, die dezentrale Infrastruktur erfordern.

Für Organisationen, die fortschrittliche Computing-Anwendungen auf der Blockchain entwickeln, bietet Sui unübertroffene technische Fähigkeiten (297K TPS, 480 ms Finalität), eine zukunftssichere quantenresistente Architektur (die einzige Blockchain, die von Anfang an für Quanten konzipiert wurde), eine bewährte Robotik-Infrastruktur (die einzige, die Multi-Roboter-Kollaboration demonstriert hat), ein überlegenes Programmiermodell (Sicherheit und Ausdrucksstärke der Move-Sprache) und Echtzeit-Leistung, die KI-/Robotik-Anwendungen ermöglicht, die auf sequenziellen Ausführungsketten physisch unmöglich wären. Die Plattform stellt keine inkrementelle Verbesserung dar, sondern ein fundamentales architektonisches Umdenken für das nächste Jahrzehnt der Blockchain.

Die 20-Milliarden-Dollar-Prognosekriege: Wie Kalshi und Polymarket Informationen in die neueste Anlageklasse der Wall Street verwandeln

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Als die Intercontinental Exchange – die Muttergesellschaft der New York Stock Exchange – im Oktober 2025 einen Scheck über 2 Milliarden anPolymarketausstellte,wettetesienichtaufeinKryptoStartup.SiekauftesicheinenPlatzamTischfu¨retwasweitausGro¨ßeres:dieTransformationvonInformationenselbstineinehandelbareAssetklasse.SechsMonatespa¨terverarbeitenPrognosema¨rkteeinwo¨chentlichesVolumenvon5,9Milliardenan Polymarket ausstellte, wettete sie nicht auf ein Krypto-Startup. Sie kaufte sich einen Platz am Tisch für etwas weitaus Größeres: die Transformation von Informationen selbst in eine handelbare Assetklasse. Sechs Monate später verarbeiten Prognosemärkte ein wöchentliches Volumen von 5,9 Milliarden, KI-Agenten tragen zu 30 % der Trades bei, und Hedgefonds nutzen diese Plattformen, um Fed-Entscheidungen mit größerer Präzision abzusichern, als Treasury-Futures jemals boten.

Willkommen bei Information Finance – dem am schnellsten wachsenden Segment im Krypto-Bereich und dem vielleicht folgenreichsten Infrastrukturwandel, seit Stablecoins den Mainstream erreicht haben.

Vom spekulativen Casino zur institutionellen Infrastruktur

Die Zahlen erzählen die Geschichte einer Branche, die sich grundlegend neu erfunden hat. Im Jahr 2024 waren Prognosemärkte Nischen-Kuriositäten – unterhaltsam für Politik-Interessierte, von seriösem Kapital ignoriert. Bis Januar 2026 erwartet Piper Sandler, dass die Branche in diesem Jahr über 445 Milliarden Kontrakte handeln wird, was einem Nominalvolumen von 222,5 Milliarden $ entspricht – ein Anstieg von 95 Milliarden Kontrakten im Jahr 2025.

Die Katalysatoren waren dreifach:

Regulatorische Klarheit: Der CLARITY Act von 2025 klassifizierte Ereigniskontrakte offiziell als „digitale Rohstoffe“ (Digital Commodities) unter der Aufsicht der CFTC. Dieses regulatorische grüne Licht löste die Compliance-Hürden, die große Banken an der Seitenlinie gehalten hatten. Kalshis juristischer Sieg über die CFTC im Mai 2025 legte fest, dass Ereigniskontrakte Derivate sind und kein Glücksspiel – was einen Bundespräzedenzfall schuf, der es der Plattform ermöglicht, national zu agieren, während Sportwettenanbieter mit staatlich begrenzten Lizenzen konfrontiert sind.

Institutionelle Investitionen: Polymarket sicherte sich 2 Milliarden vonderICEbeieinerBewertungvon9Milliardenvon der ICE bei einer Bewertung von 9 Milliarden, wobei die NYSE-Mutter Prognosedaten in institutionelle Feeds integriert. Um nicht zurückzubleiben, sammelte Kalshi in zwei Runden 1,3 Milliarden ein300Millionenein – 300 Millionen im Oktober, dann 1 Milliarde imDezembervonParadigm,a16z,SequoiaundARKInvestunderreichteeineBewertungvon11Milliardenim Dezember von Paradigm, a16z, Sequoia und ARK Invest – und erreichte eine Bewertung von 11 Milliarden. Zusammen sind diese beiden Plattformen nun 20 Milliarden $ wert.

KI-Integration: Autonome KI-Systeme tragen mittlerweile über 30 % zum Gesamtvolumen bei. Tools wie der MCP-Server von RSS3 ermöglichen es KI-Agenten, Newsfeeds zu scannen und Trades ohne menschliches Eingreifen auszuführen – und verwandeln Prognosemärkte in rund um die Uhr arbeitende Informationsverarbeitungsmaschinen.

Der große Prognose-Krieg: Kalshi vs. Polymarket

Stand 23. Januar 2026 ist der Wettbewerb intensiv. Kalshi beherrscht 66,4 % des Marktanteils und verarbeitet wöchentlich über 2 Milliarden $. Polymarket hält jedoch eine Wahrscheinlichkeit von etwa 47 %, das Jahr als Volumen-Spitzenreiter abzuschließen, während Kalshi bei 34 % liegt. Neulinge wie Robinhood erobern 20 % des Marktanteils – eine Erinnerung daran, dass dieser Bereich weiterhin weit offen ist.

Die Plattformen haben unterschiedliche Nischen besetzt:

Kalshi agiert als CFTC-regulierte Börse, was ihr Zugang zu US-Privatanlegern verschafft, sie jedoch einer strengeren Aufsicht unterwirft. Rund 90 % seines Nominalvolumens von 43 Milliarden $ stammen aus sportbezogenen Ereigniskontrakten. Staatliche Glücksspielbehörden in Nevada und Connecticut haben Unterlassungserklärungen erlassen, da sie argumentieren, dass diese Kontrakte sich mit nicht lizenziertem Glücksspiel überschneiden – eine rechtliche Reibung, die Unsicherheit schafft.

Polymarket läuft auf Krypto-Infrastruktur (Polygon) und bietet weltweit erlaubnisfreien Zugang, steht aber in Schlüsselmärkten unter regulatorischem Druck. Die europäische MiCA-Regulierung erfordert für 2026 eine vollständige Autorisierung für den EU-Zugang. Die dezentrale Architektur der Plattform bietet Zensurresistenz, schränkt jedoch die institutionelle Akzeptanz in hochgradig regulierten Rechtsgebieten ein.

Beide wetten darauf, dass die langfristige Chance weit über ihren aktuellen Fokus hinausgeht. Der wahre Preis ist nicht das Sportwetten- oder Wahlmarktsegment – es geht darum, das Bloomberg-Terminal der kollektiven Überzeugungen zu werden.

Das Unabsicherbare absichern: Wie die Wall Street Prognosemärkte nutzt

Die revolutionärste Entwicklung ist nicht das Volumenwachstum – es ist die Entstehung völlig neuer Hedging-Strategien, die traditionelle Derivate nicht unterstützen konnten.

Fed-Zins-Hedging: Aktuelle Kalshi-Quoten beziffern die Wahrscheinlichkeit, dass die Fed die Zinsen bei der Sitzung am 28. Januar unverändert lässt, auf 98 %. Die eigentliche Action findet jedoch bei den Kontrakten für März 2026 statt, wo eine 74-prozentige Chance auf eine Senkung um 25 Basispunkte ein hochkarätiges Hedging-Terrain für diejenigen geschaffen hat, die eine Wachstumsverlangsamung befürchten. Große Fonds nutzen diese binären Kontrakte – entweder die Fed senkt die Zinsen oder nicht –, um Portfolios präziser zu entlasten (de-risk), als es Treasury-Futures ermöglichen.

Inflationsversicherung: Nach den CPI-Daten (VPI) vom Dezember 2025 von 2,7 % handeln Polymarket-Nutzer aktiv Inflations-Caps für 2026. Derzeit ist eine Wahrscheinlichkeit von 30 % eingepreist, dass die Inflation wieder ansteigt und das Jahr über über 3 % bleibt. Im Gegensatz zu traditionellen Inflations-Swaps, die institutionelle Mindestbeträge erfordern, sind diese Kontrakte bereits ab 1 $ zugänglich – was es Privatanlegern ermöglicht, eine „Inflationsversicherung“ für ihre Lebenshaltungskosten zu kaufen.

Schutz vor Regierungsstillstand: Einzelhändler sichern Risiken durch Regierungsstillstände (Government Shutdowns) über Prognosekontrakte ab. Hypothekengeber sichern regulatorische Entscheidungen ab. Tech-Investoren nutzen CPI-Kontrakte, um Aktienportfolios zu schützen.

Geschwindigkeitsvorteil: Im Laufe des Jahres 2025 antizipierten Prognosemärkte erfolgreich drei von drei Fed-Kurswechseln mehrere Wochen bevor die Mainstream-Finanzpresse dies aufgriff. Dieser „Speed-Gap“ ist der Grund, warum Firmen wie Saba Capital Management nun Kalshis CPI-Kontrakte nutzen, um die Inflation direkt abzusichern und die Komplexität von Anleihenmarkt-Proxys zu umgehen.

Das KI-gestützte Informationsorakel

Vielleicht unterscheidet nichts die Prognosemärkte des Jahres 2026 mehr als die KI-Integration. Autonome Systeme nehmen nicht nur teil – sie verändern grundlegend die Funktionsweise dieser Märkte.

KI-Agenten tragen über 30 % zum Handelsvolumen bei, indem sie Newsfeeds, soziale Medien und Wirtschaftsdaten scannen, um Trades schneller auszuführen, als menschliche Händler Informationen verarbeiten können. Dies schafft eine sich selbst verstärkende Schleife: KI-gesteuerte Liquidität zieht mehr institutionelle Kapitalflüsse an, was die Preisfindung verbessert, was wiederum KI-Strategien profitabler macht.

Die Auswirkungen gehen über den Handel hinaus:

  • Echtzeit-Sentiment-Analyse: Unternehmen integrieren KI-gestützte Prognose-Feeds in Dashboards für internes Risikomanagement und Absatzprognosen.
  • Institutionelle Datenlizenzierung: Plattformen lizenzieren angereicherte Marktdaten als Alpha an Hedgefonds und Handelsfirmen.
  • Automatisierte Reaktion auf Nachrichten: Innerhalb von Sekunden nach einer wichtigen Ankündigung passen sich die Prognosepreise an – oft bevor traditionelle Märkte reagieren.

Diese KI-Schicht ist der Grund, warum Analysten von Bernstein argumentieren, dass „Blockchain-Rails, KI-Analyse und News-Feeds“ keine nebeneinander herlaufenden Trends sind – sie verschmelzen innerhalb von Prognoseplattformen, um eine neue Kategorie von Finanzinfrastruktur zu schaffen.

Jenseits von Wetten: Information als Anlageklasse

Die Transformation vom „spekulativen Casino“ zur „Informationsinfrastruktur“ spiegelt eine tiefere Erkenntnis wider: Prognosemärkte bepreisen das, was andere Instrumente nicht können.

Traditionelle Derivate ermöglichen es Ihnen, Zinsbewegungen, Währungsschwankungen und Rohstoffpreise abzusichern. Aber sie eignen sich kaum zur Absicherung von:

  • Regulatorischen Entscheidungen (neue Zölle, politische Änderungen)
  • Politischen Ergebnissen (Wahlen, Regierungsbildung)
  • Wirtschaftlichen Überraschungen (VPI-Daten, Beschäftigungsdaten)
  • Geopolitischen Ereignissen (Konflikte, Handelsabkommen)

Prognosemärkte füllen diese Lücke. Ein Privatanleger, der über inflationäre Auswirkungen besorgt ist, kann „VPI übersteigt 3,1 %“ für Cent-Beträge kaufen und damit effektiv eine Inflationsversicherung erwerben. Ein multinationales Unternehmen, das über die Handelspolitik besorgt ist, kann Zollrisiken direkt absichern.

Deshalb hat ICE die Daten von Polymarket in institutionelle Feeds integriert – es geht nicht um die Wettplattform, sondern um die Informationsschicht. Prognosemärkte aggregieren Überzeugungen effizienter als Umfragen, Studien oder Analystenschätzungen. Sie werden zur Echtzeit-Wahrheitsschicht für Wirtschaftsprognosen.

Die Risiken und der regulatorische Drahtseilakt

Trotz des explosiven Wachstums bleiben erhebliche Risiken bestehen:

Regulatorische Arbitrage: Der Bundeseinstufungs-Präzedenzfall von Kalshi schützt das Unternehmen nicht vor Glücksspielregulierungsbehörden auf Bundesstaatsebene. Die Unterlassungsanordnungen aus Nevada und Connecticut signalisieren potenzielle Zuständigkeitskonflikte. Wenn Prognosemärkte in wichtigen Bundesstaaten als Glücksspiel eingestuft werden, könnte der inländische Privatkundenmarkt fragmentieren.

Konzentrationsrisiko: Da Kalshi und Polymarket zusammen eine Bewertung von 20 Milliarden $ aufweisen, ist die Branche stark konzentriert. Eine regulatorische Maßnahme gegen eine der beiden Plattformen könnte das Vertrauen in den gesamten Sektor erschüttern.

KI-Manipulation: Da die KI 30 % des Volumens beisteuert, stellen sich Fragen zur Marktintegrität. Können KI-Agenten kolludieren? Wie erkennen Plattformen koordinierte Manipulationen durch autonome Systeme? Diese Governance-Fragen sind nach wie vor ungeklärt.

Krypto-Abhängigkeit: Die Abhängigkeit von Polymarket von Krypto-Infrastrukturen (Polygon, USDC) bindet sein Schicksal an die Bedingungen des Kryptomarktes und regulatorische Ergebnisse für Stablecoins. Falls USDC Beschränkungen unterliegt, wird die Abwicklungsinfrastruktur von Polymarket unsicher.

Was als Nächstes kommt: Die 222-Milliarden-$-Chance

Die Richtung ist klar. Die Prognose von Piper Sandler eines nominalen Volumens von 222,5 Milliarden $ im Jahr 2026 würde Prognosemärkte größer machen als viele traditionelle Derivatekategorien. Einige Entwicklungen, die man beobachten sollte:

Neue Marktkategorien: Erwarten Sie über Politik und Fed-Entscheidungen hinaus Prognosemärkte für Klimaereignisse, Meilensteine der KI-Entwicklung, Überraschungen bei Unternehmensgewinnen und technologische Durchbrüche.

Bankenintegration: Großbanken haben sich aufgrund von Compliance-Bedenken weitgehend zurückgehalten. Wenn die regulatorische Klarheit zunimmt, ist mit der Entstehung von Verwahrungs- und Prime-Brokerage-Diensten für den institutionellen Prognosehandel zu rechnen.

Versicherungsprodukte: Die Grenze zwischen Prognoseverträgen und Versicherungen ist fließend. Es könnten parametrische Versicherungsprodukte entstehen, die auf der Infrastruktur von Prognosemärkten aufbauen – zum Beispiel eine Erdbebenversicherung, die basierend auf Magnitudenmessungen auszahlt, oder eine Ernteversicherung, die an Wetterereignisse gekoppelt ist.

Globale Expansion: Sowohl Kalshi als auch Polymarket konzentrieren sich primär auf die USA. Die internationale Expansion – insbesondere in Asien und Lateinamerika – stellt ein erhebliches Wachstumspotenzial dar.

In den Kriegen um die Prognosemärkte von 2026 geht es nicht darum, wer mehr Sportwetten abwickelt. Es geht darum, wer die Infrastruktur für „Information Finance“ aufbaut – die Anlageklasse, in der Überzeugungen handelbar, absicherbar und letztendlich monetarisierbar werden.

Zum ersten Mal hat Information einen Marktpreis. Und das ändert alles.


Für Entwickler, die auf der Blockchain-Infrastruktur aufbauen, die Prognosemärkte und DeFi-Anwendungen antreibt, bietet BlockEden.xyz API-Dienste auf Unternehmensniveau für Ethereum, Polygon und andere Chains an – dieselben grundlegenden Schichten, auf die Plattformen wie Polymarket angewiesen sind.

Suis quantenbereite Grundlage für autonome Intelligenz

· 26 Min. Lesezeit
Dora Noda
Software Engineer

Die Sui Blockchain hebt sich von ihren Konkurrenten durch ihre grundlegende kryptographische Agilität und objektzentrierte Architektur ab und positioniert sich als die einzige große Layer-1-Blockchain, die gleichzeitig die KI-Integration, die Robotik-Koordination und die quantenresistente Sicherheit vorantreibt. Dies ist keine Marketingpositionierung – es ist architektonische Realität. Mitbegründer und Chief Cryptographer Kostas „Kryptos“ Chalkias hat diese Fähigkeiten seit der Gründung systematisch in Suis Kerndesign integriert und damit eine Infrastruktur geschaffen, die seiner Beschreibung nach „sogar Visa in puncto Geschwindigkeit übertreffen“ wird, während sie gleichzeitig sicher gegen Quantenbedrohungen bleibt, die „die gesamte moderne Kryptographie“ innerhalb eines Jahrzehnts „zerstören“ könnten.

Die technische Grundlage ist bereits produktionsreif: Eine Konsensfinalität von 390 Millisekunden ermöglicht die Echtzeit-Koordination von KI-Agenten, die parallele Ausführung verarbeitet Spitzenwerte von 297.000 Transaktionen pro Sekunde, und EdDSA-Signaturschemata bieten einen bewährten Migrationspfad zur Post-Quanten-Kryptographie, ohne Hard Forks zu erfordern. Unterdessen stehen Bitcoin und Ethereum vor existenziellen Bedrohungen durch Quantencomputing, ohne einen abwärtskompatiblen Upgrade-Pfad zu besitzen. Chalkias' Vision konzentriert sich auf drei konvergierende Säulen – KI als Koordinationsschicht, autonome Robotersysteme, die eine Finalität im Sub-Sekunden-Bereich erfordern, und kryptographische Frameworks, die bis 2035 und darüber hinaus sicher bleiben. Seine Aussagen auf Konferenzen, in Forschungsarbeiten und technischen Implementierungen zeigen keine spekulativen Versprechen, sondern die systematische Umsetzung einer Roadmap, die bei der Gründung von Mysten Labs im Jahr 2022 festgelegt wurde.

Dies ist über den Blockchain-Tribalismus hinaus von Bedeutung. Bis 2030 erfordern NIST-Vorgaben die Abschaffung aktueller Verschlüsselungsstandards. Autonome Systeme, von Fertigungsrobotern bis hin zu KI-Agenten, werden eine vertrauenslose Koordination in großem Maßstab erfordern. Suis Architektur begegnet beiden Unvermeidlichkeiten gleichzeitig, während Konkurrenten darum kämpfen, Lösungen nachzurüsten. Die Frage ist nicht, ob diese Technologien konvergieren, sondern welche Plattformen die Konvergenz unbeschadet überstehen.

Der Kryptograph, der seinen Sohn Kryptos nannte

Kostas Chalkias bringt eine außergewöhnliche Glaubwürdigkeit an die Schnittstelle von Blockchain und neuen Technologien. Bevor er Mysten Labs mitbegründete, war er Lead Cryptographer für Metas Diem-Projekt und Novi Wallet, arbeitete mit Mike Hearn (einem der ersten Bitcoin-Entwickler, der mit Satoshi Nakamoto in Verbindung gebracht wird) an der Corda-Blockchain von R3 und besitzt einen Doktortitel in identitätsbasierter Kryptographie mit über 50 wissenschaftlichen Publikationen, 8 US-Patenten und 1.374 akademischen Zitaten. Seine Hingabe an das Fachgebiet geht so weit, dass er seinen Sohn Kryptos nannte – „Ich bin so tief in der Technologie der Blockchain und Kryptographie verwurzelt, dass ich meine Frau tatsächlich davon überzeugt habe, ein Kind zu bekommen, das Kryptos heißt“, erklärte er in einem Sui-Blog-Interview.

Sein Karriereweg zeigt eine konsequente Konzentration auf praktische Kryptographie für massive Skalierung. Bei Facebook baute er die Sicherheitsinfrastruktur für WhatsApp und Authentifizierungssysteme für Milliarden von Nutzern auf. Bei R3 leistete er Pionierarbeit bei Zero-Knowledge Proofs und Post-Quanten-Signaturen für Enterprise-Blockchain. Zu seiner frühen Karriere gehörte die Gründung von Betmanager, einer KI-gestützten Plattform, die Fußballergebnisse mithilfe von Börsentechniken vorhersagte – eine Erfahrung, die seine aktuelle Perspektive auf die Blockchain-KI-Integration prägt. Diese Mischung aus KI-Erfahrung, Produktionskryptographie und Blockchain-Infrastruktur positioniert ihn einzigartig, um Systeme zu entwerfen, die diese Bereiche miteinander verbinden.

Chalkias' technische Philosophie betont „kryptographische Agilität“ – die Integration von Flexibilität in grundlegende Protokolle, anstatt von Permanenz auszugehen. Auf der Emergence Conference in Prag (Dezember 2024) formulierte er diese Weltanschauung: „Irgendwann wird die Blockchain sogar Visa in puncto Transaktionsgeschwindigkeit übertreffen. Es wird die Norm sein. Ich sehe nicht, wie wir dem entkommen können.“ Aber Geschwindigkeit allein genügt nicht. Seine Arbeit verbindet konsequent Leistung mit zukunftsorientierter Sicherheit und erkennt an, dass Quantencomputer Bedrohungen darstellen, die heute Handeln erfordern, nicht erst, wenn die Gefahr real wird. Dieser doppelte Fokus – aktuelle Leistung und zukünftige Resilienz – prägt Suis architektonische Entscheidungen in den Bereichen KI, Robotik und Quantenresistenz.

Architektur für intelligente Agenten

Suis technische Grundlage unterscheidet sich grundlegend von konto-basierten Blockchains wie Ethereum und Solana. Jede Entität existiert als Objekt mit einer global eindeutigen 32-Byte-ID, Versionsnummer, einem Eigentumsfeld und typisierten Inhalten. Dieses objektzentrierte Modell ist keine ästhetische Präferenz, sondern ermöglicht die parallele Ausführung in großem Maßstab. Wenn KI-Agenten als eigene Objekte agieren, umgehen sie den Konsens für Single-Writer-Operationen vollständig und erreichen eine Finalität von ~400 ms. Wenn mehrere Agenten über gemeinsame Objekte koordinieren, liefert Suis Mysticeti-Konsens eine Latenz von 390 ms – immer noch im Sub-Sekunden-Bereich, aber durch byzantinisch fehlertolerante Einigung.

Die Programmiersprache Move, ursprünglich bei Meta für Diem entwickelt und für Sui erweitert, erzwingt Ressourcensicherheit auf der Ebene des Typsystems. Assets können nicht versehentlich kopiert, zerstört oder ohne Erlaubnis erstellt werden. Für KI-Anwendungen, die wertvolle Daten oder Modellgewichte verwalten, verhindert dies ganze Klassen von Schwachstellen, die Solidity-Smart Contracts plagen. Chalkias betonte dies während des Sui Basecamp 2025 in Dubai: „Wir haben Zero-Knowledge Proofs, datenschutzfreundliche Technologien, von Anfang an in Sui integriert. So kann jemand jetzt ein KYC-System mit so viel Privatsphäre erstellen, wie er möchte.“

Die parallele Transaktionsausführung erreicht theoretische Grenzen durch explizite Abhängigkeitsdeklaration. Im Gegensatz zur optimistischen Ausführung, die eine nachträgliche Verifizierung erfordert, identifiziert Suis Scheduler nicht überlappende Transaktionen im Voraus über eindeutige Objekt-IDs. Unabhängige Operationen werden gleichzeitig über Validatoren-Kerne hinweg ohne Beeinträchtigung ausgeführt. Diese Architektur zeigte im Test einen Spitzendurchsatz von 297.000 TPS – keine theoretischen Maxima, sondern gemessene Leistung auf Produktionshardware. Für KI-Anwendungen bedeutet dies, dass Tausende von Inferenzanfragen gleichzeitig verarbeitet werden, mehrere autonome Agenten ohne Blockierung koordinieren und Echtzeit-Entscheidungen mit für Menschen wahrnehmbaren Geschwindigkeiten ablaufen.

Das 2024 eingeführte Mysticeti-Konsensprotokoll erreicht, was Chalkias und Co-Autoren mathematisch als optimal erwiesen haben: drei Nachrichtenrunden für das Commitment. Durch die Eliminierung expliziter Blockzertifizierung und die Implementierung unzertifizierter DAG-Strukturen reduzierte Mysticeti die Latenz um 80 % gegenüber dem früheren Narwhal-Bullshark-Konsens. Das Protokoll committet Blöcke in jeder Runde statt in jeder zweiten Runde, wobei direkte und indirekte Entscheidungsregeln verwendet werden, die aus DAG-Mustern abgeleitet sind. Für Robotik-Anwendungen, die Echtzeit-Steuerungsfeedback erfordern, wird diese Sub-Sekunden-Finalität nicht verhandelbar. Während der Korea Blockchain Week 2025 positionierte Chalkias Sui als „eine Koordinationsschicht für Anwendungen und KI“ und betonte, wie Partner in den Bereichen Zahlungen, Gaming und KI diese Leistungsbasis nutzen.

Walrus: Lösung des Datenproblems der KI

KI-Workloads erfordern Speicherkapazitäten in einem Umfang, der mit der traditionellen Blockchain-Ökonomie unvereinbar ist. Trainingsdatensätze umfassen Terabytes, Modellgewichte benötigen Gigabytes, und Inferenzprotokolle sammeln sich schnell an. Sui begegnet diesem Problem durch Walrus, ein dezentrales Speicherprotokoll, das Erasure Coding verwendet, um eine 4-5-fache Replikation zu erreichen, anstelle der 100-fachen Replikation, die für On-Chain-Speicher typisch ist. Der „Red Stuff“-Algorithmus teilt Daten in Fragmente auf, die über Speicherknoten verteilt werden und auch dann wiederherstellbar bleiben, wenn 2/3 der Knoten nicht verfügbar sind. Metadaten und Verfügbarkeitsnachweise leben auf Suis Blockchain, während die eigentlichen Daten in Walrus liegen, wodurch kryptographisch verifizierbarer Speicher im Exabyte-Maßstab entsteht.

Im ersten Monat des Walrus-Testnetzes speicherte das Netzwerk über 4.343 GB auf mehr als 25 Community-Knoten, was die Machbarkeit der Architektur bestätigte. Projekte wie TradePort, Tusky und Decrypt Media integrierten Walrus für die Speicherung und den Abruf von Medien. Für KI-Anwendungen ermöglicht dies praktische Szenarien: Trainingsdatensätze, die als programmierbare Assets mit in Smart Contracts kodierten Lizenzbedingungen tokenisiert werden, Modellgewichte, die mit Versionskontrolle persistent gespeichert werden, Inferenz-Ergebnisse, die unveränderlich für Audit-Trails protokolliert werden, und KI-generierte Inhalte, die kostengünstig gespeichert werden. Die KI-Inferenzschicht von Atoma Network, die als Suis erster Blockchain-Integrationspartner angekündigt wurde, nutzt diese Speicherbasis für die automatisierte Codegenerierung, Workflow-Automatisierung und DeFi-Risikoanalyse.

Die Integration erstreckt sich über den Speicher hinaus auf die Orchestrierung von Berechnungen. Suis Programmierbare Transaktionsblöcke (PTBs) bündeln bis zu 1.024 heterogene Operationen atomar und führen sie nach dem Alles-oder-Nichts-Prinzip aus. Ein KI-Workflow könnte Trainingsdaten von Walrus abrufen, Modellgewichte in einem Smart Contract aktualisieren, Inferenz-Ergebnisse On-Chain aufzeichnen und Belohnungen an Datenbeitragende verteilen – alles in einer einzigen atomaren Transaktion. Diese Komponierbarkeit, kombiniert mit der Typsicherheit von Move, schafft Bausteine für komplexe KI-Systeme ohne die Anfälligkeit von Cross-Contract-Aufrufen in anderen Umgebungen.

Chalkias betonte während des Podcasts „Just The Metrics“ (Juli 2025) die Leistungsfähigkeit gegenüber dem Marketing und verwies auf „Ineffizienzen im Gesundheitsdatenmanagement“ als praktische Anwendungsbereiche. KI im Gesundheitswesen erfordert Koordination zwischen Institutionen, den Schutz der Privatsphäre sensibler Daten und verifizierbare Berechnungen für die Einhaltung gesetzlicher Vorschriften. Suis Architektur – die On-Chain-Koordination, Walrus-Speicher und Zero-Knowledge-Privatsphäre kombiniert – erfüllt diese Anforderungen technisch und nicht nur konzeptionell. Die 2024 angekündigte Partnerschaft mit Google Cloud verstärkte diese Richtung, indem Sui-Daten für Analysen in BigQuery integriert und Googles Vertex AI-Plattform in der Move-Sprache für KI-gestützte Entwicklung trainiert wurde.

Wenn Roboter eine Abwicklung im Sub-Sekunden-Bereich benötigen

Die Robotik-Vision materialisiert sich konkreter durch technische Fähigkeiten als durch angekündigte Partnerschaften. Suis Objektmodell stellt Roboter, Werkzeuge und Aufgaben als erstklassige On-Chain-Bürger mit granularer Zugriffskontrolle dar. Im Gegensatz zu konto-basierten Systemen, bei denen Roboter über Berechtigungen auf Kontoebene interagieren, ermöglichen Suis Objekte mehrstufige Berechtigungssysteme von der grundlegenden Bedienung bis zur vollständigen Kontrolle mit Multi-Signatur-Anforderungen. Die Integration von PassKeys und FaceID unterstützt Mensch-in-der-Schleife-Szenarien, während zkTunnels eine gasfreie Befehlsübertragung für den Echtzeit-Fernbetrieb ermöglichen.

Während Diskussionen in sozialen Medien enthüllte Chalkias (unter dem Namen „Kostas Kryptos“), dass Sui-Ingenieure mit Hintergründen bei NASA, Meta und Uber hundeähnliche vierbeinige Roboter im Netzwerk testen. Die objektbasierte Architektur eignet sich für die Robotik-Koordination: Jeder Roboter besitzt Objekte, die seinen Zustand und seine Fähigkeiten repräsentieren, Aufgaben existieren als übertragbare Objekte mit Ausführungsparametern, und die Ressourcenzuweisung erfolgt durch Objektkomposition statt durch zentrale Koordination. Eine Fertigungsanlage könnte Roboterflotten einsetzen, bei denen jede Einheit autonom Aufgaben annimmt, sich mit anderen über gemeinsame Objekte koordiniert, Operationen mit kryptographischer Verifizierung ausführt und Mikrozahlungen für erbrachte Dienstleistungen abwickelt – alles ohne zentrale Autorität oder menschliches Eingreifen.

Der „internetlose“ Transaktionsmodus, der während des Sui Basecamp 2025 und im London Real Podcast (April 2025) diskutiert wurde, adressiert die realen Einschränkungen der Robotik. Chalkias beschrieb, wie das System während Stromausfällen in Spanien und Portugal die Funktionalität aufrechterhielt, wobei die Transaktionsgrößen mithilfe voreingestellter Formate auf einzelne Bytes optimiert wurden. Für autonome Systeme, die in Katastrophengebieten, ländlichen Gebieten oder Umgebungen mit unzuverlässiger Konnektivität betrieben werden, wird diese Resilienz entscheidend. Roboter können Peer-to-Peer-Transaktionen für sofortige Koordination durchführen und sich mit dem breiteren Netzwerk synchronisieren, wenn die Konnektivität wiederhergestellt ist.

Das 3DOS-Projekt veranschaulicht diese Vision praktisch: ein Blockchain-basiertes 3D-Drucknetzwerk, das die On-Demand-Fertigung ermöglicht, bei der Maschinen autonom Teile drucken. Zukünftige Iterationen sehen sich selbst reparierende Roboter vor, die Komponentenausfälle erkennen, Ersatzteile über Smart Contracts bestellen, nahegelegene 3D-Drucker über On-Chain-Discovery identifizieren, Druck und Lieferung koordinieren und Komponenten installieren – alles autonom. Dies ist keine Science-Fiction, sondern eine logische Erweiterung bestehender Fähigkeiten: Die Integration von ESP32- und Arduino-Mikrocontrollern unterstützt bereits grundlegende IoT-Geräte, BugDar bietet Sicherheitsaudits für Robotik-Smart Contracts, und Multi-Signatur-Genehmigungen ermöglichen eine abgestufte Autonomie mit menschlicher Aufsicht für kritische Operationen.

Die Quantenuhr tickt

Kostas Chalkias' Ton wechselt von philosophisch zu dringend, wenn er über Quantencomputing spricht. In einem Forschungsbericht vom Juli 2025 warnte er unverblümt: „Regierungen sind sich der Risiken des Quantencomputings sehr bewusst. Behörden weltweit haben Mandate erlassen, dass klassische Algorithmen wie ECDSA und RSA bis 2030 oder 2035 abgeschafft werden müssen.“ Seine Ankündigung auf Twitter begleitete die bahnbrechende Forschung von Mysten Labs, die im IACR ePrint Archive veröffentlicht wurde und zeigt, wie EdDSA-basierte Blockchains wie Sui, Solana, Near und Cosmos strukturelle Vorteile für den Quantenübergang besitzen, die Bitcoin und Ethereum nicht zur Verfügung stehen.

Die Bedrohung geht von Quantencomputern aus, die Shors Algorithmus ausführen, der große Zahlen effizient faktorisiert – die mathematische Härte, die der RSA-, ECDSA- und BLS-Kryptographie zugrunde liegt. Googles Willow-Quantenprozessor mit 105 Qubits signalisiert einen beschleunigten Fortschritt hin zu Maschinen, die klassische Verschlüsselung brechen können. Der „Jetzt speichern, später entschlüsseln“-Angriff verstärkt die Dringlichkeit: Angreifer sammeln heute verschlüsselte Daten und warten darauf, dass Quantencomputer sie rückwirkend entschlüsseln. Für Blockchain-Assets erklärte Chalkias gegenüber dem Decrypt Magazine: „Selbst wenn jemand seinen Bitcoin- oder Ethereum-Privatschlüssel noch besitzt, ist er möglicherweise nicht in der Lage, einen post-quantensicheren Eigentumsnachweis zu generieren, und dies hängt davon ab, wie dieser Schlüssel ursprünglich generiert wurde und wie viele seiner zugehörigen Daten im Laufe der Zeit exponiert wurden.“

Bitcoins besondere Anfälligkeit rührt von „schlafenden“ Wallets mit exponierten öffentlichen Schlüsseln her. Satoshi Nakamotos geschätzte 1 Million BTC befinden sich in frühen Adressen, die das Pay-to-Public-Key-Format verwenden – der öffentliche Schlüssel ist On-Chain sichtbar, anstatt hinter gehashten Adressen versteckt zu sein. Sobald Quantencomputer ausreichend skaliert sind, können diese Wallets sofort geleert werden. Chalkias' Einschätzung: „Sobald Quantencomputer verfügbar sind, könnten Millionen von Wallets, einschließlich der von Satoshi, sofort geleert werden. Wenn Ihr öffentlicher Schlüssel sichtbar ist, wird er irgendwann geknackt werden.“ Ethereum steht vor ähnlichen Herausforderungen, obwohl weniger exponierte öffentliche Schlüssel das unmittelbare Risiko mindern. Beide Chains erfordern gemeinschaftsweite Hard Forks mit beispielloser Koordination zur Migration – vorausgesetzt, es bildet sich ein Konsens um Post-Quanten-Algorithmen.

Suis EdDSA-Grundlage bietet einen eleganten Ausweg. Im Gegensatz zu den zufälligen privaten Schlüsseln von ECDSA leitet EdDSA Schlüssel deterministisch aus einem Seed unter Verwendung von Hash-Funktionen gemäß RFC 8032 ab. Dieser strukturelle Unterschied ermöglicht Zero-Knowledge Proofs über zk-STARKs (die post-quantensicher sind), die das Wissen über den zugrunde liegenden Seed beweisen, ohne elliptische Kurvendaten preiszugeben. Benutzer konstruieren Post-Quanten-Schlüsselpaare aus derselben Seed-Zufälligkeit, reichen ZK-Proofs ein, die identisches Eigentum demonstrieren, und wechseln zu quantensicheren Schemata, während die Adressen erhalten bleiben – keine Hard Fork erforderlich. Chalkias erläuterte dies während des Sui AMA im Juni 2022: „Wenn Sie deterministische Algorithmen wie EdDSA verwenden, gibt es eine Möglichkeit mit Stark Proofs, das Wissen über die Pyramiden Ihres privaten Schlüssels bei einer EdDSA-Schlüsselgenerierung zu beweisen, da intern eine Hash-Funktion verwendet wird.“

Kryptographische Agilität als strategischer Graben

Sui unterstützt mehrere Signaturschemata gleichzeitig durch vereinheitlichte Typ-Aliase im gesamten Code – EdDSA (Ed25519), ECDSA (für Ethereum-Kompatibilität) und geplante Post-Quanten-Algorithmen. Chalkias entwarf diese „kryptographische Agilität“ in der Erkenntnis, dass Permanenz in der Kryptographie eine Fantasie ist. Die Architektur ähnelt dem „Wechsel eines Schließzylinders“ statt dem Neuaufbau des gesamten Sicherheitssystems. Wenn von NIST empfohlene Post-Quanten-Algorithmen eingesetzt werden – CRYSTALS-Dilithium für Signaturen, FALCON für kompakte Alternativen, SPHINCS+ für Hash-basierte Schemata – integriert Sui diese durch unkomplizierte Updates statt grundlegender Protokoll-Umschreibungen.

Die Übergangsstrategien balancieren proaktive und adaptive Ansätze aus. Für neue Adressen können Benutzer PQ-signs-PreQ-Konfigurationen generieren, bei denen Post-Quanten-Schlüssel zum Zeitpunkt der Erstellung prä-quanten-öffentliche Schlüssel signieren, was eine reibungslose zukünftige Migration ermöglicht. Für bestehende Adressen bewahrt die zk-STARK-Proof-Methode Adressen, während sie quantensicheres Eigentum beweist. Die geschichtete Verteidigung priorisiert hochwertige Daten – private Wallet-Schlüssel erhalten sofortigen PQ-Schutz, während transiente private Daten langsameren Upgrade-Pfaden folgen. Hash-Funktionsausgaben werden von 256 Bit auf 384 Bit erweitert, um Kollisionsresistenz gegen Grovers Algorithmus zu gewährleisten, und symmetrische Verschlüsselungsschlüssellängen verdoppeln sich (AES bleibt mit größeren Schlüsseln quantenresistent).

Zero-Knowledge-Proof-Systeme erfordern sorgfältige Überlegung. Lineare PCPs wie Groth16 (die derzeit zkLogin antreiben) basieren auf paarungsfreundlichen elliptischen Kurven, die anfällig für Quantenangriffe sind. Suis Übergangs-Roadmap bewegt sich in Richtung Hash-basierter STARK-Systeme – Winterfell, mitentwickelt von Mysten Labs, verwendet nur Hash-Funktionen und bleibt plausibel post-quantensicher. Die zkLogin-Migration behält dieselben Adressen bei, während interne Schaltkreise aktualisiert werden, was eine Koordination mit OpenID-Anbietern erfordert, wenn diese PQ-JWT-Tokens übernehmen. Zufalls-Beacons und verteilte Schlüsselgenerierungsprotokolle wechseln von Schwellenwert-BLS-Signaturen zu gitterbasierten Alternativen wie HashRand- oder HERB-Schemata – interne Protokolländerungen, die für On-Chain-APIs unsichtbar sind.

Chalkias' Expertise erweist sich hier als entscheidend. Als Autor von BPQS (Blockchain Post-Quantum Signature), einer Variante des Hash-basierten XMSS-Schemas, bringt er Implementierungserfahrung über theoretisches Wissen hinaus mit. Sein Engagement vom Juni 2022 erwies sich als vorausschauend: „Wir werden unsere Chain so aufbauen, dass Menschen mit einem Knopfdruck tatsächlich zu Post-Quanten-Schlüsseln wechseln können.“ Die NIST-Fristen – 2030 für die Abschaffung klassischer Algorithmen, 2035 für die vollständige PQ-Einführung – verkürzen die Zeitpläne dramatisch. Suis Vorsprung positioniert es günstig, aber Chalkias betont die Dringlichkeit: „Wenn Ihre Blockchain souveräne Assets, nationale Krypto-Schatzkammern, ETFs oder CBDCs unterstützt, wird sie bald verpflichtet sein, Post-Quanten-Kryptographie-Standards zu übernehmen, wenn Ihre Community Wert auf langfristige Glaubwürdigkeit und Massenadoption legt.“

KI-Agenten generieren bereits 1,8 Milliarden US-Dollar an Wert

Das Ökosystem bewegt sich über die Infrastruktur hinaus in Produktionsanwendungen. Dolphin Agent (DOLA), spezialisiert auf Blockchain-Datenverfolgung und -analyse, erreichte eine Marktkapitalisierung von über 1,8 Milliarden US-Dollar – was die Nachfrage nach KI-gestützten Blockchain-Tools bestätigt. SUI Agents bietet die Bereitstellung von KI-Agenten mit einem Klick, einschließlich der Erstellung von Twitter-Personas, Tokenisierung und Handel innerhalb dezentraler Ökosysteme. Sentient AI sammelte 1,5 Millionen US-Dollar für konversationelle Chatbots, die Suis Sicherheit und Skalierbarkeit nutzen. DeSci Agents fördert wissenschaftliche Verbindungen wie Epitalon und Rapamycin durch rund um die Uhr KI-gesteuertes Engagement und überbrückt Forschung und Investitionen durch Token-Kopplung.

Die Integration von Atoma Network als Suis erstem Blockchain-KI-Inferenzpartner ermöglicht Funktionen, die von automatisierter Codegenerierung und -prüfung, Workflow-Automatisierung, DeFi-Risikoanalyse, Gaming-Asset-Generierung, Social-Media-Inhaltsklassifizierung bis hin zum DAO-Management reichen. Die Auswahl der Partnerschaft spiegelte technische Anforderungen wider: Atoma benötigte niedrige Latenz für interaktive KI, hohen Durchsatz für Skalierung, sicheres Eigentum für KI-Assets, verifizierbare Berechnungen, kostengünstigen Speicher und datenschutzfreundliche Optionen. Sui lieferte alle sechs. Während des Sui Basecamp 2025 hob Chalkias Projekte wie Aeon, Atomas KI-Agenten und Nautilus' Arbeit an verifizierbaren Off-Chain-Berechnungen als Beispiele dafür hervor, „wie Sui als Grundlage für die nächste Welle intelligenter, dezentraler Systeme dienen könnte“.

Die Google Cloud-Partnerschaft vertieft die Integration durch BigQuery-Zugriff auf Sui-Blockchain-Daten für Analysen, Vertex AI-Training in der Move-Programmiersprache für KI-gestützte Entwicklung, zkLogin-Unterstützung unter Verwendung von OAuth-Anmeldeinformationen (Google) für vereinfachten Zugriff und Infrastruktur zur Unterstützung der Netzwerkleistung und Skalierbarkeit. Die ChainIDE-Integration von Alibaba Cloud ermöglicht natürliche Sprachprompts für die Move-Codegenerierung – Entwickler schreiben „create a staking contract with 10% APY“ auf Englisch, Chinesisch oder Koreanisch und erhalten syntaktisch korrekten, dokumentierten Move-Code mit Sicherheitsprüfungen. Diese KI-gestützte Entwicklung demokratisiert den Blockchain-Aufbau und bewahrt gleichzeitig Moves Sicherheitsgarantien.

Die technischen Vorteile potenzieren sich für KI-Anwendungen. Objekteigentumsmodelle eignen sich für autonom agierende Agenten. Die parallele Ausführung ermöglicht Tausende gleichzeitiger KI-Operationen ohne Beeinträchtigung. Sub-Sekunden-Finalität unterstützt interaktive Benutzererlebnisse. Walrus-Speicher verarbeitet Trainingsdatensätze wirtschaftlich. Gesponserte Transaktionen eliminieren Gas-Reibung für Benutzer. zkLogin eliminiert Seed-Phrase-Barrieren. Programmierbare Transaktionsblöcke orchestrieren komplexe Workflows atomar. Formale Verifizierungsoptionen beweisen die Korrektheit von KI-Agenten mathematisch. Dies sind keine isolierten Funktionen, sondern integrierte Fähigkeiten, die eine kohärente Entwicklungsumgebung bilden.

Vergleich der Konkurrenten

Suis Spitzenwert von 297.000 TPS und 390 ms Konsenslatenz übertreffen Ethereums durchschnittliche 11,3 TPS und 12-13 Minuten Finalität um Größenordnungen. Gegenüber Solana – seinem engsten Leistungs-Konkurrenten – erreicht Sui eine 32-fach schnellere Finalität (0,4 Sekunden gegenüber 12,8 Sekunden), obwohl Solana 400 ms Slot-Zeiten hat, da Solana mehrere Bestätigungen für die wirtschaftliche Finalität benötigt. Eine reale Messung aus dem Bericht der Phoenix Group vom August 2025 zeigte, dass Sui 3.900 TPS verarbeitete gegenüber Solanas 92,1 TPS, was die operative und nicht die theoretische Leistung widerspiegelt. Die Transaktionskosten bleiben auf Sui vorhersehbar niedrig (durchschnittlich ~0,0087 $, unter einem Cent) ohne Solanas historische Überlastungs- und Ausfallprobleme.

Architektonische Unterschiede erklären Leistungsunterschiede. Suis objektzentriertes Modell ermöglicht eine inhärente Parallelisierung – 300.000 einfache Übertragungen pro Sekunde erfordern keine Konsenskoordination. Ethereum und Bitcoin verarbeiten jede Transaktion sequenziell durch vollständigen Konsens. Solana parallelisiert durch Sealevel, verwendet aber eine optimistische Ausführung, die eine nachträgliche Verifizierung erfordert. Aptos, ebenfalls die Move-Sprache nutzend, implementiert Block-STM optimistische Ausführung anstelle von Suis Zustandszugriffsmethode. Für KI- und Robotik-Anwendungen, die eine vorhersehbare niedrige Latenz erfordern, bietet Suis explizite Abhängigkeitsdeklaration Determinismus, den optimistische Ansätze nicht garantieren können.

Die Quantenpositionierung weicht noch stärker ab. Bitcoin und Ethereum verwenden secp256k1 ECDSA-Signaturen ohne abwärtskompatiblen Upgrade-Pfad – der Quantenübergang erfordert Hard Forks, Adressänderungen, Asset-Migrationen und eine Community-Governance, die wahrscheinlich zu Chain-Splits führen wird. Solana teilt Suis EdDSA-Vorteil, ermöglicht ähnliche zk-STARK-Übergangsstrategien und führt Winternitz Vault Hash-basierte Einmal-Signaturen ein. Near und Cosmos profitieren ebenfalls von EdDSA. Aptos verwendet Ed25519, hat aber eine weniger entwickelte Roadmap für die Quantenbereitschaft. Chalkias' Forschungsarbeit vom Juli 2025 stellte explizit fest, dass die Ergebnisse „für Sui, Solana, Near, Cosmos und andere EdDSA-basierte Chains funktionieren, aber nicht für Bitcoin und Ethereum.“

Die Ökosystemreife begünstigt Konkurrenten vorübergehend. Solana startete 2020 mit etablierten DeFi-Protokollen, NFT-Marktplätzen und Entwicklergemeinschaften. Ethereums Start im Jahr 2015 verschaffte Vorteile als Erstanbieter bei Smart Contracts, institutioneller Akzeptanz und Netzwerkeffekten. Sui startete im Mai 2023 – kaum zweieinhalb Jahre alt – mit über 2 Milliarden US-Dollar TVL und 65.900 aktiven Adressen, die schnell wachsen, aber weit unter Solanas 16,1 Millionen liegen. Die technische Überlegenheit schafft Chancen: Entwickler, die heute auf Sui aufbauen, positionieren sich für das Ökosystemwachstum, anstatt sich etablierten, überfüllten Plattformen anzuschließen. Chalkias' Interview bei London Real spiegelte dieses Vertrauen wider: „Ehrlich gesagt, wäre ich überhaupt nicht überrascht, wenn Mysten Labs und alles, was es berührt, das übertrifft, was Apple heute ist.“

Synergien zwischen scheinbar unterschiedlichen Visionen

Die Erzählungen über KI, Robotik und Quantenresistenz erscheinen zunächst unzusammenhängend, bis man ihre technischen Interdependenzen erkennt. KI-Agenten benötigen niedrige Latenz und hohen Durchsatz – Sui bietet beides. Robotische Koordination erfordert Echtzeit-Operationen ohne zentrale Autorität – Suis Objektmodell und Sub-Sekunden-Finalität liefern dies. Post-Quanten-Sicherheit erfordert kryptographische Flexibilität und eine zukunftsorientierte Architektur – Sui hat dies von Anfang an aufgebaut. Dies sind keine separaten Produktlinien, sondern vereinheitlichte technische Anforderungen für die Technologielandschaft von 2030-2035.

Betrachten Sie die autonome Fertigung: KI-Systeme analysieren Nachfrageprognosen und Materialverfügbarkeit und bestimmen optimale Produktionspläne. Robotische Agenten erhalten verifizierte Anweisungen durch Blockchain-Koordination, wodurch Authentizität ohne zentrale Kontrolle gewährleistet wird. Jeder Roboter agiert als eigenes Objekt, das Aufgaben parallel verarbeitet und bei Bedarf über gemeinsame Objekte koordiniert. Mikrozahlungen werden sofort für erbrachte Dienstleistungen abgewickelt – Roboter A liefert Materialien an Roboter B, Roboter B verarbeitet Komponenten für Roboter C. Das System funktioniert bei Konnektivitätsstörungen internetlos und synchronisiert sich, wenn die Netzwerke wiederhergestellt sind. Und entscheidend ist, dass alle Kommunikationen durch post-quanten-kryptographische Schemata sicher gegen Quantengegner bleiben, wodurch geistiges Eigentum und Betriebsdaten vor „Jetzt speichern, später entschlüsseln“-Angriffen geschützt werden.

Das Gesundheitsdatenmanagement ist ein weiteres Beispiel für Konvergenz. KI-Modelle trainieren auf medizinischen Datensätzen, die in Walrus mit kryptographischen Verfügbarkeitsnachweisen gespeichert sind. Zero-Knowledge Proofs wahren die Privatsphäre der Patienten und ermöglichen gleichzeitig Forschung. Robotische Chirurgiesysteme koordinieren über Blockchain für Audit-Trails und Haftungsdokumentation. Post-Quanten-Verschlüsselung schützt sensible medizinische Aufzeichnungen vor langfristigen Bedrohungen. Die Koordinationsschicht (Suis Blockchain) ermöglicht institutionellen Datenaustausch ohne Vertrauen, KI-Berechnungen ohne Kompromittierung der Privatsphäre und zukunftssichere Sicherheit ohne periodischen Infrastrukturwechsel.

Chalkias' Vision auf dem Sui Basecamp 2025 fasst diese Synthese zusammen: Sui als „Grundlage für die nächste Welle intelligenter, dezentraler Systeme“ mit „wachsender Kapazität zur Unterstützung von KI-nativen und rechenintensiven Anwendungen“ zu positionieren. Die modulare Architektur – Sui für Berechnungen, Walrus für Speicher, Scion für Konnektivität, zkLogin für Identität – schafft das, was Teammitglieder als „Blockchain-Betriebssystem“ und nicht als eng gefasstes Finanzbuch bezeichnen. Der internetlose Modus, quantensichere Kryptographie und Sub-Sekunden-Finalität sind keine Feature-Checklisten, sondern Voraussetzungen für autonome Systeme, die in feindlichen Umgebungen mit unzuverlässiger Infrastruktur operieren.

Die Innovationsmethodik hinter technischer Führung

Das Verständnis des Ansatzes von Mysten Labs erklärt die Konsistenz der Ausführung. Chalkias formulierte die Philosophie in seinem Blogbeitrag „Build Beyond“: „Mysten Labs ist wirklich gut darin, neue Theorien in diesem Bereich zu finden, die noch niemand implementiert hat, bei denen einige der Annahmen möglicherweise nicht zutreffen. Aber wir verbinden sie mit der bestehenden Technologie, die wir haben, und letztendlich treibt uns das dazu an, ein neuartiges Produkt zu schaffen.“ Dies beschreibt einen systematischen Prozess: akademische Forschung mit praktischem Potenzial identifizieren, ungetestete Annahmen durch technische Strenge hinterfragen, in Produktionssysteme integrieren und durch Bereitstellung validieren.

Das Mysticeti-Konsensprotokoll veranschaulicht dies. Akademische Forschung etablierte drei Nachrichtenrunden als theoretisches Minimum für das Byzantine-Konsens-Commitment. Frühere Implementierungen erforderten 1,5 Roundtrips mit Quorum-Signaturen pro Block. Mysten Labs entwickelte unzertifizierte DAG-Strukturen, die eine explizite Zertifizierung eliminieren, implementierte optimale Commit-Regeln über DAG-Muster anstelle von Abstimmungsmechanismen und demonstrierte eine 80%ige Latenzreduzierung gegenüber dem früheren Narwhal-Bullshark-Konsens. Das Ergebnis: ein Peer-Review-Papier mit formalen Beweisen, begleitet von einer Produktionsimplementierung, die Milliarden von Transaktionen verarbeitet.

Eine ähnliche Methodik gilt für die Kryptographie. BPQS (Chalkias' Blockchain Post-Quanten-Signaturschema) adaptiert Hash-basierte XMSS-Signaturen für Blockchain-Einschränkungen. Winterfell implementiert den ersten Open-Source-STARK-Prover, der nur Hash-Funktionen für Post-Quanten-Sicherheit verwendet. zkLogin kombiniert OAuth-Authentifizierung mit Zero-Knowledge Proofs, wodurch zusätzliche vertrauenswürdige Parteien eliminiert und gleichzeitig die Privatsphäre gewahrt werden. Jede Innovation adressiert eine praktische Barriere (Post-Quanten-Sicherheit, ZK-Proof-Zugänglichkeit, Benutzer-Onboarding-Reibung) durch neuartige kryptographische Konstruktion, gestützt durch formale Analyse.

Die Teamzusammensetzung verstärkt diese Fähigkeit. Ingenieure von Meta bauten Authentifizierung für Milliarden, von der NASA entwickelten sicherheitskritische verteilte Systeme, von Uber skalierten Echtzeit-Koordination global. Chalkias bringt kryptographische Expertise von Facebook/Diem, R3/Corda und aus der akademischen Forschung mit. Dies ist kein traditionelles Startup-Team, das unterwegs lernt, sondern Veteranen, die Systeme ausführen, die sie zuvor gebaut haben, jetzt ungebunden von Unternehmensprioritäten. Die Finanzierung von 336 Millionen US-Dollar von a16z, Coinbase Ventures und Binance Labs spiegelt das Vertrauen der Investoren in die Ausführungsfähigkeit gegenüber spekulativer Technologie wider.

Herausforderungen und Überlegungen jenseits des Hypes

Technische Überlegenheit garantiert keine Marktakzeptanz – eine Lektion, die in der Technologiegeschichte immer wieder gelernt wurde. Suis 65.900 aktive Adressen verblassen gegenüber Solanas 16,1 Millionen, trotz der wohl besseren Technologie. Netzwerkeffekte verstärken sich: Entwickler bauen dort, wo Benutzer sich versammeln, Benutzer kommen dorthin, wo Anwendungen existieren, wodurch Lock-in-Vorteile für etablierte Plattformen entstehen. Ethereums „langsamere und teurere“ Blockchain beansprucht durch bloße Amtsinhaberschaft um Größenordnungen mehr Entwickler-Mindshare als technisch überlegene Alternativen.

Die Positionierung als „Blockchain-Betriebssystem“ birgt das Risiko der Verwässerung – der Versuch, gleichzeitig in den Bereichen Finanzen, soziale Anwendungen, Gaming, KI, Robotik, IoT und dezentraler Speicher zu glänzen, kann zu Mittelmäßigkeit in allen Bereichen statt zu Exzellenz in einem führen. Kritiker, die diese Bedenken äußern, verweisen auf eine begrenzte Robotik-Bereitstellung jenseits von Proof-of-Concepts, KI-Projekte, die sich hauptsächlich in der Spekulationsphase statt in der Produktionsnutzung befinden, und die Vorbereitung auf Quantensicherheit für Bedrohungen, die fünf bis zehn Jahre entfernt liegen. Das Gegenargument besagt, dass modulare Komponenten eine fokussierte Entwicklung ermöglichen – Teams, die KI-Anwendungen entwickeln, nutzen Atoma-Inferenz und Walrus-Speicher, ohne sich um die Robotik-Integration kümmern zu müssen.

Post-Quanten-Kryptographie führt nicht-triviale Overheads ein. CRYSTALS-Dilithium-Signaturen messen bei Sicherheitsstufe 2 3.293 Bytes gegenüber Ed25519s 64 Bytes – über 50-mal größer. Netzwerkbandbreite, Speicherkosten und Verarbeitungszeit steigen proportional an. Verbesserungen bei der Batch-Verifizierung bleiben begrenzt (20-50 % Beschleunigung gegenüber unabhängiger Verifizierung) im Vergleich zur effizienten Batch-Verarbeitung klassischer Schemata. Migrationsrisiken umfassen Benutzerfehler während des Übergangs, Koordination zwischen Ökosystemteilnehmern (Wallets, dApps, Börsen), Anforderungen an die Abwärtskompatibilität und Schwierigkeiten beim Testen in großem Maßstab ohne echte Quantencomputer. Die Unsicherheit des Zeitplans erschwert die Planungsherausforderungen – der Fortschritt des Quantencomputings bleibt unvorhersehbar, NIST-Standards entwickeln sich ständig weiter, und neue kryptanalytische Angriffe könnten gegen PQ-Schemata entstehen.

Das Markttiming stellt vielleicht das größte Risiko dar. Suis Vorteile manifestieren sich am dramatischsten im Zeitraum 2030-2035: wenn Quantencomputer die klassische Kryptographie bedrohen, wenn autonome Systeme sich verbreiten und vertrauenslose Koordination erfordern, wenn KI-Agenten signifikanten wirtschaftlichen Wert verwalten und sichere Infrastruktur benötigen. Wenn die Blockchain-Adoption vor dieser Konvergenz stagniert, wird technische Führung irrelevant. Umgekehrt, wenn die Adoption früher explodiert, könnte Suis neueres Ökosystem trotz überlegener Leistung an Anwendungen und Liquidität mangeln, um Benutzer anzuziehen. Die Investitionsthese erfordert nicht nur den Glauben an Suis Technologie, sondern auch an die zeitliche Abstimmung zwischen der Reifung der Blockchain und der Einführung neuer Technologien.

Die jahrzehntelange Wette auf erste Prinzipien

Kostas Chalkias' Namensgebung seines Sohnes Kryptos ist keine charmante Anekdote, sondern ein Signal für die Tiefe seines Engagements. Sein Karriereweg – von der KI-Forschung zur Kryptographie, von akademischen Publikationen zu Produktionssystemen bei Meta, von der Enterprise-Blockchain bei R3 zur Layer-1-Architektur bei Mysten Labs – zeigt eine konsequente Konzentration auf grundlegende Technologien in großem Maßstab. Die Arbeit an der Quantenresistenz begann vor Googles Willow-Ankündigung, als Post-Quanten-Kryptographie noch eine theoretische Sorge schien. Die Robotik-Integration begann, bevor KI-Agenten Milliarden-Dollar-Bewertungen erreichten. Die architektonischen Entscheidungen, die diese Fähigkeiten ermöglichen, gehen der Marktanerkennung ihrer Bedeutung voraus.

Diese vorausschauende Ausrichtung steht im Gegensatz zur reaktiven Entwicklung, die im Krypto-Bereich üblich ist. Ethereum führt Layer-2-Rollups ein, um Skalierungsengpässe zu beheben, die nach der Bereitstellung auftreten. Solana implementiert QUIC-Kommunikation und Stake-gewichtetes QoS als Reaktion auf Netzwerkausfälle und Überlastung. Bitcoin debattiert über Blockgrößen-Erhöhungen und die Einführung des Lightning Network, wenn die Transaktionsgebühren in die Höhe schnellen. Sui entwarf parallele Ausführung, objektzentrierte Datenmodelle und kryptographische Agilität vor dem Start des Mainnets – um erwartete Anforderungen statt entdeckter Probleme zu adressieren.

Die Forschungskultur verstärkt diesen Ansatz. Mysten Labs veröffentlicht akademische Arbeiten mit formalen Beweisen, bevor es Fähigkeiten beansprucht. Das Mysticeti-Konsenspapier erschien in Peer-Review-Publikationen mit Korrektheitsbeweisen und Leistungsbenchmarks. Die Forschung zum Quantenübergang, die im IACR ePrint Archive eingereicht wurde, demonstriert EdDSA-Vorteile durch mathematische Konstruktion, nicht durch Marketingaussagen. Das zkLogin-Papier (arXiv 2401.11735) beschreibt die Zero-Knowledge-Authentifizierung vor der Bereitstellung. Chalkias pflegt aktive GitHub-Beiträge (kchalkias), veröffentlicht technische Einblicke auf LinkedIn und Twitter, präsentiert auf PQCSA-Workshops zu Quantenbedrohungen und engagiert sich substanziell in der Kryptographie-Community, anstatt ausschließlich Sui zu bewerben.

Die ultimative Validierung erfolgt in 5-10 Jahren, wenn Quantencomputer reifen, autonome Systeme sich verbreiten und KI-Agenten Billionen-Dollar-Ökonomien verwalten. Wenn Sui seine Roadmap konsequent umsetzt – Post-Quanten-Signaturen vor der NIST-Frist 2030 bereitstellt, Robotik-Koordination in großem Maßstab demonstriert und KI-Inferenzschichten unterstützt, die Millionen von Anfragen verarbeiten – wird es zur Infrastrukturschicht für Technologien, die die Zivilisation neu gestalten. Wenn Quantencomputer später als vorhergesagt eintreffen, die autonome Adoption stagniert oder Konkurrenten erfolgreich Lösungen nachrüsten, könnten Suis frühe Investitionen sich als verfrüht erweisen. Die Wette konzentriert sich nicht auf die technologische Leistungsfähigkeit – Sui liefert nachweislich die versprochene Leistung – sondern auf das Markttiming und die Dringlichkeit des Problems.

Chalkias' Perspektive während der Emergence Conference fasst dies prägnant zusammen: „Irgendwann wird die Blockchain sogar Visa in puncto Transaktionsgeschwindigkeit übertreffen. Es wird die Norm sein. Ich sehe nicht, wie wir dem entkommen können.“ Die Behauptung der Unvermeidlichkeit setzt die richtige technische Richtung, ausreichende Ausführungsqualität und eine abgestimmte Zeitplanung voraus. Sui positioniert sich, um zu profitieren, wenn diese Annahmen zutreffen. Die objektzentrierte Architektur, kryptographische Agilität, Sub-Sekunden-Finalität und systematische Forschungsmethodik sind keine Nachrüstungen, sondern grundlegende Entscheidungen, die für die Technologielandschaft des nächsten Jahrzehnts konzipiert wurden. Ob Sui die Marktführerschaft erringt oder diese Fähigkeiten zum Standard über alle Blockchains hinweg werden, Kostas Chalkias und Mysten Labs entwerfen die Infrastruktur für die autonome Intelligenz des Quantenzeitalters – ein kryptographisches Primitiv, eine Millisekunde Latenzreduzierung, ein Proof-of-Concept-Roboter nach dem anderen.

Dezentrale KI-Inferenzmärkte: Bittensor, Gensyn und Cuckoo AI

· 62 Min. Lesezeit
Dora Noda
Software Engineer

Einführung

Dezentrale KI-Inferenz-/Trainingsmärkte zielen darauf ab, globale Rechenressourcen und Community-Modelle auf vertrauenslose Weise zu nutzen. Projekte wie Bittensor, Gensyn und Cuckoo Network (Cuckoo AI) veranschaulichen, wie Blockchain-Technologie offene KI-Marktplätze antreiben kann. Jede Plattform tokenisiert wichtige KI-Assets – Rechenleistung, Machine-Learning-Modelle und manchmal auch Daten – in On-Chain-Wirtschaftseinheiten. Im Folgenden gehen wir auf die technischen Architekturen dieser Netzwerke ein, wie sie Ressourcen tokenisieren, ihre Governance- und Anreizstrukturen, Methoden zur Verfolgung des Modelleigentums, Umsatzbeteiligungsmechanismen und die Angriffsflächen (z. B. Sybil-Angriffe, Kollusion, Trittbrettfahren, Vergiftung), die dabei entstehen. Eine vergleichende Tabelle am Ende fasst alle wichtigen Dimensionen von Bittensor, Gensyn und Cuckoo AI zusammen.

Technische Architekturen

Bittensor: Dezentrales „Neuronales Internet“ auf Subnetzen

Bittensor basiert auf einer benutzerdefinierten Layer-1-Blockchain (der Subtensor-Kette, basierend auf Substrate), die ein Netzwerk von KI-Modellknoten über viele spezialisierte Subnetze koordiniert. Jedes Subnetz ist ein unabhängiges Mini-Netzwerk, das sich auf eine bestimmte KI-Aufgabe konzentriert (zum Beispiel ein Subnetz für Sprachgenerierung, ein anderes für Bildgenerierung usw.). Die Teilnehmer in Bittensor übernehmen unterschiedliche Rollen:

  • Miner – Sie betreiben Machine-Learning-Modelle auf ihrer Hardware und liefern Inferenzantworten (oder führen sogar Trainings durch) für die Aufgabe des Subnetzes. Im Wesentlichen ist ein Miner ein Knoten, der ein KI-Modell hostet, das Anfragen beantwortet.
  • Validatoren – Sie fragen die Modelle der Miner mit Prompts ab und bewerten die Qualität der Antworten, um eine Meinung darüber zu bilden, welche Miner wertvolle Ergebnisse liefern. Validatoren bewerten effektiv die Leistung der Miner.
  • Subnetz-Besitzer – Sie erstellen und definieren Subnetze und legen die Regeln fest, welche Aufgaben erledigt werden und wie die Validierung in diesem Subnetz durchgeführt wird. Ein Subnetz-Besitzer könnte zum Beispiel festlegen, dass ein Subnetz für einen bestimmten Datensatz oder eine bestimmte Modalität bestimmt ist und das Validierungsverfahren definieren.
  • Delegatoren – Token-Inhaber, die keine Knoten betreiben, können ihre Bittensor-Tokens (TAO) an Miner oder Validatoren delegieren (staken), um die besten Performer zu unterstützen und einen Anteil an den Belohnungen zu verdienen (ähnlich dem Staking in Proof-of-Stake-Netzwerken).

Der Konsensmechanismus von Bittensor ist neuartig: Anstelle der traditionellen Blockvalidierung verwendet Bittensor den Yuma-Konsens, eine Form des „Proof-of-Intelligence“. Im Yuma-Konsens werden die Bewertungen der Miner durch Validatoren On-Chain aggregiert, um die Belohnungsverteilung zu bestimmen. Alle 12 Sekunden prägt das Netzwerk neue TAO-Tokens und verteilt sie gemäß dem Konsens der Validatoren darüber, welche Miner nützliche Arbeit geleistet haben. Die Bewertungen der Validatoren werden in einem stake-gewichteten Median-Schema kombiniert: Ausreißermeinungen werden beschnitten und die ehrliche Mehrheitsmeinung setzt sich durch. Das bedeutet, wenn die meisten Validatoren zustimmen, dass ein Miner qualitativ hochwertig war, erhält dieser Miner eine hohe Belohnung; weicht ein Validator stark von anderen ab (möglicherweise aufgrund von Kollusion oder Fehler), wird dieser Validator bestraft, indem er weniger verdient. Auf diese Weise koordiniert die Blockchain von Bittensor eine Miner-Validator-Feedbackschleife: Miner konkurrieren darum, die besten KI-Outputs zu produzieren, und Validatoren kuratieren und bewerten diese Outputs, wobei beide Seiten Tokens proportional zum von ihnen hinzugefügten Wert verdienen. Diese Architektur wird oft als „dezentrales neuronales Netzwerk“ oder „globales Gehirn“ beschrieben, in dem Modelle voneinander lernen und sich kollektiv entwickeln. Bemerkenswert ist, dass Bittensor kürzlich seine Kette aktualisiert hat, um EVM-Kompatibilität (für Smart Contracts) zu unterstützen, und dTAO eingeführt hat, ein System von Subnetz-spezifischen Tokens und Staking (später erklärt), um die Kontrolle über die Ressourcenzuweisung weiter zu dezentralisieren.

Gensyn: Vertrauensloses verteiltes Rechenprotokoll

Gensyn nähert sich dezentraler KI aus dem Blickwinkel eines verteilten Rechenprotokolls für Machine Learning. Seine Architektur verbindet Entwickler (Submitter), die KI-Aufgaben haben (wie das Trainieren eines Modells oder das Ausführen eines Inferenz-Jobs), mit Rechenanbietern (Solver) weltweit, die über freie GPU-/TPU-Ressourcen verfügen. Ursprünglich plante Gensyn eine Substrate L1-Kette, schwenkte aber auf den Bau auf Ethereum als Rollup um, um stärkere Sicherheit und Liquidität zu gewährleisten. Das Gensyn-Netzwerk ist somit ein Ethereum Layer-2 (ein Ethereum-Rollup), das Job-Anzeigen und Zahlungen koordiniert, während die Berechnung Off-Chain auf der Hardware der Anbieter stattfindet.

Eine Kerninnovation des Gensyn-Designs ist sein Verifizierungssystem für Off-Chain-Arbeit. Gensyn verwendet eine Kombination aus optimistischer Verifizierung (Fraud Proofs) und kryptografischen Techniken, um sicherzustellen, dass das Ergebnis korrekt ist, wenn ein Solver behauptet, eine Trainings-/Inferenzaufgabe ausgeführt zu haben. In der Praxis umfasst das Protokoll mehrere Teilnehmerrollen:

  • Submitter – die Partei, die einen Job anfordert (zum Beispiel jemand, der ein Modell trainieren lassen muss). Sie zahlen die Netzwerkgebühr und stellen das Modell/die Daten oder die Spezifikation der Aufgabe bereit.
  • Solver – ein Knoten, der für die ML-Aufgabe auf seiner Hardware bietet und diese ausführt. Er trainiert das Modell oder führt die Inferenz wie angefordert aus und übermittelt dann die Ergebnisse und einen Berechnungsnachweis.
  • Verifier/Challenger – Knoten, die die Arbeit des Solvers prüfen oder stichprobenartig überprüfen können. Gensyn implementiert ein Truebit-ähnliches Schema, bei dem das Ergebnis eines Solvers standardmäßig akzeptiert wird, ein Verifier es jedoch innerhalb eines Zeitfensters anfechten kann, wenn er eine falsche Berechnung vermutet. Bei einer Anfechtung wird eine interaktive „binäre Suche“ durch die Berechnungsschritte (ein Fraud-Proof-Protokoll) verwendet, um jede Diskrepanz zu lokalisieren. Dies ermöglicht es der Kette, Streitigkeiten zu lösen, indem nur ein minimaler kritischer Teil der Berechnung On-Chain durchgeführt wird, anstatt die gesamte teure Aufgabe zu wiederholen.

Entscheidend ist, dass Gensyn so konzipiert ist, dass die massive Redundanz naiver Ansätze vermieden wird. Anstatt dass viele Knoten alle denselben ML-Job wiederholen (was Kosteneinsparungen zunichte machen würde), verwendet Gensyns „Proof-of-Learning“-Ansatz Trainingsmetadaten, um zu überprüfen, ob Lernfortschritte erzielt wurden. Zum Beispiel könnte ein Solver kryptografische Hashes oder Checkpoints von Zwischenmodellgewichten und einen prägnanten Nachweis liefern, dass diese gemäß den Trainingsaktualisierungen fortgeschritten sind. Dieser probabilistische Proof-of-Learning kann viel kostengünstiger überprüft werden als das erneute Ausführen des gesamten Trainings, was eine vertrauenslose Verifizierung ohne vollständige Replikation ermöglicht. Nur wenn ein Verifier eine Anomalie feststellt, würde als letztes Mittel eine aufwändigere On-Chain-Berechnung ausgelöst. Dieser Ansatz reduziert den Overhead im Vergleich zur Brute-Force-Verifizierung drastisch, wodurch dezentrales ML-Training praktikabler wird. Gensyns Architektur betont daher stark das kryptoökonomische Spieldesign: Solver hinterlegen einen Stake oder eine Anleihe, und wenn sie betrügen (falsche Ergebnisse einreichen), verlieren sie diesen Stake an ehrliche Verifier, die sie erwischen. Durch die Kombination von Blockchain-Koordination (für Zahlungen und Streitbeilegung) mit Off-Chain-Compute und cleverer Verifizierung schafft Gensyn einen Marktplatz für ML-Compute, der ungenutzte GPUs überall nutzen kann, während die Vertrauenslosigkeit erhalten bleibt. Das Ergebnis ist ein Hyperscale-„Compute-Protokoll“, bei dem jeder Entwickler bei Bedarf auf erschwingliche, global verteilte Trainingsleistung zugreifen kann.

Cuckoo AI: Full-Stack dezentrale KI-Serviceplattform

Cuckoo Network (oder Cuckoo AI) verfolgt einen stärker vertikal integrierten Ansatz und zielt darauf ab, End-to-End dezentrale KI-Dienste anstatt nur rohe Rechenleistung bereitzustellen. Cuckoo baute seine eigene Blockchain (ursprünglich eine Layer-1 namens Cuckoo Chain auf Arbitrum Orbit, einem Ethereum-kompatiblen Rollup-Framework), um alles zu orchestrieren: Sie gleicht nicht nur Jobs mit GPUs ab, sondern hostet auch KI-Anwendungen und wickelt Zahlungen in einem System ab. Das Design ist Full-Stack: Es kombiniert eine Blockchain für Transaktionen und Governance, eine dezentrale GPU-/CPU-Ressourcenschicht und benutzerorientierte KI-Anwendungen und APIs darüber. Mit anderen Worten, Cuckoo integriert alle drei Schichten – Blockchain, Compute und KI-Anwendung – innerhalb einer einzigen Plattform.

Die Teilnehmer in Cuckoo lassen sich in vier Gruppen einteilen:

  • KI-App-Entwickler (Koordinatoren) – Dies sind Entwickler, die KI-Modelle oder -Dienste auf Cuckoo bereitstellen. Zum Beispiel könnte ein Entwickler einen Stable Diffusion Bildgenerator oder einen LLM-Chatbot als Dienst hosten. Sie betreiben Koordinator-Knoten, die für die Verwaltung ihres Dienstes verantwortlich sind: Benutzeranfragen annehmen, diese in Aufgaben aufteilen und diese Aufgaben den Minern zuweisen. Koordinatoren staken den nativen Token ($CAI), um dem Netzwerk beizutreten und das Recht zu erhalten, Miner zu nutzen. Sie fungieren im Wesentlichen als Layer-2-Orchestratoren, die zwischen Benutzern und den GPU-Anbietern vermitteln.
  • GPU-/CPU-Miner (Aufgabenknoten) – Dies sind die Ressourcenanbieter. Miner betreiben den Cuckoo-Aufgabenclient und stellen ihre Hardware zur Verfügung, um Inferenzaufgaben für die KI-Apps auszuführen. Zum Beispiel könnte einem Miner von einem Koordinator eine Bildgenerierungsanfrage (mit einem bestimmten Modell und Prompt) zugewiesen werden, und er verwendet seine GPU, um das Ergebnis zu berechnen. Miner müssen ebenfalls $CAI staken, um Engagement und gutes Verhalten zu gewährleisten. Sie verdienen Token-Belohnungen für jede korrekt abgeschlossene Aufgabe.
  • Endbenutzer – die Konsumenten der KI-Anwendungen. Sie interagieren über Cuckoos Webportal oder APIs (zum Beispiel Kunst generieren über CooVerse oder mit KI-Persönlichkeiten chatten). Benutzer können entweder mit Krypto für jede Nutzung bezahlen oder möglicherweise ihre eigene Rechenleistung (oder ihren Stake) beisteuern, um die Nutzungskosten auszugleichen. Ein wichtiger Aspekt ist die Zensurresistenz: Wenn ein Koordinator (Dienstanbieter) blockiert wird oder ausfällt, können Benutzer zu einem anderen wechseln, der dieselbe Anwendung bereitstellt, da mehrere Koordinatoren ähnliche Modelle im dezentralen Netzwerk hosten könnten.
  • Staker (Delegatoren) – Community-Mitglieder, die keine KI-Dienste oder Mining-Hardware betreiben, können dennoch teilnehmen, indem sie $CAI auf diejenigen staken, die dies tun. Indem sie mit ihrem Stake auf vertrauenswürdige Koordinatoren oder Miner stimmen, helfen sie, Reputation zu signalisieren und verdienen im Gegenzug einen Anteil an den Netzwerkbelohnungen. Dieses Design baut eine Web3-Reputationsschicht auf: Gute Akteure ziehen mehr Stake an (und damit Vertrauen und Belohnungen), während schlechte Akteure Stake und Reputation verlieren. Sogar Endbenutzer können in einigen Fällen staken, wodurch sie mit dem Erfolg des Netzwerks in Einklang gebracht werden.

Die Cuckoo-Kette (die sich derzeit im Übergang von einer eigenständigen Kette zu einem Shared-Security-Rollup befindet) verfolgt all diese Interaktionen. Wenn ein Benutzer einen KI-Dienst aufruft, erstellt der Koordinator-Knoten On-Chain-Aufgabenzuweisungen für Miner. Die Miner führen die Aufgaben Off-Chain aus und senden die Ergebnisse an den Koordinator zurück, der sie validiert (z. B. überprüft, ob das Ausgabebild oder der Text kein Kauderwelsch ist) und das Endergebnis an den Benutzer liefert. Die Blockchain wickelt die Zahlungsabwicklung ab: Für jede Aufgabe zahlt der Smart Contract des Koordinators den Miner in $CAI (oft werden Mikrozahlungen zu täglichen Auszahlungen aggregiert). Cuckoo betont Vertrauenslosigkeit und Transparenz – alle Teilnehmer staken Tokens und alle Aufgabenzuweisungen und -abschlüsse werden aufgezeichnet, sodass Betrug durch die Androhung des Verlusts des Stakes und durch die öffentliche Sichtbarkeit der Leistung entmutigt wird. Das modulare Design des Netzwerks bedeutet, dass neue KI-Modelle oder Anwendungsfälle einfach hinzugefügt werden können: Obwohl es mit der Text-zu-Bild-Generierung als Proof of Concept begann, ist seine Architektur allgemein genug, um andere KI-Workloads (z. B. Sprachmodell-Inferenz, Audiotranskription usw.) zu unterstützen.

Ein bemerkenswerter Aspekt der Cuckoo-Architektur ist, dass sie ursprünglich eine eigene Layer-1-Blockchain startete, um den Durchsatz für KI-Transaktionen zu maximieren (während der Tests erreichte sie Spitzenwerte von 300.000 täglichen Transaktionen). Dies ermöglichte benutzerdefinierte Optimierungen für die KI-Aufgabenplanung. Das Team stellte jedoch fest, dass die Wartung einer eigenständigen L1 kostspielig und komplex war, und beschloss Mitte 2025, die benutzerdefinierte Kette einzustellen und zu einem Rollup-/AVS-Modell (Active Validated Service) auf Ethereum zu migrieren. Dies bedeutet, dass Cuckoo die Sicherheit von Ethereum oder einem L2 wie Arbitrum erben wird, anstatt einen eigenen Konsens zu betreiben, aber seinen dezentralen KI-Marktplatz auf dieser gemeinsamen Sicherheitsschicht weiter betreiben wird. Die Änderung soll die wirtschaftliche Sicherheit verbessern (durch Nutzung der Robustheit von Ethereum) und dem Cuckoo-Team ermöglichen, sich auf das Produkt statt auf die Wartung der Low-Level-Kette zu konzentrieren. Zusammenfassend schafft Cuckoos Architektur eine dezentrale KI-Bereitstellungsplattform, auf der jeder Hardware anschließen oder einen KI-Modell-Dienst bereitstellen kann und Benutzer weltweit auf KI-Apps mit geringeren Kosten und weniger Abhängigkeit von der Big-Tech-Infrastruktur zugreifen können.

Mechanismen zur Asset-Tokenisierung

Ein gemeinsames Thema dieser Netzwerke ist die Umwandlung von Rechenleistung, Modellen und Daten in On-Chain-Assets oder Wirtschaftseinheiten, die gehandelt oder monetarisiert werden können. Jedes Projekt konzentriert sich jedoch auf unterschiedliche Weisen der Tokenisierung dieser Ressourcen:

  • Rechenleistung: Alle drei Plattformen wandeln Rechenarbeit in Belohnungs-Tokens um. In Bittensor wird nützliche Berechnung (Inferenz oder Training durch einen Miner) über Validatoren-Scores quantifiziert und mit TAO-Tokens pro Block belohnt. Im Wesentlichen „misst“ Bittensor die beigesteuerte Intelligenz und prägt TAO als Ware, die diesen Beitrag repräsentiert. Gensyn behandelt Rechenleistung explizit als Ware – sein Protokoll schafft einen Marktplatz, auf dem GPU-Zeit das Produkt ist und der Preis durch Angebot und Nachfrage in Token-Begriffen festgelegt wird. Entwickler kaufen Rechenleistung mit dem Token, und Anbieter verdienen Tokens, indem sie ihre Hardware-Zyklen verkaufen. Das Gensyn-Team bemerkt, dass jede digitale Ressource (Rechenleistung, Daten, Algorithmen) in einem ähnlichen vertrauenslosen Markt dargestellt und gehandelt werden kann. Cuckoo tokenisiert Rechenleistung über einen ERC-20-Token $CAI, der als Zahlung für abgeschlossene Aufgaben ausgegeben wird. GPU-Anbieter „minen“ im Wesentlichen CAI, indem sie KI-Inferenzarbeit leisten. Cuckoos System erstellt On-Chain-Aufzeichnungen von Aufgaben, sodass man jede abgeschlossene GPU-Aufgabe als eine atomare Arbeitseinheit betrachten kann, die in Tokens bezahlt wird. Die Prämisse bei allen dreien ist, dass ansonsten ungenutzte oder unzugängliche Rechenleistung zu einem tokenisierten, liquiden Asset wird – entweder durch Token-Emissionen auf Protokollebene (wie bei Bittensor und frühem Cuckoo) oder durch einen offenen Markt von Kauf-/Verkaufsaufträgen für Rechenjobs (wie bei Gensyn).

  • KI-Modelle: Die Darstellung von KI-Modellen als On-Chain-Assets (z. B. NFTs oder Tokens) steckt noch in den Kinderschuhen. Bittensor tokenisiert die Modelle selbst nicht – die Modelle bleiben Off-Chain im Besitz der Miner. Stattdessen bewertet Bittensor Modelle indirekt, indem es diejenigen belohnt, die gut funktionieren. Im Grunde wird die „Intelligenz“ eines Modells in TAO-Einnahmen umgewandelt, aber es gibt kein NFT, das die Modellgewichte repräsentiert oder anderen die Nutzung des Modells erlaubt. Gensyns Fokus liegt auf Rechen-Transaktionen, nicht explizit auf der Erstellung von Tokens für Modelle. Ein Modell in Gensyn wird typischerweise von einem Entwickler Off-Chain bereitgestellt (vielleicht Open-Source oder proprietär), von Solvern trainiert und zurückgegeben – es gibt keinen eingebauten Mechanismus, um einen Token zu erstellen, der das Modell oder sein IP besitzt. (Allerdings könnte der Gensyn-Marktplatz potenziell den Handel mit Modellartefakten oder Checkpoints erleichtern, wenn die Parteien dies wünschen, aber das Protokoll selbst betrachtet Modelle als Inhalt der Berechnung und nicht als tokenisiertes Asset.) Cuckoo liegt irgendwo dazwischen: Es spricht von „KI-Agenten“ und in das Netzwerk integrierten Modellen, aber derzeit gibt es keinen nicht-fungiblen Token, der jedes Modell repräsentiert. Stattdessen wird ein Modell von einem App-Entwickler bereitgestellt und dann über das Netzwerk bedient. Die Nutzungsrechte an diesem Modell sind implizit tokenisiert, da das Modell $CAI verdienen kann, wenn es verwendet wird (über den Koordinator, der es bereitstellt). Alle drei Plattformen erkennen das Konzept der Modell-Tokenisierung an – zum Beispiel, Gemeinschaften über Tokens Eigentum an Modellen zu geben – aber praktische Implementierungen sind begrenzt. Als Branche wird die Tokenisierung von KI-Modellen (z. B. als NFTs mit Eigentumsrechten und Gewinnbeteiligung) noch erforscht. Bittensors Ansatz, bei dem Modelle Werte miteinander austauschen, ist eine Form eines „Modell-Marktplatzes“ ohne expliziten Token pro Modell. Das Cuckoo-Team merkt an, dass dezentrales Modelleigentum vielversprechend ist, um Barrieren im Vergleich zu zentralisierter KI abzubauen, aber es erfordert effektive Methoden zur Überprüfung von Modellausgaben und -nutzung On-Chain. Zusammenfassend lässt sich sagen, dass Rechenleistung sofort tokenisiert wird (es ist unkompliziert, Tokens für geleistete Arbeit zu bezahlen), während Modelle indirekt oder aspirativ tokenisiert werden (für ihre Outputs belohnt, möglicherweise durch Stake oder Reputation repräsentiert, aber auf diesen Plattformen noch nicht als übertragbare NFTs behandelt werden).

  • Daten: Die Daten-Tokenisierung bleibt am schwierigsten. Keines der Projekte Bittensor, Gensyn oder Cuckoo hat vollständig verallgemeinerte On-Chain-Datenmarktplätze integriert (wo Datensätze mit durchsetzbaren Nutzungsrechten gehandelt werden). Bittensor-Knoten könnten auf verschiedenen Datensätzen trainieren, aber diese Datensätze sind nicht Teil des On-Chain-Systems. Gensyn könnte einem Entwickler erlauben, einen Datensatz für das Training bereitzustellen, aber das Protokoll tokenisiert diese Daten nicht – sie werden einfach Off-Chain für den Solver bereitgestellt. Cuckoo tokenisiert ebenfalls keine Benutzerdaten; es verarbeitet Daten (wie Benutzer-Prompts oder Outputs) hauptsächlich transient für Inferenzaufgaben. Der Cuckoo-Blog stellt explizit fest, dass „dezentrale Daten trotz ihrer kritischen Bedeutung schwer zu tokenisieren bleiben“. Daten sind sensibel (Datenschutz- und Eigentumsfragen) und mit der aktuellen Blockchain-Technologie schwer zu handhaben. Während Rechenleistung und Modelle zunehmend zu Commodities werden, bleiben Daten weitgehend Off-Chain, außer in Sonderfällen (einige Projekte außerhalb dieser drei experimentieren mit Daten-Unions und Token-Belohnungen für Datenbeiträge, aber das liegt außerhalb unseres aktuellen Umfangs). Zusammenfassend lässt sich sagen, dass Rechenleistung in diesen Netzwerken jetzt eine On-Chain-Ware ist, Modelle durch Tokens bewertet, aber noch nicht individuell als Assets tokenisiert werden, und die Daten-Tokenisierung immer noch ein offenes Problem ist (abgesehen von der Anerkennung ihrer Bedeutung).

Governance und Anreize

Ein robustes Governance- und Anreizdesign ist entscheidend, damit diese dezentralen KI-Netzwerke autonom und fair funktionieren können. Hier untersuchen wir, wie sich jede Plattform selbst regiert (wer Entscheidungen trifft, wie Upgrades oder Parameteränderungen erfolgen) und wie sie die Anreize der Teilnehmer durch Token-Ökonomie aufeinander abstimmt.

  • Bittensor Governance: In seinen frühen Phasen wurden Bittensors Entwicklung und Subnetzparameter weitgehend vom Kernteam und einer Gruppe von 64 „Root“-Validatoren im Haupt-Subnetz kontrolliert. Dies war ein Punkt der Zentralisierung – einige mächtige Validatoren hatten einen überproportionalen Einfluss auf die Belohnungszuweisungen, was zu dem führte, was einige als „oligarchisches Wahlsystem“ bezeichneten. Um dies zu beheben, führte Bittensor 2025 die dTAO (dezentrale TAO)-Governance ein. Das dTAO-System verlagerte die Ressourcenzuweisung auf eine marktorientierte und gemeinschaftlich kontrollierte Basis. Konkret können TAO-Inhaber ihre Tokens in Subnetz-spezifische Liquiditätspools staken (im Wesentlichen „stimmen“ sie darüber ab, welche Subnetze mehr Netzwerkemissionen erhalten sollen) und erhalten Alpha-Tokens, die das Eigentum an diesen Subnetz-Pools repräsentieren. Subnetze, die mehr Stake anziehen, werden einen höheren Alpha-Token-Preis haben und einen größeren Anteil an der täglichen TAO-Emission erhalten, während unpopuläre oder leistungsschwache Subnetze Kapital (und damit Emissionen) abfließen sehen werden. Dies schafft eine Rückkopplungsschleife: Wenn ein Subnetz wertvolle KI-Dienste produziert, staken mehr Leute TAO darauf (auf der Suche nach Belohnungen), was diesem Subnetz mehr TAO gibt, um seine Teilnehmer zu belohnen, was das Wachstum fördert. Wenn ein Subnetz stagniert, ziehen Staker zu lukrativeren Subnetzen ab. Im Effekt regieren TAO-Inhaber kollektiv den Fokus des Netzwerks, indem sie finanziell signalisieren, welche KI-Domänen mehr Ressourcen verdienen. Dies ist eine Form der On-Chain-Governance nach Token-Gewichtung, ausgerichtet auf wirtschaftliche Ergebnisse. Abgesehen von der Ressourcenzuweisung erfolgen größere Protokoll-Upgrades oder Parameteränderungen wahrscheinlich immer noch über Governance-Vorschläge, über die TAO-Inhaber abstimmen (Bittensor verfügt über einen Mechanismus für On-Chain-Vorschläge und Referenden, die von der Bittensor Foundation und einem gewählten Rat verwaltet werden, ähnlich der Governance von Polkadot). Im Laufe der Zeit ist zu erwarten, dass Bittensors Governance zunehmend dezentralisiert wird, wobei die Stiftung zurücktritt, während die Community (über TAO-Stake) Dinge wie Inflationsrate, Genehmigung neuer Subnetze usw. steuert. Der Übergang zu dTAO ist ein großer Schritt in diese Richtung, der zentralisierte Entscheidungsträger durch einen anreizorientierten Markt von Token-Stakeholdern ersetzt.

  • Bittensor-Anreize: Bittensors Anreizstruktur ist eng mit seinem Konsens verknüpft. Bei jedem Block (12 Sekunden) wird genau 1 TAO neu geprägt und basierend auf der Leistung unter den Mitwirkenden jedes Subnetzes aufgeteilt. Die Standardaufteilung für die Blockbelohnung jedes Subnetzes beträgt 41 % für Miner, 41 % für Validatoren und 18 % für den Subnetz-Besitzer. Dies stellt sicher, dass alle Rollen belohnt werden: Miner verdienen für Inferenzarbeit, Validatoren für ihre Bewertungsbemühungen und Subnetz-Besitzer (die möglicherweise die Daten/Aufgabe für dieses Subnetz gebootstrappt haben) erhalten einen Restbetrag für die Bereitstellung des „Marktplatzes“ oder des Aufgabendesigns. Diese Prozentsätze sind im Protokoll festgelegt und zielen darauf ab, die Anreize aller auf eine qualitativ hochwertige KI-Ausgabe auszurichten. Der Yuma-Konsensmechanismus verfeinert die Anreize weiter, indem er Belohnungen nach Qualitätsbewertungen gewichtet – ein Miner, der bessere Antworten liefert (gemäß Validatoren-Konsens), erhält einen höheren Anteil dieser 41 %, und ein Validator, der dem ehrlichen Konsens genau folgt, erhält mehr vom Validatorenanteil. Schlechte Performer werden wirtschaftlich aussortiert. Zusätzlich erhalten Delegatoren (Staker), die einen Miner oder Validator unterstützen, typischerweise einen Anteil an den Einnahmen dieses Knotens (Knoten legen oft eine Provision fest und geben den Rest an ihre Delegatoren weiter, ähnlich dem Staking in PoS-Netzwerken). Dies ermöglicht passiven TAO-Inhabern, die besten Mitwirkenden zu unterstützen und Erträge zu erzielen, was die Meritokratie weiter stärkt. Bittensors Token (TAO) ist somit ein Utility-Token: Er ist für die Registrierung neuer Miner erforderlich (Miner müssen einen kleinen Betrag an TAO ausgeben, um beizutreten, was Sybil-Spam bekämpft) und kann gestaked werden, um den Einfluss zu erhöhen oder über Delegation zu verdienen. Er ist auch als Zahlungstoken vorgesehen, wenn externe Benutzer Dienste aus Bittensors Netzwerk nutzen möchten (zum Beispiel TAO zahlen, um ein Sprachmodell auf Bittensor abzufragen), obwohl der interne Belohnungsmechanismus bisher die primäre „Ökonomie“ war. Die allgemeine Anreizphilosophie besteht darin, „wertvolle Intelligenz“ zu belohnen – d. h. Modelle, die gute KI-Ergebnisse liefern – und einen Wettbewerb zu schaffen, der die Qualität der Modelle im Netzwerk kontinuierlich verbessert.

  • Gensyn Governance: Gensyns Governance-Modell ist so strukturiert, dass es sich mit der Reifung des Netzwerks von der Kontrolle durch das Kernteam zur Kontrolle durch die Community entwickelt. Zunächst wird Gensyn eine Gensyn Foundation und einen gewählten Rat haben, die Protokoll-Upgrades und Treasury-Entscheidungen überwachen. Dieser Rat wird voraussichtlich zunächst aus Kernteammitgliedern und frühen Community-Führern bestehen. Gensyn plant ein Token Generation Event (TGE) für seinen nativen Token (oft als GENS bezeichnet), wonach die Governance-Macht zunehmend über On-Chain-Abstimmungen in den Händen der Token-Inhaber liegen würde. Die Rolle der Stiftung ist es, die Interessen des Protokolls zu vertreten und einen reibungslosen Übergang zur vollständigen Dezentralisierung zu gewährleisten. In der Praxis wird Gensyn wahrscheinlich On-Chain-Vorschlagsmechanismen haben, bei denen über Änderungen von Parametern (z. B. Verifizierungsspieldauer, Gebührensätze) oder Upgrades von der Community abgestimmt wird. Da Gensyn als Ethereum-Rollup implementiert wird, könnte die Governance auch an die Sicherheit von Ethereum gebunden sein (zum Beispiel die Verwendung von Upgrade-Schlüsseln für den Rollup-Vertrag, die schließlich an eine DAO von Token-Inhabern übergehen). Der Abschnitt Dezentralisierung und Governance des Gensyn-Litepapers betont, dass das Protokoll letztendlich global im Besitz sein muss, im Einklang mit dem Ethos, dass das „Netzwerk für maschinelle Intelligenz“ seinen Benutzern und Mitwirkenden gehören sollte. Zusammenfassend beginnt Gensyns Governance semi-zentralisiert, ist aber so konzipiert, dass sie zu einer DAO wird, in der GENS-Token-Inhaber (potenziell nach Stake oder Beteiligung gewichtet) kollektiv Entscheidungen treffen.

  • Gensyn-Anreize: Die wirtschaftlichen Anreize in Gensyn sind unkomplizierte Marktdynamiken, ergänzt durch kryptoökonomische Sicherheit. Entwickler (Clients) bezahlen ML-Aufgaben mit dem Gensyn-Token, und Solver verdienen Tokens, indem sie diese Aufgaben korrekt erledigen. Der Preis für Rechenzyklen wird durch einen offenen Markt bestimmt – vermutlich können Entwickler Aufgaben mit einer Belohnung ausschreiben, und Solver können bieten oder sie einfach annehmen, wenn der Preis ihren Erwartungen entspricht. Dies stellt sicher, dass, solange ein Angebot an ungenutzten GPUs vorhanden ist, der Wettbewerb die Kosten auf einen fairen Satz senkt (Gensyns Team prognostiziert eine Kostenreduzierung von bis zu 80 % im Vergleich zu Cloud-Preisen, da das Netzwerk die günstigste verfügbare Hardware weltweit findet). Auf der anderen Seite haben Solver den Anreiz, Tokens für Arbeit zu verdienen; ihre Hardware, die sonst ungenutzt bleiben könnte, generiert nun Einnahmen. Um die Qualität zu gewährleisten, verlangt Gensyn von Solvern, dass sie Sicherheiten staken, wenn sie einen Job annehmen – wenn sie betrügen oder ein falsches Ergebnis produzieren und erwischt werden, verlieren sie diesen Stake (er kann „geslasht“ und dem ehrlichen Verifier zugesprochen werden). Verifier werden durch die Chance motiviert, eine „Jackpot“-Belohnung zu verdienen, wenn sie einen betrügerischen Solver erwischen, ähnlich dem Truebit-Design, das Verifier, die erfolgreich falsche Berechnungen identifizieren, periodisch belohnt. Dies hält Solver ehrlich und motiviert einige Knoten, als Wächter zu fungieren. In einem optimalen Szenario (kein Betrug) verdienen Solver einfach die Aufgaben-Gebühr, und die Rolle des Verifiers ist größtenteils untätig (oder einer der teilnehmenden Solver könnte auch als Verifier für andere fungieren). Gensyns Token dient somit sowohl als Gas-Währung für den Kauf von Rechenleistung als auch als Stake-Sicherheit, die das Protokoll sichert. Das Litepaper erwähnt ein Testnetz mit nicht-permanenten Tokens und dass frühe Testnetz-Teilnehmer beim TGE mit echten Tokens belohnt werden. Dies deutet darauf hin, dass Gensyn einen Teil des Token-Angebots für das Bootstrapping bereitgestellt hat – zur Belohnung von Early Adopters, Test-Solvern und Community-Mitgliedern. Langfristig sollten Gebühren aus echten Jobs das Netzwerk aufrechterhalten. Es kann auch eine kleine Protokollgebühr (ein Prozentsatz jeder Aufgaben-Zahlung) geben, die in eine Treasury fließt oder verbrannt wird; dieses Detail ist noch nicht bestätigt, aber viele Marktplatzprotokolle enthalten eine Gebühr zur Finanzierung der Entwicklung oder des Token-Kaufs und -Verbrennens. Zusammenfassend richten sich Gensyns Anreize an der ehrlichen Erledigung von ML-Jobs aus: Arbeit leisten, bezahlt werden; versuchen zu betrügen, Stake verlieren; andere überprüfen, verdienen, wenn man Betrüger erwischt. Dies schafft ein sich selbst regulierendes Wirtschaftssystem, das darauf abzielt, zuverlässige verteilte Berechnungen zu erreichen.

  • Cuckoo Governance: Cuckoo Network hat die Governance von Anfang an in sein Ökosystem integriert, obwohl es sich noch in einer Entwicklungsphase befindet. Der $CAI-Token ist neben seinen Utility-Rollen explizit ein Governance-Token. Cuckoos Philosophie ist, dass GPU-Knotenbetreiber, App-Entwickler und sogar Endbenutzer ein Mitspracherecht bei der Entwicklung des Netzwerks haben sollten – was seine gemeinschaftsgetriebene Vision widerspiegelt. In der Praxis würden wichtige Entscheidungen (wie Protokoll-Upgrades oder wirtschaftliche Änderungen) durch Token-gewichtete Abstimmungen entschieden, vermutlich über einen DAO-Mechanismus. Zum Beispiel könnte Cuckoo On-Chain-Abstimmungen über die Änderung der Belohnungsverteilung oder die Einführung einer neuen Funktion abhalten, und $CAI-Inhaber (einschließlich Miner, Entwickler und Benutzer) würden abstimmen. Bereits jetzt wird On-Chain-Abstimmung als Reputationssystem verwendet: Cuckoo verlangt von jeder Rolle, Tokens zu staken, und dann können Community-Mitglieder (vielleicht durch Delegation von Stake oder über Governance-Module) darüber abstimmen, welche Koordinatoren oder Miner vertrauenswürdig sind. Dies beeinflusst Reputationswerte und könnte die Aufgabenplanung beeinflussen (z. B. könnte ein Koordinator mit mehr Stimmen mehr Benutzer anziehen, oder ein Miner mit mehr Stimmen könnte mehr Aufgaben zugewiesen bekommen). Es ist eine Mischung aus Governance und Anreiz – die Verwendung von Governance-Tokens zur Etablierung von Vertrauen. Die Cuckoo Foundation oder das Kernteam hat die Richtung des Projekts bisher geleitet (zum Beispiel die jüngste Entscheidung, die L1-Kette einzustellen), aber ihr Blog deutet auf ein Engagement hin, sich in Richtung dezentraler Eigentümerschaft zu bewegen. Sie stellten fest, dass der Betrieb einer eigenen Kette hohe Gemeinkosten verursachte und dass der Wechsel zu einem Rollup eine offenere Entwicklung und Integration mit bestehenden Ökosystemen ermöglichen wird. Es ist wahrscheinlich, dass Cuckoo, sobald es auf einer gemeinsamen Schicht (wie Ethereum) ist, eine traditionellere DAO für Upgrades implementieren wird, wobei die Community mit CAI abstimmt.

  • Cuckoo-Anreize: Das Anreizdesign für Cuckoo hat zwei Phasen: die anfängliche Bootstrapping-Phase mit festen Token-Zuweisungen und einen zukünftigen Zustand mit nutzungsbasierter Umsatzbeteiligung. Beim Start führte Cuckoo eine „Fair Launch“-Verteilung von 1 Milliarde CAI-Tokens durch. 51 % des Angebots wurden für die Community reserviert, aufgeteilt als:

    • Mining-Belohnungen: 30 % des Gesamtangebots reserviert, um GPU-Miner für die Ausführung von KI-Aufgaben zu bezahlen.
    • Staking-Belohnungen: 11 % des Angebots für diejenigen, die staken und zur Sicherung des Netzwerks beitragen.
    • Airdrops: 5 % an frühe Benutzer und Community-Mitglieder als Anreiz zur Adoption.
    • (Weitere 5 % waren für Entwicklerzuschüsse zur Förderung des Aufbaus auf Cuckoo.)

    Diese große Zuweisung bedeutet, dass im frühen Netzwerk Miner und Staker aus einem Emissionspool belohnt wurden, selbst wenn die tatsächliche Benutzernachfrage gering war. Tatsächlich bot Cuckoos Anfangsphase hohe APY-Renditen für Staking und Mining, was erfolgreich Teilnehmer anzog, aber auch „Yield Farmer“, die nur wegen der Tokens da waren. Das Team stellte fest, dass viele Benutzer das Netzwerk verließen, sobald die Belohnungsraten sanken, was darauf hindeutet, dass diese Anreize nicht an die tatsächliche Nutzung gebunden waren. Aus diesen Erfahrungen lernend, wechselt Cuckoo zu einem Modell, bei dem Belohnungen direkt mit der tatsächlichen KI-Arbeitslast korrelieren. Zukünftig (und teilweise bereits jetzt), wenn ein Endbenutzer für eine KI-Inferenz bezahlt, wird diese Zahlung (in CAI oder möglicherweise einem anderen akzeptierten Token, der in CAI umgewandelt wird) unter den Mitwirkenden aufgeteilt:

    • GPU-Miner erhalten den Großteil des Anteils für die von ihnen bereitgestellte Rechenleistung.
    • Koordinator (App-Entwickler) erhält einen Anteil als Dienstanbieter, der das Modell bereitgestellt und die Anfrage bearbeitet hat.
    • Staker, die an diese Miner oder Koordinatoren delegiert haben, könnten einen kleinen Anteil oder eine inflationäre Belohnung erhalten, um die Unterstützung zuverlässiger Knoten weiterhin zu fördern.
    • Netzwerk/Treasury könnte eine Gebühr für die laufende Entwicklung einbehalten oder zukünftige Anreize finanzieren (oder die Gebühr könnte null/nominal sein, um die Benutzerfreundlichkeit zu maximieren).

    Im Wesentlichen bewegt sich Cuckoo auf ein Umsatzbeteiligungsmodell zu: Wenn eine KI-App auf Cuckoo Einnahmen generiert, werden diese Einnahmen fair an alle Mitwirkenden dieses Dienstes verteilt. Dies stimmt die Anreize so ab, dass die Teilnehmer von der tatsächlichen Nutzung profitieren und nicht nur von der Inflation. Bereits jetzt verlangte das Netzwerk von allen Parteien, CAI zu staken – das bedeutet, dass Miner und Koordinatoren nicht nur eine pauschale Belohnung verdienen, sondern möglicherweise auch stake-basierte Belohnungen (zum Beispiel könnte ein Koordinator höhere Belohnungen verdienen, wenn viele Benutzer auf ihn staken oder wenn er selbst mehr stakt, ähnlich wie Proof-of-Stake-Validatoren verdienen). Was die Benutzeranreize betrifft, führte Cuckoo auch Dinge wie ein Airdrop-Portal und Faucets ein (die einige Benutzer ausnutzten), um die anfängliche Aktivität anzukurbeln. Zukünftig könnten Benutzer über Token-Rabatte für die Nutzung der Dienste oder über Governance-Belohnungen für die Teilnahme an der Kuration (z. B. kleine Tokens für die Bewertung von Outputs oder die Bereitstellung von Daten) incentiviert werden. Das Fazit ist, dass Cuckoos Token ($CAI) vielseitig einsetzbar ist: Es ist der Gas-/Gebühren-Token auf der Kette (alle Transaktionen und Zahlungen verwenden ihn), er wird für Staking und Abstimmungen verwendet und ist die Einheit der Belohnung für geleistete Arbeit. Cuckoo erwähnt explizit, dass es Token-Belohnungen an Service-Level-KPIs (Key Performance Indicators) binden möchte – zum Beispiel Verfügbarkeit, Abfragedurchsatz, Benutzerzufriedenheit – um rein spekulative Anreize zu vermeiden. Dies spiegelt eine Reifung der Token-Ökonomie von einfachem Liquiditäts-Mining zu einem nachhaltigeren, nutzungsgetriebenen Modell wider.

Modelleigentum und IP-Zuordnung

Der Umgang mit geistigem Eigentum (IP) und Eigentumsrechten an KI-Modellen ist ein komplexer Aspekt dezentraler KI-Netzwerke. Jede Plattform hat eine etwas andere Haltung eingenommen, und im Allgemeinen ist dies ein sich entwickelnder Bereich ohne vollständige Lösung bisher:

  • Bittensor: Modelle in Bittensor werden von den Miner-Knoten bereitgestellt, und diese Miner behalten die volle Kontrolle über ihre Modellgewichte (die niemals On-Chain veröffentlicht werden). Bittensor verfolgt nicht explizit, wer ein Modell „besitzt“, außer der Tatsache, dass es unter einer bestimmten Wallet-Adresse läuft. Wenn ein Miner geht, geht sein Modell mit ihm. Daher erfolgt die IP-Zuordnung in Bittensor Off-Chain: Wenn ein Miner ein proprietäres Modell verwendet, gibt es nichts On-Chain, das dies durchsetzt oder gar weiß. Bittensors Philosophie fördert offene Beiträge (viele Miner könnten Open-Source-Modelle wie GPT-J oder andere verwenden) und das Netzwerk belohnt die Leistung dieser Modelle. Man könnte sagen, Bittensor erstellt einen Reputations-Score für Modelle (über die Validatoren-Rankings), und das ist eine Form der Anerkennung des Modellwerts, aber die Rechte am Modell selbst werden nicht tokenisiert oder verteilt. Bemerkenswert ist, dass Subnetz-Besitzer in Bittensor als Eigentümer eines Teils des IP angesehen werden könnten: Sie definieren eine Aufgabe (die einen Datensatz oder eine Methode umfassen könnte). Der Subnetz-Besitzer prägt ein NFT (genannt Subnetz-UID) bei der Erstellung eines Subnetzes, und dieses NFT berechtigt ihn zu 18 % der Belohnungen in diesem Subnetz. Dies tokenisiert effektiv die Schaffung eines Modell-Marktplatzes (das Subnetz), wenn auch nicht die Modellinstanzen. Wenn man die Definition des Subnetzes (sagen wir eine Spracherkennungsaufgabe mit einem bestimmten Datensatz) als IP betrachtet, wird dies zumindest aufgezeichnet und belohnt. Aber individuelle Modellgewichte, die Miner trainieren – davon gibt es keine On-Chain-Eigentumsaufzeichnung. Die Zuordnung erfolgt in Form von Belohnungen, die an die Adresse des Miners gezahlt werden. Bittensor implementiert derzeit kein System, bei dem zum Beispiel mehrere Personen gemeinsam ein Modell besitzen und eine automatische Umsatzbeteiligung erhalten könnten – die Person, die das Modell betreibt (Miner), erhält die Belohnung, und es liegt an ihr Off-Chain, alle IP-Lizenzen des von ihr verwendeten Modells einzuhalten.

  • Gensyn: In Gensyn ist das Modelleigentum unkompliziert, da der Submitter (derjenige, der ein Modell trainieren lassen möchte) die Modellarchitektur und Daten bereitstellt, und nach dem Training das resultierende Modellartefakt erhält. Die Solver, die die Arbeit ausführen, haben keine Rechte am Modell; sie sind wie Auftragnehmer, die für Dienstleistungen bezahlt werden. Gensyns Protokoll geht also vom traditionellen IP-Modell aus: Wenn Sie rechtliche Rechte an dem von Ihnen eingereichten Modell und den Daten hatten, haben Sie diese auch nach dem Training noch – das Rechennetzwerk beansprucht kein Eigentum. Gensyn erwähnt, dass der Marktplatz auch Algorithmen und Daten wie jede andere Ressource handeln könnte. Dies deutet auf ein Szenario hin, in dem jemand ein Modell oder einen Algorithmus zur Nutzung im Netzwerk anbieten könnte, möglicherweise gegen eine Gebühr, wodurch der Zugang zu diesem Modell tokenisiert würde. Zum Beispiel könnte ein Modellersteller sein vorab trainiertes Modell auf Gensyn platzieren und anderen erlauben, es über das Netzwerk gegen eine Gebühr feinabzustimmen (dies würde das Modell-IP effektiv monetarisieren). Während das Protokoll keine Lizenzbedingungen durchsetzt, könnte man Zahlungsanforderungen kodieren: Ein Smart Contract könnte eine Gebühr verlangen, um die Modellgewichte für einen Solver freizuschalten. Dies sind jedoch spekulative Anwendungsfälle – Gensyns primäres Design dreht sich um die Ermöglichung von Trainingsjobs. Was die Zuordnung betrifft, so würde, wenn mehrere Parteien zu einem Modell beitragen (sagen wir, einer stellt Daten bereit, ein anderer Rechenleistung), dies wahrscheinlich durch den Vertrag oder die Vereinbarung geregelt, die sie vor der Nutzung von Gensyn getroffen haben (z. B. könnte ein Smart Contract die Zahlung zwischen Datenanbieter und Rechenanbieter aufteilen). Gensyn selbst verfolgt On-Chain nicht, „dieses Modell wurde von X, Y, Z erstellt“, außer der Aufzeichnung, welche Adressen für den Job bezahlt wurden. Zusammenfassend lässt sich sagen, dass Modell-IP in Gensyn beim Submitter verbleibt, und jede Zuordnung oder Lizenzierung muss über die rechtlichen Vereinbarungen außerhalb des Protokolls oder über darauf aufbauende benutzerdefinierte Smart Contracts gehandhabt werden.

  • Cuckoo: Im Cuckoo-Ökosystem sind Modellersteller (KI-App-Entwickler) erstklassige Teilnehmer – sie stellen den KI-Dienst bereit. Wenn ein App-Entwickler ein Sprachmodell feinabstimmt oder ein benutzerdefiniertes Modell entwickelt und es auf Cuckoo hostet, ist dieses Modell im Wesentlichen sein Eigentum, und er fungiert als Dienstbesitzer. Cuckoo beansprucht kein Eigentum; stattdessen bietet es die Infrastruktur, damit sie die Nutzung monetarisieren können. Wenn zum Beispiel ein Entwickler einen Chatbot-KI bereitstellt, können Benutzer damit interagieren, und der Entwickler (plus Miner) verdienen CAI aus jeder Interaktion. Die Plattform ordnet somit Nutzungseinnahmen dem Modellersteller zu, veröffentlicht aber nicht explizit die Modellgewichte oder wandelt sie in ein NFT um. Tatsächlich muss der Koordinator-Knoten, um das Modell auf den GPUs der Miner auszuführen, das Modell (oder die Laufzeitumgebung) in irgendeiner Form an den Miner senden. Dies wirft IP-Fragen auf: Könnte ein böswilliger Miner die Modellgewichte kopieren und verteilen? In einem dezentralen Netzwerk besteht dieses Risiko, wenn proprietäre Modelle verwendet werden. Cuckoos aktueller Fokus lag auf ziemlich offenen Modellen (Stable Diffusion, LLaMA-abgeleitete Modelle usw.) und dem Aufbau einer Community, sodass wir noch keine Durchsetzung von IP-Rechten über Smart Contracts gesehen haben. Die Plattform könnte potenziell Tools wie verschlüsselte Modellausführung oder sichere Enklaven in Zukunft zum IP-Schutz integrieren, aber in der Dokumentation wird nichts Spezifisches erwähnt. Was es tut, ist die Verfolgung, wer den Modell-Dienst für jede Aufgabe bereitgestellt hat – da der Koordinator eine On-Chain-Identität ist, wird jede Nutzung seines Modells ihm zugerechnet, und er erhält automatisch seinen Anteil an den Belohnungen. Wenn man ein Modell an jemand anderen weitergeben oder verkaufen würde, würde man effektiv die Kontrolle über den Koordinator-Knoten übertragen (vielleicht sogar nur den privaten Schlüssel oder das NFT geben, wenn die Koordinator-Rolle tokenisiert wäre). Derzeit ist die Gemeinschaftseigentümerschaft von Modellen (über Token-Anteile) nicht implementiert, aber Cuckoos Vision deutet auf dezentrale, gemeinschaftsgetriebene KI hin, sodass sie möglicherweise erforschen werden, wie Menschen gemeinsam ein KI-Modell finanzieren oder regieren können. Die Tokenisierung von Modellen über das individuelle Eigentum hinaus ist in diesen Netzwerken immer noch ein offenes Feld – es wird als Ziel anerkannt (um Gemeinschaften KI-Modelle statt Unternehmen zu ermöglichen), aber praktisch erfordert es Lösungen für die oben genannten IP- und Verifizierungsherausforderungen.

Zusammenfassend lässt sich sagen, dass das Modelleigentum in Bittensor, Gensyn und Cuckoo Off-Chain auf traditionelle Weise gehandhabt wird: Die Person oder Entität, die das Modell betreibt oder einreicht, ist effektiv der Eigentümer. Die Netzwerke bieten eine Zuordnung in Form von wirtschaftlichen Belohnungen (Bezahlung des Modell-Beitragenden für sein IP oder seine Bemühungen). Keines der drei hat bisher eine integrierte Lizenz- oder Lizenzgebühren-Durchsetzung für die Modellnutzung auf Smart-Contract-Ebene. Die Zuordnung erfolgt durch Reputation und Belohnung: z. B. erhalten Bittensors beste Modelle hohe Reputationswerte (die öffentlich aufgezeichnet werden) und mehr TAO, was eine implizite Anerkennung ihrer Ersteller ist. Im Laufe der Zeit könnten wir Funktionen wie NFT-gebundene Modellgewichte oder dezentrale Lizenzen sehen, um IP besser zu verfolgen, aber derzeit lag die Priorität darauf, die Netzwerke funktionsfähig zu machen und Beiträge zu incentivieren. Alle sind sich einig, dass die Überprüfung der Modellherkunft und -ausgaben der Schlüssel zur Ermöglichung echter Modell-Asset-Märkte ist, und die Forschung in dieser Richtung ist im Gange.

Umsatzbeteiligungsstrukturen

Alle drei Plattformen müssen entscheiden, wie der wirtschaftliche Kuchen aufgeteilt wird, wenn mehrere Parteien zusammenarbeiten, um eine wertvolle KI-Ausgabe zu produzieren. Wer wird bezahlt und wie viel, wenn ein KI-Dienst genutzt wird oder wenn Tokens emittiert werden? Jede hat ein eigenes Umsatzbeteiligungsmodell:

  • Bittensor: Wie unter Anreize erwähnt, ist Bittensors Umsatzverteilung auf Blockebene protokoll-definiert: 41 % an Miner, 41 % an Validatoren, 18 % an den Subnetz-Besitzer für jede TAO-Ausgabe eines Blocks. Dies ist effektiv eine eingebaute Umsatzaufteilung für den in jedem Subnetz generierten Wert. Der Anteil des Subnetz-Besitzers (18 %) fungiert als Lizenzgebühr für das „Modell-/Aufgabendesign“ oder für das Bootstrapping des Ökosystems dieses Subnetzes. Miner und Validatoren erhalten gleiche Anteile, um sicherzustellen, dass Miner ohne Validierung nicht belohnt werden (und umgekehrt) – sie sind symbiotisch und jeder erhält einen gleichen Anteil an den geprägten Belohnungen. Wenn wir einen externen Benutzer betrachten, der TAO zahlt, um ein Modell abzufragen, sieht das Bittensor-Whitepaper vor, dass diese Zahlung ebenfalls ähnlich zwischen dem Miner, der antwortet, und den Validatoren, die bei der Überprüfung der Antwort geholfen haben, aufgeteilt wird (die genaue Aufteilung könnte durch das Protokoll oder Marktkräfte bestimmt werden). Zusätzlich sind Delegatoren, die auf Miner/Validatoren staken, effektiv Partner – typischerweise teilt ein Miner/Validator einen Prozentsatz seiner verdienten TAO mit seinen Delegatoren (dies ist konfigurierbar, aber oft der Großteil an Delegatoren). Wenn also ein Miner 1 TAO aus einem Block verdient hat, könnte dieser beispielsweise basierend auf dem Stake 80/20 zwischen seinen Delegatoren und sich selbst aufgeteilt werden. Das bedeutet, dass auch Nicht-Betreiber einen Anteil am Umsatz des Netzwerks proportional zu ihrer Unterstützung erhalten. Mit der Einführung von dTAO wurde eine weitere Ebene der Aufteilung hinzugefügt: Diejenigen, die in den Pool eines Subnetzes staken, erhalten Alpha-Tokens, die sie zu einem Teil der Emissionen dieses Subnetzes berechtigen (wie Yield Farming). Im Effekt kann jeder einen Anteil am Erfolg eines bestimmten Subnetzes nehmen und einen Bruchteil der Miner-/Validatoren-Belohnungen durch das Halten von Alpha-Tokens erhalten (Alpha-Tokens steigen im Wert, wenn das Subnetz mehr Nutzung und Emissionen anzieht). Zusammenfassend lässt sich sagen, dass Bittensors Umsatzbeteiligung für die Hauptrollen durch Code festgelegt ist und durch soziale/Staking-Vereinbarungen weiter aufgeteilt wird. Es ist eine relativ transparente, regelbasierte Aufteilung – bei jedem Block wissen die Teilnehmer genau, wie der 1 TAO zugewiesen wird, und kennen somit ihre „Einnahmen“ pro Beitrag. Diese Klarheit ist ein Grund, warum Bittensor manchmal als Bitcoin für KI bezeichnet wird – eine deterministische Geldausgabe, bei der die Belohnung der Teilnehmer mathematisch festgelegt ist.

  • Gensyn: Die Umsatzbeteiligung in Gensyn ist dynamischer und marktorientierter, da Aufgaben individuell bepreist werden. Wenn ein Submitter einen Job erstellt, fügt er eine Belohnung (sagen wir X Tokens) hinzu, die er zu zahlen bereit ist. Ein Solver, der den Job abschließt, erhält dieses X (abzüglich etwaiger Netzwerkgebühren). Wenn ein Verifier beteiligt ist, gibt es typischerweise eine Regel wie: Wenn kein Betrug entdeckt wird, behält der Solver die volle Zahlung; wenn Betrug entdeckt wird, wird der Solver „geslasht“ – er verliert einen Teil oder seinen gesamten Stake – und dieser „geslashte“ Betrag wird dem Verifier als Belohnung gegeben. Verifier verdienen also nicht an jeder Aufgabe, sondern nur, wenn sie ein schlechtes Ergebnis erwischen (plus möglicherweise eine kleine Grundgebühr für die Teilnahme, je nach Implementierung). Es gibt hier kein eingebautes Konzept der Bezahlung eines Modelleigentümers, da davon ausgegangen wird, dass der Submitter entweder der Modelleigentümer ist oder die Rechte zur Nutzung des Modells besitzt. Man könnte sich ein Szenario vorstellen, in dem ein Submitter das vortrainierte Modell eines anderen feinabstimmt und ein Teil der Zahlung an den ursprünglichen Modellersteller geht – dies müsste jedoch außerhalb des Protokolls gehandhabt werden (z. B. durch eine Vereinbarung oder einen separaten Smart Contract, der die Token-Zahlung entsprechend aufteilt). Gensyns protokollseitige Aufteilung ist im Wesentlichen Client -> Solver (-> Verifier). Das Token-Modell beinhaltet wahrscheinlich eine Zuweisung für die Protokoll-Treasury oder -Stiftung; zum Beispiel könnte ein kleiner Prozentsatz der Zahlung jeder Aufgabe an eine Treasury gehen, die zur Finanzierung von Entwicklung oder Versicherungs-Pools verwendet werden könnte (dies ist in den verfügbaren Dokumenten nicht explizit angegeben, aber viele Protokolle tun dies). Auch könnte Gensyn anfangs Solver über Inflation subventionieren: Testnet-Benutzern werden Belohnungen beim TGE versprochen, was effektiv eine Umsatzbeteiligung aus der anfänglichen Token-Verteilung ist (frühe Solver und Unterstützer erhalten einen Teil der Tokens, um beim Bootstrapping zu helfen, ähnlich einem Airdrop oder einer Mining-Belohnung). Im Laufe der Zeit, wenn echte Jobs dominieren, würden inflationäre Belohnungen abnehmen, und das Einkommen der Solver würde hauptsächlich aus Benutzerzahlungen stammen. Gensyns Ansatz lässt sich als Gebühren-für-Service-Umsatzmodell zusammenfassen: Das Netzwerk ermöglicht eine direkte Zahlung von denen, die Arbeit erledigt haben möchten, an diejenigen, die die Arbeit erledigen, wobei Verifier und möglicherweise Token-Staker nur dann Anteile erhalten, wenn sie eine Rolle bei der Sicherung dieses Dienstes spielen.

  • Cuckoo: Cuckoos Umsatzbeteiligung hat sich weiterentwickelt. Anfangs, da es nicht viele zahlende Endbenutzer gab, war die Umsatzbeteiligung im Wesentlichen Inflationsbeteiligung: Die 30 % Mining- und 11 % Staking-Zuweisungen aus dem Token-Angebot bedeuteten, dass Miner und Staker die vom Fair-Launch-Pool des Netzwerks ausgegebenen Tokens teilten. In der Praxis führte Cuckoo Dinge wie tägliche CAI-Auszahlungen an Miner proportional zu den abgeschlossenen Aufgaben durch. Diese Auszahlungen stammten größtenteils aus der Mining-Belohnungszuweisung (die Teil des fest reservierten Angebots ist). Dies ähnelt der Art und Weise, wie viele Layer-1-Blockchains Blockbelohnungen an Miner/Validatoren verteilen – es war nicht an die tatsächliche Nutzung durch externe Benutzer gebunden, sondern sollte eher die Teilnahme und das Wachstum fördern. Wie jedoch in ihrem Blog vom Juli 2025 hervorgehoben, führte dies zu einer Nutzung, die eher durch Token-Farming als durch echte Nachfrage motiviert war. Die nächste Phase für Cuckoo ist ein echtes Umsatzbeteiligungsmodell basierend auf Servicegebühren. In diesem Modell, wenn ein Endbenutzer beispielsweise den Bildgenerierungsdienst nutzt und 1 $ (in Krypto-Begriffen) bezahlt, würde dieser Token-Wert von 1 $ vielleicht aufgeteilt wie folgt: 0,70 an den Miner, der die GPU-Arbeit geleistet hat, 0,20 an den App-Entwickler (Koordinator), der das Modell und die Schnittstelle bereitgestellt hat, und 0,10 an Staker oder die Netzwerk-Treasury. (Hinweis: Die genauen Verhältnisse sind hypothetisch; Cuckoo hat sie noch nicht öffentlich spezifiziert, aber dies veranschaulicht das Konzept.) Auf diese Weise erhalten alle Mitwirkenden an der Bereitstellung des Dienstes einen Anteil am Umsatz. Dies ist analog zu, zum Beispiel, einer Fahrgemeinschafts-Wirtschaft, aber für KI: Das Fahrzeug (GPU-Miner) erhält den Großteil, der Fahrer oder die Plattform (Koordinator, der den Modell-Dienst erstellt hat) erhält einen Anteil, und vielleicht erhalten die Governance/Staker der Plattform eine kleine Gebühr. Cuckoos Erwähnung von „Umsatzbeteiligungsmodellen und Token-Belohnungen, die direkt an Nutzungsmetriken gebunden sind“ deutet darauf hin, dass wenn ein bestimmter Dienst oder Knoten ein hohes Volumen verarbeitet, seine Betreiber und Unterstützer mehr verdienen werden. Sie entfernen sich von pauschalen Renditen für das bloße Sperren von Tokens (was bei ihrem anfänglichen Staking-APY der Fall war). Konkret: Wenn Sie auf einen Koordinator staken, der letztendlich eine sehr beliebte KI-App antreibt, könnten Sie einen Teil der Gebühren dieser App verdienen – ein echtes Staking-als-Investition-in-Utility-Szenario, anstatt nur für die Inflation zu staken. Dies stimmt die Anreize aller darauf ab, echte Benutzer anzuziehen, die für KI-Dienste bezahlen, was wiederum Wert an die Token-Inhaber zurückführt. Es ist erwähnenswert, dass Cuckoos Kette auch Gebühren für Transaktionen (Gas) hatte, sodass Miner, die Blöcke produzierten (anfangs trugen GPU-Miner auch zur Blockproduktion auf der Cuckoo-Kette bei), auch Gasgebühren erhielten. Mit der Abschaltung der Kette und der Migration zu einem Rollup werden die Gasgebühren wahrscheinlich minimal sein (oder auf Ethereum liegen), sodass die Haupteinnahmen die KI-Servicegebühren selbst werden. Zusammenfassend wechselt Cuckoo von einem subventionsgetriebenen Modell (Netzwerk zahlt Teilnehmer aus seinem Token-Pool) zu einem nachfragegetriebenen Modell (Teilnehmer verdienen an tatsächlichen Benutzerzahlungen). Der Token wird weiterhin eine Rolle beim Staking und der Governance spielen, aber die täglichen Einnahmen von Minern und App-Entwicklern sollten zunehmend von Benutzern stammen, die KI-Dienste kaufen. Dieses Modell ist langfristig nachhaltiger und spiegelt die Umsatzbeteiligung von Web2-SaaS wider, jedoch über Smart Contracts und Tokens für Transparenz implementiert.

Angriffsflächen und Schwachstellen

Die Dezentralisierung von KI bringt mehrere Anreiz- und Sicherheitsherausforderungen mit sich. Wir analysieren nun die wichtigsten Angriffsvektoren – Sybil-Angriffe, Kollusion, Trittbrettfahren und Daten-/Modellvergiftung – und wie jede Plattform diese mindert oder ihnen gegenüber anfällig bleibt:

  • Sybil-Angriffe (gefälschte Identitäten): In einem offenen Netzwerk könnte ein Angreifer viele Identitäten (Knoten) erstellen, um unverhältnismäßige Belohnungen oder Einfluss zu erlangen.

    • Bittensor: Sybil-Resistenz wird hauptsächlich durch die Eintrittskosten gewährleistet. Um einen neuen Miner oder Validator auf Bittensor zu registrieren, muss man TAO ausgeben oder staken – dies könnte eine Burn- oder Bonding-Anforderung sein. Das bedeutet, dass die Erstellung von N gefälschten Knoten N-mal die Kosten verursacht, was große Sybil-Schwärme teuer macht. Zusätzlich bindet Bittensors Konsens den Einfluss an Stake und Leistung; ein Sybil ohne Stake oder mit schlechter Leistung verdient wenig. Ein Angreifer müsste stark investieren und seine Sybil-Knoten tatsächlich nützliche Arbeit leisten lassen, um eine signifikante Belohnung zu erhalten (was keine typische Sybil-Strategie ist). Wenn ein Angreifer jedoch viel Kapital besitzt, könnte er eine Mehrheit der TAO erwerben und viele Validatoren oder Miner registrieren – effektiv ein Sybil durch Reichtum. Dies überschneidet sich mit dem 51%-Angriffsszenario: Wenn eine einzelne Entität >50 % der gestakten TAO in einem Subnetz kontrolliert, kann sie den Konsens stark beeinflussen. Bittensors Einführung von dTAO hilft hier ein wenig: Es verteilt den Einfluss auf mehrere Subnetze und erfordert die Unterstützung der Community beim Staking, damit Subnetze gedeihen können, was es für eine Entität schwieriger macht, alles zu kontrollieren. Dennoch bleiben Sybil-Angriffe durch einen gut finanzierten Gegner ein Problem – die Arxiv-Analyse weist explizit darauf hin, dass der Stake derzeit ziemlich konzentriert ist, sodass die Barriere für einen Mehrheitsangriff nicht so hoch ist wie gewünscht. Um dies zu mindern, wurden Vorschläge wie Stake-Obergrenzen pro Wallet (z. B. Begrenzung des effektiven Stakes auf das 88. Perzentil, um die Dominanz einer Wallet zu verhindern) gemacht. Zusammenfassend verlässt sich Bittensor auf Stake-gewichtete Identität (man kann Identitäten nicht billig ohne proportionalen Stake erzeugen), um Sybils zu handhaben; es ist einigermaßen effektiv, außer bei einem sehr ressourcenstarken Angreifer.
    • Gensyn: Sybil-Angriffe in Gensyn würden sich darin äußern, dass ein Angreifer viele Solver- oder Verifier-Knoten hochfährt, um das System zu manipulieren. Gensyns Verteidigung ist rein wirtschaftlich und kryptografisch – Identitäten an sich spielen keine Rolle, aber das Erledigen von Arbeit oder das Hinterlegen von Sicherheiten schon. Wenn ein Angreifer 100 gefälschte Solver-Knoten erstellt, diese aber keine Jobs oder keinen Stake haben, erreichen sie nichts. Um Aufgaben zu gewinnen, müsste ein Sybil-Knoten wettbewerbsfähig bieten und die Hardware haben, um die Arbeit zu erledigen. Wenn sie ohne Kapazität unterbieten, werden sie scheitern und Stake verlieren. Ähnlich könnte ein Angreifer viele Verifier-Identitäten erstellen, in der Hoffnung, zur Verifizierung ausgewählt zu werden (wenn das Protokoll Verifier zufällig auswählt). Aber wenn es zu viele gibt, könnte das Netzwerk oder der Job-Poster die Anzahl der aktiven Verifier begrenzen. Außerdem müssen Verifier möglicherweise die Berechnung durchführen, um sie zu überprüfen, was kostspielig ist; viele gefälschte Verifier helfen nicht, es sei denn, man kann tatsächlich Ergebnisse verifizieren. Ein relevanterer Sybil-Aspekt in Gensyn ist, wenn ein Angreifer versucht, das Netzwerk mit gefälschten Jobs oder Antworten zu füllen, um die Zeit anderer zu verschwenden. Dies wird durch die Anforderung einer Einzahlung von Submittern gemildert (ein böswilliger Submitter, der gefälschte Jobs postet, verliert seine Zahlung oder Einzahlung). Insgesamt bedeutet Gensyns Verwendung von erforderlichen Stakes/Bonds und zufälliger Auswahl zur Verifizierung, dass ein Angreifer wenig gewinnt, indem er mehrere Identitäten hat, es sei denn, er bringt auch proportionale Ressourcen mit. Es wird zu einem kostspieligeren Angriff statt zu einem billigen. Das optimistische Sicherheitsmodell geht davon aus, dass mindestens ein ehrlicher Verifier vorhanden ist – Sybils müssten alle Verifier überwältigen und sein, um konsequent zu betrügen, was wiederum auf den Besitz einer Mehrheit des Stakes oder der Rechenleistung zurückführt. Gensyns Sybil-Resistenz ist daher vergleichbar mit der eines optimistischen Rollups: Solange es einen ehrlichen Akteur gibt, können Sybils keinen systemischen Schaden leicht verursachen.
    • Cuckoo: Die Prävention von Sybil-Angriffen in Cuckoo basiert auf Staking und Community-Überprüfung. Jede Rolle in Cuckoo (Miner, Koordinator, in einigen Fällen sogar Benutzer) erfordert das Staking von $CAI. Dies erhöht sofort die Kosten für Sybil-Identitäten – ein Angreifer, der 100 Dummy-Miner erstellt, müsste für jeden Stake erwerben und sperren. Darüber hinaus hat Cuckoos Design ein menschliches/gemeinschaftliches Element: Neue Knoten müssen Reputation durch On-Chain-Abstimmung verdienen. Eine Sybil-Armee von neuen Knoten ohne Reputation wird wahrscheinlich nicht viele Aufgaben zugewiesen bekommen oder von Benutzern vertraut werden. Koordinatoren müssen insbesondere Benutzer anziehen; ein gefälschter Koordinator ohne Erfolgsbilanz würde keine Nutzung erhalten. Für Miner können Koordinatoren ihre Leistungsstatistiken (erfolgreiche Aufgaben usw.) auf Cuckoo Scan sehen und werden zuverlässige Miner bevorzugen. Cuckoo hatte auch eine relativ kleine Anzahl von Minern (zu einem Zeitpunkt in der Beta 40 GPUs), sodass jeder ungewöhnliche Zustrom vieler Knoten auffallen würde. Der potenzielle Schwachpunkt ist, wenn der Angreifer auch das Reputationssystem ausnutzt – z. B. staken sie viel CAI auf ihre Sybil-Knoten, um sie seriös aussehen zu lassen, oder erstellen gefälschte „Benutzer“-Konten, um sich selbst hochzustimmen. Dies ist theoretisch möglich, aber da alles Token-kuratiert ist, kostet es Tokens, dies zu tun (man würde im Wesentlichen mit dem eigenen Stake auf die eigenen Knoten stimmen). Das Cuckoo-Team kann auch die Staking- und Belohnungsparameter anpassen, wenn Sybil-Verhalten beobachtet wird (insbesondere jetzt, da es zu einem stärker zentralisierten Rollup-Dienst wird; sie können schlechte Akteure pausieren oder „slashen“). Alles in allem werden Sybils durch die Anforderung von „Skin in the Game“ (Stake) und die Notwendigkeit der Community-Zustimmung in Schach gehalten. Niemand kann einfach mit Hunderten von gefälschten GPUs hereinspazieren und Belohnungen ernten, ohne eine erhebliche Investition zu tätigen, die ehrliche Teilnehmer besser für echte Hardware und Stake ausgeben könnten.
  • Kollusion: Hier betrachten wir mehrere Teilnehmer, die kolludieren, um das System zu manipulieren – zum Beispiel Validatoren und Miner, die in Bittensor kolludieren, oder Solver und Verifier, die in Gensyn kolludieren usw.

    • Bittensor: Kollusion wurde als echtes Problem identifiziert. Im ursprünglichen Design konnte eine Handvoll Validatoren kolludieren, um bestimmte Miner oder sich selbst immer hochzustufen, wodurch die Belohnungsverteilung unfair verzerrt wurde (dies wurde als Machtkonzentration im Root-Subnetz beobachtet). Der Yuma-Konsens bietet eine gewisse Verteidigung: Indem er einen Median der Validatoren-Scores nimmt und diejenigen bestraft, die abweichen, verhindert er, dass eine kleine kolludierende Gruppe ein Ziel dramatisch aufwertet, es sei denn, sie bilden die Mehrheit. Mit anderen Worten, wenn 3 von 10 Validatoren kolludieren, um einem Miner einen super hohen Score zu geben, die anderen 7 dies aber nicht tun, werden die Ausreißer-Scores der Kolludierenden beschnitten und die Belohnung des Miners basiert auf dem Median-Score (so scheitert die Kollusion daran, signifikant zu helfen). Wenn die Kolludierenden jedoch >50 % der Validatoren (oder >50 % des Stakes unter den Validatoren) bilden, sind sie effektiv der Konsens – sie können sich auf falsche hohe Scores einigen, und der Median wird ihre Ansicht widerspiegeln. Dies ist das klassische 51%-Angriffsszenario. Leider ergab die Arxiv-Studie, dass in einigen Bittensor-Subnetzen eine Koalition von nur 1–2 % der Teilnehmer (nach Anzahl) eine Mehrheit des Stakes kontrollierte, aufgrund einer starken Token-Konzentration. Dies bedeutet, dass Kollusion durch einige wenige Großinhaber eine glaubwürdige Bedrohung darstellte. Die Minderung, die Bittensor über dTAO verfolgt, ist die Demokratisierung des Einflusses: Indem jeder TAO-Inhaber Stake an Subnetze lenken kann, wird die Macht geschlossener Validatoren-Gruppen verwässert. Auch Vorschläge wie konkaves Staking (abnehmende Erträge für übermäßigen Stake) und Stake-Obergrenzen zielen darauf ab, die Fähigkeit einer kolludierenden Entität zu brechen, zu viel Stimmrecht zu sammeln. Bittensors Sicherheitsannahme ähnelt nun Proof-of-Stake: keine einzelne Entität (oder Kartell) kontrolliert >50 % des aktiven Stakes. Solange dies gilt, ist Kollusion begrenzt, da ehrliche Validatoren schlechte Bewertungen überschreiben werden und kolludierende Subnetz-Besitzer ihre eigenen Belohnungen nicht willkürlich erhöhen können. Schließlich, bei Kollusion zwischen Subnetz-Besitzern und Validatoren (z. B. ein Subnetz-Besitzer besticht Validatoren, um die Miner seines Subnetzes hoch zu bewerten), entfernt dTAO die direkte Validatoren-Kontrolle und ersetzt sie durch Token-Inhaber-Entscheidungen. Es ist schwieriger, mit „dem Markt“ zu kolludieren, es sei denn, man kauft das Token-Angebot auf – in diesem Fall ist es keine Kollusion, sondern eine Übernahme. Bittensors Haupttechnik gegen Kollusion ist also algorithmischer Konsens (Median-Clipping) und breite Token-Verteilung.

    • Gensyn: Kollusion in Gensyn würde wahrscheinlich einen Solver und einen Verifier (oder mehrere Verifier) umfassen, die kolludieren, um das System zu betrügen. Zum Beispiel könnte ein Solver ein gefälschtes Ergebnis produzieren, und ein kolludierender Verifier könnte es absichtlich nicht anfechten (oder sogar bestätigen, dass es korrekt ist, wenn das Protokoll Verifier auffordert, dies zu unterschreiben). Um dies zu mindern, erfordert Gensyns Sicherheitsmodell mindestens einen ehrlichen Verifier. Wenn alle Verifier mit dem Solver kolludieren, bleibt ein schlechtes Ergebnis unangefochten. Gensyn begegnet dem, indem es viele unabhängige Verifier fördert (jeder kann verifizieren) und durch die Spieltheorie, dass ein Verifier eine große Belohnung verdienen könnte, indem er die Kollusion bricht und anfechtet (weil er den Stake des Solvers erhalten würde). Im Wesentlichen hat jedes Mitglied, selbst wenn eine Gruppe sich zur Kollusion bereit erklärt, einen Anreiz, abtrünnig zu werden und die Belohnung für sich selbst zu beanspruchen – dies ist ein klassisches Gefangenendilemma. Die Hoffnung ist, dass dies Kollusionsgruppen klein oder ineffektiv hält. Eine weitere potenzielle Kollusion besteht zwischen mehreren Solvern, um Preise in die Höhe zu treiben oder Aufgaben zu monopolisieren. Da Entwickler jedoch wählen können, wo sie Aufgaben posten (und Aufgaben keine identischen Einheiten sind, die leicht monopolisiert werden können), wäre eine Solver-Kollusion bei der Preisgestaltung global schwer zu koordinieren – jeder nicht-kolludierende Solver könnte unterbieten, um die Arbeit zu gewinnen. Die Dynamik des offenen Marktes wirkt der Preiskollusion entgegen, vorausgesetzt, es gibt zumindest einige wettbewerbsfähige Teilnehmer. Ein weiterer Aspekt: Verifier-Kollusion, um Solver zu schädigen – z. B. Verifier, die ehrliche Solver fälschlicherweise beschuldigen, um deren Stake zu stehlen. Gensyns Fraud Proof ist binär und On-Chain; eine falsche Anschuldigung würde fehlschlagen, wenn die On-Chain-Neuberechnung keinen Fehler findet, und presumably würde der böswillige Verifier dann etwas verlieren (vielleicht eine Einzahlung oder Reputation). Eine Kollusion von Verifiern, die versuchen, Solver zu sabotieren, würde also durch den Verifizierungsprozess des Protokolls aufgedeckt. Zusammenfassend ist Gensyns Architektur robust, solange mindestens eine Partei in jedem kolludierenden Set einen Anreiz hat, ehrlich zu sein – eine Eigenschaft der optimistischen Verifizierung, ähnlich der Anforderung eines ehrlichen Miners in Bitcoin, um schließlich einen Betrug aufzudecken. Kollusion ist theoretisch möglich, wenn ein Angreifer alle Verifier und Solver in einer Aufgabe kontrollieren könnte (wie eine Mehrheit des Netzwerks), aber dann könnten sie einfach betrügen, ohne Kollusion an sich zu benötigen. Die kryptoökonomischen Anreize sind so angeordnet, dass die Aufrechterhaltung von Kollusion irrational ist.

    • Cuckoo: Kollusion in Cuckoo könnte auf verschiedene Weisen geschehen:

      1. Ein Koordinator kolludiert mit Minern – zum Beispiel könnte ein Koordinator Aufgaben immer einer Gruppe befreundeter Miner zuweisen und Belohnungen aufteilen, während er andere ehrliche Miner ignoriert. Da Koordinatoren bei der Aufgabenplanung Ermessensspielraum haben, kann dies geschehen. Wenn die befreundeten Miner jedoch unterdurchschnittlich sind, könnten die Endbenutzer einen langsamen oder schlechten Dienst bemerken und abwandern, sodass der Koordinator von reinem Favoritismus, der die Qualität beeinträchtigt, abgeschreckt wird. Wenn die Kollusion darauf abzielt, Belohnungen zu manipulieren (z. B. das Einreichen gefälschter Aufgaben, um Minern Tokens zu geben), würde dies On-Chain entdeckt werden (viele Aufgaben mit vielleicht identischen Eingaben oder ohne tatsächlichen Benutzer) und kann bestraft werden. Cuckoos On-Chain-Transparenz bedeutet, dass ungewöhnliche Muster von der Community oder dem Kernteam gemeldet werden könnten. Da alle Teilnehmer staken, riskiert ein kolludierender Koordinator-Miner-Ring den Verlust seines Stakes, wenn er beim Missbrauch des Systems erwischt wird (z. B. wenn die Governance beschließt, sie wegen Betrugs zu „slashen“).
      2. Miner kolludieren untereinander – sie könnten Informationen teilen oder ein Kartell bilden, um sich beispielsweise gegenseitig bei der Reputation zu wählen oder alle weigern, einem bestimmten Koordinator zu dienen, um höhere Gebühren zu erzielen. Diese Szenarien sind weniger wahrscheinlich: Die Reputationsabstimmung erfolgt durch Staker (einschließlich Benutzer), nicht durch die Miner selbst, die sich gegenseitig wählen. Und die Verweigerung des Dienstes würde Koordinatoren nur dazu bringen, andere Miner zu finden oder Alarm zu schlagen. Angesichts des derzeit relativ kleinen Umfangs wäre jede Kollusion schwer zu verbergen.
      3. Kollusion zur Manipulation der Governance – große CAI-Inhaber könnten kolludieren, um Vorschläge zu ihren Gunsten durchzusetzen (wie die Festlegung einer exorbitanten Gebühr oder die Umleitung der Treasury). Dies ist ein Risiko in jeder Token-Governance. Die beste Minderung ist eine breite Verteilung des Tokens (Cuckoos Fair Launch gab 51 % an die Community) und eine aktive Community-Aufsicht. Da Cuckoo auch von L1 abgewichen ist, könnte die sofortige On-Chain-Governance begrenzt sein, bis sie sich auf einer neuen Kette niedergelassen haben; das Team behält wahrscheinlich in der Zwischenzeit eine Multisig-Kontrolle, was ironischerweise Kollusion durch böswillige Außenseiter auf Kosten einer vorübergehenden Zentralisierung verhindert.

    Insgesamt stützt sich Cuckoo auf Transparenz und Staking, um Kollusion zu handhaben. Es gibt ein Element des Vertrauens in Koordinatoren, sich korrekt zu verhalten, da sie in einem wettbewerbsintensiven Umfeld Benutzer anziehen wollen. Wenn Kollusion zu schlechterem Service oder offensichtlicher Belohnungsmanipulation führt, können Stakeholder schlechte Akteure abwählen oder das Staking auf sie einstellen, und das Netzwerk kann sie „slashen“ oder blockieren. Die ziemlich offene Natur (jeder kann Koordinator oder Miner werden, wenn er stakt) bedeutet, dass Kollusion eine große koordinierte Anstrengung erfordern würde, die offensichtlich wäre. Es ist nicht so mathematisch verhindert wie in Bittensor oder Gensyn, aber die Kombination aus wirtschaftlichem Stake und Community-Governance bietet eine Kontrolle.

  • Trittbrettfahren (Free-Rider-Probleme): Dies bezieht sich auf Teilnehmer, die versuchen, Belohnungen zu ernten, ohne einen gleichwertigen Beitrag zu leisten – z. B. ein Validator, der nicht tatsächlich evaluiert, aber trotzdem verdient, oder ein Miner, der die Antworten anderer kopiert, anstatt zu rechnen, oder Benutzer, die Belohnungen farmen, ohne nützliche Eingaben zu liefern.

    • Bittensor: Ein bekanntes Trittbrettfahrerproblem in Bittensor ist das „Gewichtskopieren“ durch faule Validatoren. Ein Validator könnte einfach die Mehrheitsmeinung (oder die Bewertungen eines anderen Validators) kopieren, anstatt Miner unabhängig zu bewerten. Dadurch vermeiden sie die Kosten für die Ausführung von KI-Abfragen, erhalten aber dennoch Belohnungen, wenn ihre eingereichten Bewertungen konsenskonform aussehen. Bittensor bekämpft dies, indem es die Konsensausrichtung und den informatorischen Beitrag jedes Validators misst. Wenn ein Validator immer nur andere kopiert, mag er gut ausgerichtet sein (so dass er nicht stark bestraft wird), aber er fügt keinen einzigartigen Wert hinzu. Die Protokollentwickler haben diskutiert, Validatoren, die genaue, aber nicht rein redundante Bewertungen liefern, höhere Belohnungen zu geben. Techniken wie die Rauschinfusion (absichtliches Geben von leicht unterschiedlichen Abfragen an Validatoren) könnten sie zwingen, tatsächlich zu arbeiten, anstatt zu kopieren – obwohl unklar ist, ob dies implementiert ist. Der Arxiv schlägt leistungsgewichtete Emissions- und zusammengesetzte Bewertungsmethoden vor, um den Aufwand des Validators besser mit der Belohnung zu verknüpfen. Was Miner betrifft, so wäre ein mögliches Trittbrettfahrer-Verhalten, wenn ein Miner andere Miner abfragt und die Antwort weiterleitet (eine Form von Plagiat). Bittensors Design (mit dezentralen Abfragen) könnte es einem Miner-Modell ermöglichen, andere über seinen eigenen Dendriten aufzurufen. Wenn ein Miner nur die Antwort eines anderen weiterleitet, könnte ein guter Validator dies erkennen, da die Antwort möglicherweise nicht konsistent mit den vom Miner beanspruchten Modellfähigkeiten übereinstimmt. Es ist algorithmisch schwierig zu erkennen, aber ein Miner, der niemals originelle Ergebnisse berechnet, sollte schließlich bei einigen Abfragen schlecht abschneiden und an Reputation verlieren. Ein weiteres Trittbrettfahrer-Szenario waren Delegatoren, die Belohnungen verdienten, ohne KI-Arbeit zu leisten. Das ist beabsichtigt (um Token-Inhaber einzubeziehen), also kein Angriff – aber es bedeutet, dass einige Token-Emissionen an Personen gehen, die nur gestakt haben. Bittensor rechtfertigt dies als Ausrichtung der Anreize, nicht als verschwendete Belohnungen. Kurz gesagt, Bittensor erkennt das Trittbrettfahrerproblem der Validatoren an und stimmt die Anreize ab (z. B. durch die Vergabe von Validatoren-Vertrauens-Scores, die diejenigen fördern, die nicht abweichen oder kopieren). Ihre Lösung besteht im Wesentlichen darin, Aufwand und Korrektheit expliziter zu belohnen, so dass Nichtstun oder blindes Kopieren im Laufe der Zeit weniger TAO einbringt.
    • Gensyn: In Gensyn hätten Trittbrettfahrer es schwer, zu verdienen, da man entweder Rechenleistung bereitstellen oder jemanden beim Betrug erwischen muss, um Tokens zu erhalten. Ein Solver kann Arbeit nicht „fälschen“ – er muss entweder einen gültigen Nachweis einreichen oder das Risiko des „Slashing“ eingehen. Es gibt keinen Mechanismus, um bezahlt zu werden, ohne die Aufgabe zu erledigen. Ein Verifier könnte theoretisch untätig bleiben und hoffen, dass andere Betrug aufdecken – aber dann verdient er nichts (weil nur derjenige, der den Fraud Proof vorlegt, die Belohnung erhält). Wenn zu viele Verifier versuchen, Trittbrett zu fahren (Aufgaben nicht tatsächlich neu berechnen), könnte ein betrügerischer Solver durchrutschen, weil niemand prüft. Gensyns Anreizdesign begegnet dem durch die Jackpot-Belohnung: Es braucht nur einen aktiven Verifier, um einen Betrug zu erwischen und eine große Auszahlung zu erhalten, daher ist es rational, dass mindestens einer immer die Arbeit erledigt. Andere, die keine Arbeit leisten, schaden dem Netzwerk nicht, außer dass sie nutzlos sind; sie erhalten auch keine Belohnung. Das System filtert Trittbrettfahrer also natürlich heraus: Nur diejenigen Verifier, die tatsächlich verifizieren, werden langfristig Gewinn machen (andere verschwenden Ressourcen für Knoten umsonst oder ergattern sehr selten zufällig eine Belohnung). Das Protokoll könnte auch zufällig auswählen, welcher Verifier die Möglichkeit erhält, eine Anfechtung vorzunehmen, um alle Verifier davon abzuhalten, anzunehmen, „jemand anderes wird es tun“. Da Aufgaben einzeln bezahlt werden, gibt es kein Analogon zu „Staking-Belohnungen ohne Arbeit“, abgesehen von Testnet-Anreizen, die temporär sind. Ein Bereich, den man beobachten sollte, ist die Multi-Task-Optimierung: Ein Solver könnte versuchen, Arbeit zwischen Aufgaben wiederzuverwenden oder sie heimlich an jemanden billigeren auszulagern (z. B. eine zentralisierte Cloud nutzen) – aber das ist kein wirklich schädliches Trittbrettfahren; wenn sie korrekte Ergebnisse pünktlich liefern, spielt es keine Rolle, wie sie es getan haben. Das ist eher Arbitrage als ein Angriff. Zusammenfassend lässt Gensyns Mechanismusdesign wenig Raum für Trittbrettfahrer, um zu gewinnen, da jeder verteilte Token einer erledigten Aufgabe oder einem bestraften Betrug entspricht.
    • Cuckoo: Cuckoos Anfangsphase schuf unbeabsichtigt ein Trittbrettfahrerproblem: Der Airdrop und das High-Yield-Staking zogen Benutzer an, die nur da waren, um Tokens zu farmen. Diese Benutzer würden Tokens durch Faucets zirkulieren lassen oder die Airdrop-Aufgaben manipulieren (zum Beispiel kontinuierlich kostenlose Test-Prompts verwenden oder viele Konten erstellen, um Belohnungen zu beanspruchen), ohne zum langfristigen Netzwerkwert beizutragen. Cuckoo erkannte dies als Problem – im Wesentlichen nutzten die Leute das Netzwerk nicht für KI-Outputs, sondern für spekulative Belohnungsgewinne. Die Entscheidung, die L1-Kette zu beenden und sich neu zu konzentrieren, diente teilweise dazu, diese Fehlausrichtungen der Anreize zu beseitigen. Indem zukünftige Token-Belohnungen an die tatsächliche Nutzung gebunden werden (d. h., man verdient, weil der Dienst tatsächlich von zahlenden Kunden genutzt wird), nimmt die Attraktivität des Trittbrettfahrens ab. Es gibt auch ein minerseitiges Trittbrettfahrer-Szenario: Ein Miner könnte beitreten, Aufgaben zugewiesen bekommen und diese irgendwie nicht ausführen, aber trotzdem Belohnungen beanspruchen. Der Koordinator überprüft jedoch die Ergebnisse – wenn ein Miner keine oder schlechte Outputs zurückgibt, wird der Koordinator dies nicht als abgeschlossene Aufgabe zählen, sodass der Miner nicht bezahlt würde. Miner könnten auch versuchen, einfache Aufgaben auszuwählen und schwierige fallen zu lassen (zum Beispiel, wenn einige Prompts langsamer sind, könnte ein Miner die Verbindung trennen, um sie zu vermeiden). Dies könnte ein Problem sein, aber Koordinatoren können die Zuverlässigkeit eines Miners beachten. Wenn ein Miner häufig ausfällt, kann der Koordinator aufhören, ihm Aufgaben zuzuweisen, oder seinen Stake „slashen“ (falls ein solcher Mechanismus existiert oder ihn einfach nicht belohnen). Benutzer-Trittbrettfahren – da viele KI-Dienste kostenlose Testphasen haben, könnte ein Benutzer Anfragen spammen, um Outputs ohne Bezahlung zu erhalten (wenn es ein subventioniertes Modell gibt). Das ist weniger ein Protokoll- als ein Dienstleistungsproblem; jeder Koordinator kann entscheiden, wie er mit kostenloser Nutzung umgeht (z. B. eine kleine Zahlung oder Drosselung verlangen). Da Cuckoo anfangs Werbegeschenke (wie kostenlose KI-Bildgenerierungen, um Benutzer anzuziehen) verteilte, nutzten einige dies aus, aber das war Teil des erwarteten Wachstumsmarketings. Wenn diese Aktionen enden, müssen Benutzer bezahlen, sodass es kein kostenloses Mittagessen mehr zu nutzen gibt. Insgesamt zielt Cuckoos neue Strategie, die Token-Verteilung an den tatsächlichen Nutzen zu koppeln, explizit darauf ab, das Trittbrettfahrerproblem des „Mining von Tokens für sinnlose Schleifen“ zu eliminieren.
  • Daten- oder Modellvergiftung: Dies bezieht sich auf das böswillige Einführen schlechter Daten oder Verhaltensweisen, sodass die KI-Modelle sich verschlechtern oder Outputs manipuliert werden, sowie auf Probleme mit schädlichen oder voreingenommenen Inhalten, die beigesteuert werden.

    • Bittensor: Datenvergiftung in Bittensor würde bedeuten, dass ein Miner absichtlich falsche oder schädliche Antworten gibt oder Validatoren gute Antworten absichtlich falsch bewerten. Wenn ein Miner konsistent Müll oder bösartigen Inhalt ausgibt, werden Validatoren niedrige Bewertungen vergeben, und dieser Miner wird wenig verdienen und schließlich ausscheiden – der wirtschaftliche Anreiz ist, Qualität zu liefern, sodass das „Vergiften“ anderer dem Angreifer keinen Nutzen bringt (es sei denn, sein Ziel ist reine Sabotage auf eigene Kosten). Könnte ein bösartiger Miner andere vergiften? In Bittensor trainieren Miner sich nicht direkt gegenseitig (zumindest nicht von Natur aus – es gibt kein globales Modell, das aktualisiert wird und vergiftet werden könnte). Das Modell jedes Miners ist separat. Sie lernen in dem Sinne, dass ein Miner interessante Beispiele von anderen nehmen könnte, um sich selbst feinabzustimmen, aber das ist völlig optional und jedem selbst überlassen. Wenn ein böswilliger Akteur unsinnige Antworten spammen würde, würden ehrliche Validatoren dies herausfiltern (sie würden es niedrig bewerten), sodass es den Trainingsprozess eines ehrlichen Miners nicht wesentlich beeinflussen würde (außerdem würde ein Miner wahrscheinlich das Wissen von hoch bewerteten Peers nutzen, nicht von niedrig bewerteten). Klassische Datenvergiftung (Einspeisung schlechter Trainingsdaten zur Korruption eines Modells) ist in Bittensors aktueller Konfiguration minimal. Das relevantere Risiko ist die Manipulation von Modellantworten: z. B. ein Miner, der subtil voreingenommene oder gefährliche Inhalte ausgibt, die für Validatoren nicht offensichtlich sind. Da Validatoren jedoch auch von Menschen entworfen oder zumindest algorithmische Agenten sind, wird offensichtliche Toxizität oder Fehler wahrscheinlich erkannt (einige Subnetze könnten sogar KI-Validatoren haben, die auf unsichere Inhalte prüfen). Ein Worst-Case-Szenario wäre, wenn ein Angreifer irgendwie eine Mehrheit der Validatoren und Miner dazu bringen könnte, eine bestimmte falsche Ausgabe als „korrekt“ durchzusetzen – sie könnten dann den Konsens des Netzwerks über Antworten verzerren (wie alle kolludierenden Validatoren eine bösartige Antwort hochstufen). Aber damit ein externer Benutzer dadurch geschädigt wird, müsste er das Netzwerk tatsächlich abfragen und der Ausgabe vertrauen. Bittensor befindet sich noch in einer Phase, in der es Fähigkeiten aufbaut, und wird von Endbenutzern nicht weit verbreitet für kritische Abfragen verwendet. Bis dahin hofft man, dass es Inhaltsfilterung und eine Vielfalt von Validatoren haben wird, um solche Risiken zu mindern. Auf der Validatorenseite könnte ein bösartiger Validator vergiftete Bewertungen einspeisen – z. B. einen bestimmten ehrlichen Miner konsequent herabstufen, um den Wettbewerb zu eliminieren. Mit genügend Stake könnten sie erfolgreich sein, diesen Miner zu verdrängen (wenn die Belohnungen des Miners so stark sinken, dass er geht). Dies ist ein Angriff auf den Anreizmechanismus. Auch hier gilt: Wenn sie nicht die Mehrheit sind, wird das Median-Clipping einen Ausreißer-Validator vereiteln. Wenn sie die Mehrheit sind, verschmilzt es mit dem Kollusions-/51%-Szenario – jede Mehrheit kann Regeln umschreiben. Die Lösung kehrt zur Dezentralisierung zurück: verhindern, dass eine einzelne Entität dominiert. Zusammenfassend bestraft Bittensors Design vergiftete Daten-/Modellbeiträge über sein Bewertungssystem – schlechte Beiträge erhalten geringes Gewicht und somit geringe Belohnung. Es gibt kein permanentes Modell-Repository zum Vergiften; alles ist dynamisch und wird kontinuierlich bewertet. Dies bietet Resilienz: Das Netzwerk kann schlechte Akteure allmählich „vergessen“ oder ignorieren, da ihre Beiträge von Validatoren herausgefiltert werden.
    • Gensyn: Wenn ein Solver ein zu trainierendes Modell vergiften wollte (z. B. eine Hintertür oder eine Verzerrung während des Trainings einführen), könnte er versuchen, dies heimlich zu tun. Das Gensyn-Protokoll würde überprüfen, ob das Training gemäß dem angegebenen Algorithmus (stochastische Gradientenabstiegs-Schritte usw.) verlief, würde aber nicht unbedingt erkennen, ob der Solver einen subtilen Hintertür-Trigger eingeführt hat, der in normalen Validierungsmetriken nicht auftaucht. Dies ist ein heimtückischeres Problem – es ist kein Fehler der Berechnung, sondern eine Manipulation innerhalb der zulässigen Freiheitsgrade des Trainings (wie das Anpassen von Gewichten an eine Triggerphrase). Die Erkennung dessen ist ein aktives Forschungsproblem in der ML-Sicherheit. Gensyn hat keinen speziellen Mechanismus zur Modellvergiftung, abgesehen davon, dass der Submitter das endgültige Modell auf einem Testset seiner Wahl bewerten könnte. Ein versierter Submitter sollte das zurückgegebene Modell immer testen; wenn er feststellt, dass es bei einigen Eingaben fehlschlägt oder ein seltsames Verhalten aufweist, kann er das Ergebnis anfechten oder die Zahlung verweigern. Vielleicht könnte das Protokoll einem Submitter erlauben, bestimmte Akzeptanzkriterien festzulegen (wie „Modell muss mindestens X Genauigkeit auf diesem geheimen Testset erreichen“), und wenn das Ergebnis des Solvers fehlschlägt, wird der Solver nicht vollständig bezahlt. Dies würde eine Vergiftung abschrecken, da der Angreifer die Bewertungskriterien nicht erfüllen würde. Wenn das Gift jedoch die Genauigkeit bei normalen Tests nicht beeinträchtigt, könnte es durchrutschen. Verifier in Gensyn überprüfen nur die Berechnungsintegrität, nicht die Modellqualität, sodass sie absichtliches Overfitting oder Trojaner nicht erkennen würden, solange die Trainingsprotokolle gültig aussehen. Dies bleibt also ein Vertrauensproblem auf Aufgabenebene: Der Submitter muss entweder darauf vertrauen, dass der Solver das Modell nicht vergiften wird, oder Methoden wie das Ensembling mehrerer Trainingsergebnisse von verschiedenen Solvern verwenden, um den Einfluss eines einzelnen Solvers zu verwässern. Ein weiterer Aspekt ist die Datenvergiftung: Wenn der Submitter Trainingsdaten bereitstellt, könnte ein böswilliger Solver diese Daten ignorieren und auf etwas anderem trainieren oder Mülldaten hinzufügen. Dies würde jedoch wahrscheinlich die Genauigkeit verringern, was der Submitter an der Leistung des Ausgabemodells bemerken würde. Der Solver würde dann keine volle Zahlung erhalten (da er vermutlich ein Leistungsziel erreichen möchte). Eine Vergiftung, die die Leistung beeinträchtigt, ist also für die Belohnung des Solvers selbstzerstörerisch. Nur ein Gift, das leistungsneutral, aber bösartig ist (eine Hintertür), ist eine echte Gefahr, und das liegt außerhalb des Bereichs der typischen Blockchain-Verifizierung – es ist eine Herausforderung der Machine-Learning-Sicherheit. Gensyns beste Minderung ist wahrscheinlich sozial: bekannte, seriöse Modelle verwenden, mehrere Trainingsläufe durchführen, Open-Source-Tools verwenden. Bei Inferenzaufgaben (wenn Gensyn auch für Inferenzjobs verwendet wird) könnte ein kolludierender Solver falsche Outputs zurückgeben, die eine bestimmte Antwort verzerren. Aber Verifier würden falsche Outputs erkennen, wenn sie dasselbe Modell ausführen, sodass dies weniger eine Vergiftung als vielmehr Betrug ist, den die Fraud Proofs adressieren. Zusammenfassend lässt sich sagen, dass Gensyn den Prozess, nicht die Absicht, sichert. Es stellt sicher, dass das Training/die Inferenz korrekt durchgeführt wurde, aber nicht, dass das Ergebnis gut oder frei von versteckten Gemeinheiten ist. Das bleibt ein offenes Problem, und Gensyns Whitepaper löst dies wahrscheinlich noch nicht vollständig (nur wenige tun dies).
    • Cuckoo: Da Cuckoo derzeit auf Inferenz (Bereitstellung bestehender Modelle) fokussiert ist, ist das Risiko von Daten-/Modellvergiftung relativ begrenzt auf Output-Manipulation oder Inhaltsvergiftung. Ein böswilliger Miner könnte versuchen, das Modell, das er ausführen soll, zu manipulieren – z. B. wenn er einen Stable Diffusion Checkpoint erhält, könnte er ihn durch ein anderes Modell ersetzen, das vielleicht ein subtiles Wasserzeichen oder eine Werbung in jedes Bild einfügt. Der Koordinator (der der Modelleigentümer ist) sendet Aufgaben jedoch typischerweise mit einer Erwartung an das Ausgabeformat; wenn ein Miner konsistent nicht-spezifikationsgerechte Outputs zurückgibt, wird der Koordinator diesen Miner kennzeichnen und sperren. Außerdem können Miner ein Modell nicht einfach ändern, ohne dessen Outputs merklich zu beeinflussen. Ein weiteres Szenario ist, wenn Cuckoo von der Community trainierte Modelle einführt: Dann könnten Miner oder Datenanbieter versuchen, die Trainingsdaten zu vergiften (zum Beispiel viele falsche Labels oder voreingenommenen Text einzugeben). Cuckoo müsste eine Validierung von Crowd-sourced-Daten oder eine Gewichtung der Mitwirkenden implementieren. Dies ist noch keine Funktion, aber das Interesse des Teams an personalisierter KI (wie ihre Erwähnung von KI-Life-Coaches oder Lern-Apps) bedeutet, dass sie möglicherweise irgendwann benutzerbereitgestellte Trainingsdaten verarbeiten werden, was sorgfältige Überprüfungen erfordert. Was die Inhaltssicherheit betrifft, so könnte man sich, da Cuckoo-Miner Inferenz durchführen, Sorgen machen, dass sie schädliche Inhalte ausgeben, selbst wenn das Modell dies normalerweise nicht tun würde. Miner haben jedoch keinen Anreiz, Outputs willkürlich zu ändern – sie werden für korrekte Berechnung bezahlt, nicht für Kreativität. Wenn überhaupt, könnte ein böswilliger Miner die vollständige Berechnung überspringen, um Zeit zu sparen (z. B. ein unscharfes Bild oder eine generische Antwort zurückgeben). Der Koordinator oder Benutzer würde dies sehen und diesen Miner herabstufen (und wahrscheinlich nicht für diese Aufgabe bezahlen). Datenschutz ist ein weiterer Aspekt: Ein böswilliger Miner könnte Benutzerdaten leaken oder protokollieren (z. B. wenn ein Benutzer sensible Texte oder Bilder eingibt). Dies ist keine Vergiftung, sondern ein Angriff auf die Vertraulichkeit. Cuckoos Datenschutzhaltung ist, dass es datenschutzfreundliche Methoden erforscht (die Erwähnung eines datenschutzfreundlichen VPN im Ökosystem deutet auf einen zukünftigen Fokus hin). Sie könnten Techniken wie sichere Enklaven oder geteilte Inferenz integrieren, um Daten vor Minern privat zu halten. Noch nicht implementiert, aber eine bekannte Überlegung. Schließlich betont Cuckoos Blog die effektive Überprüfung von Modellausgaben und die Sicherstellung eines sicheren dezentralen Modellbetriebs als Schlüssel zur Realisierung der Modell-Tokenisierung. Dies deutet darauf hin, dass sie sich bewusst sind, dass man, um KI wirklich zu dezentralisieren, sich gegen Dinge wie vergiftete Outputs oder fehlerhafte Modelle schützen muss. Möglicherweise beabsichtigen sie, eine Kombination aus kryptoökonomischen Anreizen (Stake-Slashing für schlechte Akteure) und Benutzerbewertungssystemen (Benutzer können schlechte Outputs kennzeichnen, und diese Miner verlieren Reputation) zu verwenden. Das Reputationssystem kann hier helfen: Wenn ein Miner auch nur ein offensichtlich bösartiges oder falsches Ergebnis zurückgibt, können Benutzer/Koordinatoren ihn herabstufen, was seine zukünftige Verdienstfähigkeit stark beeinträchtigt. In dem Wissen darum sind Miner motiviert, konsistent