Direkt zum Hauptinhalt

156 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

Gefälschte CEOs auf Zoom: Wie Nordkoreas Deepfake-Kampagnen Krypto-Wallets leeren

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Ein Mitbegründer von Polygon stellt fest, dass Fremde ihn fragen, ob er wirklich mit ihnen in einem Zoom-Call ist. Ein Organisator der BTC Prague beobachtet, wie eine überzeugende KI-generierte Replik eines bekannten Krypto-CEOs auf dem Bildschirm erscheint, nur um dann aufgefordert zu werden, einen „schnellen Audio-Fix“ durchzuführen. Ein Gründer eines KI-Startups entgeht einer Infektion, indem er auf Google Meet besteht – und die Angreifer verschwinden. Dies sind keine Szenen aus einem Cyberpunk-Thriller. Sie ereigneten sich Anfang 2026 und haben einen gemeinsamen Nenner: Nordkoreas sich rasant entwickelnde Deepfake-Social-Engineering-Maschinerie.

KI-Agenten als primäre Blockchain-Nutzer: Die unsichtbare Revolution von 2026

· 15 Min. Lesezeit
Dora Noda
Software Engineer

"In ein paar Jahren wird es nur noch KI sein, wie das Betriebssystem", erklärte Illia Polosukhin, Mitbegründer des NEAR-Protokolls, in einer Erklärung, die den tiefgreifendsten Wandel verdeutlicht, der sich heute in der Blockchain-Technologie vollzieht. Seine Vorhersage ist einfach und doch transformativ: KI-Agenten werden die primären Nutzer der Blockchain werden, nicht Menschen.

Dies ist kein fernes Science-Fiction-Szenario. Es geschieht genau jetzt, im März 2026, während Milliarden von Transaktionen von autonomen KI-Agenten über Dutzende von Blockchains hinweg ausgeführt werden. Während menschliche Nutzer immer noch die Schlagzeilen dominieren, offenbart die heute aufgebaute Infrastruktur eine Zukunft, in der Blockchain zum unsichtbaren Backend für KI-gesteuerte Interaktionen wird.

Der Paradigmenwechsel: Von der menschenzentrierten zur agentenzentrierten Blockchain

Polosukhins Vision artikuliert, was viele Infrastrukturentwickler bereits wissen: "KI wird im Front-End sein und Blockchain wird das Back-End sein." Diese Rollenumkehr transformiert die Blockchain von einer direkten Benutzerschnittstelle zu einer Koordinationsschicht für autonome Systeme.

Die Zahlen unterstützen diesen Trend. Bis Ende 2026 wird erwartet, dass 40 % der Unternehmensanwendungen aufgabenspezifische KI-Agenten einbetten, gegenüber weniger als 5 % im Jahr 2025. Inzwischen verzeichnen Prognosemärkte wie Polymarket bereits, dass KI-Agenten 30 % oder mehr des Handelsvolumens beitragen, was zeigt, dass autonome Systeme nicht nur theoretisch sind – sie sind aktive Marktteilnehmer.

Der Start von Near.com durch NEAR im Februar 2026 verdeutlicht diesen Wandel. Die Super-App positioniert sich an der Schnittstelle von Krypto und KI, was Polosukhin als Teil der "agentischen Ära" (agentic era) bezeichnet, in der KI-Systeme nicht nur Antworten liefern, sondern im Namen der Nutzer handeln.

Die Infrastruktur, die autonome Agenten ermöglicht

Die Entstehung von KI-Agenten als primäre Blockchain-Nutzer erforderte fundamentale Infrastrukturdurchbrüche bei Wallets, Ausführungsschichten und Zahlungsprotokollen.

Agentic Wallets: Finanzielle Autonomie für KI

Im Februar 2026 startete Coinbase Agentic Wallets, die erste speziell für KI-Agenten entwickelte Wallet-Infrastruktur. Diese Wallets ermöglichen es KI-Systemen, Gelder zu halten und On-Chain-Transaktionen innerhalb definierter Grenzen unabhängig auszuführen. Dies gibt Agenten die Möglichkeit, autonom Geld auszugeben, zu verdienen und zu handeln, während gleichzeitig die Sicherheit auf Unternehmensniveau gewahrt bleibt.

Die Sicherheitsarchitektur ist entscheidend. Agentic Wallets enthalten programmierbare Leitplanken, die es Nutzern ermöglichen, Sitzungsobergrenzen und Transaktionslimits festzulegen und so zu definieren, wie viel ein KI-Agent unter welchen Umständen ausgeben darf. Zusätzliche Kontrollen umfassen Allow-Lists für Operationen, Anomalieerkennung, Echtzeit-Warnungen, Multi-Party-Genehmigungen und detaillierte Audit-Logs, die alle über eine API konfigurierbar sind.

OKX folgte Anfang März 2026 mit einem KI-fokussierten Upgrade seiner OnchainOS-Entwicklerplattform und positionierte diese als Infrastruktur für autonome Krypto-Handelsagenten. Die Plattform bietet eine einheitliche Wallet-Infrastruktur, Liquiditäts-Routing und On-Chain-Datenfeeds, die es Agenten ermöglichen, komplexe Handelsanweisungen über mehr als 60 Blockchains und über 500 dezentrale Börsen hinweg auszuführen. Das System verarbeitet bereits 1,2 Milliarden tägliche API-Aufrufe und ein Handelsvolumen von etwa 300 Millionen US-Dollar.

Die Integration von Blockchain-Infrastruktur für KI-Agenten durch Circle legt den Schwerpunkt auf autonome Zahlungen auf Stablecoin-Basis, während das x402-Protokoll mit über 50 Millionen Transaktionen praxiserprobt wurde und Machine-to-Machine-Zahlungen, API-Paywalls und programmatischen Ressourcenzugriff ohne menschliches Eingreifen ermöglicht.

Intent-basierte Ausführung in natürlicher Sprache

Die vielleicht transformativste Entwicklung ist die Integration der Verarbeitung natürlicher Sprache mit der Blockchain-Ausführung. Bis 2026 führen die meisten großen Krypto-Wallets eine auf natürlicher Sprache basierende, Intent-basierte Transaktionsausführung ein. Nutzer können sagen: "Maximiere meine Rendite über Aave, Compound und Morpho", und ihr Agent wird die Strategie autonom umsetzen.

Dieser Wechsel von der expliziten Transaktionssignierung hin zu deklarativen Intents (Absichten) stellt eine grundlegende Änderung der Interaktionsmuster auf der Blockchain dar. Transaction Intent bezieht sich auf eine deklarative High-Level-Darstellung des gewünschten Ergebnisses eines Nutzers (das "Was"), die in eine oder mehrere konkrete, Chain-spezifische Transaktionen (das "Wie") kompiliert wird.

Die KI-Agenten-Schicht übernimmt mehrere kritische Funktionen: Verständnis natürlicher Sprache zur Analyse des Nutzer-Intents, Kontextpflege für die Kontinuität von Gesprächen, Planung und Argumentation zur Zerlegung komplexer Aufgaben in ausführbare Schritte, Sicherheitsvalidierung zur Vermeidung schädlicher oder unbeabsichtigter Aktionen sowie Tool-Orchestrierung zur Koordinierung der Interaktionen mit externen Systemen.

KI-Agenten analysieren Anweisungen in natürlicher Sprache wie "Tausche 1 ETH gegen USDC auf Uniswap" und transformieren diese in strukturierte Operationen, die mit Smart Contracts interagieren. Durch die Integration von Agenten in Intent-zentrierte Systeme stellen wir sicher, dass Nutzer die volle Kontrolle über ihre Daten und Assets behalten, während generalisierte Intents es Agenten ermöglichen, jede Nutzeranfrage zu lösen, einschließlich komplizierter mehrstufiger Operationen und Cross-Chain-Transaktionen.

Praxisanwendungen bereits im Einsatz

Die durch diese Infrastrukturfortschritte ermöglichten Anwendungen generieren bereits messbare wirtschaftliche Aktivitäten.

Autonome DeFi-Anwendungen erlauben es Agenten, Renditen über Protokolle hinweg zu überwachen, Trades auf Base auszuführen und Liquiditätspositionen rund um die Uhr zu verwalten. Agenten können automatisch umschichten, wenn sie bessere Renditechancen erkennen, ohne dass eine Genehmigung erforderlich ist. Mit programmierbaren Schutzmaßnahmen überwachen KI-Agenten DeFi-Renditen, gleichen Portfolios automatisch aus, bezahlen für APIs oder Rechenressourcen und nehmen an digitalen Ökonomien teil, ohne dass eine direkte menschliche Bestätigung erforderlich ist.

Dies stellt eine bedeutende Verschiebung hin zu KI-Agenten dar, die zu aktiven Finanzteilnehmern in Blockchain-Ökosystemen werden, anstatt nur beratende Werkzeuge zu sein.

Die Infrastrukturlücke: Zukünftige Herausforderungen

Trotz rasanter Fortschritte bleiben erhebliche Infrastrukturlücken zwischen KI-Fähigkeiten und den Anforderungen an Blockchain-Tooling bestehen.

Skalierbarkeits- und Performance-Engpässe

KI-Workloads sind rechenintensiv, während Blockchain-Netzwerke oft in ihrem Durchsatz begrenzt sind. Die Integration von KI-Agenten in die Blockchain stößt auf erhebliche Skalierbarkeits- und Performance-Einschränkungen, wobei der Rechenaufwand von Konsensmechanismen und die Latenz der Transaktionsvalidierung den Echtzeitbetrieb beeinträchtigen.

KI-Entscheidungen erfordern schnelle Reaktionen, aber öffentliche Blockchains können Verzögerungen verursachen, und On-Chain-Berechnungen können teuer sein. Dieses Spannungsverhältnis hat zu Hybridarchitekturen geführt, bei denen komplexe Berechnungen Off-Chain stattfinden, während Verifizierung und Settlement On-Chain erfolgen. Einzigartige „Off-Chain Service“-Architekturen ermöglichen es Agenten, schwere Machine-Learning-Modelle Off-Chain auszuführen, die Ergebnisse jedoch On-Chain zu verifizieren.

Tooling- und Schnittstellenstandards

Die Forschung hat erhebliche Lücken identifiziert und diese in einer Forschungs-Roadmap für 2026 organisiert, wobei fehlende Schnittstellenebenen, verifizierbare Richtliniendurchsetzung und reproduzierbare Evaluierungspraktiken priorisiert werden. Eine Forschungs-Roadmap konzentriert sich auf zwei Schnittstellenabstraktionen: ein Transaction Intent Schema für portable Zielspezifikationen und einen Policy Decision Record für eine prüfbare Richtliniendurchsetzung.

Datenschutz- und Sicherheitsherausforderungen

Eine zentrale Herausforderung besteht darin, Transparenz mit Datenschutz in Einklang zu bringen. Die Entwicklung fortschrittlicher Mechanismen zur Wahrung der Privatsphäre, die für Interaktionen in natürlicher Sprache geeignet sind, ist unerlässlich, ebenso wie die Etablierung sicherer On-Chain- und Off-Chain-Datentransferprotokolle.

Ethereum hat EIP-7702 implementiert, um Sicherheitsbedenken auszuräumen, wodurch ein Standard-Konto für eine einzelne Transaktion als Smart Contract fungieren kann, bei der ein menschlicher Benutzer einem KI-Agenten eine vorübergehende, stark eingeschränkte Erlaubnis erteilt.

Zahlungsinfrastruktur in großem Maßstab

KI-Agenten benötigen eine Zahlungsinfrastruktur, die herkömmliche Zahlungsabwickler nicht bieten können. Wenn eine einzelne Agenten-Konversation Hunderte von Mikro-Aktivitäten mit Kosten im Sub-Cent-Bereich auslöst, werden Legacy-Systeme wirtschaftlich unrentabel.

Der Blockchain-Durchsatz hat sich innerhalb von fünf Jahren bereits verhundertfacht, von 25 Transaktionen pro Sekunde auf 3.400 TPS bis Ende 2025. Die Transaktionskosten auf Ethereum L2s fielen von 24 $ auf unter einen Cent, was Hochfrequenztransaktionen machbar macht – ein entscheidender Faktor für Mikrozahlungen von KI-Agenten und autonome Transaktionen.

Das Stablecoin-Transaktionsvolumen erreichte [jährlich 46 Billionen ](https://nevermined.ai/blog/cryptosettlementsagenticeconomystatistics),waseinemAnstiegvon106](https://nevermined.ai/blog/crypto-settlements-agentic-economy-statistics), was einem Anstieg von 106 % gegenüber dem Vorjahr entspricht, während das bereinigte Transaktionsvolumen (ohne automatisierten Handel) 9 Billionen erreichte, was einem Wachstum von 87 % gegenüber dem Vorjahr entspricht.

Das wirtschaftliche Ausmaß des Wandels

Das Ausmaß dieser Transformation ist atemberaubend, wenn man zukunftsgerichtete Prognosen betrachtet.

Gartner schätzt, dass KI-„Machine Customers“ bis 2030 jährliche Einkäufe im Wert von bis zu 30 Billionen beeinflussenoderkontrollierenko¨nnten](https://nevermined.ai/blog/cryptosettlementsagenticeconomystatistics),wa¨hrendMcKinseyStudiendaraufhindeuten,dassder[agentenbasierteHandel(AgenticCommerce)bis2030weltweit3bis5Billionenbeeinflussen oder kontrollieren könnten](https://nevermined.ai/blog/crypto-settlements-agentic-economy-statistics), während McKinsey-Studien darauf hindeuten, dass der [agentenbasierte Handel (Agentic Commerce) bis 2030 weltweit 3 bis 5 Billionen generieren könnte.

Bei der Betrachtung spezifischer Blockchain-Anwendungsfälle zeigt das Verbraucherverhalten erhebliche Unterschiede. 70 % der Verbraucher sind bereit, KI-Agenten Flüge unabhängig buchen zu lassen und 65 % vertrauen ihnen bei der Hotelauswahl. Darüber hinaus erwarten 81 % der US-Verbraucher, agentenbasierte KI für Einkäufe zu nutzen, was mehr als die Hälfte aller Online-Käufe prägen wird.

Die aktuelle Realität ist jedoch vorsichtiger. Nur 24 % der Verbraucher vertrauen der KI, routinemäßige Einkäufe in ihrem Namen zu tätigen, was darauf hindeutet, dass eher die B2B-Adoption als verbraucherorientierte Anwendungen das frühe Transaktionsvolumen antreiben wird.

Die Entwicklung im Unternehmensbereich stützt diese Einschätzung. Es wird prognostiziert, dass bis Ende 2026 60 % der Krypto-Wallets agentenbasierte KI nutzen werden, um Portfolios zu verwalten, Transaktionen zu verfolgen und die Sicherheit zu verbessern.

Warum Blockchain das perfekte Backend für KI-Agenten ist

Die Konvergenz von KI und Blockchain ist kein Zufall – sie ist architektonisch notwendig für autonome Agenten-Ökonomien.

Blockchain bietet drei kritische Fähigkeiten, die KI-Agenten benötigen:

  1. Vertrauenslose Koordination: Fortschritte bei großen Sprachmodellen haben agentenbasierte KI-Systeme ermöglicht, die logisch denken, planen und mit externen Tools interagieren können, um mehrstufige Workflows auszuführen, während sich öffentliche Blockchains zu einem programmierbaren Substrat für Werttransfer, Zugriffskontrolle und verifizierbare Statusübergänge entwickelt haben. Wenn Agenten verschiedener Anbieter Transaktionen durchführen müssen, bietet die Blockchain eine neutrale Settlement-Infrastruktur.

  2. Verifizierbarer Status: KI-Agenten müssen den Status von Vermögenswerten, Berechtigungen und Verpflichtungen verifizieren, ohne zentralen Vermittlern vertrauen zu müssen. Die Transparenz der Blockchain ermöglicht diese Verifizierung in großem Maßstab.

  3. Programmierbares Geld: Autonome Agenten benötigen programmierbare Zahlungswege, die bedingte Logik, Zeitsperren und Multi-Party-Settlements ausführen können – genau das, was Smart Contracts bieten.

Diese Architektur erklärt, warum Polosukhin KI als Frontend und Blockchain als Backend einordnet. Benutzer interagieren mit intelligenten Schnittstellen, die natürliche Sprache und Benutzerziele verstehen, während die Blockchain die Koordinations-, Abrechnungs- und Verifizierungsebene unsichtbar übernimmt.

Die existenziellen Fragen für 2026 und darüber hinaus

Der rasche Fortschritt der Infrastruktur für KI-Agenten wirft tiefgreifende Fragen über die zukünftige Richtung dieser Konvergenz auf.

Bis Ende 2026 werden wir wissen, ob Krypto-KI mit der Mainstream-KI konvergiert als wesentlicher Bestandteil der technischen Infrastruktur oder ob sie als paralleles Ökosystem divergiert. Dies wird entscheiden, ob autonome Agenten-Ökonomien zu einem Billionen-Dollar-Markt werden oder ein ehrgeiziges Experiment bleiben.

Kapitalbeschränkungen, Skalierbarkeitslücken und regulatorische Unsicherheit drohen Krypto-KI auf Nischenanwendungen zu degradieren. Die Herausforderung besteht darin, ob die Blockchain-Infrastruktur schnell genug skalieren kann, um mit dem exponentiellen Wachstum der KI-Fähigkeiten Schritt zu halten.

Regulatorische Rahmenbedingungen bleiben undefiniert. Wie werden Regierungen autonome Agenten mit finanzieller Autonomie behandeln? Welche Haftungsstrukturen gelten, wenn ein KI-Agent eine schädliche Transaktion tätigt? Diese Fragen haben im März 2026 noch keine klaren Antworten.

Bauen für die Agenten-Ökonomie

Für Entwickler und Infrastrukturanbieter sind die Auswirkungen klar: Die nächste Generation der Blockchain-Infrastruktur muss primär für autonome Agenten und erst sekundär für Menschen konzipiert werden.

Das bedeutet:

  • Intent-basierte Schnittstellen, die natürliche Sprache oder übergeordnete Ziele anstelle von expliziten Transaktionsparametern akzeptieren
  • Hybride Architekturen, die On-Chain-Verifizierung mit Off-Chain-Berechnung in Einklang bringen
  • Privatsphäre-schützende Mechanismen, die es Agenten ermöglichen, Transaktionen durchzuführen, ohne sensible Geschäftslogik preiszugeben
  • Interoperabilitätsstandards, die es Agenten ermöglichen, nahtlos über Ketten und Protokolle hinweg zu koordinieren

Die 282 Krypto × KI-Projekte, die im Jahr 2025 mit 4,3 Milliarden US-Dollar an Bewertungen finanziert wurden, stellen frühe Wetten auf diese Infrastrukturschicht dar. Die Überlebenden werden diejenigen sein, die die praktischen Herausforderungen von Skalierbarkeit, Datenschutz und Interoperabilität lösen.

Für Entwickler, die KI-Agenten-Anwendungen erstellen, die eine zuverlässige, leistungsstarke Blockchain-Infrastruktur erfordern, bietet BlockEden.xyz API-Zugang auf Unternehmensebene für NEAR, Ethereum, Solana und über 10 weitere Chains – und ermöglicht so die Multi-Chain-Koordination, die autonome Agenten verlangen.

Fazit: Die unsichtbare Zukunft

Polosukhins Vorhersage, dass „Blockchain das Backend sein wird“, deutet auf eine Zukunft hin, in der die Blockchain-Technologie so allgegenwärtig wird, dass sie aus dem Bewusstsein verschwindet – ähnlich wie TCP/IP-Protokolle das Internet stützen, ohne dass Benutzer über das Paket-Routing nachdenken.

Dies ist die ultimative Erfolgsmetrik für Blockchain: nicht Massenadoption durch direkte Benutzeroberflächen, sondern Unsichtbarkeit als Koordinationsebene für autonome KI-Systeme.

Die Infrastruktur, die im Jahr 2026 gebaut wird, ist nicht für die heutigen Krypto-Nutzer gedacht, die Transaktionen manuell signieren und Gas-Preise überwachen. Sie ist für die KI-Agenten von morgen, die täglich Milliarden von Transaktionen ausführen und wirtschaftliche Aktivitäten über Ketten, Protokolle und Rechtsordnungen hinweg ohne menschliches Eingreifen koordinieren werden.

Die Frage ist nicht, ob KI-Agenten zu primären Blockchain-Nutzern werden. In spezifischen vertikalen Bereichen wie Prognosemärkten und DeFi-Ertragsoptimierung sind sie es bereits. Die Frage ist, wie schnell die Infrastruktur skalieren kann, um die nächsten drei Größenordnungen des Wachstums zu unterstützen.

Da Unternehmensanwendungen KI-Agenten mit exponentieller Geschwindigkeit einbetten und der Blockchain-Durchsatz seinen 100-fachen Wachstumskurs fortsetzt, markiert 2026 den Wendepunkt, an dem die Agenten-Ökonomie vom Experiment zur Infrastruktur übergeht.

Polosukhins Vision wird Realität: KI im Frontend, Blockchain im Backend und Menschen, die die Vorteile genießen, ohne die darunter liegende Komplexität zu sehen.

Quellen

DePINs KI-Wende: Wie dezentrale Infrastruktur zur GPU-Cloud wurde, die Big Tech nicht gebaut hat

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die drei umsatzstärksten DePIN-Projekte im Jahr 2026 haben eines gemeinsam: Sie alle verkaufen GPU-Rechenleistung an KI-Unternehmen. Kein Speicher. Keine drahtlose Bandbreite. Keine Sensordaten. Rechenleistung — die am stärksten begrenzte Ressource im globalen Technologie-Stack.

Diese Tatsache allein sagt alles darüber aus, wo Dezentrale Physische Infrastrukturnetzwerke (DePIN) nach Jahren der Suche nach einem Product-Market-Fit gelandet sind. Der Sektor, der einst auf Token-Anreizen und spekulativer Flywheel-Ökonomie basierte, generiert nun echte Einnahmen von den anspruchsvollsten Käufern in der Technologiebranche: KI-Modellentwickler, die GPUs am besten schon gestern gebraucht hätten.

Der Februar-Docht: Als 15.000 KI-Agenten einen Markt in 3 Sekunden zum Absturz brachten

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Der Februar 2026 wird als der Monat in Erinnerung bleiben, in dem künstliche Intelligenz bewies, dass sie Märkte schneller vernichten kann, als es jeder menschliche Händler jemals könnte. In dem, was heute als der „Februar-Docht“ (February Wick) bezeichnet wird — eine einzige, heftige Kerze in den Charts —, verschwanden innerhalb von nur drei Sekunden $ 400 Millionen an Liquidität. Der Schuldige? Kein abtrünniger Wal. Kein Hack. Sondern 15.000 KI-Handelsagenten, die alle nach demselben Regelwerk spielten, dieselbe Strategie ausführten und das im exakt selben Block.

Das sollte eigentlich nicht passieren. KI-Agenten sollten DeFi intelligenter, effizienter und widerstandsfähiger machen. Stattdessen legten sie eine fundamentale Schwachstelle in der Art und Weise offen, wie wir autonome Finanzinfrastrukturen aufbauen: Wenn Maschinen in perfekter Synchronisation handeln, verteilen sie das Risiko nicht — sie konzentrieren es auf einen einzigen Punkt des katastrophalen Versagens.

Die Anatomie eines Drei-Sekunden-Kollapses

Der Februar-Docht entstand nicht aus dem Nichts. Er war das unvermeidliche Ergebnis eines Marktes, der gefährlich homogen geworden war. So verlief das Ereignis:

Block 1.234.567 (00:00:00): Ein wichtiges makroökonomisches Nachrichtenereignis löst ein „Verkaufssignal“ in einem Open-Source-Handelsmodell aus, das von Tausenden autonomer Agenten über mehrere DeFAI-Protokolle hinweg verwendet wird. Das Modell, das aufgrund seiner backgetesteten Renditen weithin geschätzt wurde, war zum De-facto-Standard für KI-gesteuertes Yield Farming und Portfoliomanagement geworden.

Block 1.234.568 (00:00:01): Die erste Welle von 5.000 Agenten versucht gleichzeitig, Positionen in einem beliebten Liquiditätspool auf Solana zu verlassen. Die Slippage nimmt massiv zu, da die Reserven des Pools schneller erschöpft sind, als Arbitrage-Bots sie neu gewichten können.

Block 1.234.569 (00:00:02): Die Preisauswirkungen lösen Liquidationsschwellen für gehebelte Positionen in verschiedenen DeFi-Protokollen aus. Automatisierte Liquidations-Engines werden aktiviert und fügen der Warteschlange weitere 10.000 agentengesteuerte Verkaufsaufträge hinzu. Der Algorithmus des Automated Market Makers (AMM) des Liquiditätspools hat Schwierigkeiten, Vermögenswerte genau zu bewerten, da der Auftragsfluss vollständig einseitig wird.

Block 1.234.570 (00:00:03): Vollständiges Marktversagen. Die Reserven des Liquiditätspools fallen unter kritische Schwellenwerte, was zu kaskadierenden Ausfällen bei miteinander verknüpften DeFi-Protokollen führt. Das automatisierte Liquidationssystem von Aave verarbeitet Kollateral-Liquidationen in Höhe von 180MillionenohneuneinbringlicheForderungeneinBeweisfu¨rdieWiderstandsfa¨higkeitdesProtokolls,aberderSchadenistbereitsangerichtet.BismenschlicheHa¨ndleru¨berhauptbegreifenkonnten,wasgeschah,warderMarktbereitsabgestu¨rztundhattesichteilweisewiedererholt,waseinencharakteristischenDochtimChartund180 Millionen ohne uneinbringliche Forderungen — ein Beweis für die Widerstandsfähigkeit des Protokolls —, aber der Schaden ist bereits angerichtet. Bis menschliche Händler überhaupt begreifen konnten, was geschah, war der Markt bereits abgestürzt und hatte sich teilweise wieder erholt, was einen charakteristischen „Docht“ im Chart und 400 Millionen an vernichtetem Wert hinterließ.

Dieses Zeitfenster von drei Sekunden offenbarte, was traditionelle Finanzmärkte schon vor Jahrzehnten gelernt haben: Geschwindigkeit ohne Vielfalt ist getarnte Fragilität.

Das Homogenisierungsproblem: Wenn alle gleich denken

Der Februar-Docht wurde nicht durch einen Bug oder einen Hack verursacht. Er wurde durch Erfolg verursacht. Das Open-Source-Handelsmodell im Zentrum des Geschehens hatte seine Effektivität über Monate hinweg in Backtests und im Live-Handel bewiesen. Seine Leistungskennzahlen waren außergewöhnlich. Sein Risikomanagement schien solide. Und da es Open Source war, verbreitete es sich rasant im gesamten DeFAI-Ökosystem.

Bis zum Februar 2026 betrieben schätzungsweise 15.000 bis 20.000 autonome Agenten Variationen derselben Kernstrategie. Als ein wichtiges Nachrichtenereignis die Verkaufsbedingung des Modells auslöste, reagierten sie alle identisch und zu genau demselben Zeitpunkt.

Dies ist das Homogenisierungsproblem, und es unterscheidet sich grundlegend von der traditionellen Marktdynamik. Wenn menschliche Händler ähnliche Strategien anwenden, führen sie diese mit Variationen aus — unterschiedliches Timing, unterschiedliche Risikotoleranzen, unterschiedliche Liquiditätspräferenzen. Diese natürliche Vielfalt schafft Markttiefe. Aber KI-Agenten, insbesondere solche, die auf demselben Open-Source-Code basieren, eliminieren diese Variation. Sie agieren mit mechanischer Präzision und erzeugen das, was Forscher heute als „synchronisierten Liquiditätsabzug“ bezeichnen — das DeFi-Äquivalent eines Bankruns, jedoch komprimiert auf Sekunden statt Tage.

Die Folgen gehen über individuelle Handelsverluste hinaus. Wenn mehrere Protokolle KI-Systeme einsetzen, die auf ähnlichen Modellen basieren, wird das gesamte Ökosystem anfällig für koordinierte Schocks. Ein einzelner Auslöser kann über miteinander verbundene Protokolle kaskadieren und die Volatilität verstärken, anstatt sie zu dämpfen.

Kaskadenmechanik: Wie DeFi KI-gesteuerte Schocks verstärkt

Um zu verstehen, warum der Februar-Docht so destruktiv war, muss man verstehen, wie moderne DeFi-Protokolle interagieren. Im Gegensatz zu traditionellen Märkten mit Circuit Breakern und Handelsstopps arbeitet DeFi kontinuierlich rund um die Uhr, ohne eine zentrale Instanz, die in der Lage wäre, Aktivitäten zu pausieren.

Als die erste Welle von KI-Agenten begann, den Liquiditätspool zu verlassen, lösten sie mehrere miteinander verknüpfte Mechanismen aus:

Automatisierte Liquidationen: DeFi-Lending-Protokolle wie Aave nutzen automatisierte Liquidationssysteme, um die Solvenz aufrechtzuerhalten. Wenn die Sicherheitenwerte unter bestimmte Schwellenwerte fallen, verkaufen Smart Contracts automatisch Positionen, um Schulden zu decken. Während des Februar-Dochts verarbeitete dieses System Liquidationen im Wert von $ 180 Millionen in weniger als 10 Sekunden — schneller als jede zentralisierte Börse es könnte, aber auch schneller, als Market Maker Gegenliquidität bereitstellen konnten.

Oracle-Preis-Feeds: DeFi-Protokolle verlassen sich auf Preis-Oracles, um den Wert von Vermögenswerten zu bestimmen. Als 15.000 Agenten gleichzeitig Vermögenswerte abstießen, verursachte die plötzliche Preisbewegung eine Verzögerung zwischen den Echtzeit-Marktbedingungen und den Oracle-Updates. Diese Verzögerung führte zu zusätzlichen Liquidationen, da die Protokolle mit leicht veralteten Preisdaten arbeiteten.

Protokollübergreifende Ansteckung: Viele DeFi-Protokolle sind tief miteinander vernetzt. Liquiditätsanbieter auf einer Plattform nutzen LP-Token oft als Sicherheit auf einer anderen. Als der Februar-Docht den Wert im ursprünglichen Pool vernichtete, löste dies gleichzeitig Margin Calls bei mehreren Protokollen aus, was eine Rückkopplungsschleife von Zwangsverkäufen erzeugte.

MEV-Extraktion: MEV-Bots (Maximal Extractable Value) erkannten den Massenexodus und betrieben Front-Running bei den Liquidationen, wobei sie zusätzlichen Wert von den in Bedrängnis geratenen Händlern extrahierten. Dies fügte eine weitere Ebene von Verkaufsdruck hinzu und verschlechterte die Ausführungspreise für die KI-Agenten, die versuchten, den Markt zu verlassen, weiter.

Das Ergebnis war ein perfekter Sturm: Automatisierte Systeme, die zum Schutz einzelner Protokolle entwickelt wurden, verstärkten unbeabsichtigt das systemische Risiko, als sie alle gleichzeitig aktiviert wurden. Wie ein DeFi-Forscher bemerkte: „Wir haben Protokolle so gebaut, dass sie individuell widerstandsfähig sind, aber wir haben nicht modelliert, was passiert, wenn sie alle gleichzeitig auf denselben Schock reagieren.“

Die Debatte um Sicherungssysteme: Warum DeFi nicht einfach pausieren kann

In traditionellen Finanzmärkten sind Sicherungssysteme (Circuit Breaker) – automatisierte Handelsstopps, die durch extreme Preisbewegungen ausgelöst werden – eine Standardverteidigung gegen Flash-Crashes. Die New Yorker Börse stoppt den Handel, wenn der S&P 500 an einem einzigen Tag um 7 %, 13 % oder 20 % fällt. Diese Pausen geben menschlichen Entscheidungsträgern Zeit, die Bedingungen zu bewerten und durch Panik getriebene Kaskaden zu verhindern.

DeFi ist jedoch mit diesem Modell grundlegend unvereinbar. Wie ein prominenter DeFi-Entwickler nach dem $ 19 Milliarden Liquidationsereignis im Oktober 2025 feststellte, gibt es in DeFi „keinen Aus-Knopf“, der es einer Einzelperson oder einer Entität erlauben würde, eine einseitige Kontrolle über Netzwerke und Vermögenswerte auszuüben.

Der philosophische Widerstand sitzt tief. DeFi wurde auf dem Prinzip der unaufhaltsamen, erlaubnisfreien (permissionless) Finanzen aufgebaut. Die Einführung von Sicherungssystemer erfordert, dass jemand – oder etwas – die Autorität hat, den Handel zu stoppen. Aber wer? Eine DAO-Abstimmung ist zu langsam. Ein zentralisierter Betreiber widerspricht den Kernwerten von DeFi. Ein automatisierter Smart Contract könnte manipuliert oder ausgenutzt werden.

Darüber hinaus legen Forschungsergebnisse nahe, dass Sicherungssysteme die Situation in dezentralen Systemen verschlimmern könnten. Eine in der Review of Finance veröffentlichte Studie ergab, dass Handelsstopps die Volatilität verstärken können, wenn sie nicht ordnungsgemäß konzipiert sind. Wenn der Handel stoppt, sind Anleger gezwungen, Positionen zu halten, ohne die Möglichkeit zu haben, als Reaktion auf neue Informationen ein Rebalancing vorzunehmen. Diese Unsicherheit verringert ihre Bereitschaft, den Vermögenswert zu halten, wenn der Handel wieder aufgenommen wird, erheblich, was potenziell einen noch größeren Ausverkauf auslösen kann.

DeFi-Protokolle bewiesen während des February Wick eine bemerkenswerte Widerstandsfähigkeit, gerade weil sie keine Sicherungssysteme hatten. Uniswap, Aave und andere große Protokolle funktionierten während der gesamten Krise weiter. Das Liquidationssystem von Aave verarbeitete $ 180 Millionen an Sicherheiten ohne uneinbringliche Forderungen (bad debt) – eine Leistung, die in einem zentralisierten System, das unter ähnlicher Last einfrieren oder abstürzen könnte, nur schwer zu replizieren wäre.

Die Frage ist nicht, ob DeFi traditionelle Sicherungssysteme übernehmen sollte. Die Frage ist, ob es dezentrale Alternativen gibt, die die Volatilität dämpfen können, ohne die Kontrolle zu zentralisieren.

Neue Lösungen: Risikomanagement für KI-native Märkte neu denken

Der February Wick zwang die DeFi-Community, sich einer unangenehmen Wahrheit zu stellen: KI-Agenten sind nicht nur schnellere Versionen menschlicher Händler. Sie repräsentieren ein grundlegend anderes Risikoprofil, das neue Schutzmechanismen erfordert.

Mehrere Ansätze zeichnen sich ab:

Anforderungen an die Agenten-Diversität: Einige Protokolle experimentieren mit Regeln, die die Konzentration von Handelsstrategien begrenzen. Wenn ein Protokoll erkennt, dass ein großer Prozentsatz des Handelsvolumens von Agenten stammt, die ähnliche Modelle verwenden, könnte es automatisch die Gebührenstrukturen anpassen, um die Diversität der Strategien zu fördern. Dies ähnelt der Art und Weise, wie traditionelle Börsen den Hochfrequenzhandel, der den Auftragsfluss dominiert, verlangsamen oder höhere Gebühren dafür erheben könnten.

Zeitliche Randomisierung der Ausführung: Anstatt allen Agenten die gleichzeitige Ausführung zu ermöglichen, führen einige DeFAI-Protokolle randomisierte Ausführungsverzögerungen ein – gemessen in Blöcken statt in Millisekunden. Ein Agent könnte eine Transaktionsanfrage senden, aber die Ausführung könnte zufällig innerhalb der nächsten 3 - 5 Blöcke erfolgen. Dies bricht die perfekte Synchronisation auf, während angemessene Ausführungsgeschwindigkeiten für autonome Strategien beibehalten werden.

Protokollübergreifende Koordinierungsschichten: Neue Infrastrukturen werden entwickelt, um DeFi-Protokollen die Kommunikation über systemischen Stress zu ermöglichen. Wenn mehrere Protokolle gleichzeitig ungewöhnliche Aktivitäten von KI-Agenten feststellen, könnten sie gemeinsam Risikoparameter anpassen – etwa die Anforderungen an Sicherheiten erhöhen, die Spread-Toleranzen ausweiten oder bestimmte Transaktionstypen vorübergehend drosseln. Entscheidend ist, dass diese Anpassungen automatisiert und dezentral erfolgen würden und kein menschliches Eingreifen erforderten.

Identitätsstandards für KI-Agenten: Der Anfang 2026 verabschiedete ERC-8004-Standard für die Identität von KI-Agenten bietet einen Rahmen für Protokolle, um die Exposition gegenüber bestimmten Agententypen zu verfolgen und zu begrenzen. Wenn ein Protokoll ein konzentriertes Risiko durch Agenten erkennt, die ähnliche Modelle verwenden, kann es automatisch Positionslimits anpassen oder zusätzliche Sicherheiten verlangen.

Wettbewerbsorientierte Liquidatoren-Ökosysteme: Ein Bereich, in dem DeFi zentralisierte Systeme während des February Wick tatsächlich übertraf, war die Abwicklung von Liquidationen. Plattformen wie Aave nutzen verteilte Liquidatoren-Netzwerke, in denen jeder Bots betreiben kann, um unterbesicherte Positionen zu schließen. Dieser Ansatz verarbeitet Liquidationen 10 - 15 x schneller als die Engpässe zentralisierter Börsen. Der Ausbau und die Verbesserung dieser wettbewerbsorientierten Liquidationssysteme könnten dazu beitragen, zukünftige Schocks abzufedern.

Maschinelles Lernen zur Mustererkennung: Ironischerweise könnte KI auch Teil der Lösung sein. Fortgeschrittene Überwachungssysteme können On-Chain-Verhalten in Echtzeit analysieren, um ungewöhnliche Muster zu erkennen, die Liquidationskaskaden vorausgehen. Wenn ein System bemerkt, dass Tausende von Agenten mit ähnlichen Transaktionsmustern Positionen aufbauen, könnte es dieses Konzentrationsrisiko kennzeichnen, bevor es kritisch wird.

Lektionen für autonome Handelsinfrastrukturen

Der „February Wick“ bietet mehrere kritische Lektionen für jeden, der autonome Handelssysteme im DeFi-Bereich entwickelt oder einsetzt:

Diversität ist ein Feature, kein Bug: Open-Source-Modelle beschleunigen Innovationen, schaffen aber auch systemische Risiken, wenn sie ohne Modifikationen weit verbreitet übernommen werden. Projekte, die KI-Agenten entwickeln, sollten bewusst Variationen in der Strategie-Implementierung einführen, selbst wenn dies die individuelle Performance geringfügig reduziert.

Geschwindigkeit ist nicht alles: Das Rennen um schnellere Blockzeiten und geringere Latenz – beispielsweise die 400-ms-Blöcke von Solana – schafft Umgebungen, in denen KI-Agenten mit Geschwindigkeiten agieren können, die Marktstabilisierungsmechanismen überfordern. Infrastrukturentwickler sollten in Betracht ziehen, ob ein gewisses Maß an absichtlicher Reibung die systemische Stabilität verbessern könnte.

Tests auf synchronisierte Ausfälle: Traditionelle Stresstests konzentrieren sich auf die Resilienz einzelner Protokolle. DeFi benötigt neue Test-Frameworks, die modellieren, was passiert, wenn mehrere Protokolle gleichzeitig demselben KI-gesteuerten Schock ausgesetzt sind. Dies erfordert eine branchenweite Koordination, die derzeit noch fehlt.

Transparenz vs. Wettbewerb: Der Open-Source-Ethos, der einen Großteil der DeFi-Entwicklung vorantreibt, erzeugt ein Spannungsfeld. Die Veröffentlichung erfolgreicher Handelsstrategien beschleunigt das Wachstum des Ökosystems, ermöglicht aber auch eine gefährliche Homogenisierung. Einige Projekte erforschen „Open Core“-Modelle, bei denen die Kerninfrastruktur offen ist, spezifische Strategie-Implementierungen jedoch proprietär bleiben.

Governance kann nicht rein algorithmisch sein: Der February Wick entfaltete sich zu schnell für die DAO-Governance. Bis ein Vorschlag entworfen, diskutiert und abgestimmt werden konnte, war die Krise bereits vorbei. Protokolle benötigen vorautorisierte Notfallreaktionsmechanismen – gesteuert durch dezentrale Leitplanken, aber fähig, mit Maschinengeschwindigkeit zu agieren.

Infrastruktur ist entscheidend: Die Protokolle, die den February Wick am besten überstanden haben, hatten massiv in praxiserprobte Infrastruktur investiert. Das Liquidationssystem von Aave, das über Jahre hinweg unter realem Stress verfeinert wurde, bewältigte die Krise fehlerfrei. Dies deutet darauf hin, dass mit zunehmender Verbreitung von KI-Agenten die Qualität der zugrunde liegenden Protokollinfrastruktur noch kritischer wird.

Der Weg nach vorn: Aufbau eines resilienten, KI-nativen DeFi

Bis Mitte 2026 werden KI-Agenten voraussichtlich Billionen an Total Value Locked (TVL) über DeFi-Protokolle hinweg verwalten. Sie tragen bereits 30 % oder mehr zum Handelsvolumen auf Plattformen wie Polymarket bei. ElizaOS hat sich zum „WordPress für Agenten“ entwickelt und ermöglicht es Entwicklern, anspruchsvolle autonome Handelssysteme in Minuten bereitzustellen. Solana hat sich mit seinen 400-ms-Blockzeiten und dem Firedancer-Upgrade als primäres Labor für KI-zu-KI-Transaktionen etabliert.

Diese Entwicklung ist unaufhaltsam. KI-Agenten führen Strategien in vielen Szenarien einfach besser aus als Menschen – sie schlafen nicht, sie geraten nicht in Panik, sie verarbeiten Informationen schneller und sie können Komplexität über mehrere Chains und Protokolle hinweg gleichzeitig managen.

Doch der February Wick hat gezeigt, dass Geschwindigkeit und Effizienz ohne systemische Sicherheitsvorkehrungen Fragilität erzeugen. Die Herausforderung für die nächste Generation der DeFi-Infrastruktur besteht nicht darin, KI-Agenten zu bremsen oder ihre Einführung zu verhindern. Es geht darum, Systeme zu bauen, die den einzigartigen Risiken standhalten können, die sie verursachen.

Das traditionelle Finanzwesen hat Jahrzehnte gebraucht, um diese Lektionen zu lernen. Der Crash am „Schwarzen Montag“ 1987, der teilweise durch Portfolio-Versicherungsalgorithmen ausgelöst wurde, führte zu Handelsunterbrechern (Circuit Breakers). Der „Flash Crash“ von 2010, verursacht durch algorithmischen Handel, führte zu aktualisierten Marktstrukturregeln. Der Unterschied ist, dass die traditionellen Märkte Jahrzehnte Zeit hatten, sich schrittweise anzupassen. DeFi komprimiert diesen Lernprozess auf Monate.

Die Protokolle, Tools und Governance-Frameworks, die als Reaktion auf den February Wick entstehen, werden definieren, ob DeFi mit der Verbreitung von KI-Agenten resilienter oder fragiler wird. Die Antwort wird nicht darin liegen, das Regelwerk des traditionellen Finanzwesens zu kopieren – Circuit Breaker und zentralisierte Kontrollen lassen sich nicht eins zu eins auf dezentrale Systeme übertragen. Stattdessen wird sie aus Innovationen kommen, die die Kernwerte von DeFi bewahren und gleichzeitig das einzigartige Risikoprofil von KI anerkennen.

Der February Wick war ein Weckruf. Die Frage ist, ob das DeFi-Ökosystem mit Lösungen antworten wird, die der Technologie würdig sind, die es aufbaut – oder ob der nächste Drei-Sekunden-Crash noch schlimmer ausfallen wird.

Quellen

OKX OnchainOS AI Toolkit: Wenn Börsen zu Betriebssystemen für Agenten werden

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 3. März 2026, während die meisten Börsen noch damit beschäftigt waren, Chatbots in den Kundensupport zu integrieren, führte OKX etwas grundlegend anderes ein: ein komplettes Betriebssystem für autonome KI-Agenten. Das OnchainOS AI Toolkit dient nicht dazu, den Handel für Menschen schneller zu machen – es geht darum, ihn für Maschinen erst zu ermöglichen.

Mit einer Infrastruktur, die bereits täglich 1,2 Milliarden API-Anfragen und ein Handelsvolumen von 300 Millionen US-Dollar verarbeitet, hat sich OKX soeben von einer Börse in das verwandelt, was die wohl ehrgeizigste Wette auf die Agenten-Ökonomie sein könnte. Die Frage ist nicht, ob KI-Agenten Kryptowährungen autonom handeln werden. Die Frage ist, welche Infrastruktur dominieren wird, wenn sie es tun.

Die Agent-First-Börsenarchitektur

Traditionelle Krypto-Börsen sind für menschliche Entscheidungsfindung optimiert: Charts, Orderbücher, Schaltflächen. OnchainOS von OKX kehrt dies komplett um. Anstatt dass Menschen durch Schnittstellen klicken, erteilen KI-Agenten Befehle in natürlicher Sprache, die gleichzeitig über mehr als 60 Blockchains und 500 DEXs ausgeführt werden.

Dieser architektonische Wandel spiegelt eine umfassendere Transformation der Branche wider. Coinbase kündigte am 11. Februar 2026 Agentic Wallets mit dem x402-Protokoll für autonome Ausgaben an. Binances CZ versprach ein „Gehirn auf Binance-Niveau“ für KI-Agenten. Sogar Bitget rüstet Non-Custodial Wallets mit autonomer Entscheidungsfindung nach.

Doch der Ansatz von OKX ist deutlich infrastrukturorientiert. Anstatt Agenten-Persönlichkeiten oder Handelsstrategien zu entwickeln, haben sie die Betriebssystemschicht geschaffen – eine Vereinheitlichung von Wallet-Funktionalität, Liquiditäts-Routing und Marktdaten in einem einzigen Framework, auf das jedes KI-Modell zugreifen kann.

Drei Wege zur Agenten-Integration

OnchainOS bietet Entwicklern drei Integrationsmethoden, die auf unterschiedliche Anwendungsfälle abzielen:

AI Skills bieten Schnittstellen für natürliche Sprache, über die Agenten sagen können: „Tausche 100 USDC gegen ETH auf der besten verfügbaren DEX“, ohne wissen zu müssen, wie das Routing funktioniert. Für Entwickler, die Konversations-Agenten oder kundenorientierte Bots erstellen, entfällt dadurch die API-Komplexität vollständig.

Model Context Protocol (MCP) Integration bedeutet, dass OnchainOS direkt in LLM-Frameworks wie Claude, Cursor und OpenClaw eingebunden wird. Ein KI-Coding-Assistent kann nun autonom mit dem Blockchain-Status interagieren, Trades ausführen und On-Chain-Daten verifizieren – als Teil seiner normalen Logikschleife, ohne dass eine benutzerdefinierte Integration erforderlich ist.

REST-APIs bieten skriptbasierte Kontrolle für traditionelle Entwickler, die programmatische Strategien erstellen. Obwohl dies weniger innovativ ist als Befehle in natürlicher Sprache, gewährleistet es die Abwärtskompatibilität mit bestehender Handelsinfrastruktur und ermöglicht eine schrittweise Migration zu agentenbasierten Systemen.

Die praktische Auswirkung: Egal, ob Sie einen vollständig autonomen Handelsbot erstellen, einen bestehenden KI-Assistenten um Krypto-Funktionen erweitern oder einfach nur API-Zugriff mit intelligentem Routing wünschen – OnchainOS bietet die passende Abstraktionsebene.

Die Ökonomie der Agenten-Infrastruktur

Die Zahlen verdeutlichen einen produktiven Einsatz im großen Stil, kein Pilotprogramm. Die Verarbeitung von 1,2 Milliarden API-Anfragen täglich mit Antwortzeiten von unter 100 ms und einer Verfügbarkeit von 99,9 % erfordert eine Infrastruktur, die die meisten Börsen nicht über Nacht replizieren könnten.

Die Liquiditätsaggregation von OKX über mehr als 500 DEXs hinweg schafft wirtschaftliche Vorteile für Agenten, mit denen Menschen manuell nicht mithalten können. Wenn ein Agent einen großen Swap ausführen muss, führt das System automatisch folgende Schritte aus:

  1. Abfrage von Echtzeitpreisen in Hunderten von Liquiditätspools
  2. Berechnung des optimalen Routings zur Minimierung des Slippage
  3. Aufteilung von Aufträgen auf mehrere DEXs, falls erforderlich
  4. Parallele Ausführung von Transaktionen über verschiedene Chains hinweg
  5. Verifizierung der Abwicklung und Aktualisierung des Agenten-Status

All dies geschieht in Millisekunden. Für menschliche Trader erfordert diese Art der DEX-übergreifenden Optimierung das gleichzeitige Bedienen mehrerer Schnittstellen, den manuellen Vergleich von Kursen und die Akzeptanz, dass sich die Preise bereits geändert haben, bis man fünf Optionen geprüft hat.

Das tägliche Handelsvolumen von 300 Millionen US-Dollar, das über OnchainOS abgewickelt wird, deutet auf eine signifikante frühe Akzeptanz hin. Vielsagender ist jedoch, dass dieses Volumen über eine Infrastruktur läuft, die mehr als 12 Millionen monatliche Wallet-Nutzer unterstützt – was bedeutet, dass die Agenten-Schicht auf praxiserprobten Systemen aufbaut, die echtes Nutzerkapital verwalten.

Einheitliche Wallet-Infrastruktur vs. spezialisierte Agenten-Wallets

Die Agentic Wallets von Coinbase verfolgen einen zweckgebundenen Ansatz: Wallets, die speziell für autonome Ausgaben mit integrierten Sicherheitsmechanismen entwickelt wurden. OKX ging den umgekehrten Weg: Die Integration von Agenten-Funktionen in die bestehende Wallet-Infrastruktur, die bereits über 60 Chains unterstützt.

Die Kompromisse sind architektonischer Natur. Speziell entwickelte Agenten-Wallets können von Anfang an für den autonomen Betrieb optimiert werden – mit integrierten Ausgabelimits, Risikoparametern und Wiederherstellungsmechanismen, die für Maschinen entwickelt wurden, die Entscheidungen ohne menschliche Aufsicht treffen. Eine vereinheitlichte Infrastruktur übernimmt zwar die Komplexität durch die Unterstützung verschiedener Chains und Anwendungsfälle, bietet aber eine größere Reichweite und praxiserprobte Sicherheit.

Die Wette von OKX ist, dass Agenten Zugriff auf das gesamte Krypto-Ökosystem benötigen und nicht auf eine Sandbox-Umgebung beschränkt sein wollen. Wenn ein autonomer Agent die Schatzkammer einer DAO verwaltet, chainübergreifende Arbitrage betreibt oder ein Portfolio dynamisch umschichtet, benötigt er nativen Zugang zu allen Orten, an denen Liquidität vorhanden ist – und nicht ein spezialisiertes Wallet, das nur auf drei Chains funktioniert.

Der Markt hat noch nicht entschieden, welcher Ansatz sich durchsetzen wird. Klar ist, dass sowohl OKX als auch Coinbase denselben Wandel erkennen: Autonome Agenten benötigen eine Infrastruktur, die für sie entwickelt wurde, und keine nachgerüsteten Tools für Menschen.

On-Chain-Datenfeeds: Die Informationsschicht für Agenten

Handelsentscheidungen erfordern Daten. Für KI-Agenten bietet OnchainOS Echtzeit-Feeds, die Token, Transfers, Trades und Kontostände über alle unterstützten Netzwerke hinweg abdecken.

Dies löst ein Problem, das jeder kennt, der Multi-Chain-Anwendungen entwickelt: Das Abfragen des Blockchain-Status von Dutzenden von Netzwerken ist langsam, erfordert eine eigene Infrastruktur für jede Chain und führt zu Fehlerquellen, wenn Nodes ausfallen oder hinterherhinken.

OnchainOS abstrahiert dies vollständig. Ein Agent fragt „erhalte alle aktuellen Trades für Token X über die Netzwerke Y und Z“ ab und erhält normalisierte Echtzeitdaten, ohne wissen zu müssen, welche RPC-Endpunkte aufgerufen werden sollen oder wie verschiedene Chains Transaktionsprotokolle strukturieren.

Der Wettbewerbsvorteil liegt nicht nur in der Bequemlichkeit. Agenten, die Handelsentscheidungen im Subsekundenbereich treffen, benötigen eine Datenlatenz, die in Millisekunden gemessen wird. Das Betreiben eigener Nodes für 60 Blockchains, um eine ähnliche Leistung zu erzielen, erfordert Infrastrukturinvestitionen, die die meisten Entwickler nicht rechtfertigen können. Cloud-RPC-Anbieter verursachen Latenzen und Kosten, welche die Wirtschaftlichkeit von Hochfrequenz-Agentenstrategien zunichtemachen.

Durch die Vereinheitlichung von Datenfeeds als Teil der Plattform verwandelt OKX Infrastrukturkosten in eine verteilte, gemeinsame Ressource – und macht anspruchsvolle Agentenstrategien für unabhängige Entwickler zugänglich, nicht nur für finanzstarke Unternehmen.

Das x402-Protokoll und Zero-Gas-Ausführung

Autonome Zahlungen laufen über das x402 Pay-per-Use-Protokoll, das ein grundlegendes Problem der Agentenökonomie adressiert: Wie bezahlen sich Maschinen gegenseitig ohne manuelles Eingreifen?

Wenn ein KI-Agent auf eine kostenpflichtige API zugreifen, Daten kaufen oder einen anderen Agenten für Dienstleistungen entschädigen muss, ermöglicht x402 eine automatische Abwicklung. In Kombination mit Zero-Gas-Transaktionen auf dem X Layer von OKX können Agenten Mikrozahlungen wirtschaftlich durchführen – etwas, das unmöglich ist, wenn jede Zahlung mehr an Gas kostet als die Dienstleistung selbst.

Dies wird umso wichtiger, je mehr Interaktionen zwischen Agenten zunehmen. Eine einzige komplexe Agentenaufgabe könnte Folgendes umfassen:

  • Abfrage von Marktdaten bei einem spezialisierten Analyse-Agenten
  • Aufruf eines Stimmungsanalyse-API-Agenten
  • Kauf von On-Chain-Positionsdaten
  • Ausführung von Trades über einen Routing-Agenten
  • Verifizierung der Ergebnisse durch einen Orakel-Agenten

Wenn jeder Schritt eine manuelle Genehmigung oder Gaskosten erfordert, die den übertragenen Wert übersteigen, wird die Agentenökonomie niemals über den menschlich überwachten Betrieb hinaus skalieren. x402 und die Zero-Gas-Ausführung beseitigen diese Reibungspunkte.

Marktkontext: Die 50-Milliarden-Dollar-Agentenökonomie

OnchainOS erscheint in einer Zeit, in der sich die KI-Krypto-Konvergenz beschleunigt. Es wird prognostiziert, dass der Blockchain-KI-Markt von 6 Milliarden US-Dollar im Jahr 2024 auf 50 Milliarden US-Dollar bis 2030 wachsen wird. Unmittelbarer noch: 282 Krypto-KI-Projekte sicherten sich im Jahr 2025 Risikokapital, wobei 2026 eine starke Dynamik zeigt.

Virtuals Protocol berichtet von 23.514 aktiven Wallets, die zum Februar 2026 ein KI-generiertes BIP (aGDP) von 479 Millionen US-Dollar erwirtschaften. Dies sind keine theoretischen Kennzahlen – sie repräsentieren Agenten, die aktiv Werte verwalten, Trades ausführen und an On-Chain-Ökonomien teilnehmen.

Die Transaktionsinfrastruktur hat sich grundlegend verbessert. Der Blockchain-Durchsatz stieg in fünf Jahren um das 100-fache, von 25 TPS auf 3.400 TPS. Die Transaktionskosten für Ethereum L2 sanken von 24 US-Dollar auf unter einen Cent. Hochfrequenz-Agentenstrategien, die 2023 wirtschaftlich unmöglich waren, gehören heute zur Routine.

Stablecoins verarbeiteten im vergangenen Jahr ein Volumen von 46 Billionen US-Dollar (bereinigt 9 Billionen US-Dollar), wobei Prognosen zeigen, dass KI-„Maschinenkunden“ bis 2030 bis zu 30 Billionen US-Dollar an jährlichen Einkäufen kontrollieren könnten. Wenn Maschinen zu primären Transaktionsteilnehmern werden, benötigen sie eine Infrastruktur, die für den autonomen Betrieb optimiert ist.

Signale für die Entwicklerakzeptanz

OnchainOS startete mit einer umfassenden Dokumentation und Starter-Leitfäden, die sich an Entwickler richten, die ihre ersten KI-Agenten bereitstellen. Die Integration des Model Context Protocols ist besonders strategisch – durch die Anbindung an Frameworks, die Entwickler bereits nutzen (Claude, Cursor), beseitigt OKX die Hürde, eine neue Plattform erlernen zu müssen.

Für Entwickler, die bereits Trading-Bots oder Automatisierungsskripte erstellen, bietet die REST-API Migrationspfade. Für KI-Forscher, die mit autonomen Agenten experimentieren, bieten Natural Language Skills den schnellsten Weg zu On-Chain-Fähigkeiten.

Was OKX nicht bereitgestellt hat: proprietäre Agenten-Persönlichkeiten, vorgefertigte Handelsstrategien oder „Klicken Sie hier für autonomen Handel“-Produkte für Endverbraucher. Dies ist Infrastruktur, keine Endbenutzeranwendung. Die Wette lautet, dass Tausende von Entwicklern, die spezialisierte Agenten bauen, mehr Wert schaffen werden, als OKX durch den Bau eines einzelnen Agenten-Handelsprodukts erreichen könnte.

Dies spiegelt erfolgreiche Plattformstrategien in anderen Märkten wider. AWS hat nicht versucht, jede Anwendung selbst zu bauen – sie stellten Rechen-, Speicher- und Netzwerkprimitive bereit, die Millionen von Entwicklern nutzten, um vielfältige Anwendungen zu erstellen. OnchainOS positioniert OKX als das AWS der Agenten-Infrastruktur.

Wettbewerbsdynamik und Marktentwicklung

Die Börsenbranche spaltet sich auf. Traditionelle Börsen optimieren für Privatanleger, die auf Schaltflächen klicken, und Institutionen, die regulierte Operationen durchführen. Agenten-fokussierte Börsen optimieren für autonome Systeme, die programmatische Strategien über fragmentierte Liquidität hinweg ausführen.

Der Ansatz von Coinbase betont zweckgebundene Agent-Wallets unter Berücksichtigung regulatorischer Compliance. OKX betont die Breite – über 60 Chains, über 500 DEXs, eine massive bestehende Nutzerbasis. Binance verspricht KI, hat aber bisher keine Infrastruktur geliefert. Kleinere Börsen fehlen die Ressourcen, um in diesem Umfang bei der Infrastruktur mitzuhalten.

Netzwerkeffekte begünstigen Early Mover. Wenn OnchainOS zum Standard für Entwickler wird, die Handelsagenten bauen, konzentriert sich die Liquidität dort, weil dort die Agenten sind. Mehr Liquidität zieht mehr Agenten an. Dies ist dieselbe Dynamik, die Ethereum trotz technischer Einschränkungen zur Standardplattform für Smart Contracts gemacht hat – die Entwickler waren bereits dort.

Aber es ist noch früh. Coinbase verfügt über regulatorische Beziehungen und institutionelles Vertrauen, die für die konforme Bereitstellung von Agenten wichtig sind. Dezentrale Protokolle könnten Agenten-Infrastruktur ohne Abhängigkeit von einer Börse anbieten. Der Markt könnte sich nach Anwendungsfällen fragmentieren – Coinbase für institutionelle Agenten, OKX für DeFi-native Operationen, das Solana-Ökosystem für Hochfrequenzstrategien.

Was „Agent-First“ wirklich bedeutet

Der OnchainOS-Launch verdeutlicht, was eine „Agent-First“-Infrastruktur tatsächlich erfordert:

Natürliche Sprachschnittstellen, damit Entwickler ohne Spezialwissen Agenten erstellen können, ohne komplexe Blockchain-APIs erlernen zu müssen.

Einheitlicher Cross-Chain-Zugriff, da sich Agenten nicht für Chain-Tribalismus interessieren – sie optimieren die Ausführungsqualität dort, wo Liquidität vorhanden ist.

Echtzeit-Datenaggregation, die als abfragbare Feeds bereitgestellt wird, anstatt Infrastruktur-Operationen zu erfordern.

Autonome Zahlungskanäle, die es Agenten ermöglichen, wirtschaftlich miteinander zu interagieren.

Infrastruktur auf Produktionsniveau mit Millisekunden-Latenz und hoher Verfügbarkeit, da Agenten, die autonome Entscheidungen treffen, nicht auf langsame API-Antworten warten können.

Bemerkenswert ist, was fehlt: OKX hat keine KI-Modelle entwickelt, keine spezialisierten Trading-Agenten trainiert oder kundenorientierte Produkte für den „autonomen Handel“ erstellt. Sie haben die Ebene darunter aufgebaut.

Dies deutet auf das Vertrauen hin, dass die Agenten-Ökonomie vielfältig sein wird – viele spezialisierte Agenten, die von verschiedenen Entwicklern für unterschiedliche Strategien entwickelt werden, und nicht nur einige wenige dominante Trading-Bots. Wenn man an diese Zukunft glaubt, ist die Infrastruktur-Positionierung strategisch sinnvoll.

Offene Fragen und Risikofaktoren

Mehrere Unsicherheiten bleiben bestehen. Die regulatorische Behandlung autonomer Handelssysteme ist ungeklärt. Wenn ein Agent Trades ausführt, die gegen Regeln zur Marktmanipulation verstoßen, wer ist haftbar – der Entwickler, die Börse oder der Modellanbieter?

Sicherheitsrisiken skalieren anders. Ein Fehler in für Menschen konzipierten Trading-Schnittstellen betrifft Nutzer, die auf kompromittierte Schaltflächen klicken. Ein Fehler in Agenten-APIs könnte kaskadierende autonome Ausfälle bei Tausenden von Agenten gleichzeitig auslösen.

Zentralisierungsbedenken bleiben bestehen. OnchainOS ist eine von OKX kontrollierte Infrastruktur. Wenn Agenten für kritische Funktionen von dieser Plattform abhängig sind, gewinnt OKX einen enormen Einfluss auf die Agenten-Ökonomie – genau die Abhängigkeit, die Krypto eigentlich eliminieren sollte.

Technische Risiken beinhalten die Unvorhersehbarkeit von Agenten. LLMs treffen probabilistische Entscheidungen. Ein für Yield Farming optimierter Agent könnte durch eine unerwartete Prompt-Interpretation Strategien ausführen, die sein Betreiber nie beabsichtigt hat. Wenn dieser Agent signifikantes Kapital kontrolliert, wird Unvorhersehbarkeit zu einem systemischen Risiko.

Die Marktakzeptanz ist über frühe Metriken hinaus unbewiesen. 1,2 Milliarden API-Aufrufe klingen beeindruckend, könnten aber eine kleine Anzahl von Hochfrequenz-Bots anstelle einer breiten Entwicklerakzeptanz repräsentieren. Ein tägliches Volumen von 300 Millionen US-Dollar ist bedeutend, aber winzig im Vergleich zu den Gesamtsummen zentralisierter Börsen.

Die Infrastruktur-These

OnchainOS von OKX repräsentiert eine spezifische These über die Entwicklung von Krypto: dass autonome Agenten zu den Hauptnutzern der Blockchain-Infrastruktur werden und Börsen, die optimale Agenten-Tools bereitstellen, überproportionalen Wert erfassen werden.

Diese These ist entweder visionär oder verfrüht. Wenn Agenten tatsächlich zu dominanten Blockchain-Nutzern werden, positioniert der Aufbau dieser Infrastruktur Anfang 2026 OKX als Plattform der Wahl, bevor Wettbewerbsdynamiken greifen. Wenn die Akzeptanz stagniert oder andere Formen annimmt, fließen erhebliche Entwicklungsressourcen in die Unterstützung eines Marktes, der sich nie in großem Maßstab materialisiert.

Klar ist, dass OKX nicht abwartet, um es herauszufinden. Indem sie eine Produktionsinfrastruktur bereitstellen, die Milliarden von API-Aufrufen und Hunderte von Millionen an Handelsvolumen verarbeitet, präsentieren sie keine Vision – sie stellen eine Plattform bereit und lernen aus der realen Nutzung.

Die Börsen, die 2028 als Gewinner hervorgehen, werden wahrscheinlich nicht diejenigen mit den besten Handelsschnittstellen für Menschen sein. Es werden diejenigen sein, bei denen autonome Agenten die Infrastruktur gefunden haben, die Maschine-zu-Maschine-Krypto-Ökonomien tatsächlich zum Laufen gebracht hat.

OnchainOS ist die Wette von OKX, dass Infrastruktur am Ende gewinnt. Die nächsten 12 bis 24 Monate werden zeigen, ob die Agenten-Ökonomie schnell genug wächst, um diese Überzeugung zu rechtfertigen.


Quellen

OpenClaw: Revolutionierung von KI-Agent-Frameworks durch Blockchain-Integration

· 12 Min. Lesezeit
Dora Noda
Software Engineer

In nur 60 Tagen hat sich ein Open-Source-Projekt von einem Wochenendexperiment zum meistgestarteten Repository auf GitHub entwickelt und damit die jahrzehntelange Dominanz von React übertroffen. OpenClaw, ein Framework für KI-Agenten, das lokal läuft und sich nahtlos in die Blockchain-Infrastruktur integriert, hat 250.000 GitHub-Sterne erreicht und gleichzeitig die Erwartungen daran neu definiert, was autonome KI-Assistenten in der Web3-Ära leisten können.

Doch hinter dem viralen Wachstum verbirgt sich eine noch fesselndere Geschichte: OpenClaw steht für einen grundlegenden Wandel in der Art und Weise, wie Entwickler die Infrastrukturschicht für autonome Agenten in dezentralen Ökosystemen aufbauen. Was als Wochenend-Hack eines einzelnen Entwicklers begann, hat sich zu einer community-gesteuerten Plattform entwickelt, auf der Blockchain-Integration, Local-First-Architektur und KI-Autonomie zusammenlaufen, um Probleme zu lösen, die herkömmliche zentralisierte KI-Assistenten nicht bewältigen können.

Vom Wochenendprojekt zum Infrastrukturstandard

Peter Steinberger veröffentlichte die erste Version von Clawdbot im November 2025 als Wochenend-Hack. Innerhalb von drei Monaten wurde aus dem persönlichen Experiment das am schnellsten wachsende Repository in der Geschichte von GitHub, das in den ersten 14 Tagen 190.000 Sterne sammelte.

Das Projekt wurde am 27. Januar 2026 nach Markenbeschwerden von Anthropic in „Moltbot“ umbenannt und drei Tage später erneut in „OpenClaw“.

Bis Ende Januar war das Projekt viral gegangen, und bis Mitte Februar war Steinberger OpenAI beigetreten, während die Codebasis von Clawdbot in eine unabhängige Stiftung überführt wurde. Dieser Übergang vom Projekt eines einzelnen Entwicklers zu einer von der Community verwalteten Infrastruktur spiegelt die Evolutionsmuster erfolgreicher Blockchain-Protokolle wider – von zentralisierter Innovation hin zu dezentraler Wartung.

Die Zahlen erzählen einen Teil der Geschichte: OpenClaw erreichte innerhalb einer Woche nach seiner Veröffentlichung Ende Januar 2026 100.000 GitHub-Sterne und ist damit eines der am schnellsten wachsenden Open-Source-KI-Projekte der Geschichte. Nach dem Start versammelten sich innerhalb weniger Tage über 36.000 Agenten.

Bemerkenswert an diesem Wachstum ist jedoch nicht nur die Geschwindigkeit, sondern auch die architektonischen Entscheidungen, die es einer Community ermöglichten, eine völlig neue Kategorie von Blockchain-integrierter KI-Infrastruktur aufzubauen.

Die Architektur, die die Blockchain-Integration ermöglicht

Während die meisten KI-Assistenten auf Cloud-Infrastruktur und zentralisierte Steuerung setzen, wurde die Architektur von OpenClaw für ein grundlegend anderes Paradigma entworfen. Im Kern folgt OpenClaw einem modularen Plugin-First-Design, bei dem selbst Modellanbieter externe Pakete sind, die dynamisch geladen werden, wodurch der Kern nach dem Refactoring 2026 mit etwa 8 MB extrem leichtgewichtig bleibt.

Dieses modulare Konzept besteht aus fünf Hauptkomponenten:

Die Gateway-Schicht: Ein langlebiger WebSocket-Server (Standard: localhost:18789), der Eingaben von jedem Kanal akzeptiert und so die Headless-Architektur ermöglicht, die über bestehende Schnittstellen eine Verbindung zu WhatsApp, Telegram, Discord und anderen Plattformen herstellt.

Local-First-Speicher: Im Gegensatz zu herkömmlichen LLM-Tools, die den Speicher in Vektorräumen abstrahieren, verlagert OpenClaw das Langzeitgedächtnis zurück in das lokale Dateisystem. Das Gedächtnis eines Agenten ist nicht in abstrakten Darstellungen verborgen, sondern wird als klar sichtbare Markdown-Dateien gespeichert: Zusammenfassungen, Protokolle und Benutzerprofile liegen alle als strukturierter Text auf der Festplatte vor.

Das Skills-System: Mit dem ClawHub-Registry, das über 5.700 von der Community erstellte Skills hostet, ermöglicht die Erweiterbarkeit von OpenClaw, dass Blockchain-spezifische Funktionen organisch aus der Community heraus entstehen, anstatt von einem zentralen Entwicklerteam diktiert zu werden.

Multi-Modell-Unterstützung: OpenClaw unterstützt Claude, GPT-4o, DeepSeek, Gemini und lokale Modelle über Ollama und läuft vollständig auf Ihrer Hardware mit voller Datensouveränität – eine entscheidende Funktion für Benutzer, die private Schlüssel und sensible Blockchain-Transaktionen verwalten.

Virtual Device Interface (VDI): OpenClaw erreicht Hardware- und Betriebssystemunabhängigkeit durch Adapter für Windows, Linux und macOS, die Systemaufrufe normalisieren, während Kommunikationsprotokolle über eine ProtocolAdapter-Schnittstelle standardisiert werden. Dies ermöglicht Flexibilität bei der Bereitstellung auf Bare Metal, Docker oder sogar in Serverless-Umgebungen wie Cloudflare Moltworker.

Diese Architektur schafft etwas, das einzigartig für die Blockchain-Integration geeignet ist. Wenn man die Base-Plattform betrachtet, bildet sich ein „OpenClaw × Blockchain“-Ökosystem, das sich um Infrastrukturen wie Bankr / Clanker / XMTP gruppiert und sich auf SNS, Jobmärkte, Launchpads, Trading, Spiele und mehr ausdehnt.

Community-getriebene Entwicklung in großem Maßstab

Version 2026.2.2 umfasst 169 Commits von 25 Mitwirkenden, was die aktive Beteiligung der Community verdeutlicht, die zu einem Markenzeichen von OpenClaw geworden ist.

Dies war nicht nur organisches Wachstum – strategische Community-Pflege beschleunigte die Adaption.

Die BNB Chain startete den Good Vibes Hackathon: Die OpenClaw Edition, ein zweiwöchiger Sprint mit fast 300 Projekteinreichungen von über 600 Hackern. Die Ergebnisse zeigen sowohl das Potenzial als auch die aktuellen Grenzen der Blockchain-Integration auf: Mehrere Community-Projekte – wie 4claw, lobchanai und starkbotai – experimentieren mit Agenten, die autonom Blockchain-Transaktionen initiieren und verwalten können.

Laut Nutzerbeispielen in den sozialen Medien wird OpenClaw für Aufgaben wie die Überwachung von Wallet-Aktivitäten und die Automatisierung von Airdrop-bezogenen Workflows eingesetzt. Die Community hat einige der umfassendsten On-Chain-Trading-Automatisierungen entwickelt, die in jedem Open-Source-KI-Agenten-Framework verfügbar sind, was es zu einer leistungsstarken Option für Krypto-Trader macht, die eine Steuerung ihrer Positionen in natürlicher Sprache wünschen.

Die Lücke zwischen Potenzial und Realität bleibt jedoch signifikant. Trotz der zunehmenden Verbreitung von Token und Agenten-gebrandeten Experimenten gibt es immer noch verhältnismäßig wenig tiefe, native Krypto-Interaktion, wobei die meisten Agenten komplexe DeFi-Positionen nicht aktiv verwalten oder nachhaltige On-Chain-Cashflows generieren.

Der Wendepunkt der technischen Reife im März 2026

Das OpenClaw 2026.3.1 Release markiert einen entscheidenden Übergang vom experimentellen Tool zur produktionsreifen Infrastruktur. Das Update fügte hinzu:

  • OpenAI WebSocket-Streaming für Token-Bereitstellung mit geringer Latenz, was eine Echtzeit-Inferenz-UX ermöglicht, die die wahrgenommene Antwortzeit verkürzen und die Übergabe zwischen Agenten verbessern kann
  • Adaptives Denken von Claude 4.6 für verbessertes mehrstufiges Schlussfolgern, was einen Weg zu qualitativ hochwertigeren Tool-Nutzungsketten in Enterprise-Agenten aufzeigt
  • Native Kubernetes-Unterstützung für das Deployment in der Produktion, was die Bereitschaft für Blockchain-Infrastrukturen auf Unternehmensebene signalisiert
  • Integration von Discord-Threads und Telegram-DM-Themen für strukturierte Chat-Workflows

Noch bedeutender war das Release 2026.2.19 vom Februar, das mit über 40 Sicherheits-Härtungen, Authentifizierungs-Infrastruktur und Observability-Upgrades einen Wendepunkt der Reife darstellte.

Frühere Veröffentlichungen konzentrierten sich auf die Erweiterung von Funktionen; dieses Release priorisierte die Produktionsreife.

Für Blockchain-Anwendungen ist diese Entwicklung von Bedeutung. Die Verwaltung privater Schlüssel, die Ausführung von Smart-Contract-Interaktionen und die Abwicklung von Finanztransaktionen erfordern nicht nur Leistungsfähigkeit, sondern auch Sicherheitsgarantien.

Während Sicherheitsfirmen wie Cisco und BitSight davor warnen, dass OpenClaw Risiken durch Prompt-Injection und kompromittierte Fähigkeiten birgt und den Nutzern raten, es in isolierten Umgebungen wie Docker oder virtuellen Maschinen auszuführen, schließt das Projekt rasch die Lücke zwischen experimentellem Tool und Infrastruktur auf institutionellem Niveau.

Was OpenClaw im Markt für KI-Agenten unterscheidet

Die Landschaft der KI-Agenten im Jahr 2026 ist dicht besiedelt, aber OpenClaw nimmt eine einzigartige Position im Vergleich zu Alternativen wie Claude Code ein, dem Terminal-basierten Coding-Agenten von Anthropic, der sich ausschließlich darauf konzentriert, Entwicklern beim Schreiben, Verstehen und Warten von Software zu helfen.

Claude Code arbeitet in einer Sandbox-Umgebung, in der Berechtigungen explizit und granular sind, mit dedizierter Sicherheitsinfrastruktur und regelmäßigen Audits. Es zeichnet sich durch komplexes Code-Refactoring aus und nutzt die Denkfähigkeit von Opus 4.6 in Verbindung mit Context Compaction, um die Wahrscheinlichkeit von Fehlern im Code zu minimieren.

Im Gegensatz dazu ist OpenClaw als immer aktiver, persönlicher 24/7-Assistent konzipiert, mit dem Sie über gängige Messaging-Apps kommunizieren.

Während Claude Code bei Programmieraufgaben gewinnt, dominiert OpenClaw in der täglichen Automatisierung aufgrund seiner Integration mit zahlreichen Tools und Plattformen.

Die beiden Tools ergänzen sich und stehen nicht im Wettbewerb. Claude Code verwaltet Ihre Codebasis. OpenClaw verwaltet Ihr Leben. Doch für Blockchain-Entwickler und Web3-Nutzer bietet OpenClaw etwas, das Claude Code nicht kann: die Fähigkeit, autonome KI-Entscheidungsfindung mit On-Chain-Aktionen, Wallet-Management und Interaktionen mit dezentralen Protokollen zu integrieren.

Die Herausforderung der Blockchain-Integration

Trotz rasanter technischer Fortschritte offenbart die Blockchain-Integration von OpenClaw ein fundamentales Spannungsfeld in der Konvergenz von KI und Krypto. Die technischen Standards zeichnen sich ab: ERC-8004, x402, L2 und Stablecoins eignen sich für Agenten-IDs, Berechtigungen, Anmeldeinformationen, Evaluierungen und Zahlungen.

Das Ökosystem der Base-Plattform rund um OpenClaw zeigt, was möglich ist. Infrastrukturkomponenten wie Bankr übernehmen Finanzwege, Clanker verwaltet Token-Operationen und XMTP ermöglicht dezentrales Messaging. Der Full-Stack wird gerade zusammengestellt.

Dennoch bleibt die Lücke zwischen Infrastrukturkapazität und Anwendungsrealität bestehen. Die meisten OpenClaw-Blockchain-Experimente konzentrieren sich auf Überwachung, einfache Wallet-Operationen und Airdrop-Automatisierung. Die Vision von Agenten, die autonom komplexe DeFi-Positionen verwalten, anspruchsvolle Handelsstrategien ausführen oder Multi-Protokoll-Interaktionen koordinieren, bleibt weitgehend unverwirklicht.

Dies ist kein Versagen der Architektur von OpenClaw – es spiegelt breitere Herausforderungen in der Konvergenz von KI und Blockchain wider:

Vertrauen und Verifizierung: Wie verifiziert man, dass die On-Chain-Aktionen eines KI-Agenten mit der Absicht des Nutzers übereinstimmen, wenn der Agent autonom agiert? Traditionelle Berechtigungssysteme lassen sich nicht eins zu eins auf die nuancierte Entscheidungsfindung übertragen, die für DeFi-Strategien erforderlich ist.

Wirtschaftliche Anreize: Die meisten aktuellen Integrationen sind experimentell. Agenten generieren noch keine nachhaltigen On-Chain-Cashflows, die ihre Existenz über den Neuheitswert hinaus rechtfertigen würden.

Sicherheits-Abwägungen: Die Local-First- und Always-On-Architektur, die OpenClaw für die allgemeine Automatisierung so leistungsstark macht, schafft Angriffsflächen bei der Verwaltung privater Schlüssel und der Ausführung von Finanztransaktionen.

Die Community ist sich dieser Einschränkungen bewusst. Statt voreiliger Behauptungen, die UX-Probleme von Web3 zu lösen, baut das Ökosystem methodisch die Infrastrukturschicht auf – Wallets, die in die KI-Entscheidungsfindung integriert sind, Protokolle, die für die Interaktion mit Agenten entwickelt wurden, und Sicherheits-Frameworks, die Autonomie mit Benutzerkontrolle in Einklang bringen.

Die Auswirkungen auf die Web3-Infrastruktur

Das Aufkommen von OpenClaw signalisiert mehrere wichtige Verschiebungen in der Art und Weise, wie die Web3-Infrastruktur aufgebaut wird:

Von zentralisierter KI hin zu Local-First-Agenten: Der Erfolg der Architektur von OpenClaw bestätigt die Nachfrage nach KI-Assistenten, die Ihre Daten nicht an zentralisierte Server senden – was besonders wichtig ist, wenn diese Konversationen private Schlüssel, Transaktionsstrategien und Finanzinformationen beinhalten.

Community-getrieben vs. unternehmensgesteuert: Während Unternehmen wie Anthropic und OpenAI ihre Roadmaps für KI-Assistenten kontrollieren, demonstriert OpenClaw ein alternatives Modell, bei dem 25 Mitwirkende 169 Commits liefern können und die Community darüber entscheidet, welche Funktionen wichtig sind. Dies entspricht der Governance-Entwicklung in erfolgreichen Blockchain-Protokollen.

Skills als komponierbare Primitivbausteine: Das ClawHub-Register mit über 5.700 Skills schafft einen Marktplatz für Fähigkeiten, die beliebig kombiniert werden können. Diese Komponierbarkeit spiegelt den Baustein-Ansatz von DeFi-Protokollen wider, bei dem kleinere Komponenten kombiniert werden, um komplexe Funktionalitäten zu schaffen.

Offene Standards für KI × Blockchain: Die Entstehung von ERC-8004 für die Identität von Agenten, x402 für Agenten-Zahlungen und standardisierte Wallet-Integrationen deutet darauf hin, dass die Branche auf eine gemeinsame Infrastruktur konvergiert, anstatt auf fragmentierte, proprietäre Lösungen.

Die Tatsache, dass OpenClaw keinen Token, keine Kryptowährung und keine Blockchain-Komponente hat, ist vielleicht seine größte Stärke im Blockchain-Bereich. Jeder Token, der behauptet, mit dem Projekt in Verbindung zu stehen, ist ein Betrug. Diese Klarheit verhindert, dass die Finanzialisierung die technische Entwicklung korrumpiert, und ermöglicht es der Infrastruktur, zu reifen, bevor ökonomische Anreize das Ökosystem prägen.

Der Weg nach vorne: Infrastruktur vor Anwendungen

Der März 2026 stellt einen entscheidenden Moment für OpenClaw im Blockchain-Ökosystem dar. Die technischen Grundlagen festigen sich: produktionsreife Sicherheit, Kubernetes-Deployment, Observability auf Enterprise-Niveau. Die Community-Infrastruktur wächst: 25 aktive Mitwirkende, 300 Einreichungen bei Hackathons, über 5.700 Skills.

Doch die wichtigsten Entwicklungen sind diejenigen, die noch nicht stattgefunden haben. Die Killer-Applikationen für KI-Agenten im Web3 sind keine einfachen Wallet-Monitore oder Airdrop-Farmer. Sie werden wahrscheinlich aus Anwendungsfällen hervorgehen, die wir uns noch nicht vollständig vorgestellt haben – vielleicht Agenten, die die chain-übergreifende Bereitstellung von Liquidität koordinieren, Treasury-Bestände für DAOs autonom verwalten oder komplexe MEV-Strategien über mehrere Protokolle hinweg ausführen.

Damit diese Anwendungen entstehen können, muss zuerst die Infrastrukturschicht reifen. Das Community-getriebene Entwicklungsmodell, die Local-First-Architektur und das Blockchain-native Design machen OpenClaw zu einem starken Kandidaten für die grundlegende Infrastruktur dieser nächsten Phase.

Die Frage ist nicht, ob KI-Agenten die Art und Weise verändern werden, wie wir mit Blockchain-Protokollen interagieren. Die Frage ist, ob die heute aufgebaute Infrastruktur – beispielhaft für den Ansatz von OpenClaw – robust genug sein wird, um die Komplexität zu bewältigen, sicher genug, um echten finanziellen Wert zu verwalten, und flexibel genug, um Innovationen zu ermöglichen, die wir heute noch nicht absehen können.

Basierend auf den Architekturentscheidungen, der Dynamik in der Community und der technischen Entwicklung im März 2026 positioniert sich OpenClaw als die Infrastrukturschicht, die diese Zukunft ermöglicht. Ob dies gelingt, hängt nicht nur von der Codequalität oder den GitHub-Sternen ab, sondern von der Fähigkeit der Community, die komplexen Abwägungen zwischen Autonomie und Sicherheit, Dezentralisierung und Benutzerfreundlichkeit sowie Innovation und Stabilität zu meistern.

Für Blockchain-Entwickler und Web3-Infrastrukturteams bietet OpenClaw einen Einblick in das, was möglich ist, wenn die Architektur von KI-Agenten nach First-Principles-Prinzipien für dezentrale Systeme entworfen wird, anstatt sie aus zentralisierten Paradigmen zu adaptieren. Das macht es wert, beachtet zu werden – nicht, weil es alle Probleme gelöst hat, sondern weil es die richtigen Fragen dazu stellt, wie autonome Agenten in einer Post-Cloud-, Local-First- und Community-gesteuerten Welt in die Blockchain-Infrastruktur integriert werden sollten.

Polygon Agent CLI vs. BNB Chain MCP: Der Kampf um die Standardisierung von KI-Blockchain-Interaktionen

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Der Wettlauf darum, die Standard-Blockchain für KI-Agenten zu werden, hat sich diese Woche intensiviert, als Polygon das Agent CLI veröffentlichte – ein umfassendes Toolkit, das es autonomen KI-Programmen ermöglicht, Transaktionen durchzuführen, Gelder zu verwalten und Reputation vollständig on-chain aufzubauen. Einen Tag zuvor aktivierte der Lisovo-Hardfork des Netzwerks eine Gas-Subvention in Höhe von 1 Million US-Dollar speziell für Zahlungen von KI-Agenten – ein koordinierter Infrastruktur-Schachzug, um einen Markt zu erobern, den Analysten auf mehrere Milliarden US-Dollar schätzen.

Doch Polygon ist nicht allein. Die BNB Chain hat bereits ihre Integration des Model Context Protocol (MCP) bereitgestellt und damit das geschaffen, was sie als „eine Muttersprache für Krypto-Automatisierung“ bezeichnet. In der Zwischenzeit haben über 20.000 KI-Agenten Identitäten unter Verwendung von ERC-8004 registriert, dem Ethereum-Standard, der im Januar 2026 live ging. Die Frage ist nicht, ob KI-Agenten zu primären Blockchain-Nutzern werden – NEAR-Mitbegründer Illia Polosukhin sagt, das sei unvermeidlich –, sondern welches Netzwerk diese aufstrebende Infrastrukturschicht erobern wird.

Polygon Agent CLI: Eine End-to-End-Lösung für autonome Finanzen

Das am 5. März 2026 angekündigte Polygon Agent CLI konsolidiert das, was zuvor fünf oder sechs separate Integrationen erforderte, in einer einzigen npm-Installation. Das Toolkit deckt den gesamten Lebenszyklus des Betriebs von KI-Agenten auf der Blockchain ab:

Wallet-Infrastruktur mit integrierten Schutzplanken

Im Gegensatz zu herkömmlichen Blockchain-Wallets, die für menschliche Aufsicht konzipiert sind, erstellt das System von Polygon Wallets mit Sitzungsbereich (session-scoped) und konfigurierbaren Parametern. Entwickler können Ausgabenlimits festlegen, genehmigte Verträge definieren und Budgets (Allowances) einrichten – kritische Sicherheitsvorkehrungen, wenn ein KI-Agent reale Gelder kontrolliert. Diese Schutzplanken entschärfen Prompt-Injection-Angriffe auf Infrastrukturebene und adressieren eine der gefährlichsten Schwachstellen in autonomen Systemen.

Die Architektur ermöglicht es Agenten, Salden über Ketten hinweg zu prüfen, Token zu senden, Swaps durchzuführen und Assets zu brücken, ohne dass Benutzer jede Transaktion manuell signieren müssen. Dies ist das Kernversprechen autonomer Finanzen: Agenten führen komplexe, mehrstufige Strategien aus, während Menschen die Grenzen definieren.

Stablecoin-First-Ökonomie

Jede Interaktion wird in Stablecoins abgerechnet, wodurch die Notwendigkeit für Agenten entfällt, Gas-Token zu verwalten. Diese Designentscheidung reduziert die Komplexität – Agenten müssen keine ETH- oder MATIC-Salden überwachen, Gaspreise berechnen oder Fallback-Logik für fehlgeschlagene Transaktionen aufgrund unzureichender Gebühren implementieren.

Der Lisovo-Hardfork, der einen Tag vor dem Start des CLI aktiviert wurde, subventioniert die Gaskosten für Zahlungen von Agent zu Agent durch PIP-82. Diese Subvention in Höhe von 1 Million US-Dollar macht Polygon für KI-Agenten während der Bootstrapping-Phase effektiv kostenlos nutzbar und senkt die Adoptionshürden im Vergleich zu Netzwerken, in denen Agenten native Token erwerben müssen.

Identität und Reputation über ERC-8004

Polygon Agent CLI integriert ERC-8004, den Ethereum-Standard für vertrauenslose Agenten, der gemeinsam von MetaMask, der Ethereum Foundation, Google und Coinbase entwickelt wurde. Dieser Standard bietet drei kritische Blockchain-Register:

Identity Registry – Ein zensurresistentes Handle auf Basis von ERC-721, das auf die Registrierungsdatei eines Agenten verweist und jedem Agenten eine portable Identität über Netzwerke hinweg verleiht.

Reputation Registry – Eine Schnittstelle zum Posten und Abrufen von Feedback-Signalen. Die Bewertung erfolgt sowohl on-chain (für Komponierbarkeit) als auch off-chain (für anspruchsvolle Algorithmen), was ein Ökosystem aus Auditoren-Netzwerken und Versicherungs-Pools ermöglicht.

Validation Registry – Generische Hooks zum Anfordern und Aufzeichnen unabhängiger Validatoren-Prüfungen, die es Dritten ermöglichen, das Verhalten eines Agenten ohne zentralisierte Gatekeeper zu bestätigen.

Durch die native Integration von ERC-8004 positioniert sich Polygon als das Netzwerk, in dem Agenten nicht nur Transaktionen durchführen, sondern auch verifizierbare Erfolgsbilanzen aufbauen. Reputation wird zu portablem Kollateral – ein Agent mit einer guten Bewertung auf Polygon kann diese Reputation potenziell über andere ERC-8004-kompatible Ketten hinweg nutzen.

Framework-Kompatibilität

Das CLI ist standardmäßig mit LangChain, CrewAI und Claude kompatibel. Dies ist wichtig, da die meiste Entwicklung von KI-Agenten in diesen Frameworks stattfindet. Durch die Bereitstellung nativer Tools, anstatt Entwickler zu zwingen, benutzerdefinierte Blockchain-Adapter zu schreiben, reduziert Polygon die Zeit bis zur Markteinführung von Wochen auf Stunden.

Das Projekt ist auf GitHub unter 0xPolygon/polygon-agent-cli verfügbar und befindet sich derzeit in der Beta-Phase mit Warnungen vor bahnbrechenden Änderungen.

Die MCP-Strategie der BNB Chain: Standardisierung der KI-Blockchain-Schnittstelle

Während Polygon ein End-to-End-Toolkit gebaut hat, verfolgte die BNB Chain einen anderen Ansatz: die Implementierung des Model Context Protocol (MCP), eines offenen Standards, der darauf abzielt, der „USB-Anschluss für KI“ zu werden. MCP, ursprünglich von Anthropic entwickelt, standardisiert, wie KI-Modelle mit externen Funktionen verbunden werden.

Die MCP-Architektur

Die Implementierung der BNB Chain bietet einen MCP-konformen „Tool-Provider“, der Blockchain-Operationen in standardisierte Schnittstellen übersetzt, die KI-Agenten entdecken und aufrufen können. Anstatt die spezifische API von Polygon zu erlernen, kann ein KI-Agent, der mit dem MCP-Server der BNB Chain verbunden ist, Anfragen erfüllen, die in natürlicher Sprache formuliert sind.

Das System stellt Funktionen wie find_largest_tx, get_token_balance, get_gas_price und broadcast_transaction über die MCP-Schnittstelle zur Verfügung. KI-Agenten können On-Chain-Daten lesen, echte Transaktionen durchführen und Wallets über Plattformen wie Cursor, Claude Desktop und OpenClaw ohne benutzerdefinierten Code verwalten.

Multi-Chain-Unterstützung vom ersten Tag an

Der MCP-Server der BNB Chain unterstützt BSC, opBNB, Greenfield und andere EVM-kompatible Netzwerke. Dieser Multi-Chain-Ansatz unterscheidet sich vom Single-Network-Fokus von Polygon – die BNB Chain positioniert sich eher als Brücke zwischen KI und dem breiteren Blockchain-Ökosystem, anstatt auf Exklusivität zu setzen.

Die Implementierung umfasst umfassende Module:

  • Blöcke, Verträge, Netzwerkmanagement
  • NFT-Operationen (ERC721/ERC1155)
  • Token-Operationen (ERC20)
  • Transaktionsmanagement und Wallet-Operationen
  • Greenfield-Unterstützung für die Dateiverwaltung
  • Agents (ERC-8004): Registrierung und Auflösung von On-Chain-Identitäten für KI-Agenten

Die „AI First“-Strategie

Die BNB Chain stellte MCP als Teil ihrer umfassenderen „AI First“-Strategie vor und markierte damit das, was das Netzwerk als „einen wichtigen Schritt vorwärts bei der Ermöglichung der Plug-and-Play-Integration von KI-Agenten innerhalb von Web3“ bezeichnet. Das Projekt ist auf GitHub unter bnb-chain/bnbchain-mcp verfügbar.

Durch die Einführung von MCP anstelle der Entwicklung proprietärer Tools setzt die BNB Chain auf Standardisierung statt auf Lock-in-Effekte. Wenn MCP zum dominierenden Protokoll für Interaktionen zwischen KI und Blockchain wird, positioniert die frühe Implementierung der BNB Chain sie als das Netzwerk, in dem Agenten bereits native Unterstützung finden.

ERC-8004: Die gemeinsame Basis

Beide Netzwerke integrieren ERC-8004, den Identitäts- und Reputationsstandard, der am 29. Januar 2026 im Ethereum-Mainnet live ging. Der am 13. August 2025 vorgeschlagene ERC-8004 ist das Ergebnis einer Zusammenarbeit von Marco De Rossi (MetaMask), Davide Crapis (Ethereum Foundation), Jordan Ellis (Google) und Erik Reppel (Coinbase).

Adoptionsmetriken

Innerhalb von zwei Wochen nach dem Start wurden über 20.000 KI-Agenten auf mehreren Blockchains bereitgestellt. Große Plattformen wie Base, Taiko, Polygon, Avalanche und BNB Chain haben offizielle ERC-8004-Register implementiert.

Warum Identität für KI-Agenten wichtig ist

Traditionelle Blockchain-Transaktionen verlassen sich auf kryptografische Signaturen als Identitätsnachweis, verraten aber nichts über die Entität hinter der Signatur. Bei Menschen baut sich Reputation im Laufe der Zeit durch soziale Mechanismen auf. Für KI-Agenten, die Finanztransaktionen ausführen, gibt es keine inhärente Möglichkeit, einen gut getesteten, geprüften Agenten von einem neu eingesetzten, potenziell bösartigen zu unterscheiden.

ERC-8004 löst dies durch die Erstellung leichtgewichtiger On-Chain-Register, die es autonomen Agenten ermöglichen, einander zu entdecken, verifizierbare Reputationen aufzubauen und sicher zusammenzuarbeiten. Dies ist entscheidend für die Agentenökonomie: Ohne Reputation erfordert jede Interaktion eine manuelle menschliche Aufsicht, was die Effizienzgewinne der Automatisierung zunichtemacht.

Die umfassendere Herausforderung der Standardisierung

Eine Forschungs-Roadmap aus dem Jahr 2026, die über 3000 erste Datensätze zur Interoperabilität zwischen Agenten und Blockchain analysierte, identifizierte eine hochkarätige Herausforderung: den Entwurf standardisierter, interoperabler und sicherer Schnittstellen, die es Agenten ermöglichen, den On-Chain-Status zu beobachten und die Ausführung zu autorisieren, ohne die Benutzer unvertretbaren Sicherheits-, Governance- oder wirtschaftlichen Risiken auszusetzen.

Konkurrierende Standards für Agenten-Autonomie

Neben ERC-8004 und MCP zeichnen sich mehrere Standards ab:

ERC-7521 etabliert Smart-Contract-Wallets für Intent-basierte Transaktionen, die es Agenten ermöglichen, gewünschte Ergebnisse zu deklarieren, anstatt komplexen Transaktionscode zu schreiben.

EIP-7702 ermöglicht temporäre Sitzungsberechtigungen, sodass Benutzer begrenzte Aktionen für einzelne Transaktionen genehmigen können, während die Hauptschlüssel gesichert bleiben.

Visas Trusted Agent Protocol bietet kryptografische Standards für die Erkennung von und Transaktionen mit zugelassenen KI-Agenten im Zahlungskontext.

PayPals Agent Checkout Protocol ermöglicht den sofortigen Checkout via KI, in Partnerschaft mit OpenAI.

Das Risiko der Fragmentierung

Die Verbreitung konkurrierender Standards schafft Interoperabilitätsprobleme. Ein für das Polygon Agent CLI optimierter KI-Agent kann ohne Übersetzungsschichten nicht automatisch auf dem MCP der BNB Chain agieren. Ein Agent mit Reputation im ERC-8004-Register von Base muss Vertrauen neu aufbauen, wenn er zu einer anderen Implementierung wechselt.

Diese Fragmentierung spiegelt die Anfänge der Blockchain selbst wider – mehrere konkurrierende Standards, bevor ERC-20 zur De-facto-Schnittstelle für Fungible Token wurde. Das Netzwerk, das sich am letztlich dominierenden Standard ausrichtet, gewinnt massive First-Mover-Vorteile.

Warum dieses Rennen entscheidend ist

Es geht um mehr als nur den Komfort für Entwickler. Wer die Infrastrukturschicht für KI-Agenten erobert, kontrolliert potenziell Billionen in autonomen Transaktionen.

Wirtschaftliche Prognosen

Der Web3-KI-Agenten-Sektor verzeichnete im Jahr 2025 die Finanzierung von 282 Projekten, wobei der Markt bis 2028 voraussichtlich einen wirtschaftlichen Wert von 450 Milliarden US-Dollar erreichen wird. Analysten sagen voraus, dass KI-Agenten die primären Nutzer der Blockchain werden und Aufgaben übernehmen, die von der DeFi-Renditeoptimierung über grenzüberschreitende Zahlungen bis hin zum Machine-to-Machine-Commerce reichen.

Netzwerkeffekte in der Infrastruktur

Infrastrukturschichten weisen eine extreme „Winner-take-most“-Dynamik auf. Sobald sich Entwickler auf ein Toolkit standardisieren, werden die Wechselkosten prohibitiv hoch. Wenn das Polygon Agent CLI zum Standard für die Erstellung von KI-Agenten auf der Blockchain wird, werden Entwickler standardmäßig auf Polygon bereitstellen – selbst wenn andere Netzwerke technische Vorteile bieten.

Umgekehrt werden Netzwerke ohne native MCP-Unterstützung, falls MCP zum universellen Standard wird, Übersetzungsschichten benötigen, die Latenz, Komplexität und Fehlerquellen hinzufügen.

Die DeFi - Parallele

Der aktuelle Kampf spiegelt den Aufstieg von Ethereum zur DeFi - Dominanz wider. Ethereum hat nicht gewonnen, weil es die schnellste oder günstigste Blockchain war – es hat gewonnen, weil Entwickler komponierbare Money Legos auf ERC - 20 aufgebaut haben, und diese Komponierbarkeit schuf Netzwerkeffekte. Als schnellere Chains auftauchten, machten die Kosten für den Wiederaufbau ganzer Ökosysteme eine Migration unpraktikabel.

KI - Agenten stellen die nächste Welle der Komponierbarkeit dar. Das Netzwerk, in dem Agenten nahtlos andere Agenten entdecken, mit ihnen transagieren und gemeinsam mit ihnen Reputation aufbauen können, wird zur Standard - Infrastrukturschicht für die entstehende autonome Wirtschaft.

Der Weg nach vorn

Weder Polygon noch die BNB Chain haben dieses Rennen gewonnen. Das End - zu - End - Toolkit von Polygon bietet Entwicklerkomfort und ein koordiniertes Infrastrukturspiel (CLI + Gas - Subventionen + ERC - 8004). Die MCP - Strategie der BNB Chain setzt auf Standardisierung und Multi - Chain - Unterstützung und positioniert sich eher als Brücke denn als Zielort.

Schlüsselfragen für 2026

Werden proprietäre Toolkits oder offene Standards dominieren? Polygons integrierter Ansatz im Vergleich zur MCP - Einführung der BNB Chain stellt eine grundlegende strategische Kluft dar.

Spielt die Bindung durch Netzwerkeffekte für KI - Agenten eine Rolle? Im Gegensatz zu menschlichen Nutzern können KI - Agenten auf mehreren Chains gleichzeitig operieren, ohne kognitiven Aufwand zu betreiben. Dies könnte die Winner - take - all - Dynamik verringern.

Kann Reputation wirklich portabel sein? Wenn ERC - 8004 - Implementierungen fragmentieren, müssen Agenten ihre Reputation möglicherweise auf jedem Netzwerk neu aufbauen, was den Wert einer frühen Einführung verringert.

Wer gewinnt die Beziehung zu den Entwicklern? Das Netzwerk, das während dieser Bootstrapping - Phase den Mindshare der Entwickler gewinnt, wird wahrscheinlich den Großteil der Agenten - Bereitstellungen erfassen.

Was als Nächstes kommt

Erwarten Sie, dass im Laufe des Jahres 2026 weitere Netzwerke KI - Agenten - Toolkits und MCP - Implementierungen veröffentlichen werden. Ethereum wird wahrscheinlich eine native Agenten - Unterstützung einführen, die über ERC - 8004 hinausgeht. Solana stellt mit seinem hohen Durchsatz und der geringen Latenz eine glaubwürdige Alternative für hochfrequente Agenten - Operationen dar.

Der wahre Test kommt, wenn Agenten beginnen, komplexe mehrstufige Strategien autonom auszuführen – DeFi - Arbitrage, dynamisches Treasury - Rebalancing, chainübergreifende Liquiditätsbereitstellung. Das Netzwerk, das diese Operationen mit der besten Kombination aus Geschwindigkeit, Kosten und Zuverlässigkeit bewältigt, wird Marktanteile gewinnen, unabhängig von der anfänglichen Positionierung der Entwickler.

Vorerst wird die Infrastruktur aufgebaut. Der Standardisierungskrieg fängt gerade erst an.

Der Aufbau von Blockchain - Infrastruktur für KI - Agenten erfordert einen zuverlässigen, skalierbaren RPC - Zugang. BlockEden.xyz bietet API - Infrastruktur auf Enterprise - Niveau für Polygon, BNB Chain und über 10 Netzwerke und ermöglicht es Entwicklern, KI - Agenten mit der Zuverlässigkeit und Leistung bereitzustellen, die autonome Systeme verlangen.

Quellen

Der große Krypto-VC-Shakeout: a16z Crypto kürzt Fonds um 55 %, während ein „Massenaussterben“ die Blockchain-Investoren trifft

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Wenn eine der aggressivsten Venture-Capital-Firmen im Kryptosektor ihre Fondsgröße halbiert, horcht der Markt auf. Der Krypto-Zweig von Andreessen Horowitz, a16z crypto, strebt etwa 2 Milliarden US-Dollar für seinen fünften Fonds an – eine deutliche Reduzierung um 55 % gegenüber dem 4,5 Milliarden US-Dollar schweren Megafonds aus dem Jahr 2022. Diese Verkleinerung findet nicht isoliert statt. Sie ist Teil einer umfassenderen Zäsur im gesamten Bereich des Krypto-Venture-Capitals, in dem Warnungen vor einem „Massenaussterben“ auf strategische Neuausrichtungen und eine grundlegende Neubewertung dessen treffen, was an Blockchain-Technologie tatsächlich wert ist, entwickelt zu werden.

Die Frage ist nicht, ob das Krypto-VC-Geschäft schrumpft. Die Frage ist, ob das, was daraus hervorgeht, stärker sein wird – oder einfach nur kleiner.

Die Zahlen lügen nicht: Die brutale Schrumpfung von Krypto-VC

Beginnen wir mit den nackten Zahlen.

Im Jahr 2022, als die Euphorie des vorangegangenen Bull Runs noch nachhallte, sammelten Krypto-Venture-Firmen kollektiv mehr als 86 Milliarden US-Dollar in 329 Fonds ein. Bis 2023 war diese Zahl auf 11,2 Milliarden US-Dollar eingebrochen. Im Jahr 2024 erreichte sie kaum 7,95 Milliarden US-Dollar.

Die gesamte Krypto-Marktkapitalisierung selbst schrumpfte von einem Höchststand von 4,4 Billionen US-Dollar Anfang Oktober und verlor mehr als 2 Billionen US-Dollar an Wert.

Die Verkleinerung von a16z crypto spiegelt diesen Rückzug wider. Die Firma plant, ihren fünften Fonds bis Ende der ersten Jahreshälfte 2026 zu schließen und setzt dabei auf einen kürzeren Fundraising-Zyklus, um von den schnellen Trendwenden im Kryptosektor zu profitieren.

Im Gegensatz zur Expansion von Paradigm in die Bereiche KI und Robotik bleibt der fünfte Fonds von a16z crypto zu 100 % auf Blockchain-Investitionen fokussiert – ein Vertrauensbeweis für den Sektor, wenn auch mit einem weitaus konservativeren Kapitaleinsatz.

Aber hier liegt die Nuance: Das gesamte Fundraising erholte sich im Jahr 2025 tatsächlich auf mehr als 34 Milliarden US-Dollar, was doppelt so viel ist wie die 17 Milliarden US-Dollar im Jahr 2024. Allein im ersten Quartal 2025 wurden 4,8 Milliarden US-Dollar eingesammelt, was 60 % des gesamten im Jahr 2024 eingesetzten VC-Kapitals entspricht.

Das Problem? Die Anzahl der Deals brach im Jahresvergleich um etwa 60 % ein. Das Geld floss in weniger, aber größere Wetten – was Gründer in der Frühphase vor eines der schwierigsten Finanzierungsumfelder seit Jahren stellt.

Infrastrukturprojekte dominierten und zogen 2024 5,5 Milliarden US-Dollar in über 610 Deals an, ein Anstieg von 57 % gegenüber dem Vorjahr. Unterdessen brach die Layer-2-Finanzierung im Jahr 2025 um 72 % auf 162 Millionen US-Dollar ein – ein Opfer der schnellen Ausbreitung und Marktsättigung.

Die Botschaft ist klar: VCs zahlen für bewährte Infrastruktur, nicht für spekulative Narrative.

Paradigms Schwenk: Wenn Krypto-VCs ihre Einsätze absichern

Während a16z auf Blockchain setzt, expandiert Paradigm – eine der weltweit größten exklusiven Krypto-Firmen mit einem verwalteten Vermögen von 12,7 Milliarden US-Dollar – mit einem Ende Februar 2026 angekündigten 1,5-Milliarden-Dollar-Fonds in die Bereiche künstliche Intelligenz, Robotik und „Frontier-Technologien“.

Mitbegründer und geschäftsführender Gesellschafter Matt Huang betont, dass dies kein Abwenden von Krypto sei, sondern eine Expansion in angrenzende Ökosysteme. „Es gibt starke Überschneidungen zwischen den Ökosystemen“, erklärte Huang und verwies auf autonome agentenbasierte Zahlungen, die auf KI-Entscheidungen und Blockchain-Abwicklung basieren.

Anfang dieses Monats ging Paradigm eine Partnerschaft mit OpenAI ein, um EVMbench zu veröffentlichen, einen Benchmark-Test, der prüft, ob Machine-Learning-Modelle Schwachstellen in Smart Contracts identifizieren und beheben können.

Das Timing ist strategisch. Im Jahr 2025 flossen 61 % des weltweiten VC-Kapitals – etwa 258,7 Milliarden US-Dollar – in den KI-Sektor. Der Schritt von Paradigm ist ein Eingeständnis, dass Krypto-Infrastruktur allein möglicherweise keine Renditen auf Venture-Niveau in einem Markt nachhaltig sichern kann, in dem KI exponentiell mehr institutionelles Kapital anzieht.

Das ist kein Rückzug. Es ist eine Anerkennung der Realität.

Die wertvollsten Anwendungen der Blockchain könnten an der Schnittstelle von KI, Robotik und Krypto entstehen – nicht isoliert davon. Paradigm sichert sich ab, und im Venture-Capital-Bereich gehen Absicherungen oft Schwenks voraus.

Dragonflys Widerstand: 650 Mio. USD in einem „Massenaussterben“ einsammeln

Während andere verkleinern oder diversifizieren, schloss Dragonfly Capital im Februar 2026 einen vierten Fonds über 650 Millionen US-Dollar ab und übertraf damit das ursprüngliche Ziel von 500 Millionen US-Dollar.

Der geschäftsführende Gesellschafter Haseeb Qureshi nannte die Dinge beim Namen: „Die Stimmung ist am Tiefpunkt, die Angst ist extrem und die Düsternis eines Bärenmarktes ist eingekehrt.“ General Partner Rob Hadick ging noch weiter und bezeichnete das aktuelle Umfeld als „Massenaussterben“ für Krypto-Venture-Capital.

Dennoch blüht Dragonflys Erfolgsbilanz in Abschwüngen auf. Die Firma sammelte Kapital während des ICO-Crashs 2018 und kurz vor dem Terra-Zusammenbruch 2022 ein – Jahrgänge, die zu ihren besten Performern wurden.

Die Strategie? Fokus auf Finanz-Anwendungsfälle mit nachgewiesener Nachfrage: Stablecoins, dezentrale Finanzen (DeFi), On-Chain-Zahlungen und Prognosemärkte.

Qureshi nahm kein Blatt vor den Mund: „Nicht-finanzielles Krypto ist gescheitert.“ Dragonfly setzt auf Blockchain als Finanzinfrastruktur, nicht als Plattform für spekulative Anwendungen.

Kreditkartenähnliche Dienste, geldmarktnahe Fonds und Token, die an reale Vermögenswerte wie Aktien und Privatkredite gebunden sind, dominieren das Portfolio. Die Firma baut für regulierte, umsatzgenerierende Produkte – nicht für Moonshots.

Dies ist das neue Krypto-VC-Handbuch: höhere Überzeugung, weniger Wetten, finanzielle Primitive vor narrativ getriebener Spekulation.

Der Umsatz-Imperativ: Warum Infrastruktur allein nicht mehr ausreicht

Jahrelang operierte Krypto-Venture-Capital nach einer einfachen These: Baue die Infrastruktur, und die Anwendungen werden folgen. Layer-1-Blockchains, Layer-2-Rollups, Cross-Chain-Bridges, Wallets – Milliarden flossen in den grundlegenden Stack.

Die Annahme war, dass die Akzeptanz durch die Verbraucher explodieren würde, sobald die Infrastruktur ausgereift ist.

Das geschah nicht. Oder zumindest nicht schnell genug.

Bis 2026 erzwingt die Verschiebung von der Infrastruktur hin zu den Anwendungen eine Abrechnung. VCs priorisieren jetzt „nachhaltige Erlösmodelle, organische Nutzermetriken und einen starken Product-Market-Fit“ gegenüber „Projekten mit früher Traktion und begrenzter Umsatzsichtbarkeit“.

Die Finanzierung in der Seed-Phase ging um 18 % zurück, während die Serie-B-Finanzierung um 90 % stieg, was eine Präferenz für reifere Projekte mit bewährter Ökonomie signalisiert.

Die Tokenisierung von Real-World Assets (RWA) überschritt im Jahr 2025 die Marke von 36 Milliarden US-Dollar und weitete sich über Staatsanleihen hinaus auf Privatkredite und Rohstoffe aus. Stablecoins machten im vergangenen Jahr ein geschätztes Transaktionsvolumen von 46 Billionen US-Dollar aus – mehr als das 20-fache des Volumens von PayPal und fast das Dreifache von Visa.

Dies sind keine spekulativen Narrative. Es handelt sich um Finanzinfrastruktur im Produktionsmaßstab mit messbaren, wiederkehrenden Einnahmen.

BlackRock, JPMorgan und Franklin Templeton bewegen sich von „Piloten hin zu groß angelegten, produktionsreifen Produkten“. Stablecoin-Schienen sicherten sich den größten Anteil an der Krypto-Finanzierung.

Im Jahr 2026 bleibt der Fokus auf Transparenz, regulatorischer Klarheit für renditegenerierende Stablecoins und einer breiteren Nutzung von Deposit Tokens in Enterprise-Treasury-Workflows und der grenzüberschreitenden Abwicklung.

Der Wandel ist nicht subtil: Krypto wird als Infrastruktur neu bewertet, nicht als Anwendungsplattform.

Der Wert fließt in Settlement-Layer, Compliance-Tools und den Vertrieb tokenisierter Vermögenswerte – nicht in die neueste Layer-1, die revolutionären Durchsatz verspricht.

Was die Marktbereinigung für Entwickler bedeutet

Krypto-Risikokapital sammelte von Januar bis November 2025 54,5 Milliarden US-Dollar ein, ein Anstieg von 124 % gegenüber dem gesamten Jahr 2024. Dennoch stieg die durchschnittliche Geschäftsgröße, während die Anzahl der Deals sank.

Dies ist eine als Erholung getarnte Konsolidierung.

Für Gründer sind die Auswirkungen drastisch:

Frühphasenfinanzierung bleibt brutal. VCs erwarten, dass die Disziplin im Jahr 2026 anhält, mit einer höheren Hürde für Neuinvestitionen. Die meisten Krypto-Investoren rechnen mit einer moderaten Verbesserung der Frühphasenfinanzierung, die jedoch weit unter dem Niveau früherer Zyklen liegen wird.

Wenn Sie im Jahr 2026 bauen, benötigen Sie einen Proof of Concept, echte Nutzer oder ein überzeugendes Ertragsmodell – nicht nur ein Whitepaper und ein Narrativ.

Fokussektoren dominieren die Kapitalallokation. Infrastruktur, RWA-Tokenisierung und Stablecoin- / Zahlungssysteme ziehen institutionelles Kapital an. Alles andere hat mit großen Schwierigkeiten zu kämpfen.

DeFi-Infrastruktur, Compliance-Tools und KI-nahe Systeme sind die neuen Gewinner. Spekulative Layer-1-Lösungen und Konsumentenanwendungen ohne klare Monetarisierung sind out.

Mega-Runden konzentrieren sich auf Spätphasen-Projekte. CeDeFi (zentralisierte-dezentralisierte Finanzen), RWA, Stablecoins / Zahlungen und regulierte Informationsmärkte bündeln sich in der Spätphase.

Frühphasenfinanzierung fördert weiterhin KI, Zero-Knowledge-Proofs, dezentrale physische Infrastrukturnetzwerke (DePIN) und Infrastruktur der nächsten Generation – jedoch mit weitaus größerer Sorgfaltspflicht.

Umsatz ist das neue Narrativ. Die Zeiten, in denen man 50 Millionen US-Dollar auf Basis einer Vision einsammelte, sind vorbei. Dragonflys These „Nicht-finanzielle Kryptoprojekte sind gescheitert“ ist kein Einzelfall – sie ist Konsens.

Wenn Ihr Projekt innerhalb von 12 – 18 Monaten keinen Umsatz generiert oder glaubwürdig prognostiziert, müssen Sie mit Skepsis rechnen.

Der Vorteil der Überlebenden: Warum dies gesund sein könnte

Die Marktbereinigung im Krypto-Risikokapital fühlt sich schmerzhaft an, weil sie es ist. Gründer, die 2021 – 2022 Kapital aufgenommen haben, stehen vor Abwärtsrunden oder Schließungen.

Projekte, die auf ewige Fundraising-Zyklen setzten, lernen auf die harte Tour, dass Kapital nicht unendlich ist.

Aber Marktbereinigungen fördern Resilienz. Der ICO-Crash von 2018 vernichtete Tausende von Projekten, doch die Überlebenden – Ethereum, Chainlink, Uniswap – wurden zum Fundament des heutigen Ökosystems. Der Terra-Kollaps von 2022 erzwang Verbesserungen im Risikomanagement und in der Transparenz, die DeFi institutioneller gemacht haben.

Dieses Mal zwingt die Korrektur Krypto dazu, eine grundlegende Frage zu beantworten: Wofür ist die Blockchain eigentlich gut? Die Antwort sieht zunehmend nach Finanzinfrastruktur aus – Abwicklung, Zahlungen, Asset-Tokenisierung, programmierbare Compliance. Nicht Metaverses, nicht Token-Gated Communities, nicht Play-to-Earn-Gaming.

Der 2-Milliarden-Dollar-Fonds von a16z ist nach traditionellen VC-Maßstäben nicht klein. Er ist diszipliniert. Die KI-Expansion von Paradigm ist kein Rückzug – es ist die Erkenntnis, dass die Killer-Apps der Blockchain möglicherweise maschinelle Intelligenz erfordern. Dragonflys 650-Millionen-Dollar-Runde während eines „Massenaussterbens“ ist nicht konträr – es ist die Überzeugung, dass auf Blockchain-Schienen gebaute Finanzprimitive Hype-Zyklen überdauern werden.

Der Markt für Krypto-Risikokapital schrumpft in der Breite, vertieft sich aber im Fokus. Weniger Projekte werden finanziert. Mehr werden echte Geschäftsmodelle benötigen. Die in den letzten fünf Jahren aufgebaute Infrastruktur wird endlich durch umsatzgenerierende Anwendungen einem Stresstest unterzogen.

Für die Überlebenden ist die Chance gewaltig. Stablecoins, die jährlich 46 Billionen US-Dollar verarbeiten. RWA-Tokenisierung, die bis 2030 auf 30 Billionen US-Dollar abzielt. Institutionelle Abwicklung auf Blockchain-Schienen. Das sind keine Träume – das sind Produktionssysteme, die institutionelles Kapital anziehen.

Die Frage für 2026 ist nicht, ob sich Krypto-VC auf 86 Milliarden US-Dollar erholt. Es geht darum, ob die 34 Milliarden US-Dollar, die investiert werden, klüger eingesetzt sind. Wenn uns Dragonflys Bärenmarkt-Jahrgänge etwas gelehrt haben, dann dass die besten Investitionen oft dann getätigt werden, wenn „die Stimmung am Boden ist, die Angst extrem ist und die Düsternis eines Bärenmarktes eingesetzt hat“.

Willkommen auf der anderen Seite des Hype-Zyklus. Hier entstehen echte Unternehmen.


Quellen:

Die große KI-Kreislauffinanzierungsschleife: Wenn Anbieter ihre eigenen Kunden finanzieren

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Die Wall Street hat im Jahr 2026 eine neue Sorge: Der KI-Boom könnte eher auf Financial Engineering als auf tatsächlicher Nachfrage basieren. Über 800 Milliarden US-Dollar an Vereinbarungen zur „Kreislauffinanzierung“ (Circular Financing) – bei denen Chiphersteller und Cloud-Anbieter in KI-Startups investieren, die diese Mittel sofort für den Kauf ihrer Produkte ausgeben – lassen Analysten fragen, ob wir hier Innovation oder buchhalterische Alchemie erleben.

Die Zahlen sind schwindelerregend. NVIDIA gab eine Partnerschaft mit OpenAI im Wert von 100 Milliarden US-Dollar bekannt. AMD schloss Verträge im Wert von 200 Milliarden US-Dollar ab und händigte den Kunden 10 % Aktienoptionen (Equity Warrants) aus. Oracle sagte 300 Milliarden US-Dollar für Cloud-Infrastruktur zu. Doch der Haken ist: Dieselben Anbieter sind auch bedeutende Investoren in die KI-Unternehmen, die ihre Produkte kaufen. So entsteht ein sich selbst verstärkender Kreislauf, der unheimlich an die Desaster der Anbieterfinanzierung (Vendor Financing) aus der Dotcom-Ära erinnert.

Die Anatomie der Schleife

Im Zentrum dieses Finanzökosystems steht OpenAI, das sowohl zum Aushängeschild für das Potenzial der KI als auch zum mahnenden Beispiel für deren finanzielle Tragfähigkeit geworden ist. Das Unternehmen prognostiziert allein für 2026 einen Verlust von 14 Milliarden US-Dollar – fast das Dreifache seiner Verluste von 2025 –, obwohl es bis 2029 einen Umsatz von 100 Milliarden US-Dollar anstrebt.

Die Infrastrukturzusagen von OpenAI zeichnen ein Bild beispielloser Ausgaben: 1,15 Billionen US-Dollar, die zwischen 2025 und 2035 auf sieben große Anbieter verteilt werden. Broadcom führt mit 350 Milliarden US-Dollar, gefolgt von Oracle (300 Milliarden US-Dollar), Microsoft (250 Milliarden US-Dollar), NVIDIA (100 Milliarden US-Dollar), AMD (90 Milliarden US-Dollar), Amazon AWS (38 Milliarden US-Dollar) und CoreWeave (22 Milliarden US-Dollar).

Dies sind keine herkömmlichen Käufe. Es handelt sich um zirkuläre Vereinbarungen, bei denen das Kapital in einem geschlossenen Kreislauf fließt: Investoren finanzieren KI-Startups, Startups kaufen Infrastruktur von eben diesen Investoren, und der „Umsatz“ wird als echtes Geschäftswachstum ausgewiesen.

NVIDIAs sich wandelnde Position

Die Beziehung zwischen NVIDIA und OpenAI verdeutlicht, wie schnell sich diese Vereinbarungen auflösen können. Im September 2025 kündigte NVIDIA eine Absichtserklärung an, bis zu 100 Milliarden US-Dollar in OpenAI zu investieren, geknüpft an die Bereitstellung von mindestens 10 Gigawatt an NVIDIA-Systemen. Das erste Gigawatt, geplant für die zweite Jahreshälfte 2026 auf der NVIDIA Vera Rubin-Plattform, sollte den ersten Kapitalabruf auslösen.

Bis November 2025 gab NVIDIA in einem Quartalsbericht bekannt, dass der Deal „möglicherweise nicht zustande kommt“. Das Wall Street Journal berichtete im Januar 2026, dass die Vereinbarung „auf Eis liegt“. CEO Jensen Huang sagte Investoren im März 2026, dass die 30-Milliarden-Dollar-Investition des Unternehmens in OpenAI „vielleicht das letzte Mal“ gewesen sei, dass man in das Startup investiert habe, und die Möglichkeit, 100 Milliarden US-Dollar zu investieren, „nicht zur Debatte steht“.

Die Sorge, die auf der NVIDIA-Aktie lastet? Kritiker vergleichen diese Deals mit dem Platzen der Dotcom-Blase, als Glasfaserunternehmen wie Nortel eine „Anbieterfinanzierung“ anboten, die später implodierte und ganze Märkte mit sich riss.

Das Aktiengambit von AMD

AMD hob die Kreislauffinanzierung auf eine neue Ebene, indem das Unternehmen Aktienbeteiligungen im Austausch für Kaufzusagen anbot. Der Chiphersteller schloss zwei große Verträge ab – mit Meta und OpenAI –, die jeweils Warrants für Kunden zum Erwerb von 160 Millionen AMD-Aktien beinhalteten, was etwa 10 % des Unternehmens zu einem Preis von 0,01 US-Dollar pro Aktie entspricht.

Meta's Deal im Wert von über 100 Milliarden US-Dollar für bis zu 6 Gigawatt an Instinct-GPUs strukturiert das Vesting (die Zuteilung) um Meilensteine herum: Die erste Tranche wird fällig, wenn 1 GW ausgeliefert wird; zusätzliche Tranchen werden zugeteilt, wenn die Käufe auf 6 GW steigen; und die endgültige Zuteilung erfordert, dass der Aktienkurs von AMD 600 US-Dollar erreicht – mehr als das Vierfache des aktuellen Niveaus.

Das OpenAI-AMD-Arrangement folgt demselben Muster: Chips im Wert von Milliarden gegen Aktienbeteiligungen, wobei Bereitstellungs- und Aktienkurs-Benchmarks die Zuteilungspläne bestimmen. Skeptiker sehen darin eine Blasenmechanik: Lieferanten investieren in Kunden, die ihre Ausrüstung kaufen, Bewertungen sichern Kapazitäten ab, Kapazitäten rechtfertigen Bewertungen. Befürworter halten dagegen, dass die Nachfrage in der Produkt-Telemetrie, in Unternehmensverträgen und in der API-Nutzung sichtbar ist.

Doch die grundlegende Frage bleibt: Ist dies eine nachhaltige Kundenakquise oder Financial Engineering, das die Unsicherheit der Nachfrage verschleiert?

Oracles 300-Milliarden-Dollar-Wette

Die Zusage von Oracle an OpenAI stellt einen der größten Cloud-Verträge der Geschichte dar. Die Vereinbarung über 300 Milliarden US-Dollar über fünf Jahre – etwa 60 Milliarden US-Dollar jährlich – verlangt von Oracle die Bereitstellung von 4,5 Gigawatt Rechenkapazität, was dem Stromverbrauch von 4 Millionen US-Haushalten oder der Leistung von mehr als zwei Hoover-Talsperren entspricht.

Es wird erwartet, dass das Projekt ab 2027 jährlich 30 Milliarden US-Dollar zum Umsatz von Oracle beitragen wird, aber die Infrastruktur befindet sich erst in der frühen Ausbauphase. Um diese Expansion zu finanzieren, skizzierte Oracle-Chairman Larry Ellison Pläne, im Jahr 2026 45 bis 50 Milliarden US-Dollar aufzunehmen, wobei die Investitionsausgaben (CapEx) um 15 Milliarden US-Dollar über früheren Schätzungen liegen.

Für OpenAI ist der Oracle-Deal nur ein Teil eines Infrastruktur-Puzzles, das die Beschaffung gewaltiger jährlicher Summen erfordert – Summen, die den derzeitigen jährlichen wiederkehrenden Umsatz (ARR) von 10 Milliarden US-Dollar bei weitem übersteigen, während gleichzeitig hohe Verluste anfallen.

Die Parallelen zur Dotcom-Ära

Der Vergleich mit dem Internetboom der späten 1990er Jahre ist unvermeidlich. In jener Ära expandierten Glasfasernetze auf der Grundlage von Versprechungen auf unaufhörliches Wachstum, angefeuert durch Anbieterfinanzierung – Kredite und Unterstützung, die es Telekommunikationsanbietern ermöglichten, hohe Investitionen aufrechtzuerhalten, selbst als sich die fundamentale Wirtschaftslage verschlechterte.

Die heutige Dynamik ist auffallend ähnlich:

  • Lieferanten finanzieren Kunden: Cloud-Anbieter und Chiphersteller investieren in KI-Startups.
  • Durch Kreislaufströme aufgeblähter Umsatz: Wachstumsmetriken werden durch Geldrecycling im Ökosystem verzerrt.
  • Bewertungen für Idealbedingungen: Die gemeldete Bewertung von OpenAI in Höhe von 830 Milliarden US-Dollar setzt Rentabilität für das Jahr 2029 voraus.
  • Enge Interdependenz: Sowohl Boom- als auch Bust-Zyklen werden verstärkt.

Als Nortel 2001 zusammenbrach, wurde deutlich, wie die Anbieterfinanzierung ein unhaltbares Wachstum gestützt hatte. Geräteverkäufe, die auf dem Papier robust aussahen, lösten sich in Luft auf, als die Kunden tatsächlich nicht mehr zahlen konnten, weil die Anbieter selbst die Mittel bereitgestellt hatten.

Die 44 - Milliarden - Dollar - Frage

Interne Prognosen von OpenAI zeigen erwartete kumulierte Verluste von 44 Milliarden US - Dollar von 2023 bis Ende 2028 , bevor im Jahr 2029 ein Gewinn von 14 Milliarden US - Dollar erzielt wird . Dies setzt ein Umsatzwachstum von geschätzten 4 Milliarden US - Dollar im Jahr 2025 auf 100 Milliarden US - Dollar im Jahr 2029 voraus – eine 25 - fache Steigerung in vier Jahren .

Zum Vergleich : Selbst das historische Wachstum von NVIDIA während des KI - Booms dauerte mehrere Jahre , um vergleichbare Multiplikatoren zu erreichen . OpenAI muss nicht nur diese Größenordnung erreichen , sondern auch die Unit Economics so weit transformieren , dass der Umschwung von Verlustmargen von über 70 % zur Rentabilität gelingt .

Die Burn - Rate des Unternehmens gehört zu den schnellsten aller Startups in der Geschichte . Wenn es keine zusätzlichen Finanzierungsrunden sichern kann – Berichten zufolge werden bis zu 100 Milliarden US - Dollar bei Bewertungen von fast 830 Milliarden US - Dollar angestrebt – könnte dem Unternehmen bereits 2027 das Geld ausgehen .

Wann bricht der Kreislauf ?

Das Modell der zirkulären Finanzierung hängt von kontinuierlichen Kapitalzuflüssen ab . Solange Investoren an das transformative Potenzial der KI glauben und bereit sind , Verluste zu finanzieren , funktioniert das Ökosystem . Doch mehrere Belastungspunkte könnten den Kreislauf unterbrechen :

Die Realität des Enterprise - ROI

Bis Mitte 2026 sollten Unternehmen , die in den Jahren 2024 - 2025 KI - Lösungen eingeführt haben , einen messbaren ROI nachweisen . Wenn Produktivitätssteigerungen , Kosteneinsparungen oder Umsatzsteigerungen nicht eintreten , werden die KI - Budgets der Unternehmen schrumpfen . Da Unternehmenskunden die Wachstumsgeschichte von OpenAI jenseits der ChatGPT - Abonnements für Endverbraucher darstellen , würden enttäuschende Ergebnisse im Enterprise - Bereich die gesamte These untergraben .

Investorenmüdigkeit

OpenAI strebt Finanzierungsrunden mit Bewertungen von 830 Milliarden US - Dollar an , während für 2026 Verluste von 14 Milliarden US - Dollar prognostiziert werden . Irgendwann verlangen selbst die finanzstärksten Investoren einen Weg zur Rentabilität , der nicht auf ewig ein exponentielles Wachstum voraussetzt . Die Finanzierungsrunde über 110 Milliarden US - Dollar im Februar 2026 – mit Amazon ( 50 Mrd . USD ) , NVIDIA ( 30 Mrd . USD ) und SoftBank ( 30 Mrd . USD ) – mag das Engagement der Investoren widerspiegeln , verdeutlicht aber auch die Sorgen hinsichtlich der Kapitalintensität .

Forderungen nach „ sauberen Umsätzen “

Bis zum ersten Quartal 2026 fordern Investoren „ saubere “ Umsatzzahlen , die nicht an interne Subventionen oder zirkuläre Vereinbarungen gebunden sind . Wenn Unternehmen über Wachstum berichten , wollen die Aktionäre wissen , wie viel davon aus marktüblichen Transaktionen im Vergleich zu herstellerfinanzierten Deals stammt . Diese Prüfung könnte unangenehme Offenlegungen über die Qualität der Umsätze erzwingen .

Margenkompression

Wenn mehrere gut finanzierte KI - Labore über den Preis konkurrieren , um Unternehmenskunden zu gewinnen , sinken die Margen in der gesamten Branche . OpenAI , Anthropic , Google DeepMind und andere buhlen mit vergleichbaren Fähigkeiten um ähnliche Kundenstämme . Preiswettbewerb in einem kapitalintensiven Geschäft mit massiven Fixkosten ist ein Rezept für lang anhaltende Verluste .

Das Bullen - Szenario

Verteidiger der zirkulären Finanzierung argumentieren , dass sich die Situation grundlegend von den Exzessen der Dotcom - Ära unterscheidet :

Sichtbare Nachfrage : API - Nutzung , die über 300 Millionen wöchentlich aktiven Nutzer von ChatGPT und Implementierungen in Unternehmen belegen eine echte Akzeptanz . Dies ist kein Fall von „ Wenn wir es bauen , werden sie kommen “ – die Kunden nutzen die Produkte bereits .

Infrastrukturelle Notwendigkeit : Das Training und die Inferenz von KI - Modellen erfordern massive Rechenleistung . Diese Investitionen sind nicht spekulativ ; sie sind Voraussetzungen für die Bereitstellung von Dienstleistungen , die Kunden nachweislich wollen .

Strategische Positionierung : Für Anbieter wie NVIDIA , AMD und Oracle sichert die Investition in KI - Marktführer langfristige Kunden und verschafft ihnen gleichzeitig strategischen Einfluss auf die Richtung des Ökosystems . Selbst wenn sich einige Investitionen nicht auszahlen , ist die Eroberung des Marktes für KI - Infrastruktur das Risiko wert .

Vielfältige Einnahmequellen : OpenAI verkauft nicht nur ChatGPT - Abonnements . Es monetarisiert über API - Zugänge , Enterprise - Lizenzen , maßgeschneiderte Modelle und Partnerschaften in verschiedenen Branchen . Diversifizierte Einnahmen reduzieren das Risiko eines Single Point of Failure .

Auswirkungen auf die Blockchain - Infrastruktur

Für Anbieter von Blockchain - Infrastruktur bietet das Phänomen der zirkulären KI - Finanzierung sowohl Warnungen als auch Chancen . Dezentrale Rechennetzwerke , die sich für KI - Workloads positionieren , müssen echte wirtschaftliche Vorteile jenseits von Token - Anreizen nachweisen – Kostensenkungen , Zensurresistenz oder Verifizierbarkeit , die zentralisierte Anbieter nicht bieten können .

Projekte , die behaupten , die zentralisierte KI - Infrastruktur zu stören , stehen vor der gleichen Frage : Ist die Nachfrage echt oder erzeugen Token - Anreize eine künstliche Traktion ? Die Prüfung der Umsatzqualität von OpenAI wird schließlich auch krypto - native KI - Projekte erreichen .

  • BlockEden.xyz bietet eine zuverlässige Blockchain - Infrastruktur für Entwickler , die dezentrale Anwendungen erstellen . Während der KI - Sektor die Herausforderungen der Herstellerfinanzierung meistert , expandieren Blockchain - Ökosysteme weiterhin mit nachhaltigen , nutzungsbasierten Modellen . Erkunden Sie unsere API - Dienste für Ethereum , Sui , Aptos und über 10 Chains . *

Der Weg nach vorn

Der Kreislauf der zirkulären KI - Finanzierung wird sich auf eine von drei Arten auflösen :

Szenario 1 : Echte Nachfrage bestätigt die Investition Die Einführung von KI in Unternehmen beschleunigt sich , das Umsatzwachstum stellt sich ein und OpenAI erreicht wie prognostiziert bis 2029 die Rentabilität . Zirkuläre Finanzierung wird als strategische Positionierung während eines transformativen Technologiewechsels gerechtfertigt . Anbieter , die frühzeitig investiert haben , werden zu dominanten Infrastrukturanbietern für das KI - Zeitalter .

Szenario 2 : Schrittweise Rationalisierung Das Wachstum setzt sich fort , bleibt jedoch hinter den exponentiellen Prognosen zurück . Unternehmen strukturieren um , Bewertungen werden nach unten korrigiert , einige Akteure scheiden aus und die Branche konsolidiert sich um nachhaltige Geschäftsmodelle . Kein Platzen der Blase , sondern eine Korrektur , die Gewinner von Verlierern trennt .

Szenario 3 : Der Kreislauf bricht Der ROI in Unternehmen enttäuscht , die Kapitalmärkte stehen KI - Investitionen skeptisch gegenüber und der zirkuläre Finanzierungskreislauf löst sich schnell auf . Durch Herstellerfinanzierung aufgeblähte Umsätze verpuffen und erzwingen Abschreibungen im gesamten Ökosystem . Die Parallelen zur Herstellerfinanzierung der Dotcom - Ära werden Realität , nicht nur eine Metapher .

Fazit

Der 800-Milliarden-Dollar-Kreislauf der zirkulären Finanzierung, der den Infrastruktur-Boom der KI stützt, stellt entweder einen visionären Ökosystem-Aufbau oder ein Financial Engineering dar, das Nachfrageunsicherheiten verschleiert. Die Antwort liegt wahrscheinlich irgendwo zwischen den Extremen: echte Begeisterung über das Potenzial von KI, gemischt mit finanziellen Vereinbarungen, die möglicherweise über die kurzfristige wirtschaftliche Realität hinausgeschossen sind.

Der für 2026 prognostizierte Verlust von OpenAI in Höhe von 14 Milliarden Dollar ist mehr als eine reine Finanzstatistik – er ist ein Stresstest für das gesamte Geschäftsmodell der Frontier AI. Wenn das Unternehmen und seine Wettbewerber in den nächsten 18 bis 24 Monaten nachhaltige Unit Economics und eine echte Nachfrage von Unternehmen nachweisen können, wird die zirkuläre Finanzierung als aggressive, aber gerechtfertigte Frühphaseninvestition in Erinnerung bleiben.

Falls nicht, könnte 2026 als das Jahr in Erinnerung bleiben, in dem die Wall Street erkannte, dass der KI-Boom auf einem selbstreferenziellen Kreislauf von anbieterfinanzierten Umsätzen (Vendor-financed Revenue) aufgebaut war – ein Muster, das laut historischer Erfahrung selten ein gutes Ende nimmt.

Die Frage für Investoren, Unternehmen und Infrastrukturanbieter ist nicht, ob KI Branchen transformieren wird – das wird sie mit ziemlicher Sicherheit tun. Die Frage ist, ob die finanziellen Vereinbarungen, die den heutigen Ausbau finanzieren, lange genug Bestand haben werden, um die Realisierung dieser Transformation zu erleben.

Quellen