Direkt zum Hauptinhalt

60 Beiträge getaggt mit „Dezentrales Computing“

Dezentrales Computing und Cloud

Alle Tags anzeigen

DePINs Abrechnung mit dem Umsatz: Wie Akash, io.net und Aethir Token-Mining durch echten geschäftlichen Cashflow ersetzen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Aethir hat im Jahr 2025 im Stillen die Marke von 127 Millionen $ an jährlichem Umsatz überschritten. Nicht durch Token-Emissionen. Nicht durch spekulative Anreizprogramme. Sondern durch tatsächliche Unternehmensausgaben für GPU-Rechenleistung. Dieser einzelne Datenpunkt könnte den Moment markieren, in dem dezentrales Computing aufgehört hat, ein Krypto-Experiment zu sein, und begann, zu einem Cloud-Business zu werden.

Jahrelang war die Kritik an Decentralized Physical Infrastructure Networks (DePIN) simpel: Ihre Ökonomie basierte auf dem Drucken von Token, nicht auf Kundenrechnungen. Anbieter verdienten Belohnungen in volatilen nativen Token, die Nachfrage war oft künstlich, und die Lücke zwischen „Netzwerkaktivität“ und „Umsatz“ war gewaltig. Doch im Laufe des Jahres 2025 und bis Anfang 2026 haben die führenden GPU-Rechennetzwerke – Akash, io.net, Aethir und Render – eine Kehrtwende vollzogen, die der breitere Markt noch nicht vollständig eingepreist hat: den Übergang von einem durch Token subventionierten Angebot hin zu einem nachfragegesteuerten Cashflow.

ASI Alliance Chain Launch: Die 2 Mrd. $ dezentrale KI-Mega-Fusion geht live

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Als vier der ambitioniertesten KI-Projekte im Kryptoraum – Fetch.ai, SingularityNET, Ocean Protocol und CUDOS – im Jahr 2024 zu einer einzigen Einheit fusionierten, taten Skeptiker dies als Token-Konsolidierungstheater ab. Zwei Jahre später liefert die Artificial Superintelligence (ASI) Alliance eine produktionsreife Infrastruktur, die das zentralisierte KI-Establishment im Kern herausfordert: eine zweckgebundene Layer-1-Blockchain, GPU-Inferenz auf Enterprise-Niveau zu den halben Kosten von AWS und ein AGI-Programmier-Framework, das autonome Agenten als Bürger erster Klasse behandelt.

Mit dem Start des DevNet von ASI:Chain, der Verarbeitung echter Workloads durch ASI:Cloud und bis 2026 ausverkauften NVIDIA-GPU-Zuteilungen sieht die Wette der Allianz auf eine dezentrale KI-Infrastruktur weniger nach Idealismus und mehr nach Unausweichlichkeit aus.

Die DAO-Governance-Krise: Warum 12.000 Organisationen, die 28 Milliarden Dollar verwalten, stillschweigend scheitern

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Ein Prozent der Token-Inhaber kontrolliert neunzig Prozent der Stimmgewalt in den wichtigsten DAOs. Über 12.000 dezentrale autonome Organisationen verwalten mittlerweile ein Treasury-Vermögen von etwa 28 Milliarden US-Dollar – dennoch liegt die durchschnittliche Wahlbeteiligung bei rund 20 %, und in vielen Fällen gibt weniger als jeder zehnte berechtigte Teilnehmer tatsächlich eine Stimme ab. Was eigentlich die demokratischste Form der Organisationsführung sein sollte, fängt an, wie deren dysfunktionalste Version auszusehen.

Anfang 2026 räumten mehrere hochkarätige DAOs faktisch ihre Niederlage ein. Jupiter DAO fror alle Governance-Abstimmungen ein und sperrte sein Treasury bis 2027. Scroll DAO stellte den Betrieb vollständig ein, nachdem die Führung im Chaos darüber zurückgetreten war, welche Vorschläge überhaupt aktiv waren. Yuga Labs verabschiedete sich von seiner DAO-Struktur mit einer unverblümten Erklärung über die Dysfunktionalität. Dies sind keine Randexperimente – sie repräsentieren einige der am besten finanzierten Projekte im Kryptobereich.

Die Frage ist nicht mehr, ob die DAO-Governance ein Problem hat. Es geht darum, ob das Modell gerettet werden kann.

KI-Agenten als primäre Blockchain-Nutzer: Die unsichtbare Revolution von 2026

· 15 Min. Lesezeit
Dora Noda
Software Engineer

"In ein paar Jahren wird es nur noch KI sein, wie das Betriebssystem", erklärte Illia Polosukhin, Mitbegründer des NEAR-Protokolls, in einer Erklärung, die den tiefgreifendsten Wandel verdeutlicht, der sich heute in der Blockchain-Technologie vollzieht. Seine Vorhersage ist einfach und doch transformativ: KI-Agenten werden die primären Nutzer der Blockchain werden, nicht Menschen.

Dies ist kein fernes Science-Fiction-Szenario. Es geschieht genau jetzt, im März 2026, während Milliarden von Transaktionen von autonomen KI-Agenten über Dutzende von Blockchains hinweg ausgeführt werden. Während menschliche Nutzer immer noch die Schlagzeilen dominieren, offenbart die heute aufgebaute Infrastruktur eine Zukunft, in der Blockchain zum unsichtbaren Backend für KI-gesteuerte Interaktionen wird.

Der Paradigmenwechsel: Von der menschenzentrierten zur agentenzentrierten Blockchain

Polosukhins Vision artikuliert, was viele Infrastrukturentwickler bereits wissen: "KI wird im Front-End sein und Blockchain wird das Back-End sein." Diese Rollenumkehr transformiert die Blockchain von einer direkten Benutzerschnittstelle zu einer Koordinationsschicht für autonome Systeme.

Die Zahlen unterstützen diesen Trend. Bis Ende 2026 wird erwartet, dass 40 % der Unternehmensanwendungen aufgabenspezifische KI-Agenten einbetten, gegenüber weniger als 5 % im Jahr 2025. Inzwischen verzeichnen Prognosemärkte wie Polymarket bereits, dass KI-Agenten 30 % oder mehr des Handelsvolumens beitragen, was zeigt, dass autonome Systeme nicht nur theoretisch sind – sie sind aktive Marktteilnehmer.

Der Start von Near.com durch NEAR im Februar 2026 verdeutlicht diesen Wandel. Die Super-App positioniert sich an der Schnittstelle von Krypto und KI, was Polosukhin als Teil der "agentischen Ära" (agentic era) bezeichnet, in der KI-Systeme nicht nur Antworten liefern, sondern im Namen der Nutzer handeln.

Die Infrastruktur, die autonome Agenten ermöglicht

Die Entstehung von KI-Agenten als primäre Blockchain-Nutzer erforderte fundamentale Infrastrukturdurchbrüche bei Wallets, Ausführungsschichten und Zahlungsprotokollen.

Agentic Wallets: Finanzielle Autonomie für KI

Im Februar 2026 startete Coinbase Agentic Wallets, die erste speziell für KI-Agenten entwickelte Wallet-Infrastruktur. Diese Wallets ermöglichen es KI-Systemen, Gelder zu halten und On-Chain-Transaktionen innerhalb definierter Grenzen unabhängig auszuführen. Dies gibt Agenten die Möglichkeit, autonom Geld auszugeben, zu verdienen und zu handeln, während gleichzeitig die Sicherheit auf Unternehmensniveau gewahrt bleibt.

Die Sicherheitsarchitektur ist entscheidend. Agentic Wallets enthalten programmierbare Leitplanken, die es Nutzern ermöglichen, Sitzungsobergrenzen und Transaktionslimits festzulegen und so zu definieren, wie viel ein KI-Agent unter welchen Umständen ausgeben darf. Zusätzliche Kontrollen umfassen Allow-Lists für Operationen, Anomalieerkennung, Echtzeit-Warnungen, Multi-Party-Genehmigungen und detaillierte Audit-Logs, die alle über eine API konfigurierbar sind.

OKX folgte Anfang März 2026 mit einem KI-fokussierten Upgrade seiner OnchainOS-Entwicklerplattform und positionierte diese als Infrastruktur für autonome Krypto-Handelsagenten. Die Plattform bietet eine einheitliche Wallet-Infrastruktur, Liquiditäts-Routing und On-Chain-Datenfeeds, die es Agenten ermöglichen, komplexe Handelsanweisungen über mehr als 60 Blockchains und über 500 dezentrale Börsen hinweg auszuführen. Das System verarbeitet bereits 1,2 Milliarden tägliche API-Aufrufe und ein Handelsvolumen von etwa 300 Millionen US-Dollar.

Die Integration von Blockchain-Infrastruktur für KI-Agenten durch Circle legt den Schwerpunkt auf autonome Zahlungen auf Stablecoin-Basis, während das x402-Protokoll mit über 50 Millionen Transaktionen praxiserprobt wurde und Machine-to-Machine-Zahlungen, API-Paywalls und programmatischen Ressourcenzugriff ohne menschliches Eingreifen ermöglicht.

Intent-basierte Ausführung in natürlicher Sprache

Die vielleicht transformativste Entwicklung ist die Integration der Verarbeitung natürlicher Sprache mit der Blockchain-Ausführung. Bis 2026 führen die meisten großen Krypto-Wallets eine auf natürlicher Sprache basierende, Intent-basierte Transaktionsausführung ein. Nutzer können sagen: "Maximiere meine Rendite über Aave, Compound und Morpho", und ihr Agent wird die Strategie autonom umsetzen.

Dieser Wechsel von der expliziten Transaktionssignierung hin zu deklarativen Intents (Absichten) stellt eine grundlegende Änderung der Interaktionsmuster auf der Blockchain dar. Transaction Intent bezieht sich auf eine deklarative High-Level-Darstellung des gewünschten Ergebnisses eines Nutzers (das "Was"), die in eine oder mehrere konkrete, Chain-spezifische Transaktionen (das "Wie") kompiliert wird.

Die KI-Agenten-Schicht übernimmt mehrere kritische Funktionen: Verständnis natürlicher Sprache zur Analyse des Nutzer-Intents, Kontextpflege für die Kontinuität von Gesprächen, Planung und Argumentation zur Zerlegung komplexer Aufgaben in ausführbare Schritte, Sicherheitsvalidierung zur Vermeidung schädlicher oder unbeabsichtigter Aktionen sowie Tool-Orchestrierung zur Koordinierung der Interaktionen mit externen Systemen.

KI-Agenten analysieren Anweisungen in natürlicher Sprache wie "Tausche 1 ETH gegen USDC auf Uniswap" und transformieren diese in strukturierte Operationen, die mit Smart Contracts interagieren. Durch die Integration von Agenten in Intent-zentrierte Systeme stellen wir sicher, dass Nutzer die volle Kontrolle über ihre Daten und Assets behalten, während generalisierte Intents es Agenten ermöglichen, jede Nutzeranfrage zu lösen, einschließlich komplizierter mehrstufiger Operationen und Cross-Chain-Transaktionen.

Praxisanwendungen bereits im Einsatz

Die durch diese Infrastrukturfortschritte ermöglichten Anwendungen generieren bereits messbare wirtschaftliche Aktivitäten.

Autonome DeFi-Anwendungen erlauben es Agenten, Renditen über Protokolle hinweg zu überwachen, Trades auf Base auszuführen und Liquiditätspositionen rund um die Uhr zu verwalten. Agenten können automatisch umschichten, wenn sie bessere Renditechancen erkennen, ohne dass eine Genehmigung erforderlich ist. Mit programmierbaren Schutzmaßnahmen überwachen KI-Agenten DeFi-Renditen, gleichen Portfolios automatisch aus, bezahlen für APIs oder Rechenressourcen und nehmen an digitalen Ökonomien teil, ohne dass eine direkte menschliche Bestätigung erforderlich ist.

Dies stellt eine bedeutende Verschiebung hin zu KI-Agenten dar, die zu aktiven Finanzteilnehmern in Blockchain-Ökosystemen werden, anstatt nur beratende Werkzeuge zu sein.

Die Infrastrukturlücke: Zukünftige Herausforderungen

Trotz rasanter Fortschritte bleiben erhebliche Infrastrukturlücken zwischen KI-Fähigkeiten und den Anforderungen an Blockchain-Tooling bestehen.

Skalierbarkeits- und Performance-Engpässe

KI-Workloads sind rechenintensiv, während Blockchain-Netzwerke oft in ihrem Durchsatz begrenzt sind. Die Integration von KI-Agenten in die Blockchain stößt auf erhebliche Skalierbarkeits- und Performance-Einschränkungen, wobei der Rechenaufwand von Konsensmechanismen und die Latenz der Transaktionsvalidierung den Echtzeitbetrieb beeinträchtigen.

KI-Entscheidungen erfordern schnelle Reaktionen, aber öffentliche Blockchains können Verzögerungen verursachen, und On-Chain-Berechnungen können teuer sein. Dieses Spannungsverhältnis hat zu Hybridarchitekturen geführt, bei denen komplexe Berechnungen Off-Chain stattfinden, während Verifizierung und Settlement On-Chain erfolgen. Einzigartige „Off-Chain Service“-Architekturen ermöglichen es Agenten, schwere Machine-Learning-Modelle Off-Chain auszuführen, die Ergebnisse jedoch On-Chain zu verifizieren.

Tooling- und Schnittstellenstandards

Die Forschung hat erhebliche Lücken identifiziert und diese in einer Forschungs-Roadmap für 2026 organisiert, wobei fehlende Schnittstellenebenen, verifizierbare Richtliniendurchsetzung und reproduzierbare Evaluierungspraktiken priorisiert werden. Eine Forschungs-Roadmap konzentriert sich auf zwei Schnittstellenabstraktionen: ein Transaction Intent Schema für portable Zielspezifikationen und einen Policy Decision Record für eine prüfbare Richtliniendurchsetzung.

Datenschutz- und Sicherheitsherausforderungen

Eine zentrale Herausforderung besteht darin, Transparenz mit Datenschutz in Einklang zu bringen. Die Entwicklung fortschrittlicher Mechanismen zur Wahrung der Privatsphäre, die für Interaktionen in natürlicher Sprache geeignet sind, ist unerlässlich, ebenso wie die Etablierung sicherer On-Chain- und Off-Chain-Datentransferprotokolle.

Ethereum hat EIP-7702 implementiert, um Sicherheitsbedenken auszuräumen, wodurch ein Standard-Konto für eine einzelne Transaktion als Smart Contract fungieren kann, bei der ein menschlicher Benutzer einem KI-Agenten eine vorübergehende, stark eingeschränkte Erlaubnis erteilt.

Zahlungsinfrastruktur in großem Maßstab

KI-Agenten benötigen eine Zahlungsinfrastruktur, die herkömmliche Zahlungsabwickler nicht bieten können. Wenn eine einzelne Agenten-Konversation Hunderte von Mikro-Aktivitäten mit Kosten im Sub-Cent-Bereich auslöst, werden Legacy-Systeme wirtschaftlich unrentabel.

Der Blockchain-Durchsatz hat sich innerhalb von fünf Jahren bereits verhundertfacht, von 25 Transaktionen pro Sekunde auf 3.400 TPS bis Ende 2025. Die Transaktionskosten auf Ethereum L2s fielen von 24 $ auf unter einen Cent, was Hochfrequenztransaktionen machbar macht – ein entscheidender Faktor für Mikrozahlungen von KI-Agenten und autonome Transaktionen.

Das Stablecoin-Transaktionsvolumen erreichte [jährlich 46 Billionen ](https://nevermined.ai/blog/cryptosettlementsagenticeconomystatistics),waseinemAnstiegvon106](https://nevermined.ai/blog/crypto-settlements-agentic-economy-statistics), was einem Anstieg von 106 % gegenüber dem Vorjahr entspricht, während das bereinigte Transaktionsvolumen (ohne automatisierten Handel) 9 Billionen erreichte, was einem Wachstum von 87 % gegenüber dem Vorjahr entspricht.

Das wirtschaftliche Ausmaß des Wandels

Das Ausmaß dieser Transformation ist atemberaubend, wenn man zukunftsgerichtete Prognosen betrachtet.

Gartner schätzt, dass KI-„Machine Customers“ bis 2030 jährliche Einkäufe im Wert von bis zu 30 Billionen beeinflussenoderkontrollierenko¨nnten](https://nevermined.ai/blog/cryptosettlementsagenticeconomystatistics),wa¨hrendMcKinseyStudiendaraufhindeuten,dassder[agentenbasierteHandel(AgenticCommerce)bis2030weltweit3bis5Billionenbeeinflussen oder kontrollieren könnten](https://nevermined.ai/blog/crypto-settlements-agentic-economy-statistics), während McKinsey-Studien darauf hindeuten, dass der [agentenbasierte Handel (Agentic Commerce) bis 2030 weltweit 3 bis 5 Billionen generieren könnte.

Bei der Betrachtung spezifischer Blockchain-Anwendungsfälle zeigt das Verbraucherverhalten erhebliche Unterschiede. 70 % der Verbraucher sind bereit, KI-Agenten Flüge unabhängig buchen zu lassen und 65 % vertrauen ihnen bei der Hotelauswahl. Darüber hinaus erwarten 81 % der US-Verbraucher, agentenbasierte KI für Einkäufe zu nutzen, was mehr als die Hälfte aller Online-Käufe prägen wird.

Die aktuelle Realität ist jedoch vorsichtiger. Nur 24 % der Verbraucher vertrauen der KI, routinemäßige Einkäufe in ihrem Namen zu tätigen, was darauf hindeutet, dass eher die B2B-Adoption als verbraucherorientierte Anwendungen das frühe Transaktionsvolumen antreiben wird.

Die Entwicklung im Unternehmensbereich stützt diese Einschätzung. Es wird prognostiziert, dass bis Ende 2026 60 % der Krypto-Wallets agentenbasierte KI nutzen werden, um Portfolios zu verwalten, Transaktionen zu verfolgen und die Sicherheit zu verbessern.

Warum Blockchain das perfekte Backend für KI-Agenten ist

Die Konvergenz von KI und Blockchain ist kein Zufall – sie ist architektonisch notwendig für autonome Agenten-Ökonomien.

Blockchain bietet drei kritische Fähigkeiten, die KI-Agenten benötigen:

  1. Vertrauenslose Koordination: Fortschritte bei großen Sprachmodellen haben agentenbasierte KI-Systeme ermöglicht, die logisch denken, planen und mit externen Tools interagieren können, um mehrstufige Workflows auszuführen, während sich öffentliche Blockchains zu einem programmierbaren Substrat für Werttransfer, Zugriffskontrolle und verifizierbare Statusübergänge entwickelt haben. Wenn Agenten verschiedener Anbieter Transaktionen durchführen müssen, bietet die Blockchain eine neutrale Settlement-Infrastruktur.

  2. Verifizierbarer Status: KI-Agenten müssen den Status von Vermögenswerten, Berechtigungen und Verpflichtungen verifizieren, ohne zentralen Vermittlern vertrauen zu müssen. Die Transparenz der Blockchain ermöglicht diese Verifizierung in großem Maßstab.

  3. Programmierbares Geld: Autonome Agenten benötigen programmierbare Zahlungswege, die bedingte Logik, Zeitsperren und Multi-Party-Settlements ausführen können – genau das, was Smart Contracts bieten.

Diese Architektur erklärt, warum Polosukhin KI als Frontend und Blockchain als Backend einordnet. Benutzer interagieren mit intelligenten Schnittstellen, die natürliche Sprache und Benutzerziele verstehen, während die Blockchain die Koordinations-, Abrechnungs- und Verifizierungsebene unsichtbar übernimmt.

Die existenziellen Fragen für 2026 und darüber hinaus

Der rasche Fortschritt der Infrastruktur für KI-Agenten wirft tiefgreifende Fragen über die zukünftige Richtung dieser Konvergenz auf.

Bis Ende 2026 werden wir wissen, ob Krypto-KI mit der Mainstream-KI konvergiert als wesentlicher Bestandteil der technischen Infrastruktur oder ob sie als paralleles Ökosystem divergiert. Dies wird entscheiden, ob autonome Agenten-Ökonomien zu einem Billionen-Dollar-Markt werden oder ein ehrgeiziges Experiment bleiben.

Kapitalbeschränkungen, Skalierbarkeitslücken und regulatorische Unsicherheit drohen Krypto-KI auf Nischenanwendungen zu degradieren. Die Herausforderung besteht darin, ob die Blockchain-Infrastruktur schnell genug skalieren kann, um mit dem exponentiellen Wachstum der KI-Fähigkeiten Schritt zu halten.

Regulatorische Rahmenbedingungen bleiben undefiniert. Wie werden Regierungen autonome Agenten mit finanzieller Autonomie behandeln? Welche Haftungsstrukturen gelten, wenn ein KI-Agent eine schädliche Transaktion tätigt? Diese Fragen haben im März 2026 noch keine klaren Antworten.

Bauen für die Agenten-Ökonomie

Für Entwickler und Infrastrukturanbieter sind die Auswirkungen klar: Die nächste Generation der Blockchain-Infrastruktur muss primär für autonome Agenten und erst sekundär für Menschen konzipiert werden.

Das bedeutet:

  • Intent-basierte Schnittstellen, die natürliche Sprache oder übergeordnete Ziele anstelle von expliziten Transaktionsparametern akzeptieren
  • Hybride Architekturen, die On-Chain-Verifizierung mit Off-Chain-Berechnung in Einklang bringen
  • Privatsphäre-schützende Mechanismen, die es Agenten ermöglichen, Transaktionen durchzuführen, ohne sensible Geschäftslogik preiszugeben
  • Interoperabilitätsstandards, die es Agenten ermöglichen, nahtlos über Ketten und Protokolle hinweg zu koordinieren

Die 282 Krypto × KI-Projekte, die im Jahr 2025 mit 4,3 Milliarden US-Dollar an Bewertungen finanziert wurden, stellen frühe Wetten auf diese Infrastrukturschicht dar. Die Überlebenden werden diejenigen sein, die die praktischen Herausforderungen von Skalierbarkeit, Datenschutz und Interoperabilität lösen.

Für Entwickler, die KI-Agenten-Anwendungen erstellen, die eine zuverlässige, leistungsstarke Blockchain-Infrastruktur erfordern, bietet BlockEden.xyz API-Zugang auf Unternehmensebene für NEAR, Ethereum, Solana und über 10 weitere Chains – und ermöglicht so die Multi-Chain-Koordination, die autonome Agenten verlangen.

Fazit: Die unsichtbare Zukunft

Polosukhins Vorhersage, dass „Blockchain das Backend sein wird“, deutet auf eine Zukunft hin, in der die Blockchain-Technologie so allgegenwärtig wird, dass sie aus dem Bewusstsein verschwindet – ähnlich wie TCP/IP-Protokolle das Internet stützen, ohne dass Benutzer über das Paket-Routing nachdenken.

Dies ist die ultimative Erfolgsmetrik für Blockchain: nicht Massenadoption durch direkte Benutzeroberflächen, sondern Unsichtbarkeit als Koordinationsebene für autonome KI-Systeme.

Die Infrastruktur, die im Jahr 2026 gebaut wird, ist nicht für die heutigen Krypto-Nutzer gedacht, die Transaktionen manuell signieren und Gas-Preise überwachen. Sie ist für die KI-Agenten von morgen, die täglich Milliarden von Transaktionen ausführen und wirtschaftliche Aktivitäten über Ketten, Protokolle und Rechtsordnungen hinweg ohne menschliches Eingreifen koordinieren werden.

Die Frage ist nicht, ob KI-Agenten zu primären Blockchain-Nutzern werden. In spezifischen vertikalen Bereichen wie Prognosemärkten und DeFi-Ertragsoptimierung sind sie es bereits. Die Frage ist, wie schnell die Infrastruktur skalieren kann, um die nächsten drei Größenordnungen des Wachstums zu unterstützen.

Da Unternehmensanwendungen KI-Agenten mit exponentieller Geschwindigkeit einbetten und der Blockchain-Durchsatz seinen 100-fachen Wachstumskurs fortsetzt, markiert 2026 den Wendepunkt, an dem die Agenten-Ökonomie vom Experiment zur Infrastruktur übergeht.

Polosukhins Vision wird Realität: KI im Frontend, Blockchain im Backend und Menschen, die die Vorteile genießen, ohne die darunter liegende Komplexität zu sehen.

Quellen

DEX-Perpetuals erreichen 10,2 % Marktanteil: Einblick in den 800 % Volumen-Anstieg, der Krypto-Derivate neu gestaltet

· 7 Min. Lesezeit
Dora Noda
Software Engineer

Als die Silberpreise im Januar 2026 während geopolitischer Unruhen über 120 proUnzestiegen,geschahetwasBemerkenswertes:U¨ber1,25Milliardenpro Unze stiegen, geschah etwas Bemerkenswertes: Über 1,25 Milliarden an Silber-Perpetual-Futures wurden an einem einzigen Tag auf Hyperliquid gehandelt – nicht an der CME, nicht auf Binance, sondern an einer dezentralen Börse, die vor drei Jahren noch gar nicht existierte. Dies war keine Anomalie. Es war ein Signal dafür, dass der 80-Billionen-Dollar-Derivatemarkt eine strukturelle Transformation durchläuft.

OKX OnchainOS AI Toolkit: Wenn Börsen zu Betriebssystemen für Agenten werden

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 3. März 2026, während die meisten Börsen noch damit beschäftigt waren, Chatbots in den Kundensupport zu integrieren, führte OKX etwas grundlegend anderes ein: ein komplettes Betriebssystem für autonome KI-Agenten. Das OnchainOS AI Toolkit dient nicht dazu, den Handel für Menschen schneller zu machen – es geht darum, ihn für Maschinen erst zu ermöglichen.

Mit einer Infrastruktur, die bereits täglich 1,2 Milliarden API-Anfragen und ein Handelsvolumen von 300 Millionen US-Dollar verarbeitet, hat sich OKX soeben von einer Börse in das verwandelt, was die wohl ehrgeizigste Wette auf die Agenten-Ökonomie sein könnte. Die Frage ist nicht, ob KI-Agenten Kryptowährungen autonom handeln werden. Die Frage ist, welche Infrastruktur dominieren wird, wenn sie es tun.

Die Agent-First-Börsenarchitektur

Traditionelle Krypto-Börsen sind für menschliche Entscheidungsfindung optimiert: Charts, Orderbücher, Schaltflächen. OnchainOS von OKX kehrt dies komplett um. Anstatt dass Menschen durch Schnittstellen klicken, erteilen KI-Agenten Befehle in natürlicher Sprache, die gleichzeitig über mehr als 60 Blockchains und 500 DEXs ausgeführt werden.

Dieser architektonische Wandel spiegelt eine umfassendere Transformation der Branche wider. Coinbase kündigte am 11. Februar 2026 Agentic Wallets mit dem x402-Protokoll für autonome Ausgaben an. Binances CZ versprach ein „Gehirn auf Binance-Niveau“ für KI-Agenten. Sogar Bitget rüstet Non-Custodial Wallets mit autonomer Entscheidungsfindung nach.

Doch der Ansatz von OKX ist deutlich infrastrukturorientiert. Anstatt Agenten-Persönlichkeiten oder Handelsstrategien zu entwickeln, haben sie die Betriebssystemschicht geschaffen – eine Vereinheitlichung von Wallet-Funktionalität, Liquiditäts-Routing und Marktdaten in einem einzigen Framework, auf das jedes KI-Modell zugreifen kann.

Drei Wege zur Agenten-Integration

OnchainOS bietet Entwicklern drei Integrationsmethoden, die auf unterschiedliche Anwendungsfälle abzielen:

AI Skills bieten Schnittstellen für natürliche Sprache, über die Agenten sagen können: „Tausche 100 USDC gegen ETH auf der besten verfügbaren DEX“, ohne wissen zu müssen, wie das Routing funktioniert. Für Entwickler, die Konversations-Agenten oder kundenorientierte Bots erstellen, entfällt dadurch die API-Komplexität vollständig.

Model Context Protocol (MCP) Integration bedeutet, dass OnchainOS direkt in LLM-Frameworks wie Claude, Cursor und OpenClaw eingebunden wird. Ein KI-Coding-Assistent kann nun autonom mit dem Blockchain-Status interagieren, Trades ausführen und On-Chain-Daten verifizieren – als Teil seiner normalen Logikschleife, ohne dass eine benutzerdefinierte Integration erforderlich ist.

REST-APIs bieten skriptbasierte Kontrolle für traditionelle Entwickler, die programmatische Strategien erstellen. Obwohl dies weniger innovativ ist als Befehle in natürlicher Sprache, gewährleistet es die Abwärtskompatibilität mit bestehender Handelsinfrastruktur und ermöglicht eine schrittweise Migration zu agentenbasierten Systemen.

Die praktische Auswirkung: Egal, ob Sie einen vollständig autonomen Handelsbot erstellen, einen bestehenden KI-Assistenten um Krypto-Funktionen erweitern oder einfach nur API-Zugriff mit intelligentem Routing wünschen – OnchainOS bietet die passende Abstraktionsebene.

Die Ökonomie der Agenten-Infrastruktur

Die Zahlen verdeutlichen einen produktiven Einsatz im großen Stil, kein Pilotprogramm. Die Verarbeitung von 1,2 Milliarden API-Anfragen täglich mit Antwortzeiten von unter 100 ms und einer Verfügbarkeit von 99,9 % erfordert eine Infrastruktur, die die meisten Börsen nicht über Nacht replizieren könnten.

Die Liquiditätsaggregation von OKX über mehr als 500 DEXs hinweg schafft wirtschaftliche Vorteile für Agenten, mit denen Menschen manuell nicht mithalten können. Wenn ein Agent einen großen Swap ausführen muss, führt das System automatisch folgende Schritte aus:

  1. Abfrage von Echtzeitpreisen in Hunderten von Liquiditätspools
  2. Berechnung des optimalen Routings zur Minimierung des Slippage
  3. Aufteilung von Aufträgen auf mehrere DEXs, falls erforderlich
  4. Parallele Ausführung von Transaktionen über verschiedene Chains hinweg
  5. Verifizierung der Abwicklung und Aktualisierung des Agenten-Status

All dies geschieht in Millisekunden. Für menschliche Trader erfordert diese Art der DEX-übergreifenden Optimierung das gleichzeitige Bedienen mehrerer Schnittstellen, den manuellen Vergleich von Kursen und die Akzeptanz, dass sich die Preise bereits geändert haben, bis man fünf Optionen geprüft hat.

Das tägliche Handelsvolumen von 300 Millionen US-Dollar, das über OnchainOS abgewickelt wird, deutet auf eine signifikante frühe Akzeptanz hin. Vielsagender ist jedoch, dass dieses Volumen über eine Infrastruktur läuft, die mehr als 12 Millionen monatliche Wallet-Nutzer unterstützt – was bedeutet, dass die Agenten-Schicht auf praxiserprobten Systemen aufbaut, die echtes Nutzerkapital verwalten.

Einheitliche Wallet-Infrastruktur vs. spezialisierte Agenten-Wallets

Die Agentic Wallets von Coinbase verfolgen einen zweckgebundenen Ansatz: Wallets, die speziell für autonome Ausgaben mit integrierten Sicherheitsmechanismen entwickelt wurden. OKX ging den umgekehrten Weg: Die Integration von Agenten-Funktionen in die bestehende Wallet-Infrastruktur, die bereits über 60 Chains unterstützt.

Die Kompromisse sind architektonischer Natur. Speziell entwickelte Agenten-Wallets können von Anfang an für den autonomen Betrieb optimiert werden – mit integrierten Ausgabelimits, Risikoparametern und Wiederherstellungsmechanismen, die für Maschinen entwickelt wurden, die Entscheidungen ohne menschliche Aufsicht treffen. Eine vereinheitlichte Infrastruktur übernimmt zwar die Komplexität durch die Unterstützung verschiedener Chains und Anwendungsfälle, bietet aber eine größere Reichweite und praxiserprobte Sicherheit.

Die Wette von OKX ist, dass Agenten Zugriff auf das gesamte Krypto-Ökosystem benötigen und nicht auf eine Sandbox-Umgebung beschränkt sein wollen. Wenn ein autonomer Agent die Schatzkammer einer DAO verwaltet, chainübergreifende Arbitrage betreibt oder ein Portfolio dynamisch umschichtet, benötigt er nativen Zugang zu allen Orten, an denen Liquidität vorhanden ist – und nicht ein spezialisiertes Wallet, das nur auf drei Chains funktioniert.

Der Markt hat noch nicht entschieden, welcher Ansatz sich durchsetzen wird. Klar ist, dass sowohl OKX als auch Coinbase denselben Wandel erkennen: Autonome Agenten benötigen eine Infrastruktur, die für sie entwickelt wurde, und keine nachgerüsteten Tools für Menschen.

On-Chain-Datenfeeds: Die Informationsschicht für Agenten

Handelsentscheidungen erfordern Daten. Für KI-Agenten bietet OnchainOS Echtzeit-Feeds, die Token, Transfers, Trades und Kontostände über alle unterstützten Netzwerke hinweg abdecken.

Dies löst ein Problem, das jeder kennt, der Multi-Chain-Anwendungen entwickelt: Das Abfragen des Blockchain-Status von Dutzenden von Netzwerken ist langsam, erfordert eine eigene Infrastruktur für jede Chain und führt zu Fehlerquellen, wenn Nodes ausfallen oder hinterherhinken.

OnchainOS abstrahiert dies vollständig. Ein Agent fragt „erhalte alle aktuellen Trades für Token X über die Netzwerke Y und Z“ ab und erhält normalisierte Echtzeitdaten, ohne wissen zu müssen, welche RPC-Endpunkte aufgerufen werden sollen oder wie verschiedene Chains Transaktionsprotokolle strukturieren.

Der Wettbewerbsvorteil liegt nicht nur in der Bequemlichkeit. Agenten, die Handelsentscheidungen im Subsekundenbereich treffen, benötigen eine Datenlatenz, die in Millisekunden gemessen wird. Das Betreiben eigener Nodes für 60 Blockchains, um eine ähnliche Leistung zu erzielen, erfordert Infrastrukturinvestitionen, die die meisten Entwickler nicht rechtfertigen können. Cloud-RPC-Anbieter verursachen Latenzen und Kosten, welche die Wirtschaftlichkeit von Hochfrequenz-Agentenstrategien zunichtemachen.

Durch die Vereinheitlichung von Datenfeeds als Teil der Plattform verwandelt OKX Infrastrukturkosten in eine verteilte, gemeinsame Ressource – und macht anspruchsvolle Agentenstrategien für unabhängige Entwickler zugänglich, nicht nur für finanzstarke Unternehmen.

Das x402-Protokoll und Zero-Gas-Ausführung

Autonome Zahlungen laufen über das x402 Pay-per-Use-Protokoll, das ein grundlegendes Problem der Agentenökonomie adressiert: Wie bezahlen sich Maschinen gegenseitig ohne manuelles Eingreifen?

Wenn ein KI-Agent auf eine kostenpflichtige API zugreifen, Daten kaufen oder einen anderen Agenten für Dienstleistungen entschädigen muss, ermöglicht x402 eine automatische Abwicklung. In Kombination mit Zero-Gas-Transaktionen auf dem X Layer von OKX können Agenten Mikrozahlungen wirtschaftlich durchführen – etwas, das unmöglich ist, wenn jede Zahlung mehr an Gas kostet als die Dienstleistung selbst.

Dies wird umso wichtiger, je mehr Interaktionen zwischen Agenten zunehmen. Eine einzige komplexe Agentenaufgabe könnte Folgendes umfassen:

  • Abfrage von Marktdaten bei einem spezialisierten Analyse-Agenten
  • Aufruf eines Stimmungsanalyse-API-Agenten
  • Kauf von On-Chain-Positionsdaten
  • Ausführung von Trades über einen Routing-Agenten
  • Verifizierung der Ergebnisse durch einen Orakel-Agenten

Wenn jeder Schritt eine manuelle Genehmigung oder Gaskosten erfordert, die den übertragenen Wert übersteigen, wird die Agentenökonomie niemals über den menschlich überwachten Betrieb hinaus skalieren. x402 und die Zero-Gas-Ausführung beseitigen diese Reibungspunkte.

Marktkontext: Die 50-Milliarden-Dollar-Agentenökonomie

OnchainOS erscheint in einer Zeit, in der sich die KI-Krypto-Konvergenz beschleunigt. Es wird prognostiziert, dass der Blockchain-KI-Markt von 6 Milliarden US-Dollar im Jahr 2024 auf 50 Milliarden US-Dollar bis 2030 wachsen wird. Unmittelbarer noch: 282 Krypto-KI-Projekte sicherten sich im Jahr 2025 Risikokapital, wobei 2026 eine starke Dynamik zeigt.

Virtuals Protocol berichtet von 23.514 aktiven Wallets, die zum Februar 2026 ein KI-generiertes BIP (aGDP) von 479 Millionen US-Dollar erwirtschaften. Dies sind keine theoretischen Kennzahlen – sie repräsentieren Agenten, die aktiv Werte verwalten, Trades ausführen und an On-Chain-Ökonomien teilnehmen.

Die Transaktionsinfrastruktur hat sich grundlegend verbessert. Der Blockchain-Durchsatz stieg in fünf Jahren um das 100-fache, von 25 TPS auf 3.400 TPS. Die Transaktionskosten für Ethereum L2 sanken von 24 US-Dollar auf unter einen Cent. Hochfrequenz-Agentenstrategien, die 2023 wirtschaftlich unmöglich waren, gehören heute zur Routine.

Stablecoins verarbeiteten im vergangenen Jahr ein Volumen von 46 Billionen US-Dollar (bereinigt 9 Billionen US-Dollar), wobei Prognosen zeigen, dass KI-„Maschinenkunden“ bis 2030 bis zu 30 Billionen US-Dollar an jährlichen Einkäufen kontrollieren könnten. Wenn Maschinen zu primären Transaktionsteilnehmern werden, benötigen sie eine Infrastruktur, die für den autonomen Betrieb optimiert ist.

Signale für die Entwicklerakzeptanz

OnchainOS startete mit einer umfassenden Dokumentation und Starter-Leitfäden, die sich an Entwickler richten, die ihre ersten KI-Agenten bereitstellen. Die Integration des Model Context Protocols ist besonders strategisch – durch die Anbindung an Frameworks, die Entwickler bereits nutzen (Claude, Cursor), beseitigt OKX die Hürde, eine neue Plattform erlernen zu müssen.

Für Entwickler, die bereits Trading-Bots oder Automatisierungsskripte erstellen, bietet die REST-API Migrationspfade. Für KI-Forscher, die mit autonomen Agenten experimentieren, bieten Natural Language Skills den schnellsten Weg zu On-Chain-Fähigkeiten.

Was OKX nicht bereitgestellt hat: proprietäre Agenten-Persönlichkeiten, vorgefertigte Handelsstrategien oder „Klicken Sie hier für autonomen Handel“-Produkte für Endverbraucher. Dies ist Infrastruktur, keine Endbenutzeranwendung. Die Wette lautet, dass Tausende von Entwicklern, die spezialisierte Agenten bauen, mehr Wert schaffen werden, als OKX durch den Bau eines einzelnen Agenten-Handelsprodukts erreichen könnte.

Dies spiegelt erfolgreiche Plattformstrategien in anderen Märkten wider. AWS hat nicht versucht, jede Anwendung selbst zu bauen – sie stellten Rechen-, Speicher- und Netzwerkprimitive bereit, die Millionen von Entwicklern nutzten, um vielfältige Anwendungen zu erstellen. OnchainOS positioniert OKX als das AWS der Agenten-Infrastruktur.

Wettbewerbsdynamik und Marktentwicklung

Die Börsenbranche spaltet sich auf. Traditionelle Börsen optimieren für Privatanleger, die auf Schaltflächen klicken, und Institutionen, die regulierte Operationen durchführen. Agenten-fokussierte Börsen optimieren für autonome Systeme, die programmatische Strategien über fragmentierte Liquidität hinweg ausführen.

Der Ansatz von Coinbase betont zweckgebundene Agent-Wallets unter Berücksichtigung regulatorischer Compliance. OKX betont die Breite – über 60 Chains, über 500 DEXs, eine massive bestehende Nutzerbasis. Binance verspricht KI, hat aber bisher keine Infrastruktur geliefert. Kleinere Börsen fehlen die Ressourcen, um in diesem Umfang bei der Infrastruktur mitzuhalten.

Netzwerkeffekte begünstigen Early Mover. Wenn OnchainOS zum Standard für Entwickler wird, die Handelsagenten bauen, konzentriert sich die Liquidität dort, weil dort die Agenten sind. Mehr Liquidität zieht mehr Agenten an. Dies ist dieselbe Dynamik, die Ethereum trotz technischer Einschränkungen zur Standardplattform für Smart Contracts gemacht hat – die Entwickler waren bereits dort.

Aber es ist noch früh. Coinbase verfügt über regulatorische Beziehungen und institutionelles Vertrauen, die für die konforme Bereitstellung von Agenten wichtig sind. Dezentrale Protokolle könnten Agenten-Infrastruktur ohne Abhängigkeit von einer Börse anbieten. Der Markt könnte sich nach Anwendungsfällen fragmentieren – Coinbase für institutionelle Agenten, OKX für DeFi-native Operationen, das Solana-Ökosystem für Hochfrequenzstrategien.

Was „Agent-First“ wirklich bedeutet

Der OnchainOS-Launch verdeutlicht, was eine „Agent-First“-Infrastruktur tatsächlich erfordert:

Natürliche Sprachschnittstellen, damit Entwickler ohne Spezialwissen Agenten erstellen können, ohne komplexe Blockchain-APIs erlernen zu müssen.

Einheitlicher Cross-Chain-Zugriff, da sich Agenten nicht für Chain-Tribalismus interessieren – sie optimieren die Ausführungsqualität dort, wo Liquidität vorhanden ist.

Echtzeit-Datenaggregation, die als abfragbare Feeds bereitgestellt wird, anstatt Infrastruktur-Operationen zu erfordern.

Autonome Zahlungskanäle, die es Agenten ermöglichen, wirtschaftlich miteinander zu interagieren.

Infrastruktur auf Produktionsniveau mit Millisekunden-Latenz und hoher Verfügbarkeit, da Agenten, die autonome Entscheidungen treffen, nicht auf langsame API-Antworten warten können.

Bemerkenswert ist, was fehlt: OKX hat keine KI-Modelle entwickelt, keine spezialisierten Trading-Agenten trainiert oder kundenorientierte Produkte für den „autonomen Handel“ erstellt. Sie haben die Ebene darunter aufgebaut.

Dies deutet auf das Vertrauen hin, dass die Agenten-Ökonomie vielfältig sein wird – viele spezialisierte Agenten, die von verschiedenen Entwicklern für unterschiedliche Strategien entwickelt werden, und nicht nur einige wenige dominante Trading-Bots. Wenn man an diese Zukunft glaubt, ist die Infrastruktur-Positionierung strategisch sinnvoll.

Offene Fragen und Risikofaktoren

Mehrere Unsicherheiten bleiben bestehen. Die regulatorische Behandlung autonomer Handelssysteme ist ungeklärt. Wenn ein Agent Trades ausführt, die gegen Regeln zur Marktmanipulation verstoßen, wer ist haftbar – der Entwickler, die Börse oder der Modellanbieter?

Sicherheitsrisiken skalieren anders. Ein Fehler in für Menschen konzipierten Trading-Schnittstellen betrifft Nutzer, die auf kompromittierte Schaltflächen klicken. Ein Fehler in Agenten-APIs könnte kaskadierende autonome Ausfälle bei Tausenden von Agenten gleichzeitig auslösen.

Zentralisierungsbedenken bleiben bestehen. OnchainOS ist eine von OKX kontrollierte Infrastruktur. Wenn Agenten für kritische Funktionen von dieser Plattform abhängig sind, gewinnt OKX einen enormen Einfluss auf die Agenten-Ökonomie – genau die Abhängigkeit, die Krypto eigentlich eliminieren sollte.

Technische Risiken beinhalten die Unvorhersehbarkeit von Agenten. LLMs treffen probabilistische Entscheidungen. Ein für Yield Farming optimierter Agent könnte durch eine unerwartete Prompt-Interpretation Strategien ausführen, die sein Betreiber nie beabsichtigt hat. Wenn dieser Agent signifikantes Kapital kontrolliert, wird Unvorhersehbarkeit zu einem systemischen Risiko.

Die Marktakzeptanz ist über frühe Metriken hinaus unbewiesen. 1,2 Milliarden API-Aufrufe klingen beeindruckend, könnten aber eine kleine Anzahl von Hochfrequenz-Bots anstelle einer breiten Entwicklerakzeptanz repräsentieren. Ein tägliches Volumen von 300 Millionen US-Dollar ist bedeutend, aber winzig im Vergleich zu den Gesamtsummen zentralisierter Börsen.

Die Infrastruktur-These

OnchainOS von OKX repräsentiert eine spezifische These über die Entwicklung von Krypto: dass autonome Agenten zu den Hauptnutzern der Blockchain-Infrastruktur werden und Börsen, die optimale Agenten-Tools bereitstellen, überproportionalen Wert erfassen werden.

Diese These ist entweder visionär oder verfrüht. Wenn Agenten tatsächlich zu dominanten Blockchain-Nutzern werden, positioniert der Aufbau dieser Infrastruktur Anfang 2026 OKX als Plattform der Wahl, bevor Wettbewerbsdynamiken greifen. Wenn die Akzeptanz stagniert oder andere Formen annimmt, fließen erhebliche Entwicklungsressourcen in die Unterstützung eines Marktes, der sich nie in großem Maßstab materialisiert.

Klar ist, dass OKX nicht abwartet, um es herauszufinden. Indem sie eine Produktionsinfrastruktur bereitstellen, die Milliarden von API-Aufrufen und Hunderte von Millionen an Handelsvolumen verarbeitet, präsentieren sie keine Vision – sie stellen eine Plattform bereit und lernen aus der realen Nutzung.

Die Börsen, die 2028 als Gewinner hervorgehen, werden wahrscheinlich nicht diejenigen mit den besten Handelsschnittstellen für Menschen sein. Es werden diejenigen sein, bei denen autonome Agenten die Infrastruktur gefunden haben, die Maschine-zu-Maschine-Krypto-Ökonomien tatsächlich zum Laufen gebracht hat.

OnchainOS ist die Wette von OKX, dass Infrastruktur am Ende gewinnt. Die nächsten 12 bis 24 Monate werden zeigen, ob die Agenten-Ökonomie schnell genug wächst, um diese Überzeugung zu rechtfertigen.


Quellen

OpenClaw: Revolutionierung von KI-Agent-Frameworks durch Blockchain-Integration

· 12 Min. Lesezeit
Dora Noda
Software Engineer

In nur 60 Tagen hat sich ein Open-Source-Projekt von einem Wochenendexperiment zum meistgestarteten Repository auf GitHub entwickelt und damit die jahrzehntelange Dominanz von React übertroffen. OpenClaw, ein Framework für KI-Agenten, das lokal läuft und sich nahtlos in die Blockchain-Infrastruktur integriert, hat 250.000 GitHub-Sterne erreicht und gleichzeitig die Erwartungen daran neu definiert, was autonome KI-Assistenten in der Web3-Ära leisten können.

Doch hinter dem viralen Wachstum verbirgt sich eine noch fesselndere Geschichte: OpenClaw steht für einen grundlegenden Wandel in der Art und Weise, wie Entwickler die Infrastrukturschicht für autonome Agenten in dezentralen Ökosystemen aufbauen. Was als Wochenend-Hack eines einzelnen Entwicklers begann, hat sich zu einer community-gesteuerten Plattform entwickelt, auf der Blockchain-Integration, Local-First-Architektur und KI-Autonomie zusammenlaufen, um Probleme zu lösen, die herkömmliche zentralisierte KI-Assistenten nicht bewältigen können.

Vom Wochenendprojekt zum Infrastrukturstandard

Peter Steinberger veröffentlichte die erste Version von Clawdbot im November 2025 als Wochenend-Hack. Innerhalb von drei Monaten wurde aus dem persönlichen Experiment das am schnellsten wachsende Repository in der Geschichte von GitHub, das in den ersten 14 Tagen 190.000 Sterne sammelte.

Das Projekt wurde am 27. Januar 2026 nach Markenbeschwerden von Anthropic in „Moltbot“ umbenannt und drei Tage später erneut in „OpenClaw“.

Bis Ende Januar war das Projekt viral gegangen, und bis Mitte Februar war Steinberger OpenAI beigetreten, während die Codebasis von Clawdbot in eine unabhängige Stiftung überführt wurde. Dieser Übergang vom Projekt eines einzelnen Entwicklers zu einer von der Community verwalteten Infrastruktur spiegelt die Evolutionsmuster erfolgreicher Blockchain-Protokolle wider – von zentralisierter Innovation hin zu dezentraler Wartung.

Die Zahlen erzählen einen Teil der Geschichte: OpenClaw erreichte innerhalb einer Woche nach seiner Veröffentlichung Ende Januar 2026 100.000 GitHub-Sterne und ist damit eines der am schnellsten wachsenden Open-Source-KI-Projekte der Geschichte. Nach dem Start versammelten sich innerhalb weniger Tage über 36.000 Agenten.

Bemerkenswert an diesem Wachstum ist jedoch nicht nur die Geschwindigkeit, sondern auch die architektonischen Entscheidungen, die es einer Community ermöglichten, eine völlig neue Kategorie von Blockchain-integrierter KI-Infrastruktur aufzubauen.

Die Architektur, die die Blockchain-Integration ermöglicht

Während die meisten KI-Assistenten auf Cloud-Infrastruktur und zentralisierte Steuerung setzen, wurde die Architektur von OpenClaw für ein grundlegend anderes Paradigma entworfen. Im Kern folgt OpenClaw einem modularen Plugin-First-Design, bei dem selbst Modellanbieter externe Pakete sind, die dynamisch geladen werden, wodurch der Kern nach dem Refactoring 2026 mit etwa 8 MB extrem leichtgewichtig bleibt.

Dieses modulare Konzept besteht aus fünf Hauptkomponenten:

Die Gateway-Schicht: Ein langlebiger WebSocket-Server (Standard: localhost:18789), der Eingaben von jedem Kanal akzeptiert und so die Headless-Architektur ermöglicht, die über bestehende Schnittstellen eine Verbindung zu WhatsApp, Telegram, Discord und anderen Plattformen herstellt.

Local-First-Speicher: Im Gegensatz zu herkömmlichen LLM-Tools, die den Speicher in Vektorräumen abstrahieren, verlagert OpenClaw das Langzeitgedächtnis zurück in das lokale Dateisystem. Das Gedächtnis eines Agenten ist nicht in abstrakten Darstellungen verborgen, sondern wird als klar sichtbare Markdown-Dateien gespeichert: Zusammenfassungen, Protokolle und Benutzerprofile liegen alle als strukturierter Text auf der Festplatte vor.

Das Skills-System: Mit dem ClawHub-Registry, das über 5.700 von der Community erstellte Skills hostet, ermöglicht die Erweiterbarkeit von OpenClaw, dass Blockchain-spezifische Funktionen organisch aus der Community heraus entstehen, anstatt von einem zentralen Entwicklerteam diktiert zu werden.

Multi-Modell-Unterstützung: OpenClaw unterstützt Claude, GPT-4o, DeepSeek, Gemini und lokale Modelle über Ollama und läuft vollständig auf Ihrer Hardware mit voller Datensouveränität – eine entscheidende Funktion für Benutzer, die private Schlüssel und sensible Blockchain-Transaktionen verwalten.

Virtual Device Interface (VDI): OpenClaw erreicht Hardware- und Betriebssystemunabhängigkeit durch Adapter für Windows, Linux und macOS, die Systemaufrufe normalisieren, während Kommunikationsprotokolle über eine ProtocolAdapter-Schnittstelle standardisiert werden. Dies ermöglicht Flexibilität bei der Bereitstellung auf Bare Metal, Docker oder sogar in Serverless-Umgebungen wie Cloudflare Moltworker.

Diese Architektur schafft etwas, das einzigartig für die Blockchain-Integration geeignet ist. Wenn man die Base-Plattform betrachtet, bildet sich ein „OpenClaw × Blockchain“-Ökosystem, das sich um Infrastrukturen wie Bankr / Clanker / XMTP gruppiert und sich auf SNS, Jobmärkte, Launchpads, Trading, Spiele und mehr ausdehnt.

Community-getriebene Entwicklung in großem Maßstab

Version 2026.2.2 umfasst 169 Commits von 25 Mitwirkenden, was die aktive Beteiligung der Community verdeutlicht, die zu einem Markenzeichen von OpenClaw geworden ist.

Dies war nicht nur organisches Wachstum – strategische Community-Pflege beschleunigte die Adaption.

Die BNB Chain startete den Good Vibes Hackathon: Die OpenClaw Edition, ein zweiwöchiger Sprint mit fast 300 Projekteinreichungen von über 600 Hackern. Die Ergebnisse zeigen sowohl das Potenzial als auch die aktuellen Grenzen der Blockchain-Integration auf: Mehrere Community-Projekte – wie 4claw, lobchanai und starkbotai – experimentieren mit Agenten, die autonom Blockchain-Transaktionen initiieren und verwalten können.

Laut Nutzerbeispielen in den sozialen Medien wird OpenClaw für Aufgaben wie die Überwachung von Wallet-Aktivitäten und die Automatisierung von Airdrop-bezogenen Workflows eingesetzt. Die Community hat einige der umfassendsten On-Chain-Trading-Automatisierungen entwickelt, die in jedem Open-Source-KI-Agenten-Framework verfügbar sind, was es zu einer leistungsstarken Option für Krypto-Trader macht, die eine Steuerung ihrer Positionen in natürlicher Sprache wünschen.

Die Lücke zwischen Potenzial und Realität bleibt jedoch signifikant. Trotz der zunehmenden Verbreitung von Token und Agenten-gebrandeten Experimenten gibt es immer noch verhältnismäßig wenig tiefe, native Krypto-Interaktion, wobei die meisten Agenten komplexe DeFi-Positionen nicht aktiv verwalten oder nachhaltige On-Chain-Cashflows generieren.

Der Wendepunkt der technischen Reife im März 2026

Das OpenClaw 2026.3.1 Release markiert einen entscheidenden Übergang vom experimentellen Tool zur produktionsreifen Infrastruktur. Das Update fügte hinzu:

  • OpenAI WebSocket-Streaming für Token-Bereitstellung mit geringer Latenz, was eine Echtzeit-Inferenz-UX ermöglicht, die die wahrgenommene Antwortzeit verkürzen und die Übergabe zwischen Agenten verbessern kann
  • Adaptives Denken von Claude 4.6 für verbessertes mehrstufiges Schlussfolgern, was einen Weg zu qualitativ hochwertigeren Tool-Nutzungsketten in Enterprise-Agenten aufzeigt
  • Native Kubernetes-Unterstützung für das Deployment in der Produktion, was die Bereitschaft für Blockchain-Infrastrukturen auf Unternehmensebene signalisiert
  • Integration von Discord-Threads und Telegram-DM-Themen für strukturierte Chat-Workflows

Noch bedeutender war das Release 2026.2.19 vom Februar, das mit über 40 Sicherheits-Härtungen, Authentifizierungs-Infrastruktur und Observability-Upgrades einen Wendepunkt der Reife darstellte.

Frühere Veröffentlichungen konzentrierten sich auf die Erweiterung von Funktionen; dieses Release priorisierte die Produktionsreife.

Für Blockchain-Anwendungen ist diese Entwicklung von Bedeutung. Die Verwaltung privater Schlüssel, die Ausführung von Smart-Contract-Interaktionen und die Abwicklung von Finanztransaktionen erfordern nicht nur Leistungsfähigkeit, sondern auch Sicherheitsgarantien.

Während Sicherheitsfirmen wie Cisco und BitSight davor warnen, dass OpenClaw Risiken durch Prompt-Injection und kompromittierte Fähigkeiten birgt und den Nutzern raten, es in isolierten Umgebungen wie Docker oder virtuellen Maschinen auszuführen, schließt das Projekt rasch die Lücke zwischen experimentellem Tool und Infrastruktur auf institutionellem Niveau.

Was OpenClaw im Markt für KI-Agenten unterscheidet

Die Landschaft der KI-Agenten im Jahr 2026 ist dicht besiedelt, aber OpenClaw nimmt eine einzigartige Position im Vergleich zu Alternativen wie Claude Code ein, dem Terminal-basierten Coding-Agenten von Anthropic, der sich ausschließlich darauf konzentriert, Entwicklern beim Schreiben, Verstehen und Warten von Software zu helfen.

Claude Code arbeitet in einer Sandbox-Umgebung, in der Berechtigungen explizit und granular sind, mit dedizierter Sicherheitsinfrastruktur und regelmäßigen Audits. Es zeichnet sich durch komplexes Code-Refactoring aus und nutzt die Denkfähigkeit von Opus 4.6 in Verbindung mit Context Compaction, um die Wahrscheinlichkeit von Fehlern im Code zu minimieren.

Im Gegensatz dazu ist OpenClaw als immer aktiver, persönlicher 24/7-Assistent konzipiert, mit dem Sie über gängige Messaging-Apps kommunizieren.

Während Claude Code bei Programmieraufgaben gewinnt, dominiert OpenClaw in der täglichen Automatisierung aufgrund seiner Integration mit zahlreichen Tools und Plattformen.

Die beiden Tools ergänzen sich und stehen nicht im Wettbewerb. Claude Code verwaltet Ihre Codebasis. OpenClaw verwaltet Ihr Leben. Doch für Blockchain-Entwickler und Web3-Nutzer bietet OpenClaw etwas, das Claude Code nicht kann: die Fähigkeit, autonome KI-Entscheidungsfindung mit On-Chain-Aktionen, Wallet-Management und Interaktionen mit dezentralen Protokollen zu integrieren.

Die Herausforderung der Blockchain-Integration

Trotz rasanter technischer Fortschritte offenbart die Blockchain-Integration von OpenClaw ein fundamentales Spannungsfeld in der Konvergenz von KI und Krypto. Die technischen Standards zeichnen sich ab: ERC-8004, x402, L2 und Stablecoins eignen sich für Agenten-IDs, Berechtigungen, Anmeldeinformationen, Evaluierungen und Zahlungen.

Das Ökosystem der Base-Plattform rund um OpenClaw zeigt, was möglich ist. Infrastrukturkomponenten wie Bankr übernehmen Finanzwege, Clanker verwaltet Token-Operationen und XMTP ermöglicht dezentrales Messaging. Der Full-Stack wird gerade zusammengestellt.

Dennoch bleibt die Lücke zwischen Infrastrukturkapazität und Anwendungsrealität bestehen. Die meisten OpenClaw-Blockchain-Experimente konzentrieren sich auf Überwachung, einfache Wallet-Operationen und Airdrop-Automatisierung. Die Vision von Agenten, die autonom komplexe DeFi-Positionen verwalten, anspruchsvolle Handelsstrategien ausführen oder Multi-Protokoll-Interaktionen koordinieren, bleibt weitgehend unverwirklicht.

Dies ist kein Versagen der Architektur von OpenClaw – es spiegelt breitere Herausforderungen in der Konvergenz von KI und Blockchain wider:

Vertrauen und Verifizierung: Wie verifiziert man, dass die On-Chain-Aktionen eines KI-Agenten mit der Absicht des Nutzers übereinstimmen, wenn der Agent autonom agiert? Traditionelle Berechtigungssysteme lassen sich nicht eins zu eins auf die nuancierte Entscheidungsfindung übertragen, die für DeFi-Strategien erforderlich ist.

Wirtschaftliche Anreize: Die meisten aktuellen Integrationen sind experimentell. Agenten generieren noch keine nachhaltigen On-Chain-Cashflows, die ihre Existenz über den Neuheitswert hinaus rechtfertigen würden.

Sicherheits-Abwägungen: Die Local-First- und Always-On-Architektur, die OpenClaw für die allgemeine Automatisierung so leistungsstark macht, schafft Angriffsflächen bei der Verwaltung privater Schlüssel und der Ausführung von Finanztransaktionen.

Die Community ist sich dieser Einschränkungen bewusst. Statt voreiliger Behauptungen, die UX-Probleme von Web3 zu lösen, baut das Ökosystem methodisch die Infrastrukturschicht auf – Wallets, die in die KI-Entscheidungsfindung integriert sind, Protokolle, die für die Interaktion mit Agenten entwickelt wurden, und Sicherheits-Frameworks, die Autonomie mit Benutzerkontrolle in Einklang bringen.

Die Auswirkungen auf die Web3-Infrastruktur

Das Aufkommen von OpenClaw signalisiert mehrere wichtige Verschiebungen in der Art und Weise, wie die Web3-Infrastruktur aufgebaut wird:

Von zentralisierter KI hin zu Local-First-Agenten: Der Erfolg der Architektur von OpenClaw bestätigt die Nachfrage nach KI-Assistenten, die Ihre Daten nicht an zentralisierte Server senden – was besonders wichtig ist, wenn diese Konversationen private Schlüssel, Transaktionsstrategien und Finanzinformationen beinhalten.

Community-getrieben vs. unternehmensgesteuert: Während Unternehmen wie Anthropic und OpenAI ihre Roadmaps für KI-Assistenten kontrollieren, demonstriert OpenClaw ein alternatives Modell, bei dem 25 Mitwirkende 169 Commits liefern können und die Community darüber entscheidet, welche Funktionen wichtig sind. Dies entspricht der Governance-Entwicklung in erfolgreichen Blockchain-Protokollen.

Skills als komponierbare Primitivbausteine: Das ClawHub-Register mit über 5.700 Skills schafft einen Marktplatz für Fähigkeiten, die beliebig kombiniert werden können. Diese Komponierbarkeit spiegelt den Baustein-Ansatz von DeFi-Protokollen wider, bei dem kleinere Komponenten kombiniert werden, um komplexe Funktionalitäten zu schaffen.

Offene Standards für KI × Blockchain: Die Entstehung von ERC-8004 für die Identität von Agenten, x402 für Agenten-Zahlungen und standardisierte Wallet-Integrationen deutet darauf hin, dass die Branche auf eine gemeinsame Infrastruktur konvergiert, anstatt auf fragmentierte, proprietäre Lösungen.

Die Tatsache, dass OpenClaw keinen Token, keine Kryptowährung und keine Blockchain-Komponente hat, ist vielleicht seine größte Stärke im Blockchain-Bereich. Jeder Token, der behauptet, mit dem Projekt in Verbindung zu stehen, ist ein Betrug. Diese Klarheit verhindert, dass die Finanzialisierung die technische Entwicklung korrumpiert, und ermöglicht es der Infrastruktur, zu reifen, bevor ökonomische Anreize das Ökosystem prägen.

Der Weg nach vorne: Infrastruktur vor Anwendungen

Der März 2026 stellt einen entscheidenden Moment für OpenClaw im Blockchain-Ökosystem dar. Die technischen Grundlagen festigen sich: produktionsreife Sicherheit, Kubernetes-Deployment, Observability auf Enterprise-Niveau. Die Community-Infrastruktur wächst: 25 aktive Mitwirkende, 300 Einreichungen bei Hackathons, über 5.700 Skills.

Doch die wichtigsten Entwicklungen sind diejenigen, die noch nicht stattgefunden haben. Die Killer-Applikationen für KI-Agenten im Web3 sind keine einfachen Wallet-Monitore oder Airdrop-Farmer. Sie werden wahrscheinlich aus Anwendungsfällen hervorgehen, die wir uns noch nicht vollständig vorgestellt haben – vielleicht Agenten, die die chain-übergreifende Bereitstellung von Liquidität koordinieren, Treasury-Bestände für DAOs autonom verwalten oder komplexe MEV-Strategien über mehrere Protokolle hinweg ausführen.

Damit diese Anwendungen entstehen können, muss zuerst die Infrastrukturschicht reifen. Das Community-getriebene Entwicklungsmodell, die Local-First-Architektur und das Blockchain-native Design machen OpenClaw zu einem starken Kandidaten für die grundlegende Infrastruktur dieser nächsten Phase.

Die Frage ist nicht, ob KI-Agenten die Art und Weise verändern werden, wie wir mit Blockchain-Protokollen interagieren. Die Frage ist, ob die heute aufgebaute Infrastruktur – beispielhaft für den Ansatz von OpenClaw – robust genug sein wird, um die Komplexität zu bewältigen, sicher genug, um echten finanziellen Wert zu verwalten, und flexibel genug, um Innovationen zu ermöglichen, die wir heute noch nicht absehen können.

Basierend auf den Architekturentscheidungen, der Dynamik in der Community und der technischen Entwicklung im März 2026 positioniert sich OpenClaw als die Infrastrukturschicht, die diese Zukunft ermöglicht. Ob dies gelingt, hängt nicht nur von der Codequalität oder den GitHub-Sternen ab, sondern von der Fähigkeit der Community, die komplexen Abwägungen zwischen Autonomie und Sicherheit, Dezentralisierung und Benutzerfreundlichkeit sowie Innovation und Stabilität zu meistern.

Für Blockchain-Entwickler und Web3-Infrastrukturteams bietet OpenClaw einen Einblick in das, was möglich ist, wenn die Architektur von KI-Agenten nach First-Principles-Prinzipien für dezentrale Systeme entworfen wird, anstatt sie aus zentralisierten Paradigmen zu adaptieren. Das macht es wert, beachtet zu werden – nicht, weil es alle Probleme gelöst hat, sondern weil es die richtigen Fragen dazu stellt, wie autonome Agenten in einer Post-Cloud-, Local-First- und Community-gesteuerten Welt in die Blockchain-Infrastruktur integriert werden sollten.

DePAI: Wenn physische Roboter auf dezentrale KI-Infrastruktur treffen

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Wenn Roboter anfangen, ihre eigenen Gehaltsschecks zu verdienen, wer kontrolliert dann ihre Wallets? Das ist die Billionen-Dollar-Frage hinter DePAI — Decentralized Physical AI — ein Paradigmenwechsel, der physische Roboter und KI-Systeme aus den Rechenzentren der Konzerne in eine gemeinschaftseigene Infrastruktur verlagert. Während Web3 jahrelang versprochen hat, die digitale Welt zu dezentralisieren, markiert das Jahr 2026 den Zeitpunkt, an dem diese Vision auf die physische Welt trifft: autonome Fahrzeuge, humanoide Roboter und KI-gestützte IoT-Geräte, die auf Blockchain-Basis operieren.

Die Zahlen sprechen eine deutliche Sprache. Das Weltwirtschaftsforum prognostiziert, dass der DePIN-Markt (Decentralized Physical Infrastructure Networks) von heute 20 Milliarden bis2028auf3,5Billionenbis 2028 auf 3,5 Billionen explodieren wird — ein atemberaubender Anstieg von 6.000 %. Was treibt dieses Wachstum an? Die Konvergenz von KI und Blockchain schafft das, was Branchenexperten heute als „DePAI“ bezeichnen — eine Infrastruktur, die verteiltes maschinelles Lernen, autonome ökonomische Agenten und gemeinschaftseigene Roboternetzwerke in einem beispiellosen Ausmaß ermöglicht.

Das ist keine spekulative Tokenomics mehr. Durch dezentrale Netzwerke fließen echte Umsätze: Aethir verzeichnete einen annualisierten Umsatz von 166 Millionen , indem es mehr als 150 KI-Unternehmenskunden bediente; Heliums dezentrales drahtloses Netzwerk erreichte durch Partnerschaften mit T-Mobile und AT&T einen annualisierten Umsatz von 13,3 Millionen ; und Grass generiert jährlich etwa 33 bis 85 Millionen $ durch den Verkauf von Web-Scraping-Daten an KI-Unternehmen. Der Übergang von „Tokenspekulation“ hin zu „Geschäftsumsatzmodellen“ ist vollzogen.

Von DePIN zu DePAI: Die Entwicklung dezentraler Infrastruktur

Um DePAI zu verstehen, muss man die Grundlage kennen: DePIN (Decentralized Physical Infrastructure Networks). DePIN nutzt Blockchain- und Token-Anreize für das Crowdsourcing physischer Infrastruktur — drahtlose Netzwerke, GPU-Rechenleistung, Speicherplatz, Sensoren —, die traditionell massive Investitionsausgaben von Unternehmen erforderten. Stellen Sie sich Uber vor, aber für Infrastruktur: Einzelpersonen tragen Ressourcen bei (Bandbreite, GPUs, Speicher) und erhalten im Gegenzug Token.

DePAI führt dieses Konzept weiter, indem es autonome KI-Agenten integriert. Es geht nicht nur darum, das Eigentum an der Infrastruktur zu dezentralisieren — es geht darum, KI-Systemen und physischen Robotern zu ermöglichen, autonom mit dieser Infrastruktur zu interagieren, in dezentralen Märkten zu agieren und komplexe Aufgaben ohne Abhängigkeiten von zentralisierten Clouds auszuführen.

Der siebenstufige DePAI-Stack verdeutlicht diese Entwicklung:

  1. KI-Agenten – Autonome Software-Entitäten, die Entscheidungen treffen und Transaktionen ausführen
  2. Robotik – Physische Ausprägungen (humanoide Roboter, Drohnen, autonome Fahrzeuge)
  3. Dezentrale Datenströme – Echtzeit-Sensordaten, Standortdaten, Umwelteinflüsse
  4. Räumliche Intelligenz (Spatial Intelligence) – Kartierung, Navigation und Umgebungsverständnis
  5. Infrastrukturnetzwerke – DePIN für Rechenleistung, Speicher, Konnektivität
  6. Die Maschinenwirtschaft (Machine Economy) – Peer-to-Peer-Märkte, auf denen Maschinen direkt miteinander interagieren
  7. DePAI DAOs – Governance-Ebenen, die gemeinschaftliches Eigentum und Entscheidungsfindung ermöglichen

Dieser Stack verwandelt Roboter von isolierten Unternehmenswerten in ökonomisch autonome Akteure in einem dezentralen Ökosystem. Stellen Sie sich eine Lieferdrohne vor, die autonom GPU-Rechenleistung für die Routenoptimierung bucht, den Bandbreitenzugang über einen DePIN-Marktplatz erwirbt und Zahlungen über Smart Contracts abwickelt — ganz ohne menschliches Zutun.

Der Durchbruch bei den Unternehmenseinnahmen: Aethirs 166-Millionen-$-Lektion

Jahrelang kämpften DePIN-Projekte mit dem „Henne-Ei-Problem“: Wie baut man das Angebot auf (Menschen, die Ressourcen beisteuern), wenn die Nachfrage fehlt (zahlende Kunden), und umgekehrt? Aethir knackte dieses Problem durch einen laserfokussierten Ansatz auf Unternehmenskunden anstelle von Retail-Spekulanten.

Allein im dritten Quartal 2025 erwirtschaftete Aethir einen Umsatz von 39,8 Millionen ,waseinerannualisiertenRunRate(ARR)vonu¨ber147Millionen, was einer annualisierten Run-Rate (ARR) von über 147 Millionen entspricht. Bis Anfang 2026 erreichte dieser Wert 166 Millionen $ ARR. Das entscheidende Unterscheidungsmerkmal? Diese Einnahmen stammten von über 150 Unternehmenskunden aus den Bereichen KI, Gaming und Web3 — nicht aus Token-Emissionen oder Subventionen.

Mit über 435.000 GPUs der Enterprise-Klasse, verteilt auf mehr als 200 Standorte in 93 Ländern, stellt Aethir eine Rechenkapazität im Wert von über 400 Millionen $ zur Verfügung und behält dabei eine außergewöhnliche Betriebszeit von 98,92 % bei. Das ist eine Infrastrukturzuverlässigkeit, die mit AWS oder Google Cloud vergleichbar ist, jedoch über ein dezentrales Netzwerk bereitgestellt wird, in dem GPU-Besitzer Erträge erzielen und Kunden 50 bis 85 % weniger als die Preise der Hyperscaler zahlen.

Das Geschäftsmodell ist simpel: KI-Unternehmen benötigen enorme Rechenleistung für Training und Inferenz. Zentralisierte Cloud-Anbieter wie AWS verlangen Premium-Preise und sind mit GPU-Knappheit konfrontiert (SK Hynix und Micron haben angekündigt, dass ihre gesamte Produktion für 2026 bereits ausverkauft ist). Aethir bündelt ungenutzte GPU-Kapazitäten von Rechenzentren, Mining-Betrieben und Unternehmenspartnern und macht diese über einen dezentralen Marktplatz zu einem Bruchteil der Kosten verfügbar.

Für 2026 setzt Aethir verstärkt auf agentische KI — die es autonomen KI-Agenten ermöglicht, GPU-Nutzung in Echtzeit ohne menschliche Bediener zu buchen, zu bezahlen und zu optimieren. Dies positioniert die DePAI-Infrastruktur nicht nur als kosteneffiziente Alternative zur zentralisierten Cloud, sondern als die nativen Schienen für die entstehende Maschinenwirtschaft.

Heliums hybrides Modell: Carrier-Offload trifft auf Community-Netzwerke

Während sich Aethir auf Rechenleistung konzentriert, befasst sich Helium mit Konnektivität. Was 2019 als community-basiertes IoT-Netzwerk begann, hat sich zu einem Full-Stack-Wireless-DePIN entwickelt, das sowohl IoT- als auch 5G-Mobilfunkdienste unterstützt. Bis zum dritten Quartal 2025 hat das Helium-Netzwerk über 5.452 Terabyte an Daten übertragen, die von großen US-Mobilfunkanbietern ausgelagert wurden, was ein signifikantes Wachstum im Quartalsvergleich darstellt.

Das „Carrier-Offload“-Modell ist der Punkt, an dem DePAI auf die reale Telekommunikation trifft. Große Anbieter wie T-Mobile, AT&T, Movistar und Google Orion arbeiten mit Helium zusammen, um Kundendaten in stark frequentierten städtischen Gebieten auf von der Community betriebene Hotspots auszulagern. Der Anbieter zahlt dem Netzwerk eine Gebühr, und diese Einnahmen fließen an die Hotspot-Betreiber, die die physische Infrastruktur bereitstellen.

Trotz einiger Verwirrung in Medienberichten hat Helium keine formelle Carrier-Offload-Vereinbarung direkt mit T-Mobile als Telekommunikationspartnerschaft. Stattdessen können sich T-Mobile-Abonnenten an ausgewählten Standorten über Drittanbieter-Arrangements mit dem Helium-Netzwerk verbinden, und die Anbieter profitieren von einer geringeren Überlastung, indem sie den Datenverkehr auf die über 26.000 Wi-Fi-Standorte von Helium auslagern.

Helium Mobile, der MVNO-Dienst (Mobile Virtual Network Operator) des Netzwerks, ist ein Beispiel für das „Hybrid MNO“-Modell: Nutzer erhalten unbegrenzte Mobilfunktarife für 20 $ / Monat, indem sie nahtlos zwischen dem Community-Netzwerk von Helium und dem Backbone von T-Mobile wechseln. Wenn Sie sich in der Nähe eines Helium-Hotspots befinden, wird Ihr Datenverkehr über die DePIN-Infrastruktur geleitet. Wenn nicht, dient das Netzwerk von T-Mobile als Backup.

Dieser hybride Ansatz beweist, dass DePAI die zentralisierte Infrastruktur nicht vollständig ersetzen muss – es kann sie ergänzen und margenstarke Anwendungsfälle (städtische Dichte, IoT-Sensoren, stationäre Geräte) erfassen, während weniger profitable Szenarien den traditionellen Anbietern überlassen werden. Das Ergebnis: 13,3 Millionen $ an jährlichen Einnahmen für ein Netzwerk, das von Privatanwendern und nicht von Telekommunikationsgiganten aufgebaut wurde.

Grass: Monetarisierung ungenutzter Bandbreite für KI-Trainingsdaten

Wenn Aethir Rechenleistung und Helium Konnektivität verkauft, verkauft Grass Daten – genauer gesagt Webdaten, die von einem dezentralen Netzwerk aus über 2,5 Millionen Nutzern gescraped werden, die ihre ungenutzte Internetbandbreite zur Verfügung stellen.

KI-Unternehmen stehen vor einem kritischen Engpass: Sie benötigen massive, vielfältige Datensätze, um große Sprachmodelle (LLMs) zu trainieren. Das Scrapen des öffentlichen Webs in großem Umfang erfordert jedoch eine enorme Bandbreite und IP-Diversität, um Rate-Limits und geografische Blockaden zu vermeiden. Grass hat dies gelöst, indem es Bandbreite von alltäglichen Internetnutzern per Crowdsourcing bezieht und deren Heimanschlüsse in ein verteiltes Web-Scraping-Netzwerk verwandelt.

Das Erlösmodell ist einfach: KI-Labore erwerben strukturierte Datensätze über das Grass-Netzwerk für das Modelltraining und bezahlen die Grass Foundation in Fiat-Währung oder Krypto. Der GRASS-Token dient als „primäres Instrument für die Wertschöpfung“ und verteilt die Einnahmen zurück an die Node-Betreiber und Staker, die die zugrunde liegende Infrastruktur bereitstellen.

Während die genauen Umsatzzahlen je nach Quelle variieren, monetarisiert Grass weniger als 1 % seiner über 2,5 Millionen Nutzer und generiert bereits beträchtliche frühe Umsatzschätzungen zwischen 33 Millionen und85Millionenund 85 Millionen jährlich. Der Gründer erwähnte kürzlich in einer Demo beiläufig einen „mittleren achtstelligen Umsatz“, was darauf hindeutet, dass das Netzwerk über 50 Millionen $ pro Jahr generiert. Mit 8,5 Millionen monatlich aktiven Nutzern und wachsenden kommerziellen Verträgen mit KI-Laboren skaliert Grass die Netzwerkkapazität sowohl für Trainingsdatensätze als auch für Live-Kontextabrufdaten, um KI-Kunden bis 2026–2027 zu bedienen.

Was macht Grass zu einer DePAI-Fallstudie und nicht nur zu einem Datenmarktplatz? Das Netzwerk ermöglicht es autonomen KI-Agenten, auf dezentrale Webdaten in Echtzeit zuzugreifen, ohne auf zentralisierte APIs angewiesen zu sein, die zensiert, gedrosselt oder abgeschaltet werden können. Da KI-Agenten immer autonomer und wirtschaftlich aktiver werden, benötigen sie eine Infrastruktur, die so erlaubnisfrei und dezentral ist wie sie selbst.

Die Robotik-Revolution: Wenn Maschinen DePAI-Infrastruktur benötigen

Die ultimative Vision von DePAI geht über Rechenleistung, Konnektivität und Daten hinaus – es geht darum, physischen Robotern zu ermöglichen, als autonome Wirtschaftsakteure zu agieren. Analysten von Morgan Stanley prognostizieren, dass die humanoide Robotikindustrie bis 2050 einen Jahresumsatz von bis zu 4,7 Billionen $ generieren könnte. Aber hier stellt sich die entscheidende Frage: Werden diese Roboter von einer Handvoll Konzernen kontrolliert (Boston Dynamics unter Hyundai, Teslas Optimus, Googles Robotik-Sparte), oder werden sie auf einer dezentralen Infrastruktur betrieben, die Gemeinschaften gehört?

Projekte wie peaq, XMAQUINA und elizaOS leisten Pionierarbeit beim DePAI-Ansatz für die Robotik:

  • peaq fungiert als „Betriebssystem der Maschinenwirtschaft“ und ermöglicht es Robotern, Sensoren und IoT-Geräten, über selbstbestimmte Identitäten (SSIs) zu interagieren, Peer-to-Peer-Transaktionen durchzuführen und Daten sowie Dienste über dezentrale Marktplätze anzubieten. Stellen Sie es sich als das Ethereum für Maschinen vor.

  • XMAQUINA treibt DePAI durch eine DAO-Struktur voran und bietet einer globalen Community liquiden Zugang zu führenden privaten Robotikunternehmen, die Humanoiden der nächsten Generation entwickeln. Anstatt dass Roboter Unternehmensvermögen sind, bündeln Investoren ihre Ressourcen und demokratisieren den Besitz an Robotikunternehmen über Blockchain-basierte Governance.

  • elizaOS schlägt die Brücke zwischen dezentralen KI-Agenten und Robotik, indem es autonome Intelligenz in reale Arbeitsabläufe verwandelt. Es lässt sich natürlich auf die Robotik übertragen, wo Systeme Daten lokal verarbeiten und Aufgaben koordinieren müssen, ohne auf anfällige zentrale Clouds angewiesen zu sein.

Die Kernidee ist das „universelle Grundeigentum“ (Universal Basic Ownership) als Alternative zum bedingungslosen Grundeinkommen (BGE). Wenn Roboter menschliche Arbeit in großem Umfang ersetzen, bietet DePAI ein Modell, bei dem alltägliche Menschen von der Maschinenarbeit als Eigentümer und Stakeholder in den Netzwerken profitieren, nicht nur als passive Empfänger staatlicher Transfers.

Bis 2030, so Branchenprognosen, werden mehr als die Hälfte aller KI-gesteuerten Roboter ihre Arbeitslasten auf dezentralen GPU-Netzwerken wie Aethir ausführen und nicht auf AWS, Azure oder Google Cloud. Sie werden DePIN-Wireless-Netzwerke wie Helium für die Konnektivität nutzen, über Netzwerke wie Grass auf Echtzeitdaten zugreifen und Transaktionen über Smart Contracts abwickeln. Die Vision ist eine Maschinenökonomie, in der autonome Agenten und physische Roboter in erlaubnisfreien Märkten interagieren, die von DAOs und nicht von Monopolen besessen und verwaltet werden.

Warum 2026 die Wende von der Spekulation zum Umsatz markiert

Jahrelang wurden DePIN- und Web3-Infrastrukturprojekte durch Token-Emissionen und Risikokapital finanziert, nicht durch zahlende Kunden. Dieses Modell funktionierte während der Bullenmärkte, brach jedoch spektakulär zusammen, als Krypto in Bärenmärkte eintrat. Projekte ohne echte Einnahmen, aber mit hoher Token-Inflation, sahen ihre Netzwerke und Bewertungen dahinschmelzen.

2026 markiert einen Paradigmenwechsel. Die Kennzahlen, auf die es jetzt ankommt, sind:

  • Netzwerkeinnahmen – Wie viel Umsatz in Fiat-Währungen oder Stablecoins generiert das Netzwerk durch tatsächliche Kunden?
  • Auslastungsraten – Welcher Prozentsatz der Netzwerkkapazität wird aktiv von zahlenden Nutzern beansprucht?
  • Unternehmensakzeptanz – Nutzen echte Unternehmen (nicht nur krypto-native Protokolle) die Infrastruktur?

Aethir, Helium und Grass demonstrieren diesen Wandel in der Praxis:

  • Die 166 Mio. $ ARR von Aethir stammen von über 150 Unternehmenskunden, nicht von Token-Anreizen.
  • Die jährlichen Einnahmen von Helium in Höhe von 13,3 Mio. $ stammen aus Carrier-Offload-Partnerschaften und MVNO-Abonnenten, nicht aus spekulativen Hotspot-Käufen.
  • Die Einnahmen von Grass in Höhe von 33–85 Mio. $ stammen von KI-Unternehmen, die Datensätze kaufen, nicht von Airdrop-Farmern.

Der Markt für GPU-as-a-Service wird bis 2030 auf schätzungsweise 35–70 Milliarden $ geschätzt, wobei beschleunigte Rechenlasten mit einer jährlichen Wachstumsrate (CAGR) von mehr als 30 % wachsen. Dezentrale Dienste konkurrieren über Kosten (50–85 % Ersparnis gegenüber AWS / GCP), Flexibilität (globale Verteilung, kein Vendor-Lock-in) und Widerstand gegen zentralisierte Kontrolle – Werte, die besonders bei KI-Entwicklern Anklang finden, die über Zensur und Plattformrisiken besorgt sind.

Vergleichen Sie dies mit traditionellen DePIN-Token, die einbrachen, als die Anreize versiegten. Der Unterschied liegt in einer nachhaltigen Unit Economics: Wenn das Netzwerk mehr Einnahmen von Kunden erzielt, als es für Token-Emissionen und den Betrieb ausgibt, kann es ohne Rettungsaktionen im Bullenmarkt unbegrenzt überleben.

Die 3,5-Billionen-Dollar-Frage: Kann DePAI tatsächlich skalieren?

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen $ bis 2028 klingt kühn, hängt jedoch von drei kritischen Faktoren ab:

1. Regulatorische Klarheit

Physische Infrastruktur – drahtlose Netzwerke, Rechenzentren, Transportsysteme – unterliegt strengen Vorschriften. Können DePIN- und DePAI-Netzwerke Telekommunikationslizenzen, Datenschutzgesetze (DSGVO, CCPA) und Sicherheitsstandards für Robotik einhalten und gleichzeitig die Dezentralisierung wahren? Die Carrier-Partnerschaften von Helium deuten auf ja hin, aber das regulatorische Risiko bleibt hoch.

2. Akzeptanz in Unternehmen

KI-Unternehmen und Robotikfirmen benötigen eine Infrastruktur, die zuverlässig, konform und kosteneffizient ist. Die Betriebszeit von Aethir von 98,92 % und die SLAs auf Unternehmensniveau beweisen, dass dezentrale Netzwerke in puncto Zuverlässigkeit mithalten können. Aber werden Fortune-500-Unternehmen kritische Arbeitslasten einer gemeinschaftseigenen Infrastruktur anvertrauen? Die nächsten 12–24 Monate werden es zeigen.

3. Technologische Reife

DePAI erfordert eine nahtlose Integration über Blockchain (Zahlungen, Identität, Governance), KI (autonome Agenten, maschinelles Lernen) und physische Systeme (Robotik, Sensoren, Edge-Computing) hinweg. Viele Teile benötigen noch Interoperabilitätsstandards, bessere Entwicklertools und eine geringere Latenz für Echtzeitanwendungen.

Das bullische Szenario ist überzeugend: Die weltweiten Ausgaben für KI-Infrastruktur werden bis 2030 auf 5–8 Billionen $ geschätzt, und dezentrale Netzwerke erobern einen zunehmenden Anteil, indem sie Vorteile bei Kosten, Flexibilität und Souveränität bieten. Das bärische Szenario warnt vor einer schleichenden Zentralisierung (einige wenige große Knotenbetreiber dominieren die Netzwerke), regulatorischem Durchgreifen und Wettbewerb durch Hyperscaler, die die DePIN-Preise durch Skaleneffekte unterbieten könnten.

Was als Nächstes kommt: Die Machine Economy geht live

Im weiteren Verlauf des Jahres 2026 werden mehrere Trends die Entwicklung von DePAI beschleunigen:

Verbreitung von agentischer KI – KI-Agenten entwickeln sich von Chatbots zu autonomen wirtschaftlichen Akteuren. Sie benötigen DePAI-Infrastruktur für den erlaubnisfreien Zugriff auf Rechenleistung, Daten und Konnektivität.

Übernahme von Open-Source-Modellen – Da immer mehr Unternehmen Open-Source-LLMs (Llama, Mistral usw.) ausführen, anstatt sich auf APIs von OpenAI / Anthropic zu verlassen, wird die Nachfrage nach dezentraler Inferenz sprunghaft ansteigen.

Kommerzialisierung der Robotik – Humanoide Roboter, die in Lagerhäuser, Fabriken und die Dienstleistungsbranche einziehen, benötigen dezentrale Infrastruktur, um Vendor-Lock-in zu vermeiden und Interoperabilität zu ermöglichen.

Tokenisierte Anreize für Edge-Knoten – Die nächste Welle von DePIN-Projekten wird sich auf Edge-Computing konzentrieren (Datenverarbeitung in der Nähe ihrer Entstehung) und nicht auf zentralisierte Rechenzentren. Dies passt perfekt zu latenzempfindlichen Robotik- und IoT-Anwendungen.

Für Entwickler und Investoren verschiebt sich die Strategie: Suchen Sie nach Projekten mit echten Einnahmen, nachhaltiger Unit Economics und Traktion bei Unternehmen. Vermeiden Sie Netzwerke, die rein durch Token-Emissionen oder spekulative NFT-Verkäufe aufrechterhalten werden. Die Gewinner von DePAI werden diejenigen sein, die das erlaubnisfreie Ethos von Web3 mit den Zuverlässigkeits- und Compliance-Standards verbinden, die Unternehmenskunden verlangen.

Für Entwickler, die KI-Anwendungen erstellen, die eine zuverlässige und kosteneffiziente Infrastruktur erfordern, bietet BlockEden.xyz API-Zugang auf Unternehmensniveau zu führenden Blockchain-Netzwerken. Entdecken Sie unsere Dienste, um auf einer Infrastruktur aufzubauen, die für die dezentrale Zukunft konzipiert ist.

Quellen

Die Transformation von The Graph im Jahr 2026: Neudefinition der Blockchain-Dateninfrastruktur

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Wenn 37 % Ihrer neuen Nutzer nicht menschlich sind, wissen Sie, dass sich etwas Grundlegendes verschoben hat.

Das ist die Realität, mit der The Graph Anfang 2026 bei der Analyse der Token-API-Adoption konfrontiert war: Mehr als jeder dritte neue Account gehörte KI-Agenten, nicht Entwicklern. Diese autonomen Programme – die DeFi-Liquiditätspools abfragen, tokenisierte Real-World-Assets verfolgen und institutionelle Trades ausführen – verbrauchen Blockchain-Daten mittlerweile in einem Ausmaß, das für menschliche Akteure unmöglich zu bewältigen wäre.

Dies ist kein Zukunftsszenario. Es geschieht jetzt und erzwingt ein komplettes Überdenken der Funktionsweise von Blockchain-Dateninfrastrukturen.

Vom Subgraph-Pionier zum Multi-Service-Datenrückgrat

The Graph hat seinen Ruf auf einer einzigen eleganten Lösung aufgebaut: Subgraphs. Entwickler erstellen benutzerdefinierte Schemata, die On-Chain-Events und Smart-Contract-Zustände indizieren, wodurch dApps präzise Echtzeitdaten abrufen können, ohne eigene Nodes betreiben zu müssen.

Das ist der Grund, warum Sie Ihren DeFi-Portfolio-Kontostand sofort überprüfen oder NFT-Metadaten durchsuchen können, ohne darauf warten zu müssen, dass Blockchain-Abfragen abgeschlossen werden.

Bis Ende 2025 hatte The Graph seit seiner Einführung über 1,5 Billionen Abfragen verarbeitet – ein Meilenstein, der es als größte dezentrale Dateninfrastruktur im Web3 positioniert. Doch das reine Abfragevolumen erzählt nur einen Teil der Geschichte.

Die aussagekräftigere Kennzahl ergab sich im 4. Quartal 2025: 6,4 Milliarden Abfragen pro Quartal, wobei die aktiven Subgraphs mit 15.500 ein Allzeithoch erreichten. Dennoch hatte sich die Erstellung neuer Subgraphs drastisch verlangsamt.

Die Interpretation? Die bestehende Infrastruktur von The Graph bedient ihre aktuellen Nutzer hervorragend, aber die nächste Welle der Adoption erfordert etwas grundlegend anderes.

Hier kommt Horizon ins Spiel, das Protokoll-Upgrade, das im Dezember 2025 live ging und die Weichen für die Transformation von The Graph im Jahr 2026 stellt.

Die Horizon-Architektur: Multi-Service-Infrastruktur für die On-Chain-Ökonomie

Horizon ist kein bloßes Feature-Update. Es ist eine komplette architektonische Neugestaltung, die The Graph von einer Subgraph-fokussierten Plattform in eine Multi-Service-Dateninfrastruktur verwandelt, die in der Lage ist, drei verschiedene Kundensegmente gleichzeitig zu bedienen: Entwickler, KI-Agenten und Institutionen.

Die Architektur führt drei grundlegende Komponenten ein:

Ein Kern-Staking-Protokoll, das die ökonomische Sicherheit auf jeden Datendienst ausweitet, nicht nur auf Subgraphs. Dies ermöglicht es neuen Datenprodukten, das bestehende Netzwerk von The Graph mit über 167.000 Delegatoren und aktiven Indexern zu übernehmen, ohne eigene Sicherheitsmodelle aufbauen zu müssen.

Eine vereinheitlichte Zahlungsschicht, die Gebühren über alle Dienste hinweg abwickelt, eine nahtlose serviceübergreifende Abrechnung ermöglicht und Reibungsverluste für Nutzer verringert, die mehrere Arten von Blockchain-Daten benötigen.

Ein erlaubnisfreies (permissionless) Framework, das die Integration neuer Datendienste ohne Governance-Abstimmungen auf Protokollebene ermöglicht. Jedes Team kann auf der Infrastruktur von The Graph aufbauen, sofern es die technischen Standards erfüllt und GRT-Token zur Absicherung stakt.

Dieser modulare Ansatz löst ein kritisches Problem: Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenarchitekturen.

Ein DeFi-Trading-Bot benötigt Liquiditäts-Updates im Millisekundenbereich. Ein institutionelles Compliance-Team benötigt SQL-abfragbare Audit-Trails. Eine Wallet-App benötigt vorindizierte Token-Guthaben über Dutzende von Chains hinweg. Vor Horizon hätten diese Anwendungsfälle separate Infrastrukturanbieter erfordert.

Jetzt können sie alle auf The Graph laufen.

Vier Dienste, vier verschiedene Märkte

Die Roadmap von The Graph für 2026 führt vier spezialisierte Datendienste ein, die jeweils auf einen spezifischen Marktbedarf abzielen:

Token-API: Vorindizierte Daten für gängige Abfragen

Die Token-API macht eine benutzerdefinierte Indizierung überflüssig, wenn Sie lediglich Standard-Token-Daten benötigen – Guthaben, Transferhistorien, Kontraktadressen über 10 Chains hinweg. Wallets, Explorer und Analyseplattformen müssen für grundlegende Abfragen keine eigenen Subgraphs mehr bereitstellen.

Hier sind KI-Agenten massiv in Erscheinung getreten. Die 37-prozentige Adoptionsrate durch nicht-menschliche Nutzer spiegelt eine einfache Realität wider: KI-Agenten wollen keine Indexer konfigurieren oder GraphQL-Abfragen schreiben. Sie wollen eine API, die natürliche Sprache versteht und sofort strukturierte Daten liefert.

Die Integration mit dem Model Context Protocol (MCP) ermöglicht es KI-Agenten, Blockchain-Daten über Tools wie Claude, Cursor und ChatGPT ohne Setup-Keys abzufragen. Das x402-Protokoll fügt autonome Zahlungsfunktionen hinzu, sodass Agenten pro Abfrage ohne menschliches Eingreifen bezahlen können.

Tycho: Echtzeit-Liquiditätsverfolgung für DeFi

Tycho streamt Live-Liquiditätsänderungen über dezentrale Börsen hinweg – genau das, was Handelssysteme, Solver und MEV-Bots benötigen. Anstatt Subgraphs alle paar Sekunden abzufragen (Polling), pusht Tycho Updates, sobald sie On-Chain stattfinden.

Für DeFi-Infrastrukturanbieter reduziert dies die Latenz von Sekunden auf Millisekunden. In Hochfrequenz-Handelsumgebungen, in denen eine Verzögerung von 100 ms den Unterschied zwischen Gewinn und Verlust ausmachen kann, wird die Streaming-Architektur von Tycho geschäftskritisch.

Amp: SQL-Datenbank für institutionelle Analysen

Amp repräsentiert den explizitesten Vorstoß von The Graph in Richtung Adoption durch das traditionelle Finanzwesen: eine Blockchain-Datenbank für Unternehmen mit SQL-Zugriff, integrierten Audit-Trails, Lineage-Tracking und On-Premise-Bereitstellungsoptionen.

Das ist nicht für DeFi-"Degens". Es ist für Treasury-Aufsichtsteams, Risikomanagement-Abteilungen und regulierte Zahlungssysteme gedacht, die eine Compliance-fähige Dateninfrastruktur benötigen.

Das "Great Collateral Experiment" der DTCC – ein Pilotprogramm zur Erforschung der Abwicklung tokenisierter Wertpapiere – nutzt bereits Graph-Technologie und validiert damit den institutionellen Anwendungsfall.

SQL-Kompatibilität ist entscheidend. Finanzinstitute verfügen über jahrzehntelange Erfahrung mit Tools, Berichtssystemen und Analysten-Expertise, die auf SQL basieren.

Von ihnen zu verlangen, GraphQL zu lernen, ist aussichtslos. Amp holt sie dort ab, wo sie stehen.

Subgraphs: Das Fundament, das weiterhin zählt

Trotz der neuen Dienste bleiben Subgraphs das Herzstück des Wertversprechens von The Graph. Die über 50.000 aktiven Subgraphs, die nahezu jedes große DeFi-Protokoll unterstützen, stellen eine installierte Basis dar, die Wettbewerber nicht einfach replizieren können.

Im Jahr 2026 vertiefen sich Subgraphs in zweierlei Hinsicht: durch eine erweiterte Multi-Chain-Abdeckung (die mittlerweile über 40 + Blockchains umfasst) und eine engere Integration mit den neuen Diensten.

Ein Entwickler kann einen Subgraph für benutzerdefinierte Logik verwenden und gleichzeitig vorindexierte Token-Daten über die Token API abrufen – das Beste aus beiden Welten.

Cross-Chain-Expansion: GRT-Nutzen über Ethereum hinaus

Jahrelang existierte der GRT-Token von The Graph primär auf dem Ethereum-Mainnet, was Reibungsverluste für Nutzer auf anderen Chains verursachte. Das änderte sich mit der Integration des Cross-Chain Interoperability Protocol (CCIP) von Chainlink, das GRT Ende 2025 auf Arbitrum, Base und Avalanche brachte, wobei Solana für 2026 geplant ist.

Hierbei geht es nicht nur um die Verfügbarkeit von Token. Der Cross-Chain-Nutzen von GRT ermöglicht es Entwicklern auf jeder Chain, Graph-Dienste mit ihren nativen Token zu bezahlen, GRT zu staken, um Datendienste zu sichern, und an Indexer zu delegieren, ohne Assets auf Ethereum verschieben zu müssen.

Die Netzwerkeffekte verstärken sich schnell: Base verarbeitete im 4. Quartal 2025 1,23 Milliarden Abfragen (ein Plus von 11 % gegenüber dem Vorquartal), während Arbitrum mit 31 % das stärkste Wachstum unter den großen Netzwerken verzeichnete. Da L2s weiterhin Transaktionsvolumen vom Ethereum-Mainnet absorbieren, positioniert sich The Graph durch seine Cross-Chain-Strategie so, dass es das gesamte Multi-Chain-Ökosystem bedienen kann.

Das Datenproblem von KI-Agenten: Warum Indexierung entscheidend wird

KI-Agenten stellen eine grundlegend andere Klasse von Blockchain-Nutzern dar. Im Gegensatz zu menschlichen Entwicklern, die Abfragen einmal schreiben und dann bereitstellen, generieren Agenten täglich Tausende von individuellen Abfragen über Dutzende von Datenquellen hinweg.

Betrachten wir einen autonomen DeFi-Yield-Optimierer:

  1. Er fragt aktuelle APYs über Kreditprotokolle hinweg ab (Aave, Compound, Morpho)
  2. Er prüft Gaspreise und Transaktionsstaus
  3. Er überwacht Token-Preis-Feeds von Oracles
  4. Er verfolgt die historische Volatilität zur Risikobewertung
  5. Er verifiziert Sicherheitsprüfungen (Audits) von Smart Contracts
  6. Er führt Rebalancing-Transaktionen aus, sobald die Bedingungen erfüllt sind

Jeder Schritt erfordert strukturierte, indexierte Daten. Das Betreiben eines Full Nodes für jedes Protokoll ist wirtschaftlich nicht machbar. APIs von zentralisierten Anbietern stellen Single Points of Failure und Zensurrisiken dar.

The Graph löst dies durch eine dezentrale, zensurresistente Datenebene, die KI-Agenten programmatisch abfragen können. Das Wirtschaftsmodell funktioniert, weil Agenten pro Abfrage über das x402-Protokoll bezahlen – keine monatlichen Abonnements, keine zu verwaltenden API-Schlüssel, sondern lediglich nutzungsbasierte Abrechnung, die On-Chain abgewickelt wird.

Aus diesem Grund baut Cookie DAO, ein dezentrales Datennetzwerk zur Indexierung von KI-Agenten-Aktivitäten auf Solana, Base und der BNB Chain, auf der Infrastruktur von The Graph auf. Die fragmentierten On-Chain-Aktionen und sozialen Signale, die von Tausenden von Agenten erzeugt werden, benötigen strukturierte Datenfeeds, um nützlich zu sein.

DeFi und RWA: Die Datenanforderungen der tokenisierten Finanzwelt

Die Datenanforderungen von DeFi haben sich drastisch weiterentwickelt. Im Jahr 2021 fragte ein DEX-Aggregator vielleicht grundlegende Token-Preise und Liquiditätspool-Reserven ab. Im Jahr 2026 benötigen institutionelle DeFi-Plattformen:

  • Echtzeit-Besicherungsquoten für Kreditprotokolle
  • Historische Volatilitätsdaten für die Risikomodellierung
  • Cross-Chain-Asset-Preise mit Oracle-Verifizierung
  • Transaktionsherkunft für Compliance-Audits
  • Liquiditätstiefe über mehrere Handelsplätze hinweg für die Handelsausführung

Tokenisierte Real-World-Assets (RWA) fügen eine weitere Komplexitätsebene hinzu. Wenn ein tokenisierter US-Staatsanleihen-Fonds mit einem DeFi-Kreditprotokoll integriert wird (wie es BlackRocks BUIDL mit Uniswap tat), muss die Dateninfrastruktur Folgendes verfolgen:

  • On-Chain-Eigentumsnachweise
  • Rücknahmeanträge und Abwicklungsstatus
  • Regulatorische Compliance-Ereignisse
  • Renditeverteilung an Token-Inhaber
  • Cross-Chain-Bridge-Aktivität

Die Multi-Service-Architektur von The Graph adressiert dies, indem sie RWA-Plattformen ermöglicht, Amp für SQL-Analysen in institutioneller Qualität zu nutzen und gleichzeitig Echtzeit-Updates über Tycho für DeFi-Integrationen zu streamen.

Die Marktchance ist gewaltig: Ripple und BCG prognostizieren, dass tokenisierte RWAs von 0,6 Billionen US-Dollar im Jahr 2025 auf 18,9 Billionen US-Dollar bis 2033 anwachsen werden – eine durchschnittliche jährliche Wachstumsrate von 53 %. Jeder On-Chain tokenisierte Dollar generiert Daten, die indexiert, abgefragt und gemeldet werden müssen.

Netzwerkökonomie: Das Indexer- und Delegatoren-Modell

Die dezentrale Architektur von The Graph beruht auf wirtschaftlichen Anreizen, die drei Interessengruppen aufeinander abstimmen:

Indexer betreiben die Infrastruktur, um Abfragen zu verarbeiten und bereitzustellen, und verdienen dafür Abfragegebühren sowie Indexierungsbelohnungen in GRT-Token. Die Anzahl der aktiven Indexer stieg im 4. Quartal 2025 leicht an, was darauf hindeutet, dass die Betreiber trotz geringerer kurzfristiger Rentabilität aufgrund reduzierter Abfragegebühren engagiert blieben.

Delegatoren staken GRT-Token bei Indexern, um einen Teil der Belohnungen zu verdienen, ohne selbst Infrastruktur zu betreiben. Die über 167.000 + Delegatoren des Netzwerks repräsentieren eine verteilte wirtschaftliche Sicherheit, die Datenzensur extrem teuer macht.

Kuratoren signalisieren durch das Staken von GRT, welche Subgraphs wertvoll sind, und verdienen einen Teil der Abfragegebühren, wenn ihre kuratierten Subgraphs verwendet werden. Dies schafft einen selbstorganisierenden Qualitätsfilter: Hochwertige Subgraphs ziehen Kuratierung an, was Indexer anlockt, was wiederum die Abfrageleistung verbessert.

Das Horizon-Upgrade weitet dieses Modell auf alle Datendienste aus, nicht nur auf Subgraphs. Ein Indexer kann nun Abfragen für die Token API bedienen, Tycho-Liquiditäts-Updates streamen und Amp-Datenbankzugriff gewähren – alles abgesichert durch denselben GRT-Stake.

Dieses Multi-Service-Einnahmemodell ist wichtig, da es das Einkommen der Indexer über Subgraph-Abfragen hinaus diversifiziert. Wenn das Abfragevolumen von KI-Agenten wie prognostiziert skaliert, könnten Indexer, die die Token API bedienen, ein signifikantes Umsatzwachstum verzeichnen, selbst wenn die herkömmliche Subgraph-Nutzung stagniert.

Der institutionelle Keil: Von DeFi zu TradFi

Das DTCC-Pilotprogramm stellt etwas Größeres dar als nur einen einzelnen Anwendungsfall. Es ist der Beweis dafür, dass große Finanzinstitute – in diesem Fall die Organisation, die jährlich Wertpapiertransaktionen im Wert von 2,5 Billiarden $ abwickelt – auf einer öffentlichen Blockchain-Dateninfrastruktur aufbauen werden, wenn diese die regulatorischen Anforderungen erfüllt.

Der Funktionsumfang von Amp zielt direkt auf dieses Segment ab:

  • Herkunftsverfolgung (Lineage tracking): Jeder Datenpunkt lässt sich bis zu seiner On-Chain-Quelle zurückverfolgen, was einen unveränderlichen Audit-Trail schafft.
  • Compliance-Funktionen: Rollenbasierte Zugriffskontrollen, Aufbewahrungsrichtlinien für Daten und Datenschutzkontrollen erfüllen regulatorische Standards.
  • On-Premises-Bereitstellung: Regulierte Einheiten können die Graph-Infrastruktur innerhalb ihres eigenen Sicherheitsbereichs betreiben und dennoch am dezentralen Netzwerk teilnehmen.

Die Strategie spiegelt wider, wie die Einführung von Enterprise-Blockchains verlief: Beginnend mit privaten / permissioned Chains, schrittweise Integration mit öffentlichen Chains, sobald die Compliance-Rahmenwerke ausgereift sind. The Graph positioniert sich als Datenschicht, die in beiden Umgebungen funktioniert.

Wenn große Banken Amp für die Abwicklung tokenisierter Wertpapiere, Blockchain-Analysen für die AML-Compliance oder Echtzeit-Risikoüberwachung einführen, könnte das Abfragevolumen die aktuelle DeFi-Nutzung in den Schatten stellen. Ein einziges großes Institut, das stündlich Compliance-Abfragen über mehrere Chains hinweg durchführt, generiert nachhaltigere Einnahmen als Tausende einzelner Entwickler.

Der Wendepunkt 2026: Ist dies das Jahr von The Graph?

Die Roadmap 2026 von The Graph präsentiert eine klare These: Der aktuelle Token-Preis bewertet die Position des Netzwerks in der aufstrebenden KI-Agenten-Ökonomie und der institutionellen Blockchain-Adoption fundamental falsch.

Das Bullen-Szenario stützt sich auf drei Annahmen:

  1. Das Abfragevolumen von KI-Agenten skaliert signifikant. Wenn die Adoptionsrate von 37 % unter den Nutzern der Token-API einen breiteren Trend widerspiegelt und autonome Agenten zu den Hauptkonsumenten von Blockchain-Daten werden, könnten die Abfragegebühren über das historische Niveau hinaus ansteigen.

  2. Die Multi-Service-Architektur von Horizon treibt das Wachstum der Gebühreneinnahmen voran. Durch die gleichzeitige Bedienung von Entwicklern, Agenten und Institutionen generiert The Graph Einnahmen aus mehreren Kundensegmenten, anstatt sich ausschließlich auf DeFi-Entwickler zu verlassen.

  3. Cross-Chain GRT-Utility über Chainlink CCIP erzeugt eine nachhaltige Nachfrage. Da Nutzer auf Arbitrum, Base, Avalanche und Solana für Graph-Dienste mit gebrücktem GRT bezahlen, steigt die Token-Velocity, während das Angebot begrenzt bleibt.

Das Bären-Szenario argumentiert, dass der Infrastruktur-Burggraben schmaler ist, als es den Anschein hat. Alternative Indexierungslösungen wie Chainstack, BlockXs und Goldsky bieten Hosted-Subgraph-Dienste mit einfacherer Preisgestaltung und schnellerer Einrichtung an. Zentralisierte API-Anbieter wie Alchemy und Infura bündeln den Datenzugriff mit Knoten-Infrastruktur, was Wechselkosten verursacht.

Das Gegenargument: Die dezentrale Architektur von The Graph ist gerade deshalb wichtig, weil KI-Agenten und Institutionen sich nicht auf zentralisierte Datenanbieter verlassen können. KI-Agenten benötigen Zensurresistenz, um die Betriebszeit unter widrigen Bedingungen zu gewährleisten. Institutionen benötigen eine nachweisbare Datenprovenienz, die zentralisierte APIs nicht bieten können.

Die über 50.000 aktiven Subgraphs, über 167.000 Delegatoren und Ökosystem-Integrationen mit praktisch jedem größeren DeFi-Protokoll schaffen einen Netzwerkeffekt, den Wettbewerber nicht nur erreichen, sondern übertreffen müssten.

Warum die Dateninfrastruktur zum Rückgrat der KI-Ökonomie wird

Die Blockchain-Branche war zwischen 2021 und 2023 besessen von Execution Layers: schnellere Layer-1-Lösungen, günstigere Layer-2-Lösungen, skalierbarere Konsensmechanismen.

Das Ergebnis? Transaktionen, die Bruchteile eines Pennys kosten und in Millisekunden abgewickelt werden. Der Engpass hat sich verschoben.

Die Ausführung ist gelöst. Daten sind die neue Einschränkung.

KI-Agenten können Trades ausführen, Portfolios umschichten und Zahlungen autonom abwickeln. Was sie nicht tun können, ist ohne qualitativ hochwertige, indexierte und abfragbare Daten über den On-Chain-Status zu agieren. Der Meilenstein von einer Billion Abfragen bei The Graph spiegelt diese Realität wider: Da Blockchain-Anwendungen immer komplexer werden, wird die Dateninfrastruktur kritischer als der Transaktionsdurchsatz.

Dies spiegelt die Entwicklung der traditionellen Technologie-Infrastruktur wider. Amazon hat den E-Commerce nicht gewonnen, weil es die schnellsten Server hatte – es gewann, weil es die beste Dateninfrastruktur für Bestandsmanagement, Personalisierung und Logistikoptimierung aufbaute. Google hat die Suche nicht gewonnen, weil es den meisten Speicherplatz hatte – es gewann, weil es das Web besser indexierte als jeder andere.

The Graph positioniert sich als das Google der Blockchain-Daten: nicht die einzige Indexierungslösung, aber die Standardinfrastruktur, auf der alles andere aufbaut.

Ob diese Vision Wirklichkeit wird, hängt von der Umsetzung in den nächsten 12 bis 24 Monaten ab. Wenn die Multi-Service-Architektur von Horizon institutionelle Kunden anzieht, wenn das Abfragevolumen von KI-Agenten die Infrastrukturinvestitionen rechtfertigt und wenn die Cross-Chain-Expansion eine nachhaltige GRT-Nachfrage antreibt, könnte 2026 das Jahr sein, in dem The Graph den Übergang von einer „wichtigen DeFi-Infrastruktur“ zum „essenziellen Rückgrat der On-Chain-Ökonomie“ vollzieht.

Die 1,5 Billionen Abfragen sind erst der Anfang.


Erstellen Sie Anwendungen, die auf einer robusten Blockchain-Dateninfrastruktur basieren? BlockEden.xyz bietet leistungsstarken API-Zugriff über mehr als 40 Chains hinweg und ergänzt die dezentrale Indexierung durch Zuverlässigkeit auf Enterprise-Niveau für produktive Web3-Anwendungen.