Direkt zum Hauptinhalt

On-Chain-Analytik tritt in die Ära der KI-Agenten ein: Wie über 17.000 autonome Agenten die Blockchain-Intelligence neu gestalten

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Als Chainalysis auf seiner jährlichen Links-Konferenz im März 2026 seine „Blockchain-Intelligence-Agenten“ ankündigte, bestätigte dies, was die Daten bereits seit Monaten flüsterten: Der primäre Konsument von On-Chain-Analysen ist nicht mehr ein menschlicher Analyst, der auf ein Dashboard starrt. Es ist eine Maschine, die Entscheidungen in einer Geschwindigkeit trifft, mit der kein Mensch mithalten kann.

Im gesamten Krypto-Ökosystem sind mittlerweile 60 bis 80 Prozent des globalen Handelsvolumens KI-gesteuert. Autonome Agenten wickelten allein auf Solana im Jahr 2025 ein Zahlungsvolumen von über 31 Milliarden USD ab, und die im Februar 2026 eingeführten Agentic Wallets von Coinbase gaben jedem KI-Agenten die Möglichkeit, USDC zu halten, Zahlungen zu senden und Token auf Base zu handeln, ohne jemals einen Private Key zu berühren. Die On-Chain-Analytik-Branche, die für menschliche Augen und menschliche Reflexe konzipiert wurde, sieht sich plötzlich einem Kundenstamm gegenüber, der in einer grundlegend anderen Zeitskala operiert.

Die Frage ist nicht mehr, ob sich Analyseplattformen anpassen werden. Es geht darum, wer das Bloomberg-Terminal für Maschinen werden wird – und wer weiterhin Dashboards für ein Publikum bereitstellt, das bereits weitergezogen ist.

Von Dashboards zu Datenfeeds: Der Kundenwechsel, den niemand geplant hat

Über ein Jahrzehnt lang entwickelten On-Chain-Analytik-Unternehmen Produkte für einen spezifischen Nutzer: einen Compliance-Beauftragten, der Untersuchungen durchführt, einen Trader, der Wallet-Flows scannt, oder einen Fondsmanager, der Smart Money verfolgt. Die Schnittstellen waren visuell, interaktiv und auf die menschliche Wahrnehmung ausgelegt – Dashboards mit Drag-and-Drop-Abfragen, farbcodierten Flussdiagrammen und wöchentlichen Zusammenfassungsberichten.

Doch die Ankunft von über 17.000 autonomen KI-Agenten, die On-Chain agieren, hat die Wertschöpfungskette umgekehrt. Diese Agenten benötigen kein Dashboard. Sie benötigen strukturierte, maschinenlesbare Daten, die mit API-Latenz geliefert werden – vorberechnete Signale, standardisierte Schemata und Echtzeit-Feeds, die direkt in Entscheidungsschleifen einfließen, die in Millisekunden ablaufen.

Diese Verschiebung spiegelt wider, was im traditionellen Finanzwesen geschah, als der algorithmische Handel in den 2000er Jahren den diskretionären Handel überholte. Bloomberg und Reuters mussten sich von Terminals, die für menschliche Händler entwickelt wurden, zu einer Dateninfrastruktur entwickeln, die automatisierte Systeme antreibt. Die Krypto-Analysebranche komprimiert denselben Übergang nun auf Monate, nicht auf Jahrzehnte.

Nansen, das über 500 Millionen Wallet-Labels und Tools zur Verwaltung von mehr als 2 Milliarden USD an verfolgten Vermögenswerten beansprucht, hat mit der Einführung eines MCP-Servers (Model Context Protocol) reagiert – Anthropics offenem Standard zur Verbindung von KI-Agenten mit externen Datenquellen. Anstatt dass sich ein Mensch im Nansen-Dashboard anmeldet, kann ein Claude-gesteuerter Agent nun die gesamte Analyse-Engine von Nansen programmatisch abfragen und Wallet-Labels, Transaktionshistorien und Smart-Money-Flows in strukturierten Formaten abrufen, die für den maschinellen Verbrauch optimiert sind.

Der Unterschied liegt nicht nur in der Geschwindigkeit. Es ist eine grundlegend andere Beziehung zwischen dem Analyseanbieter und dem Konsumenten:

  • Menschliche Nutzer stöbern. Agenten fragen ab.
  • Menschliche Nutzer interpretieren Diagramme. Agenten konsumieren strukturierte Signale.
  • Menschliche Nutzer treffen Entscheidungen in Minuten. Agenten führen sie in Bruchteilen von Sekunden aus.

Das MCP-Rennen: Jeder will die Datenquelle des Agenten sein

Das Model Context Protocol hat sich als De-facto-Integrationsstandard für die Verbindung von KI-Agenten mit Kryptodaten herauskristallisiert. Von Anthropic als Open-Source-Spezifikation eingeführt, schafft MCP eine standardisierte Schnittstelle zwischen KI-Modellen und externen Tools – wodurch die Notwendigkeit für individuelle Integrationen entfällt, wann immer eine neue Datenquelle oder Blockchain erscheint.

Das Rennen um den Aufbau von MCP-Servern über den gesamten Krypto-Analysestack hinweg zeigt, wie schnell die Branche die Chance der Agenten erkannt hat.

altFINS startete seinen MCP-Server im März 2026 und stellte über 130 vorberechnete Handelssignale bereit, die aus mehr als 150 technischen Indikatoren für über 2.200 digitale Assets und sieben Jahre historischer Daten abgeleitet wurden. Die Architektur ist vielsagend: Anstatt rohe OHLCV-Daten anzubieten und zu erwarten, dass Agenten Indikatoren selbst berechnen, liefert altFINS „entscheidungsreife Intelligenz“ – voranalysierte Signale, auf die Agenten sofort reagieren können. Dies verschiebt das Wertversprechen vom Datenzugriff hin zur analytischen Vorberechnung.

deBridge wählte einen anderen Ansatz und startete einen ausführungsorientierten MCP-Server, der es Agenten ermöglicht, Cross-Chain-Swaps und Transfers über 24 Blockchains hinweg durchzuführen. Während altFINS die Intelligenzebene bereitstellt (was gehandelt werden soll), liefert deBridge die Ausführungsebene (wie gehandelt werden soll) – zusammen bilden sie komplementäre Hälften einer autonomen Trading-Pipeline. deBridge nennt dies „Vibe Trading“: Beschreiben Sie das gewünschte Ergebnis, und der Agent kümmert sich um das Routing, Bridging, Swapping und die Ausführung über verschiedene Chains hinweg.

OKX wählte mit seinem OnchainOS-Plattform-Update im März 2026 den breitesten Ansatz und integrierte MCP-Unterstützung neben traditionellen APIs und einer Schnittstelle für „KI-Skills“ in natürlicher Sprache. Die Plattform verarbeitet bereits täglich 1,2 Milliarden API-Aufrufe und ein tägliches Handelsvolumen von etwa 300 Millionen USD über mehr als 60 Blockchains und über 500 dezentrale Börsen hinweg. Durch die Hinzufügung von MCP als native Integrationsmethode positioniert OKX das OnchainOS als Full-Stack-Betriebssystem für autonome Agenten – eine Kombination aus Wallet-Infrastruktur, Liquiditäts-Routing und Marktdaten in einer einzigen Schnittstelle.

Chainalysis stellt den vielleicht bedeutendsten Wendepunkt dar. Seine Blockchain-Intelligence-Agenten, die auf über 10 Millionen Untersuchungen und Milliarden von gescreenten Transaktionen aus mehr als einem Jahrzehnt trainiert wurden, bieten Untersuchungsfunktionen in natürlicher Sprache, welche die technische Barriere für Compliance-Analysen senken. Ein Ermittler kann nun auf einfachem Englisch beschreiben, wonach er sucht, und der Agent identifiziert relevante Transaktionen, erstellt Zusammenfassungsberichte und baut sogar komplette Webanwendungen von Grund auf neu. Die Agenten begannen im Sommer 2026 mit dem Rollout, angefangen bei Anwendungsfällen für Ermittlungen und Compliance.

Das Muster ist klar: Jeder große Analyseanbieter rennt darum, seine Daten maschinenlesbar zu machen. Die Unternehmen, die dieses Rennen gewinnen, werden die Intelligenzebene dessen erobern, was laut MarketsandMarkets bis 2030 ein 52,6 Milliarden USD schwerer KI-Agentenmarkt sein wird.

Die Bepreisung der Maschine: Von Seat - Lizenzen zu Query - Metering

Der Übergang von menschlichen zu maschinellen Konsumenten schafft ein grundlegendes Preisproblem, das Analytikunternehmen bisher noch nicht gelöst haben.

Die traditionelle Preisgestaltung im Bereich Analytics folgt einem Modell pro Sitzplatz (Seat - based), das aus der Unternehmenssoftware übernommen wurde: Nansen berechnet pro Analyst, Chainalysis lizenziert pro Organisation und Dune Analytics bietet einen gestuften Zugang basierend auf dem Abfragevolumen und der Aktualität der Daten. Diese Modelle setzen voraus, dass ein Mensch auf jedem „Platz“ sitzt und eine überschaubare Anzahl von Abfragen pro Tag tätigt.

Ein KI - Agent sitzt nicht auf einem Platz. Er stellt tausende von Abfragen pro Sekunde. Ihm ist die Ästhetik des Dashboards egal. Ihm geht es um API - Latenz, Verfügbarkeitsgarantien und Schema - Konsistenz. Der Wert, den er aus jeder Abfrage zieht, wird in Basispunkten des Trading - Gewinns gemessen, nicht in Stunden menschlicher Produktivität.

Dies zwingt Analytik - Anbieter zu einer verbrauchsbasierten Preisgestaltung – die Abrechnung erfolgt pro API - Aufruf, pro Datenpunkt oder pro konsumiertem Signal. Das API - Pricing von altFINS spiegelt diesen Wandel bereits wider und bietet gestufte Tarife an, die auf dem API - Aufrufvolumen und nicht auf der Anzahl der Nutzer basieren. Doch die verbrauchsbasierte Preisgestaltung bringt eigene Herausforderungen mit sich: unvorhersehbare Kosten für Agentenbetreiber, das Risiko explodierender Rechnungen in Zeiten hoher Volatilität und die Notwendigkeit einer Echtzeit - Verbrauchsmessung (Metering), für die die meisten Analytik - Plattformen nicht ausgelegt waren.

Das x402 - Protokoll, das bis Ende 2025 über 100 Millionen Transaktionen verarbeitet hat, bietet eine mögliche Antwort: einen Mikrozahlungs - nativen Datenzugriff, bei dem Agenten pro Abfrage in Stablecoins bezahlen und die Abrechnung in Echtzeit on - chain erfolgt. Dieses Modell bringt die Kosten perfekt mit dem Wert in Einklang – Agenten zahlen nur für die Daten, die sie tatsächlich nutzen, und Anbieter erzielen Einnahmen proportional zur gelieferten Intelligenz.

Aber das Mikrozahlungsmodell weist ebenfalls Reibungspunkte auf. Die Gaskosten können selbst auf L2s den Wert einer einzelnen Datenabfrage übersteigen. Die Latenz durch die On - Chain - Abwicklung verursacht Verzögerungen im Millisekundenbereich, die im Hochfrequenzhandel entscheidend sind. Zudem erzeugt die buchhalterische Komplexität bei der Verfolgung von Millionen von Zahlungen im Sub - Cent - Bereich einen operativen Overhead, der die theoretische Eleganz zunichtemacht.

Die wahrscheinliche Entwicklung ist ein Hybridmodell: Abonnementstufen für den Basiszugang, verbrauchsbasierte Preise für Nutzungsspitzen und Mikrozahlungsschienen für einmalige oder plattformübergreifende Abfragen. Der Analytik - Anbieter, der dieses Preismodell zuerst perfektioniert, wird einen überproportionalen Marktanteil in der Agent - Economy erobern.

Die Frage des Datenburggrabens: Können proprietäre Datensätze gegen Allzweck - KI bestehen?

Es gibt ein konträres Argument gegen die gesamte These der Analytik für Agenten: Was wäre, wenn Allzweck - LLMs lernen, Blockchain - Rohdaten direkt zu analysieren und damit spezialisierte Analytik - Plattformen irrelevant machen?

Dieses Argument ist oberflächlich betrachtet reizvoll. Moderne Sprachmodelle können bereits JSON parsen, Transaktionsprotokolle verarbeiten und Muster in strukturierten Daten identifizieren. Wenn ein ausreichend leistungsfähiges Modell rohe Ethereum - Ereignisprotokolle einlesen und dieselben Erkenntnisse liefern kann, die Nansens 500 Millionen Wallet - Labels bieten, dann wird die Labeling - Infrastruktur, deren Aufbau Jahre dauerte, zu einem Massenprodukt (Commodity).

Dieses Argument unterschätzt jedoch den Burggraben, der durch proprietäre Datensätze entsteht. Die 10 Millionen Ermittlungsdatensätze von Chainalysis reprsentieren kontextuelle Intelligenz, die nicht allein aus rohen Blockchain - Daten reproduziert werden kann. Wenn Chainalysis ein Wallet - Cluster als zu einer bestimmten sanktionierten Einheit gehörig kennzeichnet, stammt dieses Label aus jahrelanger Zusammenarbeit mit Strafverfolgungsbehörden, Gerichtsakten und investigativen Techniken – nicht aus dem Musterabgleich von Transaktionsgraphen.

In ähnlicher Weise enthalten die Wallet - Labels von Nansen, die kodieren, welche Adressen zu bestimmten Fonds, Market Makern und bekannten Entitäten gehören, Off - Chain - Informationen, die durch Partnerschaften, manuelle Recherche und Community - Beiträge gesammelt wurden. Ein LLM, das rohe Blockchain - Daten analysiert, würde Transaktionsmuster sehen, wüsste aber nicht, dass die Adresse 0x1234... zum Treasury - Wallet eines bestimmten Venture - Fonds gehört.

Der verteidigungsfähige Burggraben in der Ära der Agenten ist nicht der Datenzugriff – rohe Blockchain - Daten sind bauartbedingt öffentlich. Der Burggraben ist die kontextuelle Anreicherung: die proprietären Labels, Risikobewertungen, Entity - Mappings und Verhaltensprofile, die rohe On - Chain - Daten in umsetzbare Intelligenz verwandeln. Analytik - Anbieter, die in die Vertiefung dieser kontextuellen Ebene investieren, werden florieren. Diejenigen, die lediglich öffentliche Daten aggregieren und über Dashboards präsentieren, werden durch Agenten ersetzt, die dieselbe Aggregation schneller und billiger durchführen können.

Compliance - Intelligence: Wo Agenten auf Regulierung treffen

Der Bereich Compliance ist möglicherweise der vertikale Markt, in dem KI - Agenten und On - Chain - Analytik den unmittelbarsten Wert schaffen. Untersuchungen zur Geldwäschebekämpfung (AML), Sanktionsprüfungen und Meldungen über verdächtige Aktivitäten beinhalten alle die Mustererkennung in massiven Transaktionsdatensätzen – genau die Art von Arbeit, in der Agenten hervorragend sind.

Die Blockchain - Intelligence - Agenten von Chainalysis sind für diesen Anwendungsfall konzipiert und bieten das, was das Unternehmen als „prüfbare Ergebnisse und deterministische Workflows beschreibt, bei denen dieselben Eingaben konsistente Ergebnisse liefern“. Dies ist für die Compliance entscheidend: Regulierungsbehörden verlangen Reproduzierbarkeit, und ein Compliance - Beauftragter kann einem Prüfer nicht sagen: „Unsere KI hielt diese Transaktion für verdächtig“, ohne die Begründung erklären und reproduzieren zu können.

TRM Labs und Elliptic haben ähnliche Systeme eingeführt und damit einen Wettbewerbsdruck erzeugt, der den Stand der Technik rasant vorantreibt. Der „Agentic AI“ - Ansatz von AnChain.AI kombiniert LLM - gestützte Intelligenz mit institutionellen Daten - APIs für Echtzeit - AML, Betrugserkennung und Sanktionsprüfung.

Die regulatorischen Auswirkungen sind erheblich. Wenn KI - Agenten Transaktionen schneller und genauer prüfen können als menschliche Compliance - Teams, könnten Regulierungsbehörden irgendwann eine agentengestützte Compliance als Mindeststandard vorschreiben – ähnlich wie die automatisierte Transaktionsüberwachung die manuelle Prüfung im traditionellen Bankwesen ersetzt hat. Der Bericht der Financial Action Task Force vom März 2026, der an den Dollar gekoppelte Stablecoins als dominierendes Vehikel für die Umgehung von Sanktionen identifiziert, verleiht diesem Übergang zusätzliche Dringlichkeit.

Für Analytik - Anbieter stellt Compliance einen stabilen Umsatzstrom mit hohen Wechselkosten dar. Sobald eine Institution Chainalysis oder TRM Labs in ihren Compliance - Workflow integriert hat, schaffen die Kosten einer Migration – in Bezug auf regulatorische Risiken, Validierungsaufwand und operative Störungen – einen natürlichen Burggraben, der wiederkehrende Einnahmen schützt, selbst wenn andere vertikale Bereiche zum Massenmarkt werden.

Was als Nächstes kommt: Der Intelligence-Layer-Stack

Die On-Chain-Analyse-Branche stirbt nicht — sie teilt sich in Schichten auf. Der entstehende Stack sieht wie folgt aus:

Raw Data Layer: Öffentliche Blockchain-Daten, indexiert und abfragbar über Dienste wie Dune Analytics, The Graph und Bitquery. Diese Schicht wird schnell zur Handelsware (Commoditization), da immer mehr Anbieter indexierte Blockchain-Daten bereitstellen.

Enrichment Layer: Proprietäre Entity-Labels, Risikobewertungen, Verhaltensprofile und kontextbezogene Intelligenz. Nansen, Chainalysis und Arkham konkurrieren hier, und ihre Daten-Burgen (Data Moats) bestimmen die Preismacht.

Signal Layer: Vorkalkulierte Handelssignale, Anomalieerkennung und entscheidungsreife Informationen. Die über 130 Signale von altFINS und das Echtzeit-Screening von AnChain.AI sind beispielhaft für diese Schicht. Der Wert entsteht durch analytische Berechnungen, nicht durch Rohdaten.

Execution Layer: MCP-Server und APIs, die Intelligenz in Aktionen umsetzen. deBridge für die Cross-Chain-Ausführung, OKX OnchainOS für Multi-DEX-Routing und Coinbase Agentic Wallets für den handel ohne Verwahrung (custody-free trading).

Orchestration Layer: Agent-Frameworks, die Intelligenz und Ausführung in autonomen Workflows kombinieren. Hier liegt die Marktchance von 52,6 Milliarden US-Dollar — in den Agenten selbst und in der Infrastruktur, die sie koordiniert.

Die Unternehmen, die den größten Wert schöpfen, werden diejenigen sein, die mehrere Schichten abdecken oder eine Schicht mit verteidigungsfähigen, proprietären Daten dominieren. Ein reiner Datenanbieter, der nur auf dem Raw Data Layer konkurriert, ist der Kommodifizierung ausgesetzt. Ein Enrichment-Anbieter mit 500 Millionen proprietären Labels verfügt über Preismacht. Ein Signal-Anbieter, der entscheidungsreife Informationen liefert, verdient einen Anteil an jedem Handel, den seine Signale beeinflussen.

Der Übergang von menschlichen Dashboards zu Machine-Intelligence-Feeds ist keine Bedrohung für die Analysebranche — es ist eine Erweiterung ihres adressierbaren Marktes um Größenordnungen. Wenn jeder autonome Agent Echtzeit-Blockchain-Intelligenz für seinen Betrieb benötigt, wird die Nachfrage nach maschinenlesbaren On-Chain-Analysen alles in den Schatten stellen, was die Ära der menschlichen Analyse hervorbringen konnte.

Das Rennen läuft, und das Ziel ist nicht ein besseres Dashboard. Es ist die unsichtbare Intelligenzschicht, die jede autonome Transaktion auf jeder Chain antreibt — das Bloomberg-Terminal für Maschinen, das niemand sieht, von dem aber alles abhängt.


Der Aufbau der Infrastruktur für die agentenbasierte Blockchain-Ökonomie erfordert zuverlässigen Hochleistungs-API-Zugang. BlockEden.xyz bietet RPC- und API-Dienste der Enterprise-Klasse für über 30 Blockchain-Netzwerke und betreibt die Daten-Pipelines, auf die sowohl menschliche Analysten als auch KI-Agenten angewiesen sind.