Direkt zum Hauptinhalt

302 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

Gensyns Judge: Wie bitgenaue Reproduzierbarkeit die Ära der undurchsichtigen KI-APIs beendet

· 19 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Mal, wenn Sie ChatGPT, Claude oder Gemini abfragen, vertrauen Sie einer unsichtbaren Blackbox. Die Modellversion? Unbekannt. Die genauen Gewichte? Proprietär. Ob die Ausgabe von dem Modell generiert wurde, von dem Sie glauben, dass Sie es verwenden, oder von einer im Stillen aktualisierten Variante? Unmöglich zu verifizieren. Für Gelegenheitsnutzer, die nach Rezepten oder Trivia fragen, ist diese Intransparenz lediglich ärgerlich. Für kritische KI-Entscheidungen – wie Finanzhandelsalgorithmen, medizinische Diagnosen oder rechtliche Vertragsanalysen – ist sie eine fundamentale Vertrauenskrise.

Gensyn's Judge, der Ende 2025 eingeführt wurde und 2026 in die Produktion geht, bietet eine radikale Alternative: kryptografisch verifizierbare KI-Evaluierung, bei der jede Inferenz bis auf das Bit genau reproduzierbar ist. Anstatt OpenAI oder Anthropic zu vertrauen, das korrekte Modell bereitzustellen, ermöglicht Judge es jedem zu verifizieren, dass ein spezifisches, zuvor vereinbartes KI-Modell deterministisch mit realen Eingabedaten ausgeführt wurde – wobei kryptografische Beweise sicherstellen, dass die Ergebnisse nicht gefälscht werden können.

Der technische Durchbruch ist Verde, das Verifizierungssystem von Gensyn, das den Fließkomma-Nondeterminismus eliminiert – den Fluch der KI-Reproduzierbarkeit. Durch die Durchsetzung bitgenauer Berechnungen über verschiedene Geräte hinweg stellt Verde sicher, dass die Ausführung desselben Modells auf einer NVIDIA A100 in London und einer AMD MI250 in Tokio identische Ergebnisse liefert, die on-chain nachweisbar sind. Dies erschließt verifizierbare KI für dezentrale Finanzen, autonome Agenten und jede Anwendung, bei der Transparenz nicht optional, sondern existenziell ist.

Das Problem undurchsichtiger APIs: Vertrauen ohne Verifizierung

Die KI-Branche basiert auf APIs. Entwickler integrieren GPT-4 von OpenAI, Claude von Anthropic oder Gemini von Google über REST-Endpunkte, senden Prompts und erhalten Antworten. Aber diese APIs sind von Grund auf undurchsichtig:

Versionsunsicherheit: Wenn Sie gpt-4 aufrufen, welche genaue Version erhalte ich? GPT-4-0314? GPT-4-0613? Eine im Stillen aktualisierte Variante? Anbieter spielen häufig Patches ohne öffentliche Ankündigung ein und ändern so das Modellverhalten über Nacht.

Kein Audit-Trail: API-Antworten enthalten keinen kryptografischen Beweis dafür, welches Modell sie generiert hat. Wenn OpenAI eine zensierte oder voreingenommene Variante für bestimmte Regionen oder Kunden bereitstellt, haben die Nutzer keine Möglichkeit, dies zu erkennen.

Stille Degradierung: Anbieter können Modelle „lobotomieren“, um Kosten zu senken – also die Inferenzqualität verringern, während der gleiche API-Vertrag beibehalten wird. Nutzer berichten, dass GPT-4 mit der Zeit „dümmere“ Antworten gibt, aber ohne transparente Versionierung bleiben solche Behauptungen rein anekdotisch.

Nondeterministische Ausgaben: Sogar die zweimalige Abfrage desselben Modells mit identischen Eingaben kann aufgrund von Temperatureinstellungen, Batching oder Fließkomma-Rundungsfehlern auf Hardwareebene unterschiedliche Ergebnisse liefern. Dies macht Audits unmöglich – wie verifiziert man die Korrektheit, wenn die Ausgaben nicht reproduzierbar sind?

Für alltägliche Anwendungen sind diese Probleme Unannehmlichkeiten. Für kritische Entscheidungen sind sie Hindernisse. Betrachten Sie:

Algorithmischer Handel: Ein Hedgefonds setzt einen KI-Agenten ein, der DeFi-Positionen im Wert von 50 Millionen $ verwaltet. Der Agent verlässt sich auf GPT-4, um die Marktstimmung aus X-Posts zu analysieren. Wenn das Modell während einer Handelssitzung im Stillen aktualisiert wird, verschieben sich die Sentiment-Scores unvorhersehbar – was unbeabsichtigte Liquidationen auslöst. Der Fonds hat keinen Beweis dafür, dass sich das Modell falsch verhalten hat; die Protokolle von OpenAI sind nicht öffentlich prüfbar.

Medizinische Diagnostik: Ein Krankenhaus nutzt ein KI-Modell, um Krebsbehandlungen zu empfehlen. Vorschriften verlangen, dass Ärzte die Entscheidungsprozesse dokumentieren. Wenn die Version des KI-Modells jedoch nicht verifiziert werden kann, ist der Audit-Trail unvollständig. Ein Kunstfehlerprozess könnte davon abhängen, zu beweisen, welches Modell die Empfehlung generiert hat – was mit undurchsichtigen APIs unmöglich ist.

DAO-Governance: Eine dezentrale Organisation nutzt einen KI-Agenten, um über Schatzkammer-Vorschläge abzustimmen. Community-Mitglieder fordern den Beweis, dass der Agent das genehmigte Modell verwendet hat – und nicht eine manipulierte Variante, die bestimmte Ergebnisse begünstigt. Ohne kryptografische Verifizierung fehlt der Abstimmung die Legitimität.

Dies ist die Vertrauenslücke, die Gensyn adressiert: Da KI zunehmend in kritische Entscheidungsprozesse eingebettet wird, wird die Unfähigkeit, die Authentizität und das Verhalten von Modellen zu verifizieren, zu einem „fundamentalen Hindernis für den Einsatz agiler KI in risikoreichen Umgebungen“.

Judge: Das Protokoll für verifizierbare KI-Evaluierung

Judge löst das Transparenzproblem, indem es zuvor vereinbarte, deterministische KI-Modelle mit realen Eingabedaten ausführt und die Ergebnisse auf einer Blockchain festschreibt, wo jeder sie anfechten kann. So funktioniert das Protokoll:

1. Modell-Commitment: Die Teilnehmer einigen sich auf ein KI-Modell – seine Architektur, Gewichte und Inferenzkonfiguration. Dieses Modell wird gehasht und on-chain hinterlegt. Der Hash dient als kryptografischer Fingerabdruck: Jede Abweichung vom vereinbarten Modell erzeugt einen anderen Hash.

2. Deterministische Ausführung: Judge führt das Modell mit der Gensyn Reproducible Runtime aus, die eine bitgenaue Reproduzierbarkeit über verschiedene Geräte hinweg garantiert. Dies eliminiert den Fließkomma-Nondeterminismus – eine entscheidende Innovation, die wir gleich näher beleuchten.

3. Öffentliches Commitment: Nach der Inferenz postet Judge das Ergebnis (oder einen Hash davon) on-chain. Dies schafft einen dauerhaften, prüfbaren Datensatz darüber, was das Modell für eine bestimmte Eingabe produziert hat.

4. Challenge-Phase: Jeder kann das Ergebnis anfechten, indem er das Modell unabhängig erneut ausführt. Wenn das Ergebnis abweicht, reicht er einen Betrugsbeweis (Fraud Proof) ein. Der Refereed Delegation Mechanism von Verde lokalisiert den exakten Operator im Berechnungsgraphen, an dem die Ergebnisse divergieren.

5. Slashing bei Betrug: Wenn ein Challenger beweist, dass Judge falsche Ergebnisse geliefert hat, wird der ursprüngliche Ausführer bestraft (Slashing der gestakten Token). Dies gleicht die wirtschaftlichen Anreize an: Die Ausführer maximieren ihren Gewinn, indem sie die Modelle korrekt ausführen.

Judge transformiert die KI-Evaluierung von „Vertrauen in den API-Anbieter“ hin zu „Verifizierung des kryptografischen Beweises“. Das Verhalten des Modells ist öffentlich, prüfbar und durchsetzbar – nicht länger verborgen hinter proprietären Endpunkten.

Verde: Eliminierung des Gleitkomma-Nondeterminismus

Die zentrale technische Herausforderung bei verifizierbarer KI ist der Determinismus. Neuronale Netze führen während der Inferenz Milliarden von Gleitkommaoperationen durch. Auf modernen GPUs sind diese Operationen nicht perfekt reproduzierbar:

Nicht-Assoziativität: Die Gleitkomma-Addition ist nicht assoziativ. ( a + b ) + c könnte aufgrund von Rundungsfehlern ein anderes Ergebnis liefern als a + ( b + c ). GPUs parallelisieren Summen über Tausende von Kernen, und die Reihenfolge, in der Teilsummen akkumuliert werden, variiert je nach Hardware und Treiberversion.

Variabilität beim Kernel-Scheduling: GPU-Kernel (wie Matrixmultiplikation oder Attention) können je nach Arbeitslast, Treiberoptimierungen oder Hardwarearchitektur in unterschiedlichen Reihenfolgen ausgeführt werden. Selbst wenn man dasselbe Modell zweimal auf derselben GPU ausführt, kann dies zu unterschiedlichen Ergebnissen führen, wenn das Kernel-Scheduling variiert.

Batch-Größen-Abhängigkeit: Untersuchungen haben ergeben, dass LLM-Inferenz auf Systemebene nondeterministisch ist, da die Ausgabe von der Batch-Größe abhängt. Viele Kernel (Matmul, RMSNorm, Attention) ändern die numerische Ausgabe basierend darauf, wie viele Samples zusammen verarbeitet werden – eine Inferenz mit Batch-Größe 1 liefert andere Werte als dieselbe Eingabe in einem Batch von 8.

Diese Probleme machen Standard-KI-Modelle für die Blockchain-Verifizierung ungeeignet. Wenn zwei Validatoren dieselbe Inferenz erneut ausführen und leicht unterschiedliche Ergebnisse erhalten, wer hat dann recht? Ohne Determinismus ist ein Konsens unmöglich.

Verde löst dies mit RepOps (Reproducible Operators) – einer Bibliothek, die Hardware-Nondeterminismus eliminiert, indem sie die Reihenfolge der Gleitkommaoperationen auf allen Geräten kontrolliert. So funktioniert es:

Kanonische Reduktionsreihenfolgen: RepOps erzwingt eine deterministische Reihenfolge für das Summieren von Teilergebnissen in Operationen wie der Matrixmultiplikation. Anstatt den GPU-Scheduler entscheiden zu lassen, legt RepOps explizit fest: „Summiere Spalte 0, dann Spalte 1, dann Spalte 2...“ über alle Hardware hinweg. Dies stellt sicher, dass ( a + b ) + c immer in derselben Sequenz berechnet wird.

Benutzerdefinierte CUDA-Kernel: Gensyn hat optimierte Kernel entwickelt, die Reproduzierbarkeit vor reine Geschwindigkeit stellen. RepOps-Matrixmultiplikationen verursachen weniger als 30 % Overhead im Vergleich zum Standard-cuBLAS – ein akzeptabler Kompromiss für Determinismus.

Treiber- und Versions-Pinning: Verde verwendet versionsgebundene GPU-Treiber und kanonische Konfigurationen, um sicherzustellen, dass dasselbe Modell auf unterschiedlicher Hardware identische bitweise Ausgaben liefert. Ein Modell, das auf einer NVIDIA A100 in einem Rechenzentrum läuft, entspricht Bit für Bit der Ausgabe einer AMD MI250 in einem anderen.

Dies ist der Durchbruch, der die Verifizierung durch Judge ermöglicht: Bitgenaue Reproduzierbarkeit bedeutet, dass Validatoren Ergebnisse unabhängig bestätigen können, ohne den Executoren vertrauen zu müssen. Wenn der Hash übereinstimmt, ist die Inferenz korrekt – mathematisch beweisbar.

Refereed Delegation: Effiziente Verifizierung ohne vollständige Neuberechnung

Selbst bei deterministischer Ausführung ist die naive Verifizierung von KI-Inferenzen teuer. Ein Modell mit 70 Milliarden Parametern, das 1.000 Token generiert, könnte 10 GPU-Stunden erfordern. Wenn Validatoren jede Inferenz erneut ausführen müssen, um die Korrektheit zu prüfen, entsprechen die Verifizierungskosten den Ausführungskosten – was den Zweck der Dezentralisierung zunichtemacht.

Verdes Refereed-Delegation-Mechanismus macht die Verifizierung exponentiell günstiger:

Mehrere nicht vertrauenswürdige Executoren: Anstelle eines Executors weist Judge Aufgaben mehreren unabhängigen Anbietern zu. Jeder führt dieselbe Inferenz aus und reicht die Ergebnisse ein.

Unstimmigkeiten lösen Untersuchungen aus: Wenn sich alle Executoren einig sind, wird das Ergebnis akzeptiert – keine weitere Verifizierung erforderlich. Wenn die Ergebnisse voneinander abweichen, leitet Verde ein Challenge-Game ein.

Binäre Suche über den Berechnungsgraphen: Verde führt nicht die gesamte Inferenz erneut aus. Stattdessen wird eine binäre Suche über den Berechnungsgraphen des Modells durchgeführt, um den ersten Operator zu finden, bei dem die Ergebnisse divergieren. Dies lokalisiert genau die Ebene (z. B. „Attention Layer 47, Head 8“), die die Diskrepanz verursacht.

Minimale Referee-Berechnung: Ein Referee (der ein Smart Contract oder ein Validator mit begrenzter Rechenleistung sein kann) prüft nur den umstrittenen Operator – nicht den gesamten Forward-Pass. Für ein Modell mit 70 Mrd. Parametern und 80 Layern reduziert dies die Verifizierung im schlimmsten Fall auf die Prüfung von etwa 7 Layern ( log₂ 80 ).

Dieser Ansatz ist über 1.350 % effizienter als die naive Replikation (bei der jeder Validator alles erneut ausführt). Gensyn kombiniert kryptografische Beweise, Spieltheorie und optimierte Prozesse, um eine korrekte Ausführung ohne redundante Berechnungen zu garantieren.

Das Ergebnis: Judge kann KI-Workloads in großem Maßstab verifizieren und ermöglicht dezentrale Inferenznetzwerke, in denen Tausende von nicht vertrauenswürdigen Knoten Rechenleistung beisteuern – und unehrliche Executoren entlarvt und bestraft werden.

KI-Entscheidungsfindung mit hohem Einsatz: Warum Transparenz wichtig ist

Der Zielmarkt von Judge sind keine Gelegenheits-Chatbots – es sind Anwendungen, bei denen Verifizierbarkeit nicht nur ein nettes Feature, sondern eine regulatorische oder wirtschaftliche Anforderung ist. Hier sind Szenarien, in denen undurchsichtige APIs katastrophal scheitern:

Dezentrales Finanzwesen (DeFi): Autonome Trading-Agenten verwalten Milliarden an Vermögenswerten. Wenn ein Agent ein KI-Modell nutzt, um über die Neuausrichtung von Portfolios zu entscheiden, benötigen Nutzer den Beweis, dass das Modell nicht manipuliert wurde. Judge ermöglicht die On-Chain-Verifizierung: Der Agent legt sich auf einen spezifischen Modell-Hash fest, führt Trades basierend auf dessen Ausgaben aus, und jeder kann die Entscheidungslogik anfechten. Diese Transparenz verhindert Rug Pulls, bei denen böswillige Agenten ohne Beweise behaupten, „die KI habe mir gesagt, ich solle liquidieren“.

Einhaltung regulatorischer Vorschriften (Compliance): Finanzinstitute, die KI für Kredit-Scoring, Betrugserkennung oder Geldwäscheprävention (AML) einsetzen, müssen Audits durchlaufen. Regulatoren verlangen Erklärungen: „Warum hat das Modell diese Transaktion markiert?“ Undurchsichtige APIs bieten keinen Audit-Trail. Judge erstellt eine unveränderliche Aufzeichnung von Modellversion, Eingaben und Ausgaben – und erfüllt so die Compliance-Anforderungen.

Algorithmische Governance: Dezentrale Autonome Organisationen (DAOs) nutzen KI-Agenten, um Governance-Entscheidungen vorzuschlagen oder darüber abzustimmen. Community-Mitglieder müssen verifizieren können, dass der Agent das genehmigte Modell verwendet hat – und keine manipulierte Variante. Mit Judge kodiert die DAO den Modell-Hash in ihrem Smart Contract, und jede Entscheidung enthält einen kryptografischen Korrektheitsbeweis.

Medizinische und rechtliche KI: Gesundheits- und Rechtssysteme erfordern Rechenschaftspflicht. Ein Arzt, der Krebs mithilfe von KI diagnostiziert, muss die exakte verwendete Modellversion dokumentieren. Ein Anwalt, der Verträge mit KI entwirft, muss beweisen können, dass die Ausgabe von einem geprüften, unvoreingenommenen Modell stammt. Der On-Chain-Audit-Trail von Judge liefert diesen Beweis.

Prognosemärkte und Orakel: Projekte wie Polymarket nutzen KI, um Wettergebnisse zu klären (z. B. „Wird dieses Ereignis eintreten?“). Wenn die Klärung von einem KI-Modell abhängt, das Nachrichtenartikel analysiert, benötigen die Teilnehmer den Beweis, dass das Modell nicht manipuliert wurde. Judge verifiziert die KI-Inferenz des Orakels und verhindert so Streitigkeiten.

In jedem dieser Fälle ist der gemeinsame Nenner, dass Vertrauen ohne Transparenz unzureichend ist. Wie VeritasChain anmerkt, benötigen KI-Systeme „kryptografische Flugschreiber“ – unveränderliche Protokolle, die beweisen, was passiert ist, wenn Streitigkeiten auftreten.

Die Zero-Knowledge-Proof-Alternative: Vergleich zwischen Verde und ZKML

Judge ist nicht der einzige Ansatz für verifizierbare KI. Zero-Knowledge Machine Learning (ZKML) erreicht ähnliche Ziele mittels zk-SNARKs: kryptografische Beweise, dass eine Berechnung korrekt durchgeführt wurde, ohne Eingaben oder Gewichtungen offenzulegen.

Wie schneidet Verde im Vergleich zu ZKML ab?

Verifizierungskosten: ZKML erfordert etwa 1.000× mehr Rechenaufwand als die ursprüngliche Inferenz, um Beweise zu generieren (Forschungsschätzungen). Ein Modell mit 70 Milliarden Parametern, das 10 GPU-Stunden für die Inferenz benötigt, könnte 10.000 GPU-Stunden für den Beweis erfordern. Die referenzierte Delegation von Verde ist logarithmisch: Die Überprüfung von ca. 7 Schichten anstelle von 80 entspricht einer 10-fachen Reduktion, nicht einer 1.000-fachen.

Prover-Komplexität: ZKML verlangt spezialisierte Hardware (wie maßgeschneiderte ASICs für zk-SNARK-Schaltkreise), um Beweise effizient zu erstellen. Verde funktioniert auf handelsüblichen GPUs – jeder Miner mit einem Gaming-PC kann teilnehmen.

Datenschutz-Abwägungen: Die Stärke von ZKML ist der Datenschutz – Beweise verraten nichts über Eingaben oder Modellgewichte. Die deterministische Ausführung von Verde ist transparent: Eingaben und Ausgaben sind öffentlich (obwohl Gewichte verschlüsselt werden können). Für weitreichende Entscheidungsfindungen ist Transparenz oft wünschenswert. Eine DAO, die über die Zuweisung von Treasury-Mitteln abstimmt, möchte öffentliche Audit-Trails, keine verborgenen Beweise.

Umfang der Beweisführung: ZKML ist praktisch auf die Inferenz beschränkt – der Nachweis des Trainings ist bei den aktuellen Rechenkosten nicht machbar. Verde unterstützt sowohl die Verifizierung von Inferenz als auch von Training (das umfassendere Protokoll von Gensyn verifiziert verteiltes Training).

Praxisnahe Einführung: ZKML-Projekte wie Modulus Labs haben Durchbrüche erzielt (Verifizierung von Modellen mit 18 Mio. Parametern auf der Chain), bleiben aber auf kleinere Modelle beschränkt. Die deterministische Runtime von Verde bewältigt Modelle mit mehr als 70 Mrd. Parametern in der Produktion.

ZKML glänzt dort, wo Datenschutz an oberster Stelle steht – etwa bei der Verifizierung biometrischer Authentifizierung (Worldcoin), ohne Iris-Scans preiszugeben. Verde glänzt dort, wo Transparenz das Ziel ist – der Nachweis, dass ein bestimmtes öffentliches Modell korrekt ausgeführt wurde. Beide Ansätze ergänzen sich und stehen nicht im Wettbewerb.

Das Gensyn-Ökosystem: Von Judge zum dezentralen Training

Judge ist ein Bestandteil der umfassenderen Vision von Gensyn: ein dezentrales Netzwerk für Machine-Learning-Rechenleistung. Das Protokoll umfasst:

Execution Layer: Konsistente ML-Ausführung auf heterogener Hardware (Consumer-GPUs, Enterprise-Cluster, Edge-Geräte). Gensyn standardisiert Inferenz- und Trainings-Workloads und gewährleistet Kompatibilität.

Verification Layer (Verde): Vertrauenslose Verifizierung durch referenzierte Delegation. Unehrliche Ausführer werden erkannt und bestraft.

Peer-to-Peer-Kommunikation: Workload-Verteilung über Geräte hinweg ohne zentrale Koordination. Miner erhalten Aufgaben, führen sie aus und übermitteln Beweise direkt an die Blockchain.

Dezentrale Koordination: Smart Contracts auf einem Ethereum-Rollup identifizieren Teilnehmer, weisen Aufgaben zu und verarbeiten Zahlungen erlaubnisfrei.

Das öffentliche Testnetz von Gensyn startete im März 2025, das Mainnet ist für 2026 geplant. Der öffentliche Verkauf des $AI-Tokens fand im Dezember 2025 statt und schuf wirtschaftliche Anreize für Miner und Validatoren.

Judge fügt sich als Evaluierungsebene in dieses Ökosystem ein: Während das Kernprotokoll von Gensyn Training und Inferenz übernimmt, stellt Judge sicher, dass diese Ausgaben verifizierbar sind. Dies schafft einen Flywheel-Effekt:

Entwickler trainieren Modelle im dezentralen Netzwerk von Gensyn (günstiger als AWS aufgrund von nicht ausgelasteten Consumer-GPUs, die Rechenleistung beisteuern).

Modelle werden bereitgestellt, wobei Judge die Integrität der Evaluierung garantiert. Anwendungen nutzen Inferenz über die APIs von Gensyn, aber im Gegensatz zu OpenAI enthält jede Ausgabe einen kryptografischen Beweis.

Validatoren verdienen Gebühren, indem sie Beweise prüfen und Betrug aufdecken, wodurch wirtschaftliche Anreize mit der Netzwerksicherheit in Einklang gebracht werden.

Vertrauen skaliert, da immer mehr Anwendungen verifizierbare KI übernehmen und die Abhängigkeit von zentralisierten Anbietern verringern.

Das Endziel: KI-Training und -Inferenz, die nachweislich korrekt, dezentral und für jeden zugänglich sind – nicht nur für Big Tech.

Herausforderungen und offene Fragen

Der Ansatz von Judge ist bahnbrechend, doch es bleiben einige Herausforderungen:

Performance-Overhead: Die Verlangsamung von RepOps um 30 % ist für die Verifizierung akzeptabel. Wenn jedoch jede Inferenz deterministisch laufen muss, könnten latenzkritische Anwendungen (Echtzeithandel, autonome Fahrzeuge) schnellere, nicht verifizierbare Alternativen bevorzugen. Die Roadmap von Gensyn sieht wahrscheinlich eine weitere Optimierung von RepOps vor – es gibt jedoch einen grundlegenden Kompromiss zwischen Geschwindigkeit und Determinismus.

Fragmentierung der Treiberversionen: Verde setzt auf festgeschriebene Treiberversionen, aber GPU-Hersteller veröffentlichen ständig Updates. Wenn einige Miner CUDA 12.4 und andere 12.5 verwenden, bricht die bitweise Reproduzierbarkeit zusammen. Gensyn muss ein striktes Versionsmanagement durchsetzen – was das Onboarding von Minern verkompliziert.

Geheimhaltung von Modellgewichten: Die Transparenz von Judge ist ein Vorteil für öffentliche Modelle, aber ein Nachteil für proprietäre. Wenn ein Hedgefonds ein wertvolles Handelsmodell trainiert, legt die Bereitstellung auf Judge die Gewichte gegenüber Konkurrenten offen (über das On-Chain-Commitment). ZKML-basierte Alternativen könnten für geheime Modelle bevorzugt werden – was darauf hindeutet, dass Judge auf offene oder halb-offene KI-Anwendungen abzielt.

Latenz bei der Streitbeilegung: Wenn ein Challenger Betrug behauptet, erfordert die Lösung des Streits via binärer Suche mehrere On-Chain-Transaktionen (jede Runde grenzt den Suchraum ein). Hochfrequenzanwendungen können nicht Stunden auf die Finalität warten. Gensyn könnte eine optimistische Verifizierung einführen (Korrektheit annehmen, sofern nicht innerhalb eines Zeitfensters angefochten), um die Latenz zu verringern.

Sybil-Resistenz in der referenzierten Delegation: Wenn mehrere Ausführer zustimmen müssen, was hindert eine einzelne Entität daran, alle Ausführer über Sybil-Identitäten zu kontrollieren? Gensyn nutzt wahrscheinlich eine Stake-gewichtete Auswahl (Validatoren mit hoher Reputation werden bevorzugt ausgewählt) sowie Slashing, um Absprachen abzuschrecken – die wirtschaftlichen Schwellenwerte müssen jedoch sorgfältig kalibriert werden.

Dies sind keine Ausschlusskriterien – es sind technische Herausforderungen. Die Kerninnovation (deterministische KI + kryptografische Verifizierung) ist solide. Die Details der Ausführung werden mit dem Übergang vom Testnet zum Mainnet ausreifen.

Der Weg zur verifizierbaren KI: Adaptionspfade und Marktpassung

Der Erfolg von Judge hängt von der Adaption ab. Welche Anwendungen werden verifizierbare KI zuerst einsetzen?

DeFi-Protokolle mit autonomen Agenten: DAOs wie Aave, Compound oder Uniswap könnten durch Judge verifizierte Agenten für das Treasury-Management integrieren. Die Community stimmt über die Genehmigung eines Modell-Hashs ab, und alle Entscheidungen der Agenten enthalten Beweise. Diese Transparenz schafft Vertrauen – entscheidend für die Legitimität von DeFi.

Prognosemärkte und Orakel: Plattformen wie Polymarket oder Chainlink könnten Judge nutzen, um Wetten aufzulösen oder Preis-Feeds bereitzustellen. KI-Modelle, die Stimmungslagen, Nachrichten oder On-Chain-Aktivitäten analysieren, würden verifizierbare Ausgaben produzieren – was Streitigkeiten über Orakel-Manipulationen eliminiert.

Dezentrale Identität und KYC: Projekte, die eine KI-basierte Identitätsverifizierung erfordern (Altersschätzung anhand von Selfies, Echtheitsprüfungen von Dokumenten), profitieren vom Audit-Trail von Judge. Regulierungsbehörden akzeptieren kryptografische Compliance-Nachweise, ohne zentralen Identitätsanbietern vertrauen zu müssen.

Inhaltsmoderation für soziale Medien: Dezentrale soziale Netzwerke (Farcaster, Lens Protocol) könnten durch Judge verifizierte KI-Moderatoren einsetzen. Community-Mitglieder verifizieren, dass das Moderationsmodell nicht voreingenommen oder zensiert ist – was die Neutralität der Plattform sicherstellt.

AI-as-a-Service-Plattformen: Entwickler, die KI-Anwendungen erstellen, können "verifizierbare Inferenz" als Premium-Funktion anbieten. Nutzer zahlen extra für Beweise und differenzieren so Dienste von undurchsichtigen Alternativen.

Die Gemeinsamkeit: Anwendungen, bei denen Vertrauen teuer ist (aufgrund von Regulierung, Dezentralisierung oder hohen Einsätzen) und die Verifizierungskosten akzeptabel sind (im Vergleich zum Wert der Gewissheit).

Judge wird OpenAI bei Consumer-Chatbots nicht ersetzen – Nutzer legen keinen Wert darauf, ob GPT-4 verifizierbar ist, wenn sie nach Rezeptideen fragen. Aber für Finanzalgorithmen, medizinische Werkzeuge und Governance-Systeme ist verifizierbare KI die Zukunft.

Verifizierbarkeit als neuer Standard

Der Judge von Gensyn stellt einen Paradigmenwechsel dar: Die KI-Evaluierung bewegt sich von "Vertrauen in den Anbieter" hin zu "Verifizierung des Beweises". Die technische Grundlage – bitgenaue Reproduzierbarkeit via Verde, effiziente Verifizierung durch referenzierte Delegation (refereed delegation) und On-Chain-Audit-Trails – macht diesen Übergang praktisch und nicht nur erstrebenswert.

Die Auswirkungen reichen weit über Gensyn hinaus. Wenn verifizierbare KI zum Standard wird, verlieren zentrale Anbieter ihre Wettbewerbsvorteile (Moats). Das Wertversprechen von OpenAI sind nicht nur die Fähigkeiten von GPT-4 – es ist die Bequemlichkeit, die Infrastruktur nicht selbst verwalten zu müssen. Aber wenn Gensyn beweist, dass dezentrale KI mit der Leistung zentralisierter Systeme mithalten kann und zusätzlich Verifizierbarkeit bietet, haben Entwickler keinen Grund mehr, sich an proprietäre APIs zu binden.

Das Rennen läuft. ZKML-Projekte (Modulus Labs, Worldcoins biometrisches System) setzen auf Zero-Knowledge-Proofs. Deterministische Laufzeiten (Gensyns Verde, EigenAI) setzen auf Reproduzierbarkeit. Optimistische Ansätze (Blockchain-KI-Orakel) setzen auf Betrugsbeweise (Fraud Proofs). Jeder Pfad hat Kompromisse – aber das Ziel ist dasselbe: KI-Systeme, deren Ausgaben beweisbar und nicht nur plausibel sind.

Für folgenschwere Entscheidungen ist dies nicht optional. Regulierungsbehörden werden in Finanz-, Gesundheits- oder Rechtsanwendungen kein "Vertrauen Sie uns" von KI-Anbietern akzeptieren. DAOs werden das Treasury-Management nicht an Black-Box-Agenten delegieren. Und da autonome KI-Systeme immer leistungsfähiger werden, wird die Öffentlichkeit Transparenz fordern.

Judge ist das erste produktionsreife System, das dieses Versprechen einlöst. Das Testnet ist live. Die kryptografischen Grundlagen sind solide. Der Markt – 27 Milliarden US-Dollar in Krypto-KI-Agenten, Milliarden an DeFi-Vermögenswerten, die von Algorithmen verwaltet werden, und der zunehmende regulatorische Druck – ist bereit.

Die Ära der undurchsichtigen KI-APIs endet. Das Zeitalter der verifizierbaren Intelligenz beginnt. Und der Judge von Gensyn weist den Weg.


Quellen:

Nillions Blacklight geht live: Wie ERC-8004 die Vertrauensschicht für autonome KI-Agenten aufbaut

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 2. Februar 2026 machte die Ökonomie der KI-Agenten einen entscheidenden Schritt nach vorne. Nillion startete Blacklight, einen Verification Layer, der den ERC-8004-Standard implementiert, um eine der dringlichsten Fragen der Blockchain zu lösen: Wie vertraut man einem KI-Agenten, dem man noch nie begegnet ist?

Die Antwort ist nicht ein einfacher Reputation Score oder ein zentralisiertes Register. Es ist ein fünfstufiger Verifizierungsprozess, der durch kryptografische Beweise, programmierbare Audits und ein Netzwerk von gemeinschaftlich betriebenen Nodes gestützt wird. Da autonome Agenten zunehmend Trades ausführen, Treasuries verwalten und Cross-Chain-Aktivitäten koordinieren, stellt Blacklight die Infrastruktur dar, die eine trustless KI-Koordination in großem Maßstab ermöglicht.

Das Vertrauensproblem, das KI-Agenten nicht alleine lösen können

Die Zahlen sprechen für sich. KI-Agenten tragen mittlerweile 30 % des Handelsvolumens von Polymarket bei, verwalten DeFi-Yield-Strategien über mehrere Protokolle hinweg und führen autonom komplexe Workflows aus. Aber es gibt einen grundlegenden Engpass: Wie verifizieren Agenten die Vertrauenswürdigkeit des jeweils anderen ohne bestehende Beziehungen?

Traditionelle Systeme verlassen sich auf zentrale Instanzen, die Credentials ausstellen. Das Versprechen von Web3 ist ein anderes – trustless Verifizierung durch Kryptografie und Konsens. Doch bis ERC-8004 gab es keinen standardisierten Weg für Agenten, ihre Authentizität zu beweisen, ihr Verhalten zu verfolgen oder ihre Entscheidungslogik On-Chain zu validieren.

Dies ist kein rein theoretisches Problem. Wie Davide Crapis erklärt: „ERC-8004 ermöglicht dezentrale Interaktionen von KI-Agenten, etabliert trustless Handel und verbessert Reputationssysteme auf Ethereum.“ Ohne diesen Standard bleibt der Handel von Agent zu Agent auf geschlossene Systeme beschränkt oder erfordert manuelle Aufsicht – was den Zweck der Autonomie zunichtemacht.

ERC-8004: Die Trust-Infrastruktur aus drei Registern

Der ERC-8004-Standard, der am 29. Januar 2026 im Ethereum-Mainnet live ging, etabliert einen modularen Trust Layer durch drei On-Chain-Register:

Identity Registry: Nutzt ERC-721, um portable Agenten-Identifikatoren bereitzustellen. Jeder Agent erhält einen Non-Fungible Token, der seine einzigartige On-Chain-Identität repräsentiert, was eine plattformübergreifende Erkennung ermöglicht und Identitäts-Spoofing verhindert.

Reputation Registry: Sammelt standardisiertes Feedback und Bewertungen. Im Gegensatz zu zentralisierten Bewertungssystemen wird das Feedback On-Chain mit kryptografischen Signaturen aufgezeichnet, wodurch ein unveränderlicher Audit-Trail entsteht. Jeder kann diese Historie durchsuchen und eigene Reputationsalgorithmen erstellen.

Validation Registry: Unterstützt die kryptografische und ökonomische Verifizierung der Arbeit von Agenten. Hier finden programmierbare Audits statt – Validatoren können Berechnungen erneut ausführen, Zero-Knowledge-Proofs verifizieren oder Trusted Execution Environments (TEEs) nutzen, um zu bestätigen, dass ein Agent korrekt gehandelt hat.

Die Brillanz von ERC-8004 liegt in seinem unvoreingenommenen Design. Wie die technische Spezifikation anmerkt, unterstützt der Standard verschiedene Validierungstechniken: „Stake-gesicherte Neuausführung von Aufgaben (inspiriert von Systemen wie EigenLayer), Verifizierung von Zero-Knowledge Machine Learning (zkML) Proofs und Attestierungen von Trusted Execution Environments.“

Diese Flexibilität ist wichtig. Ein DeFi-Arbitrage-Agent könnte zkML-Proofs verwenden, um seine Handelslogik zu verifizieren, ohne Alpha preiszugeben. Ein Supply-Chain-Agent könnte TEE-Attestierungen nutzen, um zu beweisen, dass er korrekt auf Real-World-Daten zugegriffen hat. Ein Cross-Chain-Bridge-Agent könnte auf krypto-ökonomische Validierung mit Slashing setzen, um eine ehrliche Ausführung zu gewährleisten.

Blacklights fünfstufiger Verifizierungsprozess

Nillions Implementierung von ERC-8004 auf Blacklight fügt eine entscheidende Ebene hinzu: gemeinschaftlich betriebene Verifizierungs-Nodes. So funktioniert der Prozess:

1. Agenten-Registrierung: Ein Agent registriert seine Identität in der Identity Registry und erhält ein ERC-721 NFT. Dies erstellt einen eindeutigen On-Chain-Identifikator, der an den öffentlichen Schlüssel des Agenten gebunden ist.

2. Initiierung der Verifizierungsanfrage: Wenn ein Agent eine Aktion ausführt, die eine Validierung erfordert (z. B. Ausführung eines Trades, Überweisung von Geldern oder Aktualisierung des Status), sendet er eine Verifizierungsanfrage an Blacklight.

3. Zuweisung des Komitees: Das Protokoll von Blacklight weist zufällig ein Komitee aus Verifizierungs-Nodes zu, um die Anfrage zu prüfen. Diese Nodes werden von Community-Mitgliedern betrieben, die 70.000 NIL-Token staken, wodurch Anreize für die Netzwerkintegrität geschaffen werden.

4. Node-Prüfungen: Komitee-Mitglieder führen die Berechnung erneut aus oder validieren kryptografische Proofs. Wenn Validatoren fehlerhaftes Verhalten feststellen, können sie den Stake des Agenten kürzen (in Systemen, die krypto-ökonomische Validierung nutzen) oder die Identität in der Reputation Registry markieren.

5. On-Chain-Reporting: Die Ergebnisse werden On-Chain veröffentlicht. Die Validation Registry zeichnet auf, ob die Arbeit des Agenten verifiziert wurde, und schafft so einen permanenten Ausführungsbeweis. Die Reputation Registry wird entsprechend aktualisiert.

Dieser Prozess erfolgt asynchron und nicht blockierend, was bedeutet, dass Agenten bei Routineaufgaben nicht auf die Verifizierung warten müssen – aber bei risikoreichen Aktionen (große Überweisungen, Cross-Chain-Operationen) kann eine Vorab-Validierung erforderlich sein.

Programmierbare Audits: Jenseits von binärem Vertrauen

Das ehrgeizigste Feature von Blacklight ist die „programmierbare Verifizierung“ – die Fähigkeit zu prüfen, wie ein Agent Entscheidungen trifft, und nicht nur, was er tut.

Betrachten wir einen DeFi-Agenten, der eine Treasury verwaltet. Traditionelle Audits verifizieren, dass Gelder korrekt bewegt wurden. Programmierbare Audits verifizieren:

  • Konsistenz der Entscheidungslogik: Hat der Agent seine angegebene Investmentstrategie befolgt oder ist er davon abgewichen?
  • Ausführung mehrstufiger Workflows: Wenn der Agent Portfolios über drei Chains hinweg umschichten sollte, hat er alle Schritte abgeschlossen?
  • Sicherheitsbeschränkungen: Hat der Agent Gas-Limits, Slippage-Toleranzen und Exposure-Obergrenzen eingehalten?

Dies ist möglich, da die Validation Registry von ERC-8004 beliebige Proof-Systeme unterstützt. Ein Agent kann sich on-chain auf einen Entscheidungsalgorithmus festlegen (z. B. ein Hash seiner neuronalen Netzwerkgewichtungen oder ein zk-SNARK-Schaltkreis, der seine Logik darstellt) und dann beweisen, dass jede Aktion diesem Algorithmus entspricht, ohne proprietäre Details offenzulegen.

Nillions Roadmap zielt explizit auf diese Anwendungsfälle ab: „Nillion plant, die Fähigkeiten von Blacklight auf die ‚programmierbare Verifizierung‘ auszuweiten, was dezentrale Audits komplexer Verhaltensweisen wie die Konsistenz der Entscheidungslogik von Agenten, die Ausführung mehrstufiger Workflows und Sicherheitsbeschränkungen ermöglicht.“

Dies verschiebt die Verifizierung von reaktiv (Fehler im Nachhinein finden) zu proaktiv (korrektes Verhalten durch Design erzwingen).

Blind Computation: Privatsphäre trifft auf Verifizierung

Nillions zugrunde liegende Technologie – Nil Message Compute (NMC) – fügt der Agenten-Verifizierung eine Datenschutz-Dimension hinzu. Im Gegensatz zu herkömmlichen Blockchains, bei denen alle Daten öffentlich sind, ermöglicht Nillions „Blind Computation“ Operationen auf verschlüsselten Daten ohne Entschlüsselung.

Warum das für Agenten wichtig ist: Ein KI-Agent muss möglicherweise seine Handelsstrategie verifizieren, ohne sein Alpha an Konkurrenten preiszugeben. Oder er muss beweisen, dass er korrekt auf vertrauliche medizinische Unterlagen zugegriffen hat, ohne Patientendaten offenzulegen. Oder er muss die Einhaltung regulatorischer Auflagen nachweisen, ohne proprietäre Geschäftslogik zu enthüllen.

Nillions NMC erreicht dies durch Multi-Party Computation (MPC), bei der Nodes gemeinsam „Blinding Factors“ generieren – korrelierte Zufälligkeit, die zur Verschlüsselung von Daten verwendet wird. Wie DAIC Capital erklärt: „Nodes generieren die wichtigste Netzwerkressource, die für die Datenverarbeitung benötigt wird – eine Art korrelierte Zufälligkeit, die als Blinding Factor bezeichnet wird. Dabei speichert jeder Node seinen Anteil am Blinding Factor sicher und verteilt das Vertrauen quantensicher über das Netzwerk.“

Diese Architektur ist von Grund auf quantenresistent. Selbst wenn ein Quantencomputer die heutige Elliptische-Kurven-Kryptographie knackt, bleiben verteilte Blinding Factors sicher, da kein einzelner Node über genügend Informationen verfügt, um Daten zu entschlüsseln.

Für KI-Agenten bedeutet dies, dass die Verifizierung nicht auf Kosten der Vertraulichkeit geht. Ein Agent kann beweisen, dass er eine Aufgabe korrekt ausgeführt hat, während er seine Methoden, Datenquellen und Entscheidungslogik privat hält.

Der 4,3 Milliarden $ Infrastruktur-Ansatz der Agent-Economy

Der Start von Blacklight erfolgt zu einem Zeitpunkt, an dem der Blockchain-KI-Sektor in ein Hyperwachstum eintritt. Es wird prognostiziert, dass der Markt von 680 Millionen (2025)auf4,3Milliarden(2025) auf 4,3 Milliarden (2034) mit einer CAGR von 22,9 % wachsen wird, während der breitere Markt für Confidential Computing bis 2032 ein Volumen von 350 Milliarden $ erreicht.

Aber Nillion setzt nicht nur auf die Marktexpansion – es positioniert sich als kritische Infrastruktur. Der Engpass der Agent-Economy ist nicht Rechenleistung oder Speicherplatz, sondern Vertrauen in großem Maßstab. Wie der Ausblick von KuCoin für 2026 anmerkt, gestalten drei Haupttrends die KI-Identität und den Wertefluss neu:

Agent-Wrapping-Agent-Systeme: Agenten, die sich mit anderen Agenten koordinieren, um komplexe mehrstufige Aufgaben auszuführen. Dies erfordert standardisierte Identität und Verifizierung – genau das, was ERC-8004 bietet.

KYA (Know Your Agent): Finanzielle Infrastruktur, die Agenten-Credentials verlangt. Regulierungsbehörden werden keine autonomen Agenten zulassen, die Gelder verwalten, ohne dass ein Beweis für korrektes Verhalten vorliegt. Die programmierbaren Audits von Blacklight adressieren dies direkt.

Nano-Zahlungen: Agenten müssen Mikrozahlungen effizient abwickeln. Das x402-Zahlungsprotokoll, das im Januar 2026 über 20 Millionen Transaktionen verarbeitete, ergänzt ERC-8004, indem es die Abwicklung übernimmt, während Blacklight für das Vertrauen sorgt.

Zusammen erreichten diese Standards innerhalb weniger Wochen nacheinander die Produktionsreife – ein Durchbruch in der Koordination, der die Reifung der Infrastruktur signalisiert.

Ethereums Agent-zentrierte Zukunft

Die Einführung von ERC-8004 geht weit über Nillion hinaus. Seit Anfang 2026 haben mehrere Projekte den Standard integriert:

  • Oasis Network: Implementierung von ERC-8004 für Confidential Computing mit TEE-basierter Validierung
  • The Graph: Unterstützung von ERC-8004 und x402 zur Ermöglichung verifizierbarer Agenten-Interaktionen in der dezentralen Indexierung
  • MetaMask: Erforschung von Agent-Wallets mit integrierter ERC-8004-Identität
  • Coinbase: Integration von ERC-8004 für institutionelle Verwahrungslösungen für Agenten

Diese schnelle Akzeptanz spiegelt einen breiteren Wandel in Ethereums Roadmap wider. Vitalik Buterin hat wiederholt betont, dass die Rolle der Blockchain zunehmend „nur noch die Rohrleitungen“ für KI-Agenten wird – nicht die Ebene für Endverbraucher, sondern die Vertrauensinfrastruktur, die autonome Koordination ermöglicht.

Nillions Blacklight beschleunigt diese Vision, indem es die Verifizierung programmierbar, datenschutzfreundlich und dezentral macht. Anstatt sich auf zentralisierte Orakel oder menschliche Prüfer zu verlassen, können Agenten ihre Korrektheit kryptographisch beweisen.

Was als nächstes kommt: Mainnet-Integration und Ökosystem-Erweiterung

Die 2026 Roadmap von Nillion priorisiert Ethereum-Kompatibilität und nachhaltige Dezentralisierung. Die Ethereum-Bridge ging im Februar 2026 live, gefolgt von nativen Smart Contracts für Staking und Blind Computation.

Community-Mitglieder, die 70.000 NIL-Token staken, können Blacklight-Verifizierungs-Nodes betreiben und Belohnungen verdienen, während sie die Netzwerkintegrität aufrechterhalten. Dieses Design spiegelt die Validator-Ökonomie von Ethereum wider, fügt jedoch eine verifizierungsspezifische Rolle hinzu.

Die nächsten Meilensteine umfassen:

  • Erweiterte zkML-Unterstützung: Integration mit Projekten wie Modulus Labs zur Verifizierung von KI-Inferenzen On-Chain
  • Cross-Chain-Verifizierung: Ermöglichung von Blacklight, Agenten zu verifizieren, die über Ethereum, Cosmos und Solana hinweg agieren
  • Institutionelle Partnerschaften: Kooperationen mit Coinbase und Alibaba Cloud für den Einsatz von Enterprise-Agenten
  • Tools für regulatorische Compliance: Entwicklung von KYA-Frameworks (Know Your Agent) für die Einführung im Finanzdienstleistungssektor

Vielleicht am wichtigsten ist, dass Nillion nilGPT entwickelt — einen vollständig privaten KI-Chatbot, der demonstriert, wie Blind Computation vertrauliche Agenten-Interaktionen ermöglicht. Dies ist nicht nur eine Demo; es ist eine Blaupause für Agenten, die sensible Daten im Gesundheitswesen, im Finanzwesen und im öffentlichen Sektor verarbeiten.

Das Endgame der trustlosen Koordination

Der Start von Blacklight markiert einen Wendepunkt für die Agent-Ökonomie. Vor ERC-8004 operierten Agenten in Silos — vertrauenswürdig innerhalb ihrer eigenen Ökosysteme, aber unfähig, sich ohne menschliche Vermittler plattformübergreifend zu koordinieren. Nach ERC-8004 können Agenten die Identität des jeweils anderen verifizieren, das Verhalten des anderen prüfen und Zahlungen autonom abwickeln.

Dies erschließt völlig neue Kategorien von Anwendungen:

  • Dezentrale Hedgefonds: Agenten, die Portfolios über verschiedene Chains hinweg verwalten, mit verifizierbaren Investmentstrategien und transparenten Performance-Audits
  • Autonome Lieferketten: Agenten, die Logistik, Zahlungen und Compliance ohne zentrale Aufsicht koordinieren
  • KI-gestützte DAOs: Organisationen, die von Agenten gesteuert werden, die auf Basis einer kryptografisch verifizierten Entscheidungslogik abstimmen, Vorschläge machen und diese ausführen
  • Protokollübergreifendes Liquiditätsmanagement: Agenten, die Vermögenswerte über DeFi-Protokolle hinweg mit programmierbaren Risikobeschränkungen umschichten

Der rote Faden? Alle erfordern trustlose Koordination — die Fähigkeit von Agenten, ohne bestehende Beziehungen oder zentrale Vertrauensanker zusammenzuarbeiten.

Nillions Blacklight bietet genau das. Durch die Kombination der Identitäts- und Reputationsinfrastruktur von ERC-8004 mit programmierbarer Verifizierung und Blind Computation schafft es eine Vertrauensebene, die skalierbar genug für die bevorstehende Billionen-Agenten-Ökonomie ist.

Da die Blockchain zum Grundgerüst für KI-Agenten und das globale Finanzwesen wird, ist die Frage nicht, ob wir eine Verifizierungsinfrastruktur benötigen — sondern wer sie baut und ob sie dezentralisiert ist oder von einigen wenigen Gatekeepern kontrolliert wird. Die von der Community betriebenen Nodes und der offene Standard von Blacklight sprechen für Letzteres.

Das Zeitalter der autonomen On-Chain-Akteure ist angebrochen. Die Infrastruktur ist live. Die einzige offene Frage ist, was darauf aufgebaut wird.


Quellen:

KI × Web3 Konvergenz: Wie die Blockchain zum Betriebssystem für autonome Agenten wurde

· 16 Min. Lesezeit
Dora Noda
Software Engineer

Am 29. Januar 2026 führte Ethereum ERC-8004 ein, einen Standard, der KI-Softwareagenten dauerhafte On-Chain-Identitäten verleiht. Innerhalb weniger Tage registrierten sich über 24.549 Agenten, und die BNB Chain gab die Unterstützung des Protokolls bekannt. Dies ist kein schrittweiser Fortschritt — es ist die Infrastruktur für autonome wirtschaftliche Akteure, die ohne menschliche Vermittlung Transaktionen durchführen, sich koordinieren und eine Reputation aufbauen können.

KI-Agenten benötigen keine Blockchain, um zu existieren. Aber sie benötigen die Blockchain zur Koordination. Um vertrauenswürdig über Organisationsgrenzen hinweg zu agieren. Um eine verifizierbare Reputation aufzubauen. Um Zahlungen autonom abzuwickeln. Um die Ausführung ohne zentralisierte Vermittler zu beweisen.

Die Konvergenz beschleunigt sich, weil beide Technologien die kritische Schwäche der jeweils anderen lösen: KI bietet Intelligenz und Automatisierung, die Blockchain bietet Vertrauen und wirtschaftliche Infrastruktur. Gemeinsam schaffen sie etwas, das keine von beiden allein erreicht: autonome Systeme, die an offenen Märkten teilnehmen können, ohne dass bereits bestehende Vertrauensbeziehungen erforderlich sind.

Dieser Artikel untersucht die Infrastruktur, welche die Konvergenz von KI × Web3 unvermeidlich macht — von Identitätsstandards über wirtschaftliche Protokolle bis hin zur dezentralen Modellausführung. Die Frage ist nicht, ob KI-Agenten auf der Blockchain operieren werden, sondern wie schnell die Infrastruktur skaliert, um Millionen von autonomen wirtschaftlichen Akteuren zu unterstützen.

ERC-8004: Identitätsinfrastruktur für KI-Agenten

ERC-8004 ging am 29. Januar 2026 im Ethereum-Mainnet live und etablierte standardisierte, erlaubnisfreie Mechanismen für die Identität, Reputation und Validierung von Agenten.

Das Protokoll löst ein grundlegendes Problem: Wie man Agenten über Organisationsgrenzen hinweg ohne bestehendes Vertrauen entdeckt, auswählt und mit ihnen interagiert. Ohne Identitätsinfrastruktur erfordert jede Interaktion zwischen Agenten eine zentralisierte Vermittlung — Marktplatzplattformen, Verifizierungsdienste, Schlichtungsebenen. ERC-8004 macht diese vertrauenslos (trustless) und kombinierbar (composable).

Drei Kernregister:

Identity Registry (Identitätsregister): Ein minimaler On-Chain-Handle basierend auf ERC-721 mit URIStorage-Erweiterung, der auf die Registrierungsdatei eines Agenten verweist. Jeder Agent erhält eine portable, zensurresistente Kennung. Keine zentrale Instanz kontrolliert, wer eine Agentenidentität erstellen kann oder welche Plattformen sie anerkennen.

Reputation Registry (Reputationsregister): Eine standardisierte Schnittstelle zum Veröffentlichen und Abrufen von Feedbacksignalen. Agenten bauen ihre Reputation durch die On-Chain-Transaktionshistorie, abgeschlossene Aufgaben und Bewertungen von Gegenparteien auf. Die Reputation wird über Plattformen hinweg portabel, anstatt in einzelnen Marktplätzen isoliert zu bleiben.

Validation Registry (Validierungsregister): Generische Hooks zum Anfordern und Aufzeichnen unabhängiger Validierungsprüfungen — Staker, die Aufträge erneut ausführen, zkML-Verifizierer, die die Ausführung bestätigen, TEE-Oracles, die Berechnungen beweisen, oder vertrauenswürdige Richter, die Streitigkeiten beilegen. Validierungsmechanismen lassen sich modular andocken, anstatt plattformspezifische Implementierungen zu erfordern.

Die Architektur schafft die Voraussetzungen für offene Agentenmärkte. Anstelle eines "Upwork für KI-Agenten" entstehen erlaubnisfreie Protokolle, in denen Agenten einander entdecken, Bedingungen aushandeln, Aufgaben ausführen und Zahlungen begleichen — und das alles ohne die Kontrolle einer zentralisierten Plattform.

Die schnelle Ankündigung der Unterstützung durch die BNB Chain signalisiert den Weg des Standards hin zu einer kettenübergreifenden (cross-chain) Einführung. Eine Multi-Chain-Identität ermöglicht es Agenten, über verschiedene Blockchain-Ökosysteme hinweg zu operieren und dabei ein einheitliches Reputations- und Verifizierungssystem beizubehalten.

DeMCP: Model Context Protocol trifft auf Dezentralisierung

DeMCP startete als das erste dezentrale Model Context Protocol Netzwerk und adressiert Vertrauen und Sicherheit mit TEE (Trusted Execution Environments) und Blockchain.

Das Model Context Protocol (MCP), entwickelt von Anthropic, standardisiert, wie Anwendungen Kontext für große Sprachmodelle (LLMs) bereitstellen. Man kann es sich wie USB-C für KI-Anwendungen vorstellen — statt individueller Integrationen für jede Datenquelle bietet MCP universelle Schnittstellenstandards.

DeMCP erweitert dies auf Web3: Es bietet nahtlosen Pay-as-you-go-Zugriff auf führende LLMs wie GPT-4 und Claude über On-Demand-MCP-Instanzen, die vollständig in Stablecoins (USDT/USDC) bezahlt werden und durch Revenue-Sharing-Modelle gesteuert werden.

Die Architektur löst drei kritische Probleme:

Zugang: Traditionelle KI-Modell-APIs erfordern zentralisierte Konten, Zahlungsinfrastrukturen und plattformspezifische SDKs. DeMCP ermöglicht es autonomen Agenten, über standardisierte Protokolle auf LLMs zuzugreifen und in Krypto zu bezahlen, ohne dass von Menschen verwaltete API-Schlüssel oder Kreditkarten erforderlich sind.

Vertrauen: Zentralisierte MCP-Dienste werden zu Single Points of Failure und Überwachungspunkten. Die TEE-gesicherten Knoten von DeMCP bieten eine verifizierbare Ausführung — Agenten können bestätigen, dass Modelle bestimmte Prompts ohne Manipulation ausgeführt haben, was für Finanzentscheidungen oder regulatorische Compliance entscheidend ist.

Komponierbarkeit: Eine neue Generation von KI-Agenten-Infrastruktur basierend auf MCP- und A2A-Protokollen (Agent-to-Agent) entsteht, die speziell für Web3-Szenarien entwickelt wurde. Sie ermöglicht es Agenten, auf Multi-Chain-Daten zuzugreifen und nativ mit DeFi-Protokollen zu interagieren.

Das Ergebnis: MCP macht KI zu einem gleichberechtigten Bürger (First-Class Citizen) von Web3. Die Blockchain liefert das Vertrauen, die Koordination und das wirtschaftliche Substrat. Zusammen bilden sie ein dezentrales Betriebssystem, in dem Agenten über interoperable Protokolle hinweg denken, sich koordinieren und handeln.

Zu den wichtigsten MCP-Kryptoprojekten, die man 2026 im Auge behalten sollte, gehören Infrastrukturanbieter, die Agenten-Koordinationsschichten aufbauen, dezentrale Modellausführungsnetzwerke und Integrationen auf Protokollebene, die es Agenten ermöglichen, autonom in Web3-Ökosystemen zu agieren.

Die über 170 Agenten-Tools von Polymarket: Infrastruktur in Aktion

Das Ökosystem von Polymarket ist auf über 170 Drittanbieter-Tools in 19 Kategorien angewachsen und hat sich zu einer unverzichtbaren Infrastruktur für alle entwickelt, die den Handel auf Prognosemärkten ernst nehmen.

Die Tool-Kategorien decken den gesamten Workflow von Agenten ab:

Autonomer Handel: KI-gestützte Agenten, die automatisch Strategien entdecken und optimieren, indem sie Prognosemärkte mit Yield Farming und DeFi-Protokollen integrieren. Einige Agenten erreichen eine Genauigkeit von 98 % bei kurzfristigen Vorhersagen.

Arbitrage-Systeme: Automatisierte Bots, die Preisunterschiede zwischen Polymarket und anderen Prognoseplattformen oder traditionellen Wettmärkten identifizieren und Trades schneller als menschliche Akteure ausführen.

Whale-Tracking: Tools zur Überwachung groß angelegter Positionsveränderungen, die es Agenten ermöglichen, institutionellen Aktivitäten basierend auf historischen Performance-Korrelationen zu folgen oder entgegenzuwirken.

Copy-Trading-Infrastruktur: Plattformen, die es Agenten ermöglichen, Strategien von Top-Performern zu replizieren, wobei On-Chain-Verifizierungen von Erfolgsbilanzen gefälschte Performance-Ansprüche verhindern.

Analytik & Daten-Feeds: Analysen auf institutionellem Niveau, die Agenten Markttiefe, Liquiditätsanalysen, historische Wahrscheinlichkeitsverteilungen und Korrelationen von Ereignisergebnissen liefern.

Risikomanagement: Automatisierte Positionsgrößenbestimmung, Exposure-Limits und Stop-Loss-Mechanismen, die direkt in die Handelslogik der Agenten integriert sind.

Das Ökosystem bestätigt die These der Konvergenz von KI × Web3. Polymarket stellt GitHub-Repositories und SDKs speziell für die Agenten-Entwicklung bereit und behandelt autonome Akteure als erstklassige Plattformteilnehmer und nicht als Randfälle oder Verstöße gegen die Nutzungsbedingungen.

Der Ausblick für 2026 beinhaltet den potenziellen Start des $ POLY-Tokens, der eine neue Dynamik in Bezug auf Governance, Gebührenstrukturen und Ökosystem-Anreize schafft. CEO Shayne Coplan deutete an, dass dies eines der größten TGEs (Token Generation Events) des Jahres 2026 werden könnte. Zusätzlich könnte der potenzielle Blockchain-Launch von Polymarket (nach dem Hyperliquid-Modell) die Infrastruktur grundlegend umgestalten, wobei Milliarden an eingeworbenen Mitteln eine Appchain zu einer natürlichen Evolution machen.

Der Infrastruktur-Stack: Ebenen von KI × Web3

Autonome Agenten, die auf der Blockchain operieren, erfordern eine koordinierte Infrastruktur über mehrere Ebenen hinweg:

Ebene 1: Identität & Reputation

  • ERC-8004-Register zur Agenten-Identifizierung
  • On-Chain-Reputationssysteme zur Verfolgung der Performance
  • Kryptografischer Nachweis von Agenten-Eigentum und -Autorität
  • Cross-Chain-Identitäts-Bridging für Multi-Ökosystem-Operationen

Ebene 2: Zugriff & Ausführung

  • DeMCP für dezentralen LLM-Zugriff
  • TEE-gesicherte Berechnungen für private Agenten-Logik
  • zkML (Zero-Knowledge Machine Learning) für verifizierbare Inferenz
  • Dezentrale Inferenznetzwerke zur Verteilung der Modellausführung

Ebene 3: Koordination & Kommunikation

  • A2A (Agent-to-Agent)-Protokolle für direkte Verhandlungen
  • Standardisierte Nachrichtenformate für die Kommunikation zwischen Agenten
  • Discovery-Mechanismen zum Finden von Agenten mit spezifischen Fähigkeiten
  • Treuhand- und Streitbeilegung für autonome Verträge

Ebene 4: Wirtschaftliche Infrastruktur

  • Stablecoin-Zahlungsschienen für grenzüberschreitende Abwicklungen
  • Automated Market Maker für von Agenten generierte Assets
  • Programmierbare Gebührenstrukturen und Umsatzbeteiligung
  • Token-basierte Anreizausrichtung

Ebene 5: Anwendungsprotokolle

  • DeFi-Integrationen für autonome Renditeoptimierung
  • Prognosemarkt-APIs für den Informationshandel
  • NFT-Marktplätze für von Agenten erstellte Inhalte
  • Frameworks für die Teilnahme an der DAO-Governance

Dieser Stack ermöglicht zunehmend komplexe Agenten-Verhaltensweisen: einfache Automatisierung (Smart-Contract-Ausführung), reaktive Agenten (Reaktion auf On-Chain-Ereignisse), proaktive Agenten (Initiierung von Strategien basierend auf Inferenz) und koordinierende Agenten (Verhandlung mit anderen autonomen Akteuren).

Die Infrastruktur ermöglicht es KI-Agenten nicht nur, die Blockchain zu nutzen – sie macht die Blockchain zur natürlichen Betriebsumgebung für autonome wirtschaftliche Aktivitäten.

Warum KI die Blockchain braucht: Das Vertrauensproblem

KI-Agenten stehen vor grundlegenden Vertrauensherausforderungen, die zentralisierte Architekturen nicht lösen können:

Verifizierung: Wie beweist man, dass ein KI-Agent eine bestimmte Logik ohne Manipulation ausgeführt hat? Traditionelle APIs bieten keine Garantien. Blockchain mit zkML- oder TEE-Attestierungen schafft verifizierbare Berechnungen – einen kryptografischen Nachweis, dass bestimmte Modelle bestimmte Eingaben verarbeitet und bestimmte Ausgaben erzeugt haben.

Reputation: Wie bauen Agenten über Organisationsgrenzen hinweg Glaubwürdigkeit auf? Zentralisierte Plattformen schaffen geschlossene Systeme – eine auf Upwork verdiente Reputation lässt sich nicht auf Fiverr übertragen. On-Chain-Reputation wird portabel, verifizierbar und resistent gegen Manipulationen durch Sybil-Angriffe.

Abwicklung: Wie handhaben autonome Agenten Zahlungen ohne menschliche Vermittlung? Traditionelles Banking erfordert Konten, KYC und menschliche Autorisierung für jede Transaktion. Stablecoins und Smart Contracts ermöglichen eine programmierbare, sofortige Abwicklung mit kryptografischer statt bürokratischer Sicherheit.

Koordination: Wie verhandeln Agenten verschiedener Organisationen ohne vertrauenswürdige Vermittler? Traditionelle Geschäfte erfordern Verträge, Anwälte und Durchsetzungsmechanismen. Smart Contracts ermöglichen die vertrauenslose Ausführung von Vereinbarungen – Code setzt Bedingungen automatisch basierend auf verifizierbaren Konditionen durch.

Attribuierung: Wie beweist man, welcher Agent bestimmte Ausgaben erstellt hat? Die Herkunft von KI-Inhalten wird entscheidend für Urheberrecht, Haftung und Umsatzverteilung. On-Chain-Attestierung bietet manipulationssichere Aufzeichnungen über Erstellung, Änderung und Eigentum.

Blockchain ermöglicht diese Fähigkeiten nicht nur – sie ist die einzige Architektur, die sie ohne die Wiedereinführung zentralisierter Vertrauensannahmen ermöglicht. Die Konvergenz ergibt sich aus technischer Notwendigkeit, nicht aus einem spekulativen Narrativ.

Warum Blockchain KI braucht: Das Intelligenzproblem

Blockchain steht vor ebenso fundamentalen Einschränkungen, die KI adressiert:

Komplexitätsabstraktion: Die Blockchain-UX bleibt mangelhaft — Seed-Phrasen, Gas-Gebühren, Transaktionssignierung. KI-Agenten können Komplexität abstrahieren und als intelligente Vermittler agieren, die die Absicht des Nutzers ausführen, ohne technische Implementierungsdetails preiszugeben.

Informationsverarbeitung: Blockchains liefern Daten, aber es fehlt ihnen an Intelligenz, um diese zu interpretieren. KI-Agenten analysieren On-Chain-Aktivitätsmuster, identifizieren Arbitrage-Möglichkeiten, sagen Marktbewegungen voraus und optimieren Strategien in einer Geschwindigkeit und einem Umfang, die für Menschen unmöglich sind.

Automatisierung: Smart Contracts führen Logik aus, können sich aber ohne explizite Programmierung nicht an veränderte Bedingungen anpassen. KI-Agenten ermöglichen eine dynamische Entscheidungsfindung, lernen aus Ergebnissen und passen Strategien an, ohne dass für jede Parameteränderung Governance-Vorschläge erforderlich sind.

Auffindbarkeit: DeFi-Protokolle leiden unter Fragmentierung — Nutzer müssen Möglichkeiten manuell auf Hunderten von Plattformen entdecken. KI-Agenten scannen, bewerten und leiten Aktivitäten kontinuierlich an optimale Protokolle weiter, basierend auf anspruchsvoller Optimierung mehrerer Variablen.

Risikomanagement: Menschliche Trader kämpfen mit Disziplin, Emotionen und Aufmerksamkeitsgrenzen. KI-Agenten setzen vordefinierte Risikoparameter durch, führen Stop-Loss-Orders ohne Zögern aus und überwachen Positionen rund um die Uhr auf mehreren Chains gleichzeitig.

Die Beziehung wird symbiotisch: Blockchain bietet die Vertrauensinfrastruktur, die die KI-Koordination ermöglicht, KI bietet die Intelligenz, die die Blockchain-Infrastruktur für komplexe wirtschaftliche Aktivitäten nutzbar macht.

Die entstehende Agenten-Ökonomie

Der Infrastruktur-Stack ermöglicht neue Wirtschaftsmodelle:

Agent-as-a-Service: Autonome Agenten vermieten ihre Fähigkeiten auf Abruf und legen Preise dynamisch basierend auf Angebot und Nachfrage fest. Keine Plattformen, keine Vermittler — direkte Agent-to-Agent-Servicemärkte.

Kollaborative Intelligenz: Agenten bündeln Fachwissen für komplexe Aufgaben und koordinieren sich über Smart Contracts, die Einnahmen automatisch basierend auf dem Beitrag verteilen. Multi-Agenten-Systeme lösen Probleme, die über die Fähigkeiten eines einzelnen Agenten hinausgehen.

Vorhersage-Erweiterung: Agenten überwachen kontinuierlich Informationsflüsse, aktualisieren Wahrscheinlichkeitsschätzungen und handeln auf Basis von Erkenntnissen, bevor Nachrichten für Menschen lesbar sind. Information Finance (InfoFi) wird algorithmisch, wobei Agenten die Preisfindung dominieren.

Autonome Organisationen: DAOs, die vollständig von KI-Agenten gesteuert werden, die im Namen der Token-Inhaber handeln und Entscheidungen durch verifizierbare Inferenz statt durch menschliche Abstimmungen treffen. Organisationen, die mit Maschinengeschwindigkeit und kryptografischer Rechenschaftspflicht arbeiten.

Content-Ökonomie: KI-generierte Inhalte mit On-Chain-Herkunft, die eine automatisierte Lizenzierung, Lizenzgebührenverteilung und Rechte zur Erstellung von Derivaten ermöglichen. Agenten verhandeln Nutzungsbedingungen und setzen die Namensnennung durch Smart Contracts durch.

Diese sind nicht hypothetisch — frühe Versionen sind bereits in Betrieb. Die Frage ist: Wie schnell skaliert die Infrastruktur, um Millionen autonomer wirtschaftlicher Akteure zu unterstützen?

Verbleibende technische Herausforderungen

Trotz schneller Fortschritte bleiben erhebliche Hindernisse bestehen:

Skalierbarkeit: Aktuelle Blockchains kämpfen mit dem Durchsatz. Millionen von Agenten, die kontinuierlich Mikrotransaktionen ausführen, erfordern Layer-2-Lösungen, Optimistic Rollups oder dedizierte agentenspezifische Chains.

Privatsphäre: Viele Agentenoperationen erfordern vertrauliche Logik oder Daten. TEEs bieten Teillösungen, aber Fully Homomorphic Encryption (FHE) und fortschrittliche Kryptografie bleiben für den Produktionseinsatz zu teuer.

Regulierung: Autonome wirtschaftliche Akteure fordern bestehende rechtliche Rahmenbedingungen heraus. Wer ist haftbar, wenn Agenten Schaden anrichten? Wie werden KYC / AML-Anforderungen angewendet? Die regulatorische Klarheit hinkt der technischen Leistungsfähigkeit hinterher.

Modellkosten: LLM-Inferenz bleibt teuer. Dezentrale Netzwerke müssen mit zentralisierten API-Preisen mithalten und gleichzeitig Verifizierungs-Overhead hinzufügen. Die wirtschaftliche Rentabilität erfordert kontinuierliche Verbesserungen der Modelleffizienz.

Orakel-Probleme: Agenten benötigen zuverlässige Echtzeitdaten aus der realen Welt. Bestehende Orakel-Lösungen führen Vertrauensannahmen und Latenzzeiten ein. Bessere Brücken zwischen On-Chain-Logik und Off-Chain-Informationen bleiben entscheidend.

Diese Herausforderungen sind nicht unüberwindbar — es sind technische Probleme mit klaren Lösungswegen. Die Entwicklung der Infrastruktur deutet auf eine Lösung innerhalb der nächsten 12 bis 24 Monate hin.

Der Wendepunkt 2026

Im Jahr 2026 kommen mehrere Katalysatoren zusammen:

Reifung von Standards: Die Einführung von ERC-8004 auf den wichtigsten Chains schafft eine interoperable Identitätsinfrastruktur. Agenten agieren nahtlos über Ethereum, BNB Chain und aufstrebende Ökosysteme hinweg.

Modelleffizienz: Kleinere, spezialisierte Modelle reduzieren die Inferenzkosten um das 10- bis 100-fache, während sie die Leistung für spezifische Aufgaben beibehalten. Die wirtschaftliche Rentabilität verbessert sich drastisch.

Regulatorische Klarheit: Die ersten Rechtssysteme legen Rahmenbedingungen für autonome Agenten fest und bieten institutionellen Akteuren rechtliche Sicherheit.

Durchbruch bei Anwendungen: Prognosemärkte, DeFi-Optimierung und die Erstellung von Inhalten demonstrieren eine klare Überlegenheit von Agenten gegenüber menschlichen Akteuren und treiben die Akzeptanz über Krypto-native Nutzer hinaus.

Infrastruktur-Wettbewerb: Mehrere Teams, die dezentrale Inferenz, Agenten-Koordinationsprotokolle und spezialisierte Chains entwickeln, erzeugen Wettbewerbsdruck, der die Entwicklung beschleunigt.

Die Konvergenz geht vom Experimentellen in das Infrastrukturelle über. Frühe Anwender gewinnen Vorteile, Plattformen integrieren standardmäßig die Unterstützung für Agenten, und wirtschaftliche Aktivitäten fließen zunehmend über autonome Vermittler.

Was das für die Web3-Entwicklung bedeutet

Entwickler , die für die nächste Phase des Web3 bauen , sollten folgendes priorisieren :

Agent-First-Design : Betrachten Sie autonome Akteure als primäre Nutzer , nicht als Randfälle . Entwerfen Sie APIs , Gebührenstrukturen und Governance-Mechanismen unter der Annahme , dass Agenten die Aktivitäten dominieren .

Komponierbarkeit : Bauen Sie Protokolle , die Agenten leicht integrieren , koordinieren und erweitern können . Standardisierte Schnittstellen sind wichtiger als proprietäre Implementierungen .

Verifizierung : Stellen Sie kryptografische Ausführungsnachweise bereit , nicht nur Ausführungsergebnisse . Agenten benötigen verifizierbare Berechnungen , um Vertrauensketten aufzubauen .

Wirtschaftliche Effizienz : Optimieren Sie für Mikrotransaktionen , kontinuierliche Abrechnungen und dynamische Gebührenmärkte . Traditionelle Stapelverarbeitung und manuelle Eingriffe lassen sich nicht für Agentenaktivitäten skalieren .

Datenschutzoptionen : Unterstützen Sie sowohl transparente als auch vertrauliche Agentenoperationen . Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenschutzgarantien .

Die Infrastruktur ist vorhanden . Die Standards zeichnen sich ab . Die wirtschaftlichen Anreize stimmen überein . Die AI × Web3-Konvergenz kommt nicht erst — sie ist bereits hier . Die Frage lautet : Wer baut die Infrastruktur , die zur Grundlage für das nächste Jahrzehnt autonomer wirtschaftlicher Aktivitäten wird ?

BlockEden.xyz bietet Infrastruktur auf Unternehmensniveau für Web3-Anwendungen und ermöglicht zuverlässigen , leistungsstarken RPC-Zugriff über die wichtigsten Blockchain-Ökosysteme hinweg . Entdecken Sie unsere Dienstleistungen für die Infrastruktur von KI-Agenten und die Unterstützung autonomer Systeme .


Quellen :

InfoFi-Explosion: Wie Informationen zum meistgehandelten Vermögenswert der Wall Street wurden

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Die Finanzindustrie hat gerade eine Schwelle überschritten, die die meisten nicht kommen sahen. Im Februar 2026 verarbeiteten Prognosemärkte ein wöchentliches Volumen von 6,32 Milliarden $ – nicht durch spekulatives Glücksspiel, sondern durch institutionelle Investoren, die Informationen selbst als handelbares Gut bepreisen.

Information Finance, oder „InfoFi“, stellt den Höhepunkt einer jahrzehntelangen Transformation dar: von 4,63 Milliarden $ im Jahr 2025 auf prognostizierte 176,32 Milliarden $ bis 2034. Die Web3-Infrastruktur hat Prognosemärkte von Wettplattformen zu dem entwickelt, was Vitalik Buterin als „Wahrheitsmaschinen“ (Truth Engines) bezeichnet – Finanzmechanismen, die Erkenntnisse schneller aggregieren als traditionelle Medien oder Umfragesysteme.

Hierbei geht es nicht nur um Krypto-Spekulation. ICE (Intercontinental Exchange, Eigentümer der New York Stock Exchange) investierte 2 Milliarden $ in Polymarket und bewertete den Prognosemarkt mit 9 Milliarden $. Hedgefonds und Zentralbanken integrieren heute Prognosemarktdaten in dieselben Terminals, die für Aktien und Derivate verwendet werden. InfoFi ist zu einer Finanzinfrastruktur geworden.

Was InfoFi eigentlich bedeutet

InfoFi behandelt Informationen als eine Anlageklasse. Anstatt Nachrichten passiv zu konsumieren, setzen die Teilnehmer Kapital auf die Richtigkeit von Behauptungen – und machen so jeden Datenpunkt zu einem Markt mit einem feststellbaren Preis.

Die Mechanik funktioniert wie folgt:

Traditioneller Informationsfluss: Ereignis tritt ein → Medien berichten → Analysten interpretieren → Märkte reagieren (Tage bis Wochen)

InfoFi-Informationsfluss: Märkte sagen Ereignis voraus → Kapital fließt in genaue Prognosen → Preis signalisiert die Wahrheit sofort (Minuten bis Stunden)

Prognosemärkte erreichten bis Januar 2026 ein wöchentliches Volumen von 5,9 Milliarden $, wobei Kalshi einen Marktanteil von 66,4 % eroberte und Polymarket von der institutionellen Infrastruktur der ICE unterstützt wurde. KI-Agenten tragen mittlerweile über 30 % zur Handelsaktivität bei und bepreisen kontinuierlich geopolitische Ereignisse, Wirtschaftsindikatoren und Unternehmensergebnisse.

Das Ergebnis: Informationen werden bepreist, bevor sie zu Nachrichten werden. Prognosemärkte identifizierten den Schweregrad von COVID-19 Wochen vor den Erklärungen der WHO, bepreisten das Ergebnis der US-Wahlen 2024 genauer als herkömmliche Umfragen und sagten Änderungen in der Zentralbankpolitik vor offiziellen Ankündigungen voraus.

Der Kampf Polymarket gegen Kalshi

Zwei Plattformen dominieren die InfoFi-Landschaft und repräsentieren grundlegend unterschiedliche Ansätze für Informationsmärkte.

Kalshi: Der staatlich regulierte Anwärter. Verarbeitete 2025 ein Volumen von 43,1 Milliarden $, wobei die CFTC-Aufsicht für institutionelle Legitimität sorgte. Der Handel erfolgt in Dollar, ist in traditionelle Brokerage-Konten integriert und konzentriert sich auf US-konforme Märkte.

Der regulatorische Rahmen begrenzt den Marktumfang, zieht aber institutionelles Kapital an. Die traditionelle Finanzwelt fühlt sich wohl dabei, Aufträge über Kalshi abzuwickeln, da es innerhalb der bestehenden Compliance-Infrastruktur operiert. Bis Februar 2026 hält Kalshi eine Wahrscheinlichkeit von 34 %, das Volumen im Jahr 2026 anzuführen, wobei 91,1 % des Handels auf Sportverträge konzentriert sind.

Polymarket: Der krypto-native Herausforderer. Auf Blockchain-Infrastruktur aufgebaut, verarbeitete 2025 ein Volumen von 33 Milliarden $ mit deutlich diversifizierteren Märkten – nur 39,9 % aus dem Sportbereich, der Rest verteilt auf Geopolitik, Wirtschaft, Technologie und kulturelle Ereignisse.

Die Investition der ICE in Höhe von 2 Milliarden $ änderte alles. Polymarket erhielt Zugang zu institutioneller Abwicklungsinfrastruktur, Marktdatenverteilung und regulatorischen Wegen, die zuvor traditionellen Börsen vorbehalten waren. Händler betrachten die ICE-Partnerschaft als Bestätigung dafür, dass Prognosemarktdaten bald neben Bloomberg-Terminals und Reuters-Feeds erscheinen werden.

Der Wettbewerb treibt Innovationen voran. Die regulatorische Klarheit von Kalshi ermöglicht die institutionelle Akzeptanz. Die Krypto-Infrastruktur von Polymarket ermöglicht globale Teilnahme und Komponierbarkeit. Beide Ansätze treiben InfoFi in Richtung Massenakzeptanz – unterschiedliche Wege, die zum selben Ziel führen.

KI-Agenten als Informationshändler

KI-Agenten konsumieren Informationen nicht nur – sie handeln mit ihnen.

Über 30 % des Volumens auf Prognosemärkten stammt heute von KI-Agenten, die kontinuierlich Datenströme analysieren, Trades ausführen und Wahrscheinlichkeitsprognosen aktualisieren. Dies sind keine einfachen Bots, die vordefinierten Regeln folgen. Moderne KI-Agenten integrieren mehrere Datenquellen, identifizieren statistische Anomalien und passen Positionen basierend auf sich entwickelnden Informationslandschaften an.

Der Aufstieg des KI-Handels schafft Rückkopplungsschleifen:

  1. KI-Agenten verarbeiten Informationen schneller als Menschen
  2. Handelsaktivitäten erzeugen Preissignale
  3. Preissignale werden zu Informationsinputs für andere Agenten
  4. Mehr Agenten treten bei, was die Liquidität und Genauigkeit erhöht

Diese Dynamik hat Prognosemärkte von menschlicher Spekulation zur algorithmischen Informationsgewinnung transformiert. Märkte werden nun in Echtzeit aktualisiert, da KI-Agenten Wahrscheinlichkeiten kontinuierlich basierend auf Nachrichtenflüssen, sozialer Stimmung, Wirtschaftsindikatoren und marktübergreifenden Korrelationen neu bewerten.

Die Auswirkungen reichen über den Handel hinaus. Prognosemärkte werden zu „Wahrheits-Oracles“ für Smart Contracts und bieten verifizierbare, ökonomisch abgesicherte Datenfeeds. DeFi-Protokolle können basierend auf den Ergebnissen von Prognosemärkten abrechnen. DAOs können den InfoFi-Konsens für Governance-Entscheidungen nutzen. Der gesamte Web3-Stack erhält Zugang zu einer hochwertigen, anreizorientierten Informationsinfrastruktur.

Der Absturz der Plattform X: Das erste Scheitern von InfoFi

Nicht alle InfoFi-Experimente sind erfolgreich. Im Januar 2026 brachen die Preise für InfoFi-Token ein, nachdem X (ehemals Twitter) Anwendungen für Engagement-Belohnungen verboten hatte.

Projekte wie KAITO (minus 18 %) und COOKIE (minus 20 %) bauten „Information-as-an-Asset“-Modelle auf, die Nutzer für Engagement, Datenbeiträge und Inhaltsqualität belohnten. Die These: Aufmerksamkeit hat einen Wert, und Nutzer sollten diesen Wert durch Token-Ökonomie erfassen.

Der Absturz offenbarte eine grundlegende Schwachstelle: den Aufbau dezentraler Ökonomien auf zentralisierten Plattformen. Als X die Nutzungsbedingungen änderte, verdampften ganze InfoFi-Ökosysteme über Nacht. Nutzer verloren den Token-Wert. Projekte verloren ihre Distribution. Die „dezentrale“ Informationsökonomie erwies sich als fragil gegenüber den Risiken zentralisierter Plattformen.

Überlebende haben die Lektion gelernt. Wahre InfoFi-Infrastruktur erfordert eine Blockchain-native Distribution, keine Abhängigkeiten von Web2-Plattformen. Projekte schwenkten auf dezentrale soziale Protokolle (Farcaster, Lens) und On-Chain-Datenmärkte um. Der Absturz beschleunigte die Migration von hybriden Web2-Web3-Modellen zu einer vollständig dezentralen Informationsinfrastruktur.

InfoFi jenseits von Prognosemärkten

Information-as-an-Asset erstreckt sich über binäre Vorhersagen hinaus.

Daten-DAOs: Organisationen, die kollektiv Datensätze besitzen, kuratieren und monetarisieren. Mitglieder tragen Daten bei, validieren die Qualität und teilen die Einnahmen aus der kommerziellen Nutzung. Die Tokenisierung von Real-World Assets erreichte bis Mitte 2025 23 Milliarden $, was den institutionellen Appetit auf die On-Chain-Wertdarstellung demonstriert.

Dezentrale physische Infrastrukturnetzwerke (DePIN): Anfang 2025 mit rund 30 Milliarden $ bewertet, mit über 1.500 aktiven Projekten. Einzelpersonen teilen ungenutzte Hardware (GPU-Leistung, Bandbreite, Speicher) und verdienen Token. Informationen werden zu handelbaren Rechenressourcen.

KI-Modell-Marktplätze: Blockchain ermöglicht verifizierbares Modell-Eigentum und die Verfolgung der Nutzung. Entwickler monetarisieren KI-Modelle durch On-Chain-Lizensierung, wobei Smart Contracts die Umsatzverteilung automatisieren. Informationen (Modellgewichte, Trainingsdaten) werden zu einer kombinierbaren, handelbaren Infrastruktur.

Credential-Märkte: Zero-Knowledge-Proofs ermöglichen eine datenschutzfreundliche Verifizierung von Berechtigungsnachweisen. Nutzer weisen Qualifikationen nach, ohne persönliche Daten preiszugeben. Verifizierbare Credentials werden zu handelbaren Vermögenswerten im Kontext von Einstellung, Kreditvergabe und Governance.

Der gemeinsame Nenner: Information wandelt sich von einer kostenlosen Externalität zu einem bepreisten Vermögenswert. Märkte entdecken den Wert für bisher nicht monetarisierbare Daten – Suchanfragen, Aufmerksamkeitsmetriken, Expertenverifizierung, Rechenressourcen.

Integration institutioneller Infrastruktur

Die Einführung von InfoFi an der Wall Street ist nicht theoretisch – sie ist operativ.

Das 2-Milliarden-$-Investment von ICE in Polymarket bietet das institutionelle Fundament: Compliance-Frameworks, Settlement-Infrastruktur, Marktdatenverteilung und regulatorische Wege. Daten von Prognosemärkten werden nun in Terminals integriert, die von Hedgefonds-Managern und Zentralbanken genutzt werden.

Diese Integration transformiert Prognosemärkte von alternativen Datenquellen zu einer primären Intelligence-Infrastruktur. Portfolio-Manager beziehen InfoFi-Wahrscheinlichkeiten neben technischen Indikatoren ein. Risikomanagementsysteme integrieren Signale von Prognosemärkten. Handelsalgorithmen verarbeiten Echtzeit-Wahrscheinlichkeits-Updates.

Der Übergang spiegelt wider, wie Bloomberg-Terminals über Jahrzehnte hinweg Datenquellen absorbierten – angefangen bei Anleihekursen über News-Feeds bis hin zur Integration sozialer Stimmungen. InfoFi stellt die nächste Ebene dar: ökonomisch abgesicherte Wahrscheinlichkeitsschätzungen für Ereignisse, die traditionelle Daten nicht einpreisen können.

Das traditionelle Finanzwesen erkennt das Wertversprechen. Informationskosten sinken, wenn Märkte die Genauigkeit kontinuierlich einpreisen. Hedgefonds zahlen Millionen für proprietäre Forschung, die Prognosemärkte organisch durch Anreizabstimmung (Incentive Alignment) generieren. Zentralbanken überwachen die öffentliche Stimmung durch Umfragen, die InfoFi in Echtzeit-Wahrscheinlichkeitsverteilungen erfasst.

Da die Branche ein Wachstum von 40 Milliarden $ im Jahr 2025 auf über 100 Milliarden $ bis 2027 prognostiziert, wird weiterhin institutionelles Kapital in die InfoFi-Infrastruktur fließen – nicht als spekulative Krypto-Wetten, sondern als Kernkomponenten des Finanzmarktes.

Die regulatorische Herausforderung

Das explosive Wachstum von InfoFi zieht die Aufmerksamkeit der Regulierungsbehörden auf sich.

Kalshi unterliegt der Aufsicht der CFTC und behandelt Prognosemärkte als Derivate. Dieser Rahmen schafft Klarheit, schränkt jedoch den Marktumfang ein – keine politischen Wahlen, keine „gesellschaftlich schädlichen“ Ergebnisse, keine Ereignisse außerhalb der regulatorischen Zuständigkeit.

Der krypto-native Ansatz von Polymarket ermöglicht globale Märkte, erschwert jedoch die Compliance. Regulierungsbehörden debattieren darüber, ob Prognosemärkte Glücksspiel, Wertpapierangebote oder Informationsdienste darstellen. Die Einstufung bestimmt, welche Behörden regulieren, welche Aktivitäten zulässig sind und wer teilnehmen darf.

Die Debatte konzentriert sich auf grundlegende Fragen:

  • Sind Prognosemärkte Glücksspiel oder Informationsgewinnung?
  • Stellen Token, die Marktpositionen repräsentieren, Wertpapiere dar?
  • Sollten Plattformen die Teilnehmer nach Geografie oder Akkreditierung einschränken?
  • Wie lassen sich bestehende Finanzvorschriften auf dezentrale Informationsmärkte anwenden?

Regulatorische Ergebnisse werden die Entwicklung von InfoFi prägen. Restriktive Rahmenbedingungen könnten Innovationen ins Ausland verlagern und gleichzeitig die institutionelle Beteiligung einschränken. Eine ausgewogene Regulierung könnte die Massenadaption beschleunigen und gleichzeitig die Marktintegrität schützen.

Erste Signale deuten auf pragmatische Ansätze hin. Regulierungsbehörden erkennen den Wert von Prognosemärkten für die Preisfindung und das Risikomanagement an. Die Herausforderung: Rahmenbedingungen zu schaffen, die Innovationen ermöglichen und gleichzeitig Manipulationen verhindern, Verbraucher schützen und die Finanzstabilität wahren.

Wie es weitergeht

InfoFi ist mehr als nur Prognosemärkte – es ist die Infrastruktur für die Informationsökonomie.

Da KI-Agenten zunehmend die Interaktion zwischen Mensch und Computer vermitteln, benötigen sie vertrauenswürdige Informationsquellen. Blockchain bietet verifizierbare, an Anreizen ausgerichtete Datenfeeds. Prognosemärkte bieten Echtzeit-Wahrscheinlichkeitsverteilungen. Die Kombination schafft eine „Wahrheitsinfrastruktur“ für autonome Systeme.

DeFi-Protokolle integrieren bereits InfoFi-Oracles für das Settlement. DAOs nutzen Prognosemärkte für die Governance. Versicherungsprotokolle bewerten Risiken mithilfe von On-Chain-Wahrscheinlichkeitsschätzungen. Die nächste Phase: die Einführung in Unternehmen für Lieferkettenprognosen, Marktforschung und strategische Planung.

Die Marktprognose von 176 Milliarden US-Dollar bis 2034 geht von einem schrittweisen Wachstum aus. Disruptionen könnten die Entwicklung schneller beschleunigen. Wenn große Finanzinstitute die InfoFi-Infrastruktur vollständig integrieren, geraten traditionelle Umfrage-, Forschungs- und Prognosebranchen unter existenziellen Druck. Warum Analysten für Schätzungen bezahlen, wenn Märkte kontinuierlich Wahrscheinlichkeiten bepreisen?

Der Übergang wird nicht reibungslos verlaufen. Regulatorische Kämpfe werden sich intensivieren. Der Wettbewerb zwischen den Plattformen wird zur Konsolidierung zwingen. Versuche der Marktmanipulation werden die Ausrichtung der Anreize auf die Probe stellen. Aber die grundlegende These bleibt: Informationen haben einen Wert, Märkte finden Preise, Blockchain ermöglicht die Infrastruktur.

InfoFi ersetzt nicht das traditionelle Finanzwesen – es wird zum traditionellen Finanzwesen. Die Frage ist nicht, ob Informationsmärkte eine Massenadaption erreichen, sondern wie schnell institutionelles Kapital das Unvermeidliche erkennt.

BlockEden.xyz bietet Infrastruktur auf Unternehmensniveau für Web3-Anwendungen und bietet zuverlässigen, leistungsstarken RPC-Zugriff über die wichtigsten Blockchain-Ökosysteme hinweg. Erkunden Sie unsere Dienstleistungen für skalierbare InfoFi- und Prognosemarkt-Infrastruktur.


Quellen:

InfoFi-Marktlandschaft: Über Prognosemärkte hinaus zu Daten als Infrastruktur

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Prognosemärkte überschritten Anfang Februar 2026 ein wöchentliches Volumen von 6,32 Mrd. $, wobei Kalshi einen Marktanteil von 51 % und Polymarket von 47 % hielt. Doch Information Finance (InfoFi) reicht weit über binäre Wetten hinaus. Datentokenisierungsmärkte, Data DAOs und Information-as-Asset-Infrastruktur schaffen ein aufstrebendes Ökosystem, in dem Informationen programmierbar, handelbar und verifizierbar werden.

Die InfoFi-These: Informationen haben Wert, Märkte finden Preise, Blockchain ermöglicht Infrastruktur. Dieser Artikel skizziert die Landschaft — von Polymarkets Prognose-Engine bis zur Datentokenisierung von Ocean Protocol, von Data DAOs bis hin zu KI-gesteuerten Wahrheitsmärkten.

Die Basis der Prognosemärkte

Prognosemärkte verankern das InfoFi-Ökosystem und liefern Preissignale für unsichere zukünftige Ereignisse.

Das Kalshi-Polymarket-Duopol

Der Markt teilte sich fast 51/49 zwischen Kalshi und Polymarket auf, aber die Zusammensetzung unterscheidet sich grundlegend.

Kalshi: Wickelte im Jahr 2025 über 43,1 Mrd. $ ab, stark gewichtet in Richtung Sportwetten. CFTC-lizenziert, auf Dollar lautend, integriert in US-Einzelhandelsbrokerage. Robinhoods „Prediction Markets Hub“ leitet Milliarden an Kontrakten durch die Kalshi-Infrastruktur.

Polymarket: Verarbeitete im Jahr 2025 33,4 Mrd. ](https://markets.financialcontent.com/stocks/article/predictstreet202622thegreatpredictionwarof2026polymarketandkalshibattleforthevolumecrown),konzentriertaufHighSignalEreignisseGeopolitik,Makroo¨konomie,wissenschaftlicheDurchbru¨che.Cryptonative,globaleTeilnahme,kombinierbarmitDeFi.[SchlossEnde2025die112Millionen](https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-2-the-great-prediction-war-of-2026-polymarket-and-kalshi-battle-for-the-volume-crown), konzentriert auf „High-Signal“-Ereignisse — Geopolitik, Makroökonomie, wissenschaftliche Durchbrüche. Crypto-native, globale Teilnahme, kombinierbar mit DeFi. [Schloss Ende 2025 die 112-Millionen--Übernahme von QCEX ab für den Wiedereintritt in den US-Markt via CFTC-Lizenzierung.

Der Wettbewerb treibt Innovationen voran: Kalshi gewinnt bei Privatkunden und institutioneller Compliance, Polymarket führt bei Krypto-nativer Komponierbarkeit und internationalem Zugang.

Jenseits von Wetten: Informations-Oracles

Prognosemärkte entwickelten sich von Spekulationswerkzeugen zu Informations-Oracles für KI-Systeme. Markt-Wahrscheinlichkeiten dienen als „externe Anker“, die KI-Halluzinationen begrenzen — viele KI-Systeme gewichten Behauptungen nun niedriger, auf die in Prognosemärkten nicht gewettet werden kann.

Dies schafft Rückkopplungsschleifen: KI-Agenten handeln auf Prognosemärkten, Marktpreise informieren KI-Ergebnisse, KI-generierte Prognosen beeinflussen den menschlichen Handel. Das Ergebnis: Informationsmärkte werden zur Infrastruktur für die algorithmische Wahrheitsfindung.

Datentokenisierung: Das Modell von Ocean Protocol

Während Prognosemärkte zukünftige Ereignisse bewerten, tokenisiert Ocean Protocol bestehende Datensätze und schafft so Märkte für KI-Trainingsdaten, Forschungsdatensätze und proprietäre Informationen.

Die Datatoken-Architektur

Das Modell von Ocean: Jeder Datatoken repräsentiert eine Unterlizenz der ursprünglichen Eigentümer des geistigen Eigentums, die es Nutzern ermöglicht, auf zugehörige Datensätze zuzugreifen und diese zu nutzen. Datatokens sind ERC20-konform, was sie handelbar, mit DeFi kombinierbar und über Smart Contracts programmierbar macht.

Der dreistufige Stack:

Data NFTs: Repräsentieren das Eigentum an zugrunde liegenden Datensätzen. Ersteller prägen NFTs, um Provenienz und Kontrollrechte festzulegen.

Datatokens: Zugriffskontroll-Token. Das Halten von Datatokens gewährt temporäre Nutzungsrechte, ohne das Eigentum zu übertragen. Trennt den Datenzugriff vom Dateneigentum.

Ocean Marketplace: Dezentrale Börse für Datatokens. Datenanbieter monetarisieren Assets, Konsumenten erwerben Zugang, Spekulanten handeln mit Token.

Diese Architektur löst kritische Probleme: Datenanbieter monetarisieren, ohne die Kontrolle zu verlieren, Konsumenten greifen zu, ohne volle Anschaffungskosten zu tragen, und Märkte ermitteln faire Preise für den Informationswert.

Anwendungsfälle jenseits des Handels

KI-Trainingsmärkte: Modellentwickler erwerben Zugriff auf Datensätze für das Training. Die Ökonomie von Datatoken richtet Anreize aus — wertvolle Daten erzielen höhere Preise, Ersteller verdienen fortlaufende Einnahmen aus KI-Modell-Trainingsaktivitäten.

Teilen von Forschungsdaten: Akademische und wissenschaftliche Datensätze werden für eine kontrollierte Verteilung tokenisiert. Forscher verifizieren die Herkunft, verfolgen die Nutzung und entschädigen Datenerzeuger durch automatisierte Lizenzgebührenverteilung.

Datenzusammenarbeit in Unternehmen: Unternehmen teilen proprietäre Datensätze durch tokenisierten Zugriff statt durch vollständige Übertragung. Die Vertraulichkeit bleibt gewahrt, während kollaborative Analysen und Modellentwicklungen ermöglicht werden.

Monetarisierung persönlicher Daten: Einzelpersonen tokenisieren Gesundheitsakten, Verhaltensdaten oder Verbraucherpräferenzen. Sie verkaufen den Zugriff direkt, anstatt dass Plattformen den Wert ohne Entschädigung abschöpfen.

Ocean ermöglicht Ethereum-Komponierbarkeit für Daten-DAOs als Datenkooperativen, wodurch eine Infrastruktur geschaffen wird, in der Daten zu programmierbaren Finanzanlagen werden.

Daten-DAOs: Kollektives Informationseigentum

Daten-DAOs fungieren als dezentrale autonome Organisationen, die Datenbestände verwalten, und ermöglichen kollektives Eigentum, Governance und Monetarisierung.

Das Modell der Datenunion

Mitglieder tragen gemeinsam Daten bei, die DAO verwaltet Zugriffsrichtlinien und Preisgestaltung, Einnahmen werden automatisch über Smart Contracts verteilt, und Governance-Rechte skalieren mit dem Datenbeitrag.

Neu entstehende Beispiele:

Datenunionen im Gesundheitswesen: Patienten bündeln Gesundheitsakten und wahren dabei ihre individuelle Privatsphäre durch kryptografische Nachweise. Forscher erwerben aggregierten Zugriff, und die Einnahmen fließen an die Mitwirkenden zurück. Die Daten bleiben unter der Kontrolle der Patienten und nicht bei zentralisierten Gesundheitssystemen.

Neurowissenschaftliche Forschungs-DAOs: Akademische Einrichtungen und Forscher tragen Bildgebungsdatensätze des Gehirns, genetische Informationen und klinische Ergebnisse bei. Der kollektive Datensatz wird wertvoller als einzelne Beiträge, was die Forschung beschleunigt und gleichzeitig die Datenlieferanten entschädigt.

Ökologische / GIS-Projekte: Umweltsensoren, Satellitenbilder und geografische Daten werden von Gemeinschaften gebündelt. DAOs verwalten den Datenzugriff für Klimamodellierung, Stadtplanung und Naturschutz, während sichergestellt wird, dass lokale Gemeinschaften von den in ihren Regionen generierten Daten profitieren.

Daten-DAOs lösen Koordinationsprobleme: Einzelpersonen mangelt es an Verhandlungsmacht, Plattformen schöpfen Monopolrenten ab und Daten bleiben isoliert. Kollektives Eigentum ermöglicht eine faire Vergütung und demokratische Governance.

Informationen als digitale Vermögenswerte

Das Konzept betrachtet Datenbestände als digitale Vermögenswerte und nutzt eine ursprünglich für Kryptowährungen entwickelte Blockchain-Infrastruktur, um Informationseigentum, Transfer und Bewertung zu verwalten.

Diese architektonische Entscheidung schafft eine leistungsstarke Komponierbarkeit: Datenbestände lassen sich in DeFi-Protokolle integrieren, nehmen an automatisierten Market Makern teil, dienen als Sicherheiten für Kredite und ermöglichen eine programmierbare Umsatzbeteiligung.

Der Infrastruktur-Stack

Identitätsebene: Kryptografischer Nachweis von Dateneigentum und -beitrag. Verhindert Plagiate, etabliert die Herkunft und ermöglicht die Zuordnung.

Zugriffskontrolle: Smart Contracts, die regeln, wer unter welchen Bedingungen auf Daten zugreifen kann. Programmierbare Lizenzierung ersetzt manuelle Vertragsverhandlungen.

Preismechanismen: Automatisierte Market Maker, die den fairen Wert für Datensätze ermitteln. Angebots- und Nachfragedynamik statt willkürlicher institutioneller Preisgestaltung.

Umsatzverteilung: Smart Contracts teilen die Erlöse automatisch zwischen Mitwirkenden, Kuratoren und Plattformbetreibern auf. Eliminiert Zahlungszwischenhändler und Verzögerungen.

Komponierbarkeit: Datenbestände lassen sich in das breitere Web3-Ökosystem integrieren. Nutzen Sie Datensätze als Sicherheiten, erstellen Sie Derivate oder bündeln Sie diese zu Verbundprodukten.

Bis Mitte 2025 erreichten die On-Chain-RWA-Märkte (einschließlich Daten) 23 Milliarden US-Dollar, was das institutionelle Interesse an tokenisierten Vermögenswerten jenseits spekulativer Kryptowährungen unterstreicht.

KI beschränkt InfoFi: Die Verifizierungsschleife

KI-Systeme verlassen sich zunehmend auf InfoFi-Infrastrukturen zur Wahrheitsverifizierung.

Prognosemärkte schränken KI-Halluzinationen ein: Händler riskieren echtes Geld, Markt-Wahrscheinlichkeiten dienen als externe Anker, und KI-Systeme gewichten Behauptungen niedriger, auf die nicht gewettet werden kann.

Dies schafft Qualitätsfilter: Verifizierbare Behauptungen werden auf Prognosemärkten gehandelt, unverifizierbare Behauptungen erhalten ein geringeres KI-Vertrauen, Marktpreise liefern kontinuierliche Wahrscheinlichkeitsaktualisierungen und KI-Ergebnisse werden stärker in der ökonomischen Realität verankert.

Die Rückkopplungsschleife funktioniert in beide Richtungen: KI-Agenten generieren Vorhersagen, welche die Markteffizienz verbessern; Marktpreise geben Aufschluss über die Qualität der KI-Trainingsdaten; hochwertige Vorhersagen treiben Datenerfassungsbemühungen voran; Informationsmärkte optimieren auf Signale statt auf Rauschen.

Die InfoFi-Ökosystem-Karte 2026

Die Landschaft umfasst mehrere miteinander verbundene Schichten:

Layer 1: Wahrheitsfindung (Truth Discovery)

  • Prognosemärkte (Kalshi, Polymarket)
  • Vorhersageplattformen
  • Reputationssysteme
  • Verifizierungsprotokolle

Layer 2: Datenmonetarisierung

  • Ocean Protocol Datatokens
  • Marktplätze für Datensätze
  • API-Zugriffstoken
  • Plattformen für Informationslizenzen

Layer 3: Kollektives Eigentum

  • Daten-DAOs
  • Forschungskooperationen
  • Daten-Gewerkschaften (Data Unions)
  • Community-Informationspools

Layer 4: KI-Integration

  • Märkte für Modelltraining
  • Inferenz-Verifizierung
  • Output-Attestierung
  • Halluzinationsbeschränkungen

Layer 5: Finanzinfrastruktur

  • Informationsderivate
  • Daten als Sicherheiten (Data Collateral)
  • Automatisierte Market Maker (AMM)
  • Protokolle zur Umsatzverteilung

Jede Schicht baut auf den anderen auf: Prognosemärkte etablieren Preissignale, Datenmärkte monetarisieren Informationen, DAOs ermöglichen kollektives Handeln, KI erzeugt Nachfrage, die Finanzinfrastruktur stellt Liquidität bereit.

Was das Jahr 2026 offenbart

InfoFi wandelt sich vom experimentellen Stadium zur Infrastruktur.

Institutionelle Validierung: Große Plattformen integrieren Prognosemärkte. Die Wall Street nutzt InfoFi-Signale. Regulatorische Rahmenbedingungen für die Behandlung von Informationen als Vermögenswerte entstehen.

Reifung der Infrastruktur: Standards für die Tokenisierung von Daten festigen sich. DAO-Governance-Muster haben sich in großem Maßstab bewährt. Die KI-Blockchain-Integration wird nahtlos.

Marktwachstum: 6,32 Milliarden USD wöchentliches Volumen auf Prognosemärkten, 23 Milliarden USD an On-Chain-Datenwerten, beschleunigte Akzeptanz über verschiedene Sektoren hinweg.

Erweiterung der Anwendungsfälle: Über Spekulation hinaus zu Forschung, Unternehmenskooperationen, KI-Entwicklung und Koordination öffentlicher Güter.

Die Frage ist nicht, ob Informationen zu einer Anlageklasse werden – sondern wie schnell die Infrastruktur skaliert und welche Modelle dominieren. Prognosemärkte haben zuerst die Aufmerksamkeit gewonnen, aber Daten-DAOs und Tokenisierungsprotokolle könnten letztlich größere Wertströme vorantreiben.

Die InfoFi-Landschaft im Jahr 2026: etabliertes Fundament, bewährte Anwendungsfälle, beginnende institutionelle Akzeptanz, reifende Infrastruktur. Die nächste Phase: Integration in Mainstream-Informationssysteme, Ersetzung herkömmlicher Datenmarktplätze und Entwicklung zur Standardinfrastruktur für den Informationsaustausch.

BlockEden.xyz bietet erstklassige Infrastruktur für Web3-Anwendungen und ermöglicht zuverlässigen, hochperformanten RPC-Zugriff auf wichtige Blockchain-Ökosysteme. Entdecken Sie unsere Services für InfoFi-Infrastruktur und die Unterstützung von Datenmärkten.


Quellen:

Prognosemärkte erreichen 5,9 Mrd. $: Wie KI-Agenten zum Prognosewerkzeug der Wall Street wurden

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Als Kalshis tägliches Handelsvolumen Anfang 2026 814 Mio. erreichteund66,4erreichte und 66,4 % des Prognosemarktanteils eroberte, waren es nicht die Kleinanleger, die den Anstieg vorantrieben. Es waren KI-Agenten. Autonome Handelsalgorithmen tragen nun über 30 % zum Volumen der Prognosemärkte bei und verwandeln das, was als Internet-Kuriosität begann, in die neueste institutionelle Prognoseinfrastruktur der Wall Street. Das wöchentliche Volumen des Sektors – 5,9 Mrd. und steigend – konkurriert mit vielen traditionellen Derivatemärkten, mit einem entscheidenden Unterschied: Diese Märkte handeln mit Informationen, nicht nur mit Vermögenswerten.

Dies ist „Information Finance“ – die Monetarisierung kollektiver Intelligenz durch Blockchain-basierte Prognosemärkte. Wenn Händler 42 Mio. daraufwetten,obOpenAIvor2030AGIerreichenwird,oder18Mio.darauf wetten, ob OpenAI vor 2030 AGI erreichen wird, oder 18 Mio., welches Unternehmen als nächstes an die Börse geht, spielen sie nicht. Sie erstellen liquide, handelbare Prognosen, denen institutionelle Anleger, politische Entscheidungsträger und Unternehmensstrategen zunehmend mehr vertrauen als traditionellen Analysten. Die Frage ist nicht, ob Prognosemärkte das Vorhersagewesen revolutionieren werden. Es ist die Frage, wie schnell Institutionen Märkte einführen werden, die Expertenprognosen um messbare Margen übertreffen.

Der 5,9-Mrd.-$-Meilenstein: Vom Nischendasein zur Finanzinfrastruktur

Prognosemärkte beendeten das Jahr 2025 mit Rekord-Allzeithochs beim Volumen von nahezu 5,3 Mrd. ,eineEntwicklung,diesichbis2026beschleunigte.Diewo¨chentlichenVoluminau¨bersteigennunbesta¨ndig5,9Mrd., eine Entwicklung, die sich bis 2026 beschleunigte. Die wöchentlichen Volumina übersteigen nun beständig 5,9 Mrd. , wobei die täglichen Spitzenwerte während Großereignissen 814 Mio. $ erreichen. Zum Vergleich: Dies übersteigt das tägliche Handelsvolumen vieler Mid-Cap-Aktien und konkurriert mit spezialisierten Derivatemärkten.

Das Wachstum verläuft nicht linear – es ist exponentiell. Die Volumina auf den Prognosemärkten im Jahr 2024 wurden jährlich in Hunderten von Millionen gemessen. Bis 2025 überstiegen die monatlichen Volumina 1 Mrd. .ImJahr2026erreichtendiewo¨chentlichenVoluminaroutinema¨ßig5,9Mrd.. Im Jahr 2026 erreichten die wöchentlichen Volumina routinemäßig 5,9 Mrd. , was einem jährlichen Wachstum von über dem 10-fachen entspricht. Diese Beschleunigung spiegelt grundlegende Veränderungen in der Sichtweise von Institutionen auf Prognosemärkte wider: vom Kuriosum zur Notwendigkeit.

Kalshi dominiert mit einem Marktanteil von 66,4 % und wickelt den Großteil des institutionellen Volumens ab. Polymarket, das im Krypto-nativen Bereich tätig ist, erfasst einen erheblichen Anteil des Retail- und internationalen Flows. Zusammen verarbeiten diese Plattformen wöchentlich Milliarden an Volumen in Tausenden von Märkten, die Wahlen, Wirtschaft, technologische Entwicklungen, Sport und Unterhaltung abdecken.

Die Legitimität des Sektors wurde durch die Validierung der ICE (Intercontinental Exchange) bestätigt, als die Muttergesellschaft der NYSE 2 Mrd. $ in die Infrastruktur von Prognosemärkten investierte. Wenn der Betreiber der weltweit größten Börse Kapital in dieser Größenordnung einsetzt, signalisiert dies, dass Prognosemärkte nicht mehr experimentell sind – sie sind eine strategische Infrastruktur.

KI-Agenten: Der 30 %-Beitragsfaktor

Der am meisten unterschätzte Treiber für das Wachstum der Prognosemärkte ist die Beteiligung von KI-Agenten. Autonome Handelsalgorithmen tragen mittlerweile über 30 % zum Gesamtvolumen bei und verändern die Marktdynamik grundlegend.

Warum handeln KI-Agenten mit Prognosen? Drei Gründe:

Informationsarbitrage: KI-Agenten scannen Tausende von Datenquellen – Nachrichten, soziale Medien, On-Chain-Daten, traditionelle Finanzmärkte –, um falsch bewertete Prognosen zu identifizieren. Wenn ein Markt die Wahrscheinlichkeit eines Ereignisses mit 40 % bewertet, die KI-Analyse jedoch 55 % nahelegt, handeln die Agenten den Spread.

Liquiditätsbereitstellung: Genau wie Market-Maker an Aktienbörsen Liquidität bereitstellen, bieten KI-Agenten zweiseitige Märkte auf Prognoseplattformen an. Dies verbessert die Preisbildung und reduziert die Spreads, wodurch die Märkte für alle Teilnehmer effizienter werden.

Portfolio-Diversifizierung: Institutionelle Anleger setzen KI-Agenten ein, um Zugang zu nicht-traditionellen Informationssignalen zu erhalten. Ein Hedgefonds könnte Prognosemärkte nutzen, um politische Risiken, Zeitpläne für technologische Entwicklungen oder regulatorische Ergebnisse abzusichern – Risiken, die in traditionellen Märkten schwer auszudrücken sind.

Die Entstehung des Handels durch KI-Agenten schafft einen positiven Rückkopplungseffekt. Mehr KI-Beteiligung bedeutet bessere Liquidität, was mehr institutionelles Kapital anzieht, was wiederum mehr KI-Entwicklung rechtfertigt. Prognosemärkte entwickeln sich zu einem Trainingsfeld für autonome Agenten, die lernen, komplexe, reale Prognoseherausforderungen zu bewältigen.

Händler auf Kalshi bewerten die Wahrscheinlichkeit, dass OpenAI vor 2030 AGI erreicht, mit 42 % – ein Anstieg gegenüber 32 % sechs Monate zuvor. Dieser Markt mit über 42 Mio. $ Liquidität spiegelt die „Schwarmintelligenz“ wider, die Ingenieure, Risikokapitalgeber, Politikexperten und zunehmend KI-Agenten umfasst, die Signale verarbeiten, die Menschen nicht in diesem Umfang verfolgen können.

Kalshis institutionelle Dominanz: Der Vorteil der regulierten Börse

Kalshis Marktanteil von 66,4 % ist kein Zufall – er ist strukturell bedingt. Als erste CFTC-regulierte Prognosemarktbörse in den USA bietet Kalshi institutionellen Anlegern etwas, das Wettbewerber nicht können: regulatorische Sicherheit.

Institutionelles Kapital erfordert Compliance. Hedgefonds, Vermögensverwalter und Unternehmen können keine Milliarden in unregulierte Plattformen investieren, ohne rechtliche und Compliance-Risiken einzugehen. Die CFTC-Registrierung von Kalshi beseitigt diese Barriere und ermöglicht es Institutionen, Prognosen neben Aktien, Anleihen und Derivaten in ihren Portfolios zu handeln.

Der regulierte Status schafft Netzwerkeffekte. Mehr institutionelles Volumen zieht bessere Liquiditätsanbieter an, was die Spreads verengt, was wiederum mehr Händler anzieht. Die Orderbücher von Kalshi sind mittlerweile so tief, dass Multi-Millionen-Dollar-Trades ohne nennenswerte Slippage ausgeführt werden – eine Schwelle, die funktionierende Märkte von experimentellen unterscheidet.

Auch die Produktbreite von Kalshi ist von Bedeutung. Die Märkte umfassen Wahlen, Wirtschaftsindikatoren, technologische Meilensteine, IPO-Zeitpunkte, Unternehmensgewinne und makroökonomische Ereignisse. Diese Vielfalt ermöglicht es institutionellen Anlegern, nuancierte Ansichten auszudrücken. Ein Hedgefonds, der bei Tech-Bewertungen bearish eingestellt ist, kann Prognosemärkte für Unicorn-Börsengänge shorten. Ein Politikanalyst, der regulatorische Änderungen erwartet, kann auf Märkten für Kongressergebnisse handeln.

Die hohe Liquidität stellt sicher, dass Preise nicht leicht manipuliert werden können. Bei Einsätzen in Millionenhöhe und Tausenden von Teilnehmern spiegeln die Marktpreise einen echten Konsens wider und keine individuelle Manipulation. Diese „Schwarmintelligenz“ schlägt Expertenprognosen in Blindtests – Prognosemärkte übertreffen konsistent Umfragen, Analystenprognosen und Expertenmeinungen.

Polymarkets krypto-native Alternative: Der dezentrale Herausforderer

Während Kalshi die regulierten US-Märkte dominiert, fängt Polymarket krypto-native und internationale Zuflüsse ab. Polymarket operiert auf Blockchain-Infrastrukturen mit USDC-Abrechnung und bietet erlaubnisfreien Zugang – ohne KYC, ohne geografische Beschränkungen und ohne regulatorische Zugangskontrolle.

Der Vorteil von Polymarket ist die globale Reichweite. Händler aus Jurisdiktionen, in denen Kalshi nicht zugänglich ist, können frei teilnehmen. Während der US-Wahlen 2024 verarbeitete Polymarket ein Volumen von über 3 Milliarden $, was beweist, dass krypto-native Infrastruktur institutionelle Größenordnungen bewältigen kann.

Die Krypto-Integration der Plattform ermöglicht neuartige Mechanismen. Smart Contracts erzwingen die Abrechnung automatisch auf der Grundlage von Orakel-Daten. Liquiditätspools arbeiten kontinuierlich ohne Zwischenhändler. Die Abrechnung erfolgt in Sekunden statt in Tagen. Diese Vorteile sprechen krypto-native Händler an, die mit DeFi-Primitiven vertraut sind.

Dennoch bleibt die regulatorische Unsicherheit die Herausforderung für Polymarket. Der Betrieb ohne ausdrückliche regulatorische Genehmigung in den USA schränkt die institutionelle Akzeptanz im Inland ein. Während Privatkunden und internationale Nutzer den erlaubnisfreien Zugang begrüßen, meiden US-Institutionen weitgehend Plattformen, denen es an regulatorischer Klarheit mangelt.

Der Wettbewerb zwischen Kalshi (reguliert, institutionell) und Polymarket (krypto-nativ, erlaubnisfrei) spiegelt breitere Debatten im digitalen Finanzwesen wider. Beide Modelle funktionieren. Beide bedienen unterschiedliche Nutzergruppen. Das Wachstum des Sektors deutet darauf hin, dass Platz für mehrere Gewinner ist, die jeweils für unterschiedliche regulatorische und technologische Kompromisse optimiert sind.

Information Finance: Kollektive Intelligenz monetarisieren

Der Begriff „Information Finance“ beschreibt die Kerninnovation von Prognosemärkten: die Umwandlung von Vorhersagen in handelbare, liquide Instrumente. Traditionelle Prognosen stützen sich auf Experten, die Punktschätzungen mit ungewisser Genauigkeit abgeben. Prognosemärkte aggregieren verteiltes Wissen in kontinuierliche, marktgepreiste Wahrscheinlichkeiten.

Warum Märkte Experten schlagen:

Skin in the game: Marktteilnehmer riskieren Kapital bei ihren Prognosen. Schlechte Vorhersagen führen zu Geldverlusten. Diese Anreizstruktur filtert Rauschen besser aus Signalen heraus als Meinungsumfragen oder Expertenrunden, in denen die Teilnehmer keine Konsequenzen für Fehlprognosen tragen.

Kontinuierliche Aktualisierung: Marktpreise passen sich in Echtzeit an, wenn neue Informationen auftauchen. Expertenprognosen sind statisch bis zum nächsten Bericht. Märkte sind dynamisch und beziehen aktuelle Nachrichten, Leaks und aufkommende Trends sofort mit ein.

Aggregiertes Wissen: Märkte bündeln Informationen von Tausenden von Teilnehmern mit unterschiedlichem Fachwissen. Kein einzelner Experte kann mit dem kollektiven Wissen von Ingenieuren, Investoren, politischen Entscheidungsträgern und Betreibern mithalten, die jeweils spezialisierte Einblicke beisteuern.

Transparente Wahrscheinlichkeit: Märkte drücken Prognosen als Wahrscheinlichkeiten mit klaren Konfidenzintervallen aus. Ein Markt, der ein Ereignis mit 65 % bewertet, sagt „etwa zwei Drittel Chance“ aus – nützlicher als ein Experte, der ohne Quantifizierung „wahrscheinlich“ sagt.

Untersuchungen zeigen durchweg, dass Prognosemärkte Expertenrunden, Umfragen und Analystenprognosen in verschiedenen Bereichen übertreffen – bei Wahlen, in der Wirtschaft, bei technologischen Entwicklungen und Unternehmensergebnissen. Die Erfolgsbilanz ist nicht perfekt, aber messbar besser als die Alternativen.

Finanzinstitute werden aufmerksam. Anstatt teure Berater für Szenarioanalysen zu engagieren, können Unternehmen Prognosemärkte konsultieren. Möchten Sie wissen, ob der Kongress in diesem Jahr Krypto-Regulierungen verabschieden wird? Dafür gibt es einen Markt. Fragen Sie sich, ob ein Konkurrent vor Jahresende an die Börse geht? Handeln Sie diese Prognose. Geopolitisches Risiko einschätzen? Setzen Sie darauf.

Der institutionelle Anwendungsfall: Forecasting as a Service

Prognosemärkte wandeln sich von spekulativer Unterhaltung zu institutioneller Infrastruktur. Mehrere Anwendungsfälle treiben die Akzeptanz voran:

Risikomanagement: Unternehmen nutzen Prognosemärkte zur Absicherung von Risiken, die in traditionellen Derivaten schwer auszudrücken sind. Ein Supply-Chain-Manager, der sich über Hafenstreiks sorgt, kann auf Prognosemärkten für Tarifverhandlungen handeln. Ein CFO, der über Zinssätze besorgt ist, kann Fed-Prognosemärkte mit Anleihe-Futures abgleichen.

Strategische Planung: Unternehmen treffen Milliardenentscheidungen auf der Grundlage von Prognosen. Wird eine KI-Regulierung verabschiedet? Wird eine Technologieplattform mit Kartellklagen konfrontiert? Wird ein Konkurrent ein Produkt auf den Markt bringen? Prognosemärkte liefern probabilistische Antworten mit echtem Risikokapital.

Investment-Research: Hedgefonds und Vermögensverwalter nutzen Prognosemärkte als alternative Datenquellen. Marktpreise für technologische Meilensteine, regulatorische Ergebnisse oder makroökonomische Ereignisse fließen in die Portfoliopositionierung ein. Einige Fonds handeln Prognosemärkte direkt als Alpha-Quellen.

Politikanalyse: Regierungen und Denkfabriken ziehen Prognosemärkte heran, um die öffentliche Meinung jenseits von Umfragen zu erfassen. Märkte filtern echte Überzeugungen von „Virtue Signaling“ heraus – Teilnehmer, die ihr Geld setzen, offenbaren wahre Erwartungen und keine sozial erwünschten Antworten.

Die Investition der ICE in Höhe von 2 Milliarden $ signalisiert, dass traditionelle Börsen Prognosemärkte als neue Anlageklasse betrachten. So wie in den 1970er Jahren Derivatemärkte entstanden, um das Risikomanagement zu monetarisieren, entstehen in den 2020er Jahren Prognosemärkte, um Vorhersagen zu monetarisieren.

Die Feedback-Schleife zwischen KI-Agenten und Märkten

KI-Agenten , die an Prognosemärkten teilnehmen , schaffen eine Feedback-Schleife , die beide Technologien beschleunigt :

Bessere KI durch Marktdaten : KI-Modelle trainieren auf den Ergebnissen von Prognosemärkten , um Vorhersagen zu verbessern . Ein Modell , das den Zeitpunkt von Tech-IPOs vorhersagt , verbessert sich durch Backtesting gegen historische Daten von Kalshi . Dies schafft Anreize für KI-Labore , vorhersageorientierte Modelle zu entwickeln .

Bessere Märkte durch KI-Teilnahme : KI-Agenten stellen Liquidität bereit , arbitrieren Fehlbewertungen und verbessern die Preisfindung . Menschliche Händler profitieren von engeren Spreads und einer besseren Informationsaggregation . Märkte werden effizienter , wenn die KI-Beteiligung zunimmt .

Institutionelle KI-Adoption : Institutionen , die KI-Agenten in Prognosemärkten einsetzen , sammeln Erfahrungen mit autonomen Handelssystemen in Umgebungen mit geringerem Risiko . Die daraus gewonnenen Erkenntnisse lassen sich auf den Handel mit Aktien , Devisen und Derivaten übertragen .

Der KI-Anteil von über 30 % am Volumen ist keine Obergrenze – sondern eine Basis . Mit der Verbesserung der KI-Fähigkeiten und der zunehmenden institutionellen Akzeptanz könnte die Beteiligung von Agenten innerhalb weniger Jahre 50–70 % erreichen . Dies ersetzt nicht das menschliche Urteilsvermögen – es ergänzt es . Menschen legen Strategien fest , KI-Agenten führen sie in einem Umfang und einer Geschwindigkeit aus , die manuell unmöglich wäre .

Die Technologie-Stacks konvergieren . KI-Labore gehen Partnerschaften mit Prognosemarkt-Plattformen ein . Börsen bauen APIs für den algorithmischen Handel . Institutionen entwickeln proprietäre KI für Prognosemarkt-Strategien . Diese Konvergenz positioniert Prognosemärkte als Testfeld für die nächste Generation autonomer Finanzagenten .

Herausforderungen und Skepsis

Trotz des Wachstums stehen Prognosemärkte vor legitimen Herausforderungen :

Manipulationsrisiko : Während hohe Liquidität Manipulationen erschwert , bleiben Märkte mit geringem Volumen anfällig . Ein motivierter Akteur mit Kapital kann die Preise in Nischenmärkten vorübergehend verzerren . Plattformen bekämpfen dies mit Liquiditätsanforderungen und Manipulationserkennung , aber das Risiko bleibt bestehen .

Orakel-Abhängigkeit : Prognosemärkte benötigen Orakel – vertrauenswürdige Instanzen , die Ergebnisse feststellen . Fehler oder Korruption bei Orakeln können zu falschen Abrechnungen führen . Blockchain-basierte Märkte minimieren dies durch dezentrale Orakel-Netzwerke , während traditionelle Märkte auf zentralisierte Lösungen setzen .

Regulatorische Unsicherheit : Während Kalshi CFTC-reguliert ist , bleiben breitere regulatorische Rahmenbedingungen unklar . Werden mehr Prognosemärkte eine Zulassung erhalten ? Werden internationale Märkte mit Beschränkungen konfrontiert ? Die regulatorische Entwicklung könnte das Wachstum unvorhersehbar hemmen oder beschleunigen .

Liquiditätskonzentration : Der Großteil des Volumens konzentriert sich auf hochkarätige Märkte (Wahlen , große Tech-Events) . Nischenmärkten fehlt es an Liquidität , was ihren Nutzen für spezialisierte Prognosen einschränkt . Die Lösung erfordert entweder Market-Making-Anreize oder die Bereitstellung von Liquidität durch KI-Agenten .

Ethische Bedenken : Sollten Märkte zu sensiblen Themen existieren – politische Gewalt , Todesfälle , Katastrophen ? Kritiker argumentieren , dass die Monetarisierung tragischer Ereignisse unethisch ist . Befürworter halten dagegen , dass Informationen aus solchen Märkten helfen , Schaden zu verhindern . Diese Debatte wird prägen , welche Märkte Plattformen zulassen .

Der Pfad für 2026–2030

Wenn das wöchentliche Volumen Anfang 2026 5,9 Milliarden $ erreicht , wohin entwickelt sich der Sektor ?

Bei moderatem Wachstum (50 % jährlich – konservativ angesichts der jüngsten Beschleunigung) könnte das Volumen der Prognosemärkte bis 2028 jährlich 50 Milliarden $ und bis 2030 150 Milliarden $ überschreiten . Dies würde den Sektor mit mittelgroßen Derivatemärkten vergleichbar machen .

Aggressivere Szenarien – etwa die Einführung von Prognosemärkten an der NYSE durch die ICE , das Angebot von Prognoseinstrumenten durch Großbanken oder die regulatorische Genehmigung für weitere Markttypen – könnten das Volumen bis 2030 in Richtung 500 Milliarden $ + treiben . In diesem Maßstab werden Prognosemärkte zu einer eigenständigen Assetklasse in institutionellen Portfolios .

Die technologischen Wegbereiter sind vorhanden : Blockchain-Abrechnung , KI-Agenten , regulatorische Rahmenbedingungen , institutionelles Interesse und eine nachgewiesene Erfolgsbilanz , die traditionelle Prognosen übertrifft . Was bleibt , ist die Dynamik der Adoptionskurve – wie schnell Institutionen Prognosemärkte in ihre Entscheidungsprozesse integrieren .

Der Wandel von der „Randspekulation“ zum „institutionellen Prognosewerkzeug“ ist in vollem Gange . Wenn die ICE 2 Milliarden $ investiert , wenn KI-Agenten 30 % des Volumens beisteuern , wenn das tägliche Volumen von Kalshi 814 Millionen $ erreicht , hat sich das Narrativ dauerhaft verändert . Prognosemärkte sind keine Kuriosität . Sie sind die Zukunft der Art und Weise , wie Institutionen Unsicherheit quantifizieren und Informationsrisiken absichern .

Quellen

Dezentrale GPU-Netzwerke 2026: Wie DePIN AWS im 100-Milliarden-Dollar-Markt für KI-Rechenleistung herausfordert

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Revolution hat einen beispiellosen Hunger nach Rechenleistung geweckt. Während Hyperscaler wie AWS, Azure und Google Cloud diesen Bereich dominiert haben, entsteht eine neue Klasse dezentraler GPU-Netzwerke, um deren Vorherrschaft herauszufordern. Da der DePIN-Sektor (Decentralized Physical Infrastructure Networks) innerhalb eines Jahres von 5,2 Milliarden aufu¨ber19Milliardenauf über 19 Milliarden Marktkapitalisierung explodiert ist und die Prognosen bis 2028 3,5 Billionen $ erreichen, stellt sich nicht mehr die Frage, ob dezentrales Computing mit traditionellen Cloud-Anbietern konkurrieren wird – sondern wie schnell es Marktanteile gewinnen wird.

Die GPU-Knappheitskrise: Ein perfekter Sturm für die Dezentralisierung

Die Halbleiterindustrie steht vor einem Lieferengpass, der die These des dezentralen Computings bestätigt.

SK Hynix und Micron, zwei der weltweit größten Hersteller von High Bandwidth Memory (HBM), haben beide angekündigt, dass ihre gesamte Produktion für 2026 ausverkauft ist. Samsung hat vor zweistelligen Preiserhöhungen gewarnt, da die Nachfrage das Angebot drastisch übersteigt.

Diese Knappheit schafft einen Zweiklassenmarkt: diejenigen mit direktem Zugang zu Hyperscale-Infrastruktur und alle anderen.

Für KI-Entwickler, Startups und Forscher ohne Milliardenbudgets stellt das traditionelle Cloud-Modell drei kritische Barrieren dar:

  • Prohibitive Kosten, die 50 - 70 % des Budgets verschlingen können
  • Langfristige Bindungsverträge mit minimaler Flexibilität
  • Begrenzte Verfügbarkeit von High-End-GPUs wie dem NVIDIA H100 oder H200

Dezentrale GPU-Netzwerke sind so positioniert, dass sie alle drei Probleme lösen.

Die Marktführer: Vier Architekturen, eine Vision

Render Network: Von 3D-Künstlern zur KI-Infrastruktur

Ursprünglich entwickelt, um ungenutzte GPUs für verteilte Rendering-Aufgaben zu bündeln, hat das Render Network erfolgreich den Schwenk zu KI-Computing-Workloads vollzogen. Das Netzwerk verarbeitet nun monatlich etwa 1,5 Millionen Frames, und der Start von Dispersed.com im Dezember 2025 markierte eine strategische Expansion über die Kreativbranche hinaus.

Wichtige Meilensteine für 2026 sind:

  • Skalierung der KI-Computing-Subnetze: Erweiterte dezentrale GPU-Ressourcen speziell für Machine-Learning-Workloads
  • Über 600 integrierte KI-Modelle: Open-Weight-Modelle für Inferencing und Robotik-Simulationen
  • 70 % Optimierung beim Upload: Differential Uploads für Blender reduzieren die Dateiübertragungszeiten drastisch

Die Migration des Netzwerks von Ethereum zu Solana (Rebranding von RNDR zu RENDER) positionierte es für die hohen Durchsatzanforderungen von KI-Computing.

Auf der CES 2026 präsentierte Render Partnerschaften, die darauf abzielen, das explosive Wachstum der GPU-Nachfrage für Edge-ML-Workloads zu bedienen. Der Wechsel vom kreativen Rendering zum Allzweck-KI-Computing stellt eine der erfolgreichsten Marktexpansionen im DePIN-Sektor dar.

Akash Network: Der Kubernetes-kompatible Herausforderer

Akash verfolgt mit seinem Reverse-Auction-Modell einen grundlegend anderen Ansatz. Anstatt fester Preise konkurrieren GPU-Anbieter um Workloads, was die Kosten senkt und gleichzeitig die Qualität über einen dezentralen Marktplatz sichert.

Die Ergebnisse sprechen für sich: 428 % Wachstum der Nutzung im Vergleich zum Vorjahr, mit einer Auslastung von über 80 % zu Beginn des Jahres 2026.

Die Starcluster-Initiative des Netzwerks stellt seinen bisher ehrgeizigsten Vorstoß dar – die Kombination von zentral verwalteten Rechenzentren mit dem dezentralen Marktplatz von Akash, um ein sogenanntes „planetares Mesh“ zu schaffen, das sowohl für Training als auch für Inferenz optimiert ist. Die geplante Beschaffung von etwa 7.200 NVIDIA GB200 GPUs über Starbonds würde Akash in die Lage versetzen, die Hyperscale-KI-Nachfrage zu unterstützen.

Die Kennzahlen für das dritte Quartal 2025 zeigen eine beschleunigte Dynamik:

  • Die Gebühreneinnahmen stiegen im Quartalsvergleich um 11 % auf 715.000 AKT
  • Die Anzahl neuer Leasings wuchs im Quartalsvergleich um 42 % auf 27.000
  • Die Erweiterung des Burn-Mechanismus (BME) im ersten Quartal 2026 koppelt das Verbrennen von AKT-Token an die Ausgaben für Computing – jeder ausgegebene 1 verbrennt0,85verbrennt 0,85 in AKT

Bei einem monatlichen Computing-Volumen von 3,36 Millionen deutetdiesdaraufhin,dassmonatlichetwa2,1MillionenAKT(ca.985.000deutet dies darauf hin, dass monatlich etwa 2,1 Millionen AKT (ca. 985.000) verbrannt werden könnten, was einen deflationären Druck auf das Token-Angebot erzeugt.

Diese direkte Verbindung zwischen Nutzung und Tokenomics unterscheidet Akash von Projekten, bei denen der Token-Nutzen erzwungen oder von der tatsächlichen Produktakzeptanz losgelöst wirkt.

Hyperbolic: Der Kostendisruptor

Das Wertversprechen von Hyperbolic ist denkbar einfach: Die gleichen KI-Inferenz-Funktionen wie AWS, Azure und Google Cloud zu 75 % niedrigeren Kosten anzubieten. Die Plattform, die über 100.000 Entwickler unterstützt, nutzt Hyper-dOS, ein dezentrales Betriebssystem, das weltweit verteilte GPU-Ressourcen über eine fortschrittliche Orchestrierungsschicht koordiniert.

Die Architektur besteht aus vier Kernkomponenten:

  1. Hyper-dOS: Koordiniert weltweit verteilte GPU-Ressourcen
  2. GPU-Marktplatz: Verbindet Anbieter mit der Computing-Nachfrage
  3. Inferenz-Service: Zugang zu modernsten Open-Source-Modellen
  4. Agent Framework: Tools, die autonome Intelligenz ermöglichen

Was Hyperbolic auszeichnet, ist sein kommendes Proof of Sampling (PoSP)-Protokoll – entwickelt mit Forschern der UC Berkeley und der Columbia University –, das eine kryptografische Verifizierung von KI-Ausgaben ermöglichen wird.

Dies adressiert eine der größten Herausforderungen des dezentralen Computings: vertrauenslose Verifizierung, ohne auf zentrale Autoritäten angewiesen zu sein. Sobald PoSP live ist, können Unternehmen überprüfen, ob Inferenz-Ergebnisse korrekt berechnet wurden, ohne dem GPU-Anbieter vertrauen zu müssen.

Inferix: Der Brückenbauer

Inferix positioniert sich als Verbindungsebene zwischen Entwicklern, die GPU-Rechenleistung benötigen, und Anbietern mit überschüssiger Kapazität. Sein Pay-as-you-go-Modell eliminiert die langfristigen Verpflichtungen, die Nutzer an traditionelle Cloud-Anbieter binden.

Obwohl Inferix neu am Markt ist, repräsentiert es die wachsende Klasse spezialisierter GPU-Netzwerke, die auf bestimmte Segmente abzielen – in diesem Fall Entwickler, die flexiblen, kurzzeitigen Zugriff ohne Anforderungen auf Enterprise-Niveau benötigen.

Die DePIN-Revolution: Zahlen und Fakten

Der breitere DePIN-Sektor bietet den entscheidenden Kontext, um zu verstehen, wo sich dezentrales GPU-Computing in der Infrastrukturlandschaft einordnet.

Stand September 2025 verfolgt CoinGecko fast 250 DePIN-Projekte mit einer kombinierten Marktkapitalisierung von über 19 Milliarden einAnstiegvon5,2Milliarden– ein Anstieg von 5,2 Milliarden nur 12 Monate zuvor. Diese Wachstumsrate von 265 % übertrifft den breiteren Kryptomarkt dramatisch.

Innerhalb dieses Ökosystems dominieren KI-bezogene DePINs nach Marktkapitalisierung und machen 48 % des Themas aus. Dezentrale Rechen- und Speichernetzwerke machen zusammen etwa 19,3 Milliarden $ aus, was mehr als der Hälfte der gesamten DePIN-Marktkapitalisierung entspricht.

Die herausragenden Akteure demonstrieren die Reifung des Sektors:

  • Aethir: Lieferte über 1,4 Milliarden Rechenstunden und meldete im Jahr 2025 einen Quartalsumsatz von fast 40 Millionen $
  • io.net und Nosana: Erreichten während ihrer Wachstumszyklen jeweils Marktkapitalisierungen von über 400 Millionen $
  • Render Network: Überschritt eine Marktkapitalisierung von 2 Milliarden $, während es von Rendering auf KI-Workloads expandierte

Das Gegenargument der Hyperscaler: Wo Zentralisierung immer noch gewinnt

Trotz der überzeugenden Wirtschaftlichkeit und beeindruckenden Wachstumsmetriken stehen dezentrale GPU-Netzwerke vor legitimen technischen Herausforderungen, für deren Bewältigung Hyperscaler ausgelegt sind.

Langfristige Workloads: Das Training großer Sprachmodelle kann Wochen oder Monate kontinuierlicher Rechenleistung in Anspruch nehmen. Dezentrale Netzwerke haben Schwierigkeiten zu garantieren, dass bestimmte GPUs über längere Zeiträume verfügbar bleiben, während AWS Kapazitäten so lange wie nötig reservieren kann.

Enge Synchronisation: Verteiltes Training über mehrere GPUs erfordert eine Koordination im Mikrosekundenbereich. Wenn diese GPUs über Kontinente verteilt sind und unterschiedliche Netzwerklatenzen aufweisen, wird die Aufrechterhaltung der für effizientes Training erforderlichen Synchronisation exponentiell schwieriger.

Vorhersehbarkeit: Für Unternehmen, die geschäftskritische Workloads ausführen, ist es nicht verhandelbar, genau zu wissen, welche Leistung zu erwarten ist. Hyperscaler können detaillierte SLAs bereitstellen; dezentrale Netzwerke bauen noch an der Verifizierungsinfrastruktur, um ähnliche Garantien abgeben zu können.

Der Konsens unter Infrastrukturexperten ist, dass dezentrale GPU-Netzwerke bei Batch-Workloads, Inferenzaufgaben und kurzzeitigen Trainingsläufen glänzen.

Für diese Anwendungsfälle sind die Kosteneinsparungen von 50 - 75 % im Vergleich zu Hyperscalern bahnbrechend. Aber für die anspruchsvollsten, langlaufenden und geschäftskritischen Workloads behält die zentrale Infrastruktur immer noch den Vorteil – zumindest vorerst.

Katalysator 2026: Die Explosion der KI-Inferenz

Ab 2026 wird prognostiziert, dass sich die Nachfrage nach KI-Inferenz und Trainings-Rechenleistung drastisch beschleunigen wird, angetrieben durch drei konvergierende Trends:

  1. Proliferation agentischer KI: Autonome Agenten benötigen permanente Rechenleistung für die Entscheidungsfindung
  2. Einführung von Open-Source-Modellen: Da Unternehmen sich von proprietären APIs abwenden, benötigen sie Infrastruktur zum Hosten von Modellen
  3. KI-Einsatz in Unternehmen: Unternehmen gehen vom Experimentieren zur Produktion über

Dieser Nachfrageschub spielt direkt den Stärken dezentraler Netzwerke in die Hände.

Inferenz-Workloads sind typischerweise kurzzeitig und massiv parallelisierbar – genau das Profil, bei dem dezentrale GPU-Netzwerke Hyperscaler bei den Kosten übertreffen und gleichzeitig eine vergleichbare Leistung liefern. Ein Startup, das Inferenz für einen Chatbot oder einen Bildgenerierungsdienst ausführt, kann seine Infrastrukturkosten um 75 % senken, ohne die Benutzererfahrung zu beeinträchtigen.

Token-Ökonomie: Die Anreizebene

Die Kryptowährungskomponente dieser Netzwerke ist keine bloße Spekulation – sie ist der Mechanismus, der die globale GPU-Aggregation wirtschaftlich tragfähig macht.

Render (RENDER): Ursprünglich als RNDR auf Ethereum ausgegeben, migrierte das Netzwerk zwischen 2023 und 2024 zu Solana, wobei Token-Inhaber im Verhältnis 1 : 1 tauschten. GPU-Sharing-Token, einschließlich RENDER, stiegen Anfang 2026 um über 20 %, was die wachsende Überzeugung in diesem Sektor widerspiegelt.

Akash (AKT): Der BME-Burn-Mechanismus schafft eine direkte Verbindung zwischen der Netzwerknutzung und dem Token-Wert. Im Gegensatz zu vielen Kryptoprojekten, bei denen sich die Tokenomics von der Produktnutzung entkoppelt anfühlen, stellt das Modell von Akash sicher, dass jeder Dollar für Rechenleistung die Token-Versorgung direkt beeinflusst.

Die Token-Ebene löst das Kaltstart-Problem, das frühere Versuche dezentralen Computings plagte.

Indem GPU-Anbieter in den frühen Tagen des Netzwerks mit Token-Belohnungen incentiviert werden, können diese Projekte das Angebot aufbauen, bevor die Nachfrage eine kritische Masse erreicht. Mit zunehmender Reife des Netzwerks ersetzen echte Einnahmen aus der Rechenleistung schrittweise die Token-Inflation.

Dieser Übergang von Token-Anreizen zu echten Einnahmen ist der Lackmustest, der nachhaltige Infrastrukturprojekte von unhaltbarer Ponzi-Nomics unterscheidet.

Die 100 Milliarden $ Frage: Kann Dezentralisierung mithalten?

Der Markt für dezentrale Rechenleistung wird voraussichtlich von 9 Milliarden $ im Jahr 2024 auf 100 Milliarden $ bis 2032 anwachsen. Ob dezentrale GPU-Netzwerke einen bedeutenden Anteil gewinnen, hängt von der Lösung dreier Herausforderungen ab:

Verifizierung in großem Maßstab: Das PoSP-Protokoll von Hyperbolic stellt einen Fortschritt dar, aber die Branche benötigt standardisierte Methoden zur kryptografischen Verifizierung, dass die Rechenarbeit korrekt ausgeführt wurde. Ohne dies werden Unternehmen zögerlich bleiben.

Zuverlässigkeit auf Enterprise-Niveau: Um eine Verfügbarkeit von 99,99 % bei der Koordination global verteilter, unabhängig betriebener GPUs zu erreichen, ist eine anspruchsvolle Orchestrierung erforderlich – das Starcluster-Modell von Akash zeigt hier einen Weg auf.

Entwicklererfahrung: Dezentrale Netzwerke müssen die Benutzerfreundlichkeit von AWS, Azure oder GCP erreichen. Kubernetes-Kompatibilität (wie sie von Akash angeboten wird) ist ein Anfang, aber die nahtlose Integration in bestehende ML-Workflows ist unerlässlich.

Was dies für Entwickler bedeutet

Für KI-Entwickler und Web3-Builder bieten dezentrale GPU-Netzwerke eine strategische Chance:

Kostenoptimierung: Rechnungen für Training und Inferenz können leicht 50 – 70 % des Budgets eines KI-Startups verschlingen. Die Halbierung oder weitere Senkung dieser Kosten verändert die Unit Economics grundlegend.

Vermeidung von Vendor-Lock-in: Hyperscaler machen den Einstieg einfach und den Ausstieg teuer. Dezentrale Netzwerke, die offene Standards nutzen, bewahren die Wahlfreiheit.

Zensurresistenz: Für Anwendungen, die unter Druck von zentralisierten Anbietern geraten könnten, bietet dezentrale Infrastruktur eine entscheidende Resilienz-Ebene.

Der Vorbehalt liegt in der Abstimmung der Arbeitslast auf die Infrastruktur. Für schnelles Prototyping, Batch-Verarbeitung, Inferenz-Serving und parallele Trainingsläufe sind dezentrale GPU-Netzwerke heute schon bereit. Für mehrwöchiges Modelltraining, das absolute Zuverlässigkeit erfordert, bleiben Hyperscaler die sicherere Wahl – vorerst.

Der Weg nach vorn

Das Zusammentreffen von GPU-Knappheit, steigender Nachfrage nach KI-Rechenleistung und reifender DePIN-Infrastruktur schafft eine seltene Marktchance. Traditionelle Cloud-Anbieter dominierten die erste Generation der KI-Infrastruktur durch Zuverlässigkeit und Komfort. Dezentrale GPU-Netzwerke konkurrieren nun über Kosten, Flexibilität und Widerstandsfähigkeit gegen zentralisierte Kontrolle.

Die nächsten 12 Monate werden entscheidend sein. Während Render sein KI-Rechen-Subnetz skaliert, Akash Starcluster-GPUs online bringt und Hyperbolic die kryptografische Verifizierung einführt, werden wir sehen, ob dezentrale Infrastruktur ihr Versprechen im Hyperscale-Bereich einlösen kann.

Für Entwickler, Forscher und Unternehmen, die derzeit Premiumpreise für knappe GPU-Ressourcen zahlen, kann die Entstehung glaubwürdiger Alternativen nicht früh genug kommen. Die Frage ist nicht, ob dezentrale GPU-Netzwerke einen Teil des 100 Milliarden $ schweren Rechenmarktes erobern werden – sondern wie viel.

BlockEden.xyz bietet Blockchain-Infrastruktur auf Enterprise-Niveau für Entwickler, die auf Fundamenten bauen, die Bestand haben. Erkunden Sie unseren API-Marktplatz, um auf zuverlässige Node-Services über führende Blockchain-Netzwerke hinweg zuzugreifen.

Die 4,3 Mrd. $ Web3-KI-Agenten-Revolution: Warum 282 Projekte auf Blockchain für autonome Intelligenz setzen

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn KI-Agenten für ihre eigenen Ressourcen bezahlen, miteinander handeln und komplexe Finanzstrategien ausführen könnten, ohne ihre menschlichen Besitzer um Erlaubnis zu fragen? Das ist keine Science-Fiction. Bis Ende 2025 wurden über 550 Krypto-Projekte für KI-Agenten mit einer kombinierten Marktkapitalisierung von 4,34 Mrd. $ gestartet, und es wurde prognostiziert, dass KI-Algorithmen 89 % des globalen Handelsvolumens verwalten würden. Die Konvergenz von autonomer Intelligenz und Blockchain-Infrastruktur schafft eine völlig neue wirtschaftliche Ebene, auf der Maschinen Werte mit Geschwindigkeiten koordinieren, mit denen Menschen einfach nicht mithalten können.

Aber warum benötigt KI überhaupt eine Blockchain? Und was unterscheidet den Krypto-KI-Sektor grundlegend vom zentralisierten KI-Boom, der von OpenAI und Google angeführt wird? Die Antwort liegt in drei Worten: Zahlungen, Vertrauen und Koordination.

Das Problem: KI-Agenten können ohne Blockchain nicht autonom agieren

Betrachten wir ein einfaches Beispiel: ein KI-Agent, der Ihr DeFi-Portfolio verwaltet. Er überwacht die Renditesätze über 50 Protokolle hinweg, schichtet Gelder automatisch um, um die Erträge zu maximieren, und führt Trades basierend auf den Marktbedingungen aus. Dieser Agent muss:

  1. Für API-Aufrufe bei Preis-Feeds und Datenanbietern bezahlen
  2. Transaktionen über mehrere Blockchains hinweg ausführen
  3. Seine Identität nachweisen, wenn er mit Smart Contracts interagiert
  4. Vertrauen zu anderen Agenten und Protokollen aufbauen
  5. Werte in Echtzeit abrechnen, ohne Zwischenhändler

Keine dieser Fähigkeiten existiert in der traditionellen KI-Infrastruktur. Die GPT-Modelle von OpenAI können Handelsstrategien generieren, aber sie können keine Gelder verwahren. Die KI von Google kann Märkte analysieren, aber sie kann Transaktionen nicht autonom ausführen. Zentralisierte KI lebt in geschlossenen Systemen („Walled Gardens“), in denen jede Aktion eine menschliche Genehmigung und Fiat-Zahlungsschienen erfordert.

Die Blockchain löst dies mit programmierbarem Geld, kryptografischer Identität und vertrauensloser Koordination. Ein KI-Agent mit einer Wallet-Adresse kann rund um die Uhr agieren, Ressourcen bei Bedarf bezahlen und an dezentralen Märkten teilnehmen, ohne seinen Betreiber offenzulegen. Dieser grundlegende architektonische Unterschied ist der Grund, warum sich 282 Krypto × KI-Projekte im Jahr 2025 trotz des breiteren Marktabschwungs Risikokapitalfinanzierungen sicherten.

Marktlandschaft: Ein 4,3 Mrd. $ Sektor wächst trotz Herausforderungen

Stand Ende Oktober 2025 erfasste CoinGecko über 550 Krypto-Projekte für KI-Agenten mit einer Marktkapitalisierung von 4,34 Milliarden undeinemta¨glichenHandelsvolumenvon1,09Milliardenund einem täglichen Handelsvolumen von 1,09 Milliarden. Dies markiert ein explosives Wachstum gegenüber nur etwa 100 Projekten im Vorjahr. Der Sektor wird von Infrastrukturprojekten dominiert, welche die Schienen für autonome Agenten-Ökonomien bauen.

Die großen Drei: Artificial Superintelligence Alliance

Die bedeutendste Entwicklung des Jahres 2025 war der Zusammenschluss von Fetch.ai, SingularityNET und Ocean Protocol zur Artificial Superintelligence Alliance. Dieser über 2 Mrd. $ schwere Gigant vereint:

  • Fetch.ais uAgents: Autonome Agenten für Lieferkette, Finanzen und Smart Cities
  • SingularityNETs KI-Marktplatz: Dezentrale Plattform für den Handel mit KI-Diensten
  • Ocean Protocols Datenebene: Tokenisierter Datenaustausch, der KI-Training auf privaten Datensätzen ermöglicht

Die Allianz brachte ASI-1 Mini auf den Markt, das erste Web3-native Large Language Model, und kündigte Pläne für die ASI Chain an, eine Hochleistungs-Blockchain, die für Transaktionen zwischen Agenten optimiert ist. Ihr Agentverse-Marktplatz beherbergt mittlerweile Tausende von monetarisierten KI-Agenten, die Einnahmen für Entwickler generieren.

Wichtige Statistiken:

  • 89 % des globalen Handelsvolumens werden bis 2025 voraussichtlich von KI verwaltet
  • GPT-4 / GPT-5-gestützte Trading-Bots übertreffen menschliche Händler bei hoher Volatilität um 15 - 25 %
  • Algorithmische Kryptofonds erzielen bei bestimmten Assets annualisierte Renditen von 50 - 80 %
  • Das Volumen des EURC-Stablecoins wuchs von 47 Mio. (Juni2024)auf7,5Mrd.(Juni 2024) auf 7,5 Mrd. (Juni 2025)

Die Infrastruktur reift schnell heran. Zu den jüngsten Durchbrüchen gehören das x402-Zahlungsprotokoll, das Maschine-zu-Maschine-Transaktionen ermöglicht, datenschutzorientierte KI-Inferenz von Venice und die Integration physischer Intelligenz via IoTeX. Diese Standards machen Agenten über Ökosysteme hinweg interoperabler und kombinierbarer.

Zahlungsstandards: Wie KI-Agenten tatsächlich transagieren

Der Durchbruch für KI-Agenten kam mit der Entstehung von Blockchain-nativen Zahlungsstandards. Das x402-Protokoll, das 2025 finalisiert wurde, wurde zum dezentralen Zahlungsstandard, der speziell für autonome KI-Agenten entwickelt wurde. Die Akzeptanz erfolgte schnell: Google Cloud, AWS und Anthropic integrierten die Unterstützung innerhalb weniger Monate.

Warum traditionelle Zahlungen für KI-Agenten nicht funktionieren:

Traditionelle Zahlungsschienen erfordern:

  • Menschliche Verifizierung für jede Transaktion
  • Bankkonten, die an juristische Personen gebunden sind
  • Batch-Abrechnung (1 - 3 Werktage)
  • Geografische Einschränkungen und Währungsumrechnung
  • Einhaltung von KYC / AML für jede Zahlung

Ein KI-Agent, der 10.000 Mikrotransaktionen pro Tag in 50 Ländern ausführt, kann unter diesen Einschränkungen nicht arbeiten. Die Blockchain ermöglicht:

  • Sofortige Abrechnung in Sekunden
  • Programmierbare Zahlungsregeln (zahle X, wenn Bedingung Y erfüllt ist)
  • Globaler, erlaubnisfreier Zugang
  • Mikro-Zahlungen (Bruchteile eines Cents)
  • Kryptografischer Zahlungsnachweis ohne Zwischenhändler

Unternehmensakzeptanz:

Visa startete das Trusted Agent Protocol, das kryptografische Standards für die Erkennung und Transaktion mit zugelassenen KI-Agenten bereitstellt. PayPal ging eine Partnerschaft mit OpenAI ein, um Instant Checkout und Agentic Commerce in ChatGPT über das Agent Checkout Protocol zu ermöglichen. Diese Schritte signalisieren, dass die traditionelle Finanzwelt die Unausweichlichkeit von Agent-zu-Agent-Ökonomien erkennt.

Bis 2026 werden die meisten großen Krypto-Wallets voraussichtlich eine auf natürlicher Sprache basierende, absichtsgesteuerte Transaktionsausführung einführen. Benutzer werden sagen: „Maximiere meine Rendite über Aave, Compound und Morpho“, und ihr Agent wird die Strategie autonom ausführen.

Identität und Vertrauen: Der ERC-8004 Standard

Damit KI-Agenten am Wirtschaftsleben teilnehmen können, benötigen sie Identität und Reputation. Der im August 2025 finalisierte Standard ERC-8004 etablierte drei kritische Register:

  1. Identitätsregister: Kryptografische Verifizierung, dass ein Agent der ist, der er zu sein vorgibt
  2. Reputationsregister: On-Chain-Scoring basierend auf vergangenem Verhalten und Ergebnissen
  3. Validierungsregister: Bescheinigungen und Zertifizierungen durch Dritte

Dies schafft einen „Know Your Agent“ (KYA)-Rahmen, parallel zu „Know Your Customer“ (KYC) für Menschen. Ein Agent mit einem hohen Reputationsscore kann auf bessere Kreditzinsen in DeFi-Protokollen zugreifen. Ein Agent mit verifizierter Identität kann an Governance-Entscheidungen teilnehmen. Ein Agent ohne Bescheinigungen könnte auf Sandbox-Umgebungen beschränkt sein.

Die Universal Wallet Infrastructure (UWI) von NTT DOCOMO und Accenture geht noch weiter und schafft interoperable Wallets, die Identität, Daten und Geld zusammenhalten. Für Nutzer bedeutet dies eine einzige Schnittstelle, die menschliche und Agenten-Anmeldedaten nahtlos verwaltet.

Infrastrukturlücken: Warum Krypto-KI hinter der Mainstream-KI zurückbleibt

Trotz des Versprechens steht der Krypto-KI-Sektor vor strukturellen Herausforderungen, die Mainstream-KI nicht hat:

Skalierbarkeitsbeschränkungen:

Die Blockchain-Infrastruktur ist nicht für Hochfrequenz-KI-Workloads mit geringer Latenz optimiert. Kommerzielle KI-Dienste verarbeiten Tausende von Anfragen pro Sekunde; öffentliche Blockchains unterstützen typischerweise 10–100 TPS. Dies führt zu einer fundamentalen Diskrepanz.

Dezentrale KI-Netzwerke können noch nicht mit der Geschwindigkeit, Skalierbarkeit und Effizienz zentralisierter Infrastrukturen mithalten. Das KI-Training erfordert GPU-Cluster mit Ultra-Low-Latency-Verbindungen. Verteiltes Rechnen führt zu Kommunikations-Overhead, der das Training um das 10- bis 100-fache verlangsamt.

Kapital- und Liquiditätsengpässe:

Der Krypto-KI-Sektor ist weitgehend durch Kleinanleger finanziert, während Mainstream-KI von Folgendem profitiert:

  • Institutionelle Wagniskapitalfinanzierung (Milliarden von Sequoia, a16z, Microsoft)
  • Staatliche Unterstützung und Infrastrukturanreize
  • Forschungs- und Entwicklungsbudgets der Unternehmen (Google, Meta, Amazon geben jährlich über 50 Mrd. USD aus)
  • Regulatorische Klarheit, die die Einführung in Unternehmen ermöglicht

Die Divergenz ist eklatant. Die Marktkapitalisierung von Nvidia wuchs 2023–2024 um 1 Billion USD, während Krypto-KI-Token kollektiv 40 % ihrer Spitzenbewertungen einbüßten. Der Sektor steht vor Liquiditätsproblemen inmitten einer Risk-off-Stimmung und eines breiteren Krypto-Marktrückgangs.

Rechentechnisches Ungleichgewicht:

KI-basierte Token-Ökosysteme stoßen auf Herausforderungen durch das Ungleichgewicht zwischen intensiven Rechenanforderungen und den Einschränkungen dezentraler Infrastrukturen. Viele Krypto-KI-Projekte erfordern spezialisierte Hardware oder fortgeschrittenes technisches Wissen, was die Zugänglichkeit einschränkt.

Mit wachsenden Netzwerken werden Peer-Discovery, Kommunikationslatenz und Konsenseffizienz zu kritischen Engpässen. Aktuelle Lösungen verlassen sich oft auf zentralisierte Koordinatoren, was das Dezentralisierungsversprechen untergräbt.

Sicherheits- und regulatorische Unsicherheit:

Dezentralen Systemen fehlen zentralisierte Governance-Rahmen zur Durchsetzung von Sicherheitsstandards. Nur 22 % der Führungskräfte fühlen sich auf KI-bezogene Bedrohungen voll vorbereitet. Regulatorische Unsicherheit bremst den Kapitaleinsatz, der für groß angelegte agentenbasierte Infrastrukturen erforderlich ist.

Der Krypto-KI-Sektor muss diese fundamentalen Herausforderungen lösen, bevor er die Vision von autonomen Agentenökonomien in großem Maßstab umsetzen kann.

Anwendungsfälle: Wo KI-Agenten tatsächlich Wert schöpfen

Abseits des Hypes: Was tun KI-Agenten heute tatsächlich On-Chain?

DeFi-Automatisierung:

Die autonomen Agenten von Fetch.ai verwalten Liquiditätspools, führen komplexe Handelsstrategien aus und gleichen Portfolios automatisch aus. Ein Agent kann damit beauftragt werden, USDT zwischen Pools zu transferieren, wann immer eine günstigere Rendite verfügbar ist, was unter optimalen Bedingungen jährliche Renditen von 50–80 % erzielt.

Supra und andere „AutoFi“-Layer ermöglichen datengesteuerte Strategien in Echtzeit ohne menschliches Eingreifen. Diese Agenten überwachen die Marktbedingungen rund um die Uhr, reagieren in Millisekunden auf Chancen und führen Transaktionen über mehrere Protokolle gleichzeitig aus.

Lieferkette und Logistik:

Die Agenten von Fetch.ai optimieren den Lieferkettenbetrieb in Echtzeit. Ein Agent, der einen Versandcontainer repräsentiert, kann Preise mit Hafenbehörden aushandeln, die Zollabfertigung bezahlen und Tracking-Systeme aktualisieren – alles autonom. Dies reduziert die Koordinationskosten im Vergleich zu menschlich verwaltetem Logistikmanagement um 30–50 %.

Datenmarktplätze:

Ocean Protocol ermöglicht den tokenisierten Datenhandel, bei dem KI-Agenten Datensätze für das Training kaufen, Datenanbieter automatisch bezahlen und die Herkunft kryptografisch nachweisen. Dies schafft Liquidität für zuvor illiquide Daten-Assets.

Prognosemärkte:

KI-Agenten machten Ende 2025 30 % der Trades auf Polymarket aus. Diese Agenten aggregieren Informationen aus Tausenden von Quellen, identifizieren Arbitrage-Möglichkeiten in Prognosemärkten und führen Trades mit Maschinengeschwindigkeit aus.

Smart Cities:

Die Agenten von Fetch.ai koordinieren das Verkehrsmanagement, die Energieverteilung und die Ressourcenzuweisung in Smart-City-Piloten. Ein Agent, der den Energieverbrauch eines Gebäudes verwaltet, kann überschüssigen Solarstrom von benachbarten Gebäuden über Mikrotransaktionen kaufen und so die Kosten in Echtzeit optimieren.

Der Ausblick für 2026: Konvergenz oder Divergenz?

Die grundlegende Frage für den Web3-KI-Sektor ist, ob er mit der Mainstream-KI konvergieren oder ein paralleles Ökosystem für Nischenanwendungen bleiben wird.

Argumente für Konvergenz:

Bis Ende 2026 werden die Grenzen zwischen KI, Blockchains und Zahlungsverkehr verschwimmen. Eine Komponente liefert Entscheidungen (KI), eine andere stellt sicher, dass Anweisungen echt sind (Blockchain), und die dritte wickelt den Wertaustausch ab (Krypto-Zahlungen). Für Nutzer werden digitale Wallets Identität, Daten und Geld in einheitlichen Benutzeroberflächen zusammenführen.

Die Akzeptanz in Unternehmen beschleunigt sich. Die Integration von Google Cloud mit x402, das Trusted Agent Protocol von Visa und der Agent Checkout von PayPal signalisieren, dass traditionelle Akteure die Blockchain als essenzielle Basisinfrastruktur („Plumbing“) für die KI-Wirtschaft betrachten und nicht als separaten Stack.

Argumente für Divergenz:

Mainstream-KI könnte Zahlungen und Koordination auch ohne Blockchain lösen. OpenAI könnte Stripe für Mikrozahlungen integrieren. Google könnte proprietäre Identitätssysteme für Agenten aufbauen. Die regulatorischen Hürden für Stablecoins und Krypto-Infrastruktur könnten eine breite Akzeptanz verhindern.

Der Token-Rückgang von 40 % während Nvidia 1 Bio. $ an Wert gewann, deutet darauf hin, dass der Markt Krypto-KI eher als spekulativ denn als grundlegend betrachtet. Wenn dezentrale Infrastrukturen keine vergleichbare Leistung und Skalierung erreichen können, werden Entwickler standardmäßig auf zentralisierte Alternativen zurückgreifen.

Der Joker: Regulierung

Der GENIUS Act, MiCA und andere Regulierungen im Jahr 2026 könnten die Krypto-KI-Infrastruktur entweder legitimieren (und institutionelles Kapital ermöglichen) oder sie durch Compliance-Kosten ersticken, die sich nur zentralisierte Akteure leisten können.

Warum Blockchain-Infrastruktur für KI-Agenten wichtig ist

Für Entwickler, die in den Web3-KI-Bereich einsteigen, ist die Wahl der Infrastruktur von entscheidender Bedeutung. Zentralisierte KI bietet Leistung, opfert aber Autonomie. Dezentrale KI bietet Souveränität, sieht sich jedoch Skalierbarkeitsbeschränkungen gegenüber.

Die optimale Architektur umfasst wahrscheinlich hybride Modelle: KI-Agenten mit Blockchain-basierter Identität und Zahlungswegen, die auf leistungsstarken Off-Chain-Rechenressourcen ausgeführt werden, wobei die Ergebnisse On-Chain kryptografisch verifiziert werden. Dies ist das aufkommende Muster hinter Projekten wie Fetch.ai und der ASI Alliance.

Anbieter von Node-Infrastruktur spielen eine entscheidende Rolle in diesem Stack. KI-Agenten benötigen zuverlässigen RPC-Zugang mit geringer Latenz, um Transaktionen über mehrere Chains gleichzeitig auszuführen. Enterprise-Blockchain-APIs ermöglichen es Agenten, rund um die Uhr ohne Verwahrungsrisiko oder Ausfallzeiten zu agieren.

BlockEden.xyz bietet eine hochperformante API-Infrastruktur für die Multi-Chain-Koordination von KI-Agenten und unterstützt Entwickler beim Aufbau der nächsten Generation autonomer Systeme. Entdecken Sie unsere Dienste, um auf die zuverlässige Blockchain-Konnektivität zuzugreifen, die Ihre KI-Agenten benötigen.

Fazit: Das Rennen um den Aufbau autonomer Ökonomien

Der Sektor der Web3-KI-Agenten stellt eine 4,3-Milliarden-Dollar-Wette darauf dar, dass die Zukunft der KI dezentral, autonom und wirtschaftlich souverän ist. Über 282 Projekte sicherten sich im Jahr 2025 Finanzierungen, um diese Vision umzusetzen und Zahlungsstandards, Identitätsframeworks und Koordinationsschichten zu schaffen, die in der zentralisierten KI schlichtweg nicht existieren.

Die Herausforderungen sind real: Skalierungslücken, Kapitalbeschränkungen und regulatorische Unsicherheiten drohen Krypto-KI auf Nischenanwendungen zu beschränken. Doch das grundlegende Wertversprechen – KI-Agenten, die bezahlen, ihre Identität nachweisen und vertrauenslos koordinieren können – lässt sich ohne Blockchain-Infrastruktur nicht replizieren.

Bis Ende 2026 werden wir wissen, ob Krypto-KI mit der Mainstream-KI als essenzielle Basistechnologie konvergiert oder als paralleles Ökosystem divergiert. Die Antwort wird darüber entscheiden, ob Ökonomien autonomer Agenten zu einem Billionen-Dollar-Markt werden oder ein ehrgeiziges Experiment bleiben.

Vorerst läuft das Rennen. Und die Gewinner werden diejenigen sein, die echte Infrastruktur für die Koordination im Maschinenmaßstab bauen, nicht nur Token und Hype.

Quellen

Acht Implementierungen in 24 Stunden: Wie ERC-8004 und BAP-578 die KI-Agenten-Ökonomie schaffen

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Am 15. August 2025 veröffentlichte die Ethereum Foundation ERC-8004, einen Standard für die vertrauenslose Identität von KI-Agenten. Innerhalb von 24 Stunden löste die Ankündigung über 10.000 Erwähnungen in den sozialen Medien und acht unabhängige technische Implementierungen aus – ein Grad an Akzeptanz, für den ERC-20 Monate und ERC-721 ein halbes Jahr benötigten. Sechs Monate später, als ERC-8004 im Januar 2026 mit über 24.000 registrierten Agenten im Ethereum-Mainnet startete, kündigte die BNB Chain ergänzende Unterstützung mit BAP-578 an, einem Standard, der KI-Agenten in handelbare On-Chain-Assets verwandelt.

Die Konvergenz dieser Standards stellt mehr als nur einen schrittweisen Fortschritt in der Blockchain-Infrastruktur dar. Sie signalisiert die Ankunft der KI-Agenten-Ökonomie – einer Welt, in der autonome digitale Einheiten verifizierbare Identität, portable Reputation und Eigentumsgarantien benötigen, um plattformübergreifend zu agieren, unabhängig Transaktionen durchzuführen und wirtschaftlichen Wert zu schaffen.

Das Vertrauensproblem, das KI-Agenten nicht alleine lösen können

Autonome KI-Agenten verbreiten sich rasant. Von der Ausführung von DeFi-Strategien bis hin zum Management von Lieferketten tragen KI-Agenten bereits 30 % des Handelsvolumens auf Prognosemärkten wie Polymarket bei. Doch die plattformübergreifende Koordination stößt auf eine fundamentale Barriere: Vertrauen.

Wenn ein KI-Agent von Plattform A mit einem Dienst auf Plattform B interagieren möchte, wie verifiziert Plattform B die Identität, das vergangene Verhalten oder die Autorisierung des Agenten zur Durchführung spezifischer Aktionen? Traditionelle Lösungen verlassen sich auf zentralisierte Vermittler oder proprietäre Reputationssysteme, die nicht zwischen Ökosystemen übertragbar sind. Ein Agent, der auf einer Plattform Reputation aufgebaut hat, fängt auf einer anderen bei Null an.

Hier setzt ERC-8004 an. Der am 13. August 2025 von Marco De Rossi (MetaMask), Davide Crapis (Ethereum Foundation), Jordan Ellis (Google) und Erik Reppel (Coinbase) vorgeschlagene ERC-8004 etabliert drei leichtgewichtige On-Chain-Register:

  • Identity Registry: Speichert Agenten-Anmeldedaten, Fähigkeiten und Endpunkte als ERC-721-Token und verleiht jedem Agenten eine einzigartige, portable Blockchain-Identität.
  • Reputation Registry: Führt einen unveränderlichen Datensatz über Feedback und Performance-Historie.
  • Validation Registry: Zeichnet kryptografische Beweise auf, dass die Arbeit des Agenten korrekt abgeschlossen wurde.

Die technische Eleganz des Standards liegt in dem, was er nicht tut. ERC-8004 verzichtet auf die Vorschreibung anwendungsspezifischer Logik und überlässt komplexe Entscheidungsprozesse den Off-Chain-Komponenten, während Vertrauensprimitive On-Chain verankert werden. Diese methodenunabhängige Architektur ermöglicht es Entwicklern, verschiedene Validierungsmethoden zu implementieren – von Zero-Knowledge-Proofs bis hin zu Oracle-Bestätigungen – ohne den Kernstandard zu ändern.

Acht Implementierungen an einem Tag: Warum ERC-8004 explodierte

Der sprunghafte Anstieg der Akzeptanz innerhalb von 24 Stunden war nicht nur Hype. Der historische Kontext verdeutlicht die Gründe:

  • ERC-20 (2015): Der Standard für fungible Token benötigte Monate für die ersten Implementierungen und Jahre, um eine breite Akzeptanz zu erreichen.
  • ERC-721 (2017): NFTs explodierten erst sechs Monate nach der Veröffentlichung des Standards auf dem Markt, katalysiert durch CryptoKitties.
  • ERC-8004 (2025): Acht unabhängige Implementierungen am selben Tag der Ankündigung.

Was hat sich geändert? Die KI-Agenten-Ökonomie war bereits am Brodeln. Bis Mitte 2025 hatten 282 Krypto-KI-Projekte eine Finanzierung erhalten, die Einführung von KI-Agenten in Unternehmen beschleunigte sich in Richtung eines prognostizierten wirtschaftlichen Werts von 450 Milliarden US-Dollar bis 2028, und wichtige Akteure – Google, Coinbase, PayPal – hatten bereits ergänzende Infrastrukturen wie Googles Agent Payments Protocol (AP2) und den x402-Zahlungsstandard von Coinbase veröffentlicht.

ERC-8004 schuf keine Nachfrage; es setzte latente Infrastruktur frei, nach deren Aufbau Entwickler verlangten. Der Standard lieferte die fehlende Vertrauensebene, die Protokolle wie Googles A2A (Agent-to-Agent-Kommunikationsspezifikation) und Zahlungsschienen benötigten, um sicher über Organisationsgrenzen hinweg zu funktionieren.

Bis zum 29. Januar 2026, als ERC-8004 im Ethereum-Mainnet live ging, hatte das Ökosystem bereits über 24.000 Agenten registriert. Der Standard weitete die Bereitstellung auf wichtige Layer-2-Netzwerke aus, und das dAI-Team der Ethereum Foundation nahm ERC-8004 in seine Roadmap für 2026 auf, wodurch Ethereum als globale Settlement-Ebene für KI positioniert wurde.

BAP-578: Wenn KI-Agenten zu Assets werden

Während ERC-8004 das Identitäts- und Vertrauensproblem löste, führte die Ankündigung von BAP-578 durch die BNB Chain im Februar 2026 ein neues Paradigma ein: Non-Fungible Agents (NFAs).

BAP-578 definiert KI-Agenten als On-Chain-Assets, die Vermögenswerte halten, Logik ausführen, mit Protokollen interagieren und gekauft, verkauft oder gemietet werden können. Dies verwandelt KI von „einem Dienst, den man mietet“ in „ein Asset, das man besitzt – eines, das durch Nutzung an Wert gewinnt“.

Technische Architektur: Lernen, das On-Chain lebt

NFAs nutzen eine kryptografisch verifizierbare Lernarchitektur unter Verwendung von Merkle-Trees. Wenn Benutzer mit einem NFA interagieren, werden Lerndaten – Präferenzen, Muster, Konfidenzwerte, Ergebnisse – in einer hierarchischen Struktur organisiert:

  1. Interaktion: Der Benutzer interagiert mit dem Agenten.
  2. Lernextraktion: Daten werden verarbeitet und Muster identifiziert.
  3. Tree-Aufbau: Lerndaten werden in einem Merkle-Tree strukturiert.
  4. Berechnung der Merkle-Root: Ein 32-Byte-Hash fasst den gesamten Lernzustand zusammen.
  5. On-Chain-Update: Nur die Merkle-Root wird On-Chain gespeichert.

Dieses Design erreicht drei entscheidende Ziele:

  • Datenschutz: Rohe Interaktionsdaten bleiben Off-Chain; nur das kryptografische Commitment ist öffentlich.
  • Effizienz: Das Speichern eines 32-Byte-Hashs anstelle von Gigabytes an Trainingsdaten minimiert die Gaskosten.
  • Verifizierbarkeit: Jeder kann den Lernzustand des Agenten verifizieren, indem er Merkle-Roots vergleicht, ohne auf private Daten zuzugreifen.

Der Standard erweitert ERC-721 um optionale Lernfähigkeiten und ermöglicht es Entwicklern, zwischen statischen Agenten (herkömmliche NFTs) und adaptiven Agenten (KI-fähige NFAs) zu wählen. Das flexible Lernmodul unterstützt verschiedene KI-Optimierungsmethoden – Retrieval-Augmented Generation (RAG), Model Context Protocol (MCP), Fine-Tuning, Reinforcement Learning oder hybride Ansätze.

Der Markt für handelbare Intelligenz

NFAs schaffen beispiellose ökonomische Primitive. Anstatt monatliche Abonnements für KI-Dienste zu bezahlen, können Nutzer:

  • Spezialisierte Agenten besitzen: Erwerben Sie einen NFA, der in DeFi-Renditeoptimierung, rechtlicher Vertragsanalyse oder Lieferkettenmanagement geschult ist.
  • Agentenkapazität vermieten: Vermieten Sie freie Agentenkapazitäten an andere Nutzer, um passive Einkommensströme zu generieren.
  • Mit wertsteigernden Assets handeln: Wenn ein Agent Wissen und Reputation ansammelt, steigt sein Marktwert.
  • Agenten-Teams zusammenstellen: Kombinieren Sie mehrere NFAs mit komplementären Fähigkeiten für komplexe Workflows.

Dies erschließt neue Geschäftsmodelle. Stellen Sie sich ein DeFi-Protokoll vor, das ein Portfolio von renditeoptimierenden NFAs besitzt, die jeweils auf verschiedene Chains oder Strategien spezialisiert sind. Oder ein Logistikunternehmen, das während der Hochsaison spezialisierte Routing-NFAs least. Die „Non-Fungible Agent Economy“ transformiert kognitive Fähigkeiten in handelbares Kapital.

Die Konvergenz: ERC-8004 + BAP-578 in der Praxis

Die Stärke dieser Standards wird deutlich, wenn sie kombiniert werden:

  1. Identität (ERC-8004): Ein NFA wird mit verifizierbaren Berechtigungsnachweisen (Credentials), Fähigkeiten und Endpunkten registriert.
  2. Reputation (ERC-8004): Während der NFA Aufgaben ausführt, sammelt sein Reputationsregister unveränderliches Feedback.
  3. Validierung (ERC-8004): Kryptografische Nachweise bestätigen, dass die Arbeit des NFAs korrekt abgeschlossen wurde.
  4. Lernen (BAP-578): Der Merkle-Root des NFAs wird aktualisiert, wenn er Erfahrungen sammelt, wodurch sein Lernzustand auditierbar wird.
  5. Eigentum (BAP-578): Der NFA kann übertragen, geleast oder als Sicherheit in DeFi-Protokollen verwendet werden.

Dies schafft einen positiven Kreislauf. Ein NFA, der konsistent qualitativ hochwertige Arbeit liefert, baut Reputation auf (ERC-8004), was seinen Marktwert erhöht (BAP-578). Nutzer, die NFAs mit hoher Reputation besitzen, können ihre Assets monetarisieren, während Käufer Zugang zu bewährten Fähigkeiten erhalten.

Ökosystem-Adoption: Von MetaMask bis zur BNB Chain

Die schnelle Standardisierung über verschiedene Ökosysteme hinweg offenbart eine strategische Ausrichtung:

Ethereums Strategie: Settlement-Layer für KI

Das dAI-Team der Ethereum Foundation positioniert Ethereum als globalen Settlement-Layer für KI-Transaktionen. Mit der Bereitstellung von ERC-8004 im Mainnet und der Ausweitung auf wichtige L2s wird Ethereum zur Vertrauensinfrastruktur, in der Agenten ihre Identität registrieren, Reputation aufbauen und hochwertige Interaktionen abwickeln.

Die Strategie der BNB Chain: Application-Layer für NFAs

Die Unterstützung der BNB Chain für sowohl ERC-8004 (Identität / Reputation) und BAP-578 (NFAs) positioniert sie als Application-Layer, auf dem Nutzer KI-Agenten entdecken, kaufen und bereitstellen. Die BNB Chain hat zudem BNB Application Proposals (BAPs) eingeführt – ein Governance-Framework, das auf Standards der Anwendungsebene fokussiert ist und die Absicht signalisiert, den nutzerorientierten Agenten-Marktplatz zu dominieren.

MetaMask, Google, Coinbase: Wallet- und Zahlungsinfrastruktur

Die Beteiligung von MetaMask (Identität), Google (A2A-Kommunikation und AP2-Zahlungen) und Coinbase (x402-Zahlungen) gewährleistet eine nahtlose Integration zwischen Agenten-Identität, Entdeckung, Kommunikation und Abrechnung. Diese Unternehmen bauen die Full-Stack-Infrastruktur für Agenten-Ökonomien auf:

  • MetaMask: Wallet-Infrastruktur für Agenten, um Assets zu halten und Transaktionen auszuführen.
  • Google: Agent-zu-Agent-Kommunikation (A2A) und Zahlungskoordination (AP2).
  • Coinbase: x402-Protokoll für sofortige Stablecoin-Mikrozahlungen zwischen Agenten.

Als VIRTUAL Ende Oktober 2025 die x402-Lösung von Coinbase integrierte, stiegen die wöchentlichen Transaktionen des Protokolls innerhalb von vier Tagen von unter 5.000 auf über 25.000 – ein Anstieg von 400 %, der die enorme Nachfrage nach Zahlungsinfrastruktur für Agenten verdeutlicht.

Die 450-Mrd.-$-Frage: Was passiert als Nächstes?

Da die Bereitstellung von KI-Agenten in Unternehmen bis 2028 auf einen wirtschaftlichen Wert von 450 Milliarden US-Dollar zusteuert, wird die Infrastruktur, die diese Standards ermöglichen, im großen Maßstab getestet. Einige offene Fragen bleiben:

Können Reputationssysteme Manipulationen widerstehen?

On-Chain-Reputation ist unveränderlich, aber sie ist auch manipulierbar. Was verhindert Sybil-Angriffe, bei denen bösartige Akteure mehrere Agenten-Identitäten erstellen, um Reputationswerte künstlich aufzublähen? Frühe Implementierungen werden robuste Validierungsmechanismen benötigen – etwa durch den Einsatz von Zero-Knowledge-Proofs, um die Arbeitsqualität zu verifizieren, ohne sensible Daten preiszugeben, oder durch die Anforderung von gestakten Sicherheiten, die bei böswilligem Verhalten eingezogen (ge-slashed) werden.

Wie wird die Regulierung autonome Agenten behandeln?

Wenn ein NFA eine Finanztransaktion ausführt, die gegen Wertpapiergesetze verstößt, wer haftet dann – der NFA-Eigentümer, der Entwickler oder das Protokoll? Regulatorische Rahmenbedingungen hinken den technologischen Möglichkeiten hinterher. Da NFAs wirtschaftlich bedeutend werden, müssen politische Entscheidungsträger Fragen zur Handlungsfähigkeit, Haftung und zum Verbraucherschutz klären.

Wird die Interoperabilität ihr Versprechen halten?

ERC-8004 und BAP-578 sind auf Portabilität ausgelegt, aber praktische Interoperabilität erfordert mehr als technische Standards. Werden Plattformen es tatsächlich zulassen, dass Agenten ihre Reputations- und Lerndaten migrieren, oder wird die Wettbewerbsdynamik geschlossene Ökosysteme (Walled Gardens) schaffen? Die Antwort wird darüber entscheiden, ob die KI-Agenten-Ökonomie wirklich dezentralisiert wird oder in proprietäre Ökosysteme zerfällt.

Was ist mit Privatsphäre und Dateneigentum?

NFAs lernen aus Nutzerinteraktionen. Wem gehören diese Lerndaten? Die Merkle-Tree-Architektur von BAP-578 wahrt die Privatsphäre, indem sie Rohdaten Off-Chain hält, doch die wirtschaftlichen Anreize rund um das Dateneigentum bleiben unklar. Klare Rahmenbedingungen für Datenrechte und Zustimmung werden unerlässlich sein, wenn NFAs anspruchsvoller werden.

Auf dem Fundament aufbauen

Für Entwickler und Infrastrukturanbieter schafft die Konvergenz von ERC-8004 und BAP-578 unmittelbare Möglichkeiten:

Agent-Marktplätze: Plattformen, auf denen Nutzer NFAs mit verifizierter Reputation und Lernhistorien entdecken, erwerben und leasen können.

Spezialisiertes Agenten-Training: Dienste, die NFAs in spezifischen Domänen (Recht, DeFi, Logistik) trainieren und sie als wertsteigernde Assets verkaufen.

Reputations-Oracles: Protokolle, die On-Chain-Reputationsdaten aggregieren, um Vertrauensbewertungen für Agenten plattformübergreifend bereitzustellen.

DeFi für Agenten: Kreditprotokolle, bei denen NFAs als Sicherheiten dienen, Versicherungsprodukte zur Absicherung gegen Agentenfehler oder Derivatemärkte für den Handel mit Agenten-Performance.

Die Infrastrukturlücken sind ebenfalls deutlich. Agenten benötigen bessere Wallet-Lösungen, eine effizientere Cross-Chain-Kommunikation und standardisierte Frameworks für die Prüfung von Lerndaten. Die Projekte, die diese Probleme frühzeitig lösen, werden einen überproportionalen Wert erfassen, wenn die Agenten-Ökonomie skaliert.

BlockEden.xyz bietet Blockchain-Infrastruktur auf Enterprise-Niveau für KI-Agenten-Deployments auf Ethereum, der BNB Chain und über 20 weiteren Netzwerken. Entdecken Sie unsere API-Dienste, um Agent-First-Anwendungen auf Fundamenten zu bauen, die für autonome Koordination ausgelegt sind.

Fazit: Die kambrische Explosion kognitiver Assets

Acht Implementierungen in 24 Stunden. Über 24.000 registrierte Agenten in sechs Monaten. Standards, die von der Ethereum Foundation, MetaMask, Google und Coinbase unterstützt werden. Die KI-Agenten-Ökonomie ist kein Zukunftsnarrativ – es ist Infrastruktur, die heute bereitgestellt wird.

ERC-8004 und BAP-578 repräsentieren mehr als nur technische Standards. Sie sind das Fundament für eine neue Asset-Klasse: kognitive Fähigkeiten, die besitzbar, handelbar und wertsteigernd sind. Während sich KI-Agenten von experimentellen Werkzeugen zu wirtschaftlichen Akteuren entwickeln, ist die Frage nicht, ob Blockchain Teil dieses Übergangs sein wird – sondern welche Blockchains die Infrastrukturschicht besitzen werden.

Das Rennen hat bereits begonnen. Ethereum positioniert sich als Settlement-Layer. Die BNB Chain baut den Application-Layer auf. Und die Entwickler, die heute auf diesen Standards aufbauen, definieren, wie Menschen und autonome Agenten in einer 450 Milliarden US-Dollar schweren Wirtschaft koordinieren werden.

Die Agenten sind bereits da. Die Infrastruktur geht live. Die einzige verbleibende Frage ist: Bauen Sie für sie?


Quellen: