Direkt zum Hauptinhalt

79 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

DePINs 19,2 Mrd. $ Durchbruch: Vom IoT-Hype zur Unternehmensrealität

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Jahrelang fühlte sich das Versprechen einer dezentralen physischen Infrastruktur wie eine Lösung an, die nach einem Problem sucht. Blockchain-Enthusiasten sprachen davon, alles zu tokenisieren – von WLAN-Hotspots bis hin zu Solarmodulen –, während Unternehmen dies stillschweigend als Krypto-Hype abtaten, der nichts mit der betrieblichen Realität zu tun habe. Diese Ablehnung ist gerade teuer geworden.

Der Sektor der DePIN (Decentralized Physical Infrastructure Networks) ist in nur einem Jahr von 5,2 Milliarden auf19,2Milliardenauf 19,2 Milliarden Marktkapitalisierung explodiert – ein Anstieg von 270 %, der nichts mit spekulativer Manie zu tun hat, sondern damit, dass Unternehmen entdecken, dass sie ihre Infrastrukturkosten um 50–85 % senken können, während die Servicequalität erhalten bleibt. Mit mittlerweile 321 aktiven Projekten, die monatliche Einnahmen von 150 Millionen generieren,undderPrognosedesWeltwirtschaftsforums,dassderMarktbis2028einVolumenvon3,5Billionengenerieren, und der Prognose des Weltwirtschaftsforums, dass der Markt bis 2028 ein Volumen von 3,5 Billionen erreichen wird, hat DePIN den Sprung von einer experimentellen Technologie zu einer geschäftskritischen Infrastruktur geschafft.

Die Zahlen, die das Narrativ verändert haben

CoinGecko verfolgt seit September 2025 fast 250 DePIN-Projekte, verglichen mit einem Bruchteil dieser Zahl vor nur 24 Monaten. Aber die wahre Geschichte ist nicht die Anzahl der Projekte, sondern der Umsatz. Der Sektor generierte im Jahr 2025 geschätzte 72 Millionen $ an On-Chain-Einnahmen, wobei Top-Projekte mittlerweile achtstellige jährlich wiederkehrende Umsätze verzeichnen.

Alleine im Januar 2026 generierten DePIN-Projekte zusammen einen Umsatz von 150 Millionen .Aethir,deraufGPUsspezialisierteInfrastrukturanbieter,fu¨hrtemit55Millionen. Aethir, der auf GPUs spezialisierte Infrastrukturanbieter, führte mit 55 Millionen . Render Network folgte mit 38 Millionen ausdezentralenGPURenderingDiensten.Heliumtrug24Millionenaus dezentralen GPU-Rendering-Diensten. Helium trug 24 Millionen aus seinen drahtlosen Netzwerkbetrieben bei. Dies sind keine Eitelkeitskennzahlen von Airdrop-Farmern – sie repräsentieren reale Unternehmen, die für Rechenleistung, Konnektivität und Speicher bezahlen.

Die Marktzusammensetzung erzählt eine noch aufschlussreichere Geschichte: 48 % der DePIN-Projekte nach Marktkapitalisierung konzentrieren sich mittlerweile auf KI-Infrastruktur. Da die KI-Arbeitslasten explodieren und Hyperscaler Schwierigkeiten haben, die Nachfrage zu decken, werden dezentrale Rechennetzwerke zum Entlastungsventil für einen Branchenengpass, den traditionelle Rechenzentren nicht schnell genug lösen können.

Solanas DePIN-Dominanz: Warum Geschwindigkeit zählt

Wenn Ethereum die Heimat von DeFi ist und Bitcoin das digitale Gold, so ist Solana im Stillen zur Blockchain der Wahl für die Koordination physischer Infrastruktur geworden. Mit 63 DePIN-Projekten in seinem Netzwerk – darunter Helium, Grass und Hivemapper – machen die niedrigen Transaktionskosten und der hohe Durchsatz Solana zur einzigen Layer 1, die in der Lage ist, die echtzeitnahen, datenintensiven Arbeitslasten zu bewältigen, die physische Infrastruktur erfordert.

Die Transformation von Helium ist besonders instruktiv. Nach der Migration zu Solana im April 2023 ist das Mobilfunknetz auf über 115.000 Hotspots skaliert, die täglich 1,9 Millionen Nutzer bedienen. Die Zahl der Helium Mobile-Abonnenten stieg von 115.000 im September 2024 auf fast 450.000 im September 2025 – ein Anstieg von 300 % im Jahresvergleich. Allein im zweiten Quartal 2025 übertrug das Netzwerk 2.721 Terabyte an Daten für Carrier-Partner, was einem Anstieg von 138,5 % gegenüber dem Vorquartal entspricht.

Die Wirtschaftlichkeit ist überzeugend: Helium bietet mobile Konnektivität zu einem Bruchteil der Kosten traditioneller Mobilfunkanbieter an, indem es Einzelpersonen motiviert, Hotspots bereitzustellen und zu warten. Abonnenten erhalten unbegrenzte Telefonie, Textnachrichten und Daten für 20 $/Monat. Hotspot-Betreiber verdienen Token basierend auf der Netzabdeckung und dem Datentransfer. Traditionelle Anbieter können mit dieser Kostenstruktur nicht konkurrieren.

Render Network demonstriert das Potenzial von DePIN in der KI- und Kreativbranche. Mit einer Marktkapitalisierung von 770 Millionen $ verarbeitete Render allein im Juli 2025 über 1,49 Millionen Rendering-Frames und verbrannte dabei 207.900 USDC an Gebühren. Künstler und KI-Forscher greifen auf ungenutzte GPU-Kapazitäten von Gaming-Rigs und Mining-Farmen zu und zahlen dafür im Vergleich zu zentralisierten Cloud-Rendering-Diensten nur einen Bruchteil.

Grass, das am schnellsten wachsende DePIN auf Solana mit über 3 Millionen Nutzern, monetarisiert ungenutzte Bandbreite für KI-Trainingsdatensätze. Nutzer stellen ihre ungenutzte Internetverbindung zur Verfügung und verdienen Token, während Unternehmen Webdaten für Large Language Models scrapen. Es ist Infrastruktur-Arbitrage im großen Stil – die Nutzung reichlich vorhandener, unterausgelasteter Ressourcen (Privatkunden-Bandbreite) und deren Bündelung für Unternehmen, die bereit sind, Premium-Preise für verteilte Datenerfassung zu zahlen.

Adoption durch Unternehmen: Die 50–85 % Kostensenkung, die kein CFO ignorieren kann

Der Übergang von Pilotprogrammen zu Produktionsumgebungen beschleunigte sich im Jahr 2025 massiv. Telekommunikationsanbieter, Cloud-Anbieter und Energieunternehmen experimentieren nicht nur mit DePIN – sie integrieren es in ihre Kernprozesse.

Drahtlose Infrastruktur umfasst mittlerweile weltweit über 5 Millionen registrierte dezentrale Router. Ein Fortune-500-Telekommunikationsunternehmen verzeichnete einen Anstieg der DePIN-gestützten Konnektivitätskunden um 23 %, was beweist, dass Unternehmen dezentrale Modelle annehmen werden, wenn die Wirtschaftlichkeit und Zuverlässigkeit stimmen. Die Partnerschaft von T-Mobile mit Helium zur Entlastung der Netzabdeckung in ländlichen Gebieten zeigt, wie etablierte Unternehmen DePIN nutzen, um Last-Mile-Probleme zu lösen, die traditionelle Investitionsausgaben nicht rechtfertigen können.

Der Telekommunikationssektor steht unter existenziellem Druck: Investitionsausgaben für den Turmbau und Frequenzlizenzen drücken die Margen, während Kunden eine flächendeckende Abdeckung fordern. Es wird prognostiziert, dass der Blockchain-Markt in der Telekommunikation von 1,07 Milliarden imJahr2024auf7,25Milliardenim Jahr 2024 auf 7,25 Milliarden bis 2030 wachsen wird, da die Anbieter erkennen, dass es günstiger ist, Einzelpersonen zur Bereitstellung von Infrastruktur zu motivieren, als dies selbst zu tun.

Cloud-Computing bietet eine noch größere Chance. Das von Nvidia unterstützte brev.dev und andere DePIN-Rechenanbieter bedienen KI-Arbeitslasten von Unternehmen, die bei AWS, Google Cloud oder Azure das Zwei- bis Dreifache kosten würden. Da erwartet wird, dass Inferenz-Workloads bis 2026 zwei Drittel des gesamten KI-Computings ausmachen werden (gegenüber einem Drittel im Jahr 2023), wird die Nachfrage nach kostengünstiger GPU-Kapazität nur noch zunehmen. Dezentrale Netzwerke können GPUs von Gaming-Rigs, Mining-Operationen und unterausgelasteten Rechenzentren beziehen – Kapazitäten, auf die zentralisierte Clouds keinen Zugriff haben.

Energienetze sind vielleicht der transformativste Anwendungsfall für DePIN. Zentralisierte Stromnetze haben Schwierigkeiten, Angebot und Nachfrage auf lokaler Ebene auszugleichen, was zu Ineffizienzen und Ausfällen führt. Dezentrale Energienetzwerke nutzen die Blockchain-Koordination, um die Erzeugung von Solarmodulen, Batterien und Zählern in Privatbesitz zu verfolgen. Die Teilnehmer erzeugen Strom, teilen überschüssige Kapazitäten mit Nachbarn und verdienen Token basierend auf ihrem Beitrag. Das Ergebnis: verbesserte Netzstabilität, reduzierte Energieverschwendung und finanzielle Anreize für die Nutzung erneuerbarer Energien.

KI-Infrastruktur: Die 48 %, die den Stack neu definieren

Fast die Hälfte der DePIN-Marktkapitalisierung konzentriert sich nun auf die KI-Infrastruktur – eine Konvergenz, die die Art und Weise, wie rechenintensive Workloads verarbeitet werden, neu gestaltet. Die Ausgaben für KI-Infrastrukturspeicher verzeichneten im zweiten Quartal 2025 ein Wachstum von 20,5 % gegenüber dem Vorjahr, wobei 48 % der Ausgaben auf Cloud-Deployments entfielen. Doch zentralisierte Clouds stoßen genau in dem Moment an ihre Kapazitätsgrenzen, in dem die Nachfrage explodiert.

Der weltweite Markt für Rechenzentrum-GPUs belief sich im Jahr 2024 auf 14,48 Milliarden undwirdbis2032voraussichtlich155,2Milliardenund wird bis 2032 voraussichtlich 155,2 Milliarden erreichen. Dennoch kann Nvidia kaum mit der Nachfrage Schritt halten, was zu Lieferzeiten von 6 bis 12 Monaten für H100- und H200-Chips führt. DePIN-Netzwerke umgehen diesen Engpass, indem sie Consumer- und Enterprise-GPUs bündeln, die 80–90 % der Zeit im Leerlauf sind.

Inferenz-Workloads – das Ausführen von KI-Modellen in der Produktion nach Abschluss des Trainings – sind das am schnellsten wachsende Segment. Während sich die meisten Investitionen im Jahr 2025 auf Trainings-Chips konzentrierten, wird erwartet, dass der Markt für Inferenz-optimierte Chips im Jahr 2026 die Marke von 50 Milliarden $ überschreiten wird, da Unternehmen von der Modellentwicklung zur Skalierung übergehen. DePIN-Compute-Netzwerke glänzen bei der Inferenz, da die Workloads hochgradig parallelisierbar und latenztolerant sind, was sie perfekt für verteilte Infrastrukturen macht.

Projekte wie Render, Akash und Aethir decken diesen Bedarf ab, indem sie fraktionierten GPU-Zugang, Spot-Preise und eine geografische Verteilung bieten, mit der zentralisierte Clouds nicht mithalten können. Ein KI-Startup kann 100 GPUs für einen Batch-Job am Wochenende hochfahren und zahlt nur für die Nutzung, ohne Mindestverpflichtungen oder Enterprise-Verträge. Für Hyperscaler bedeutet das Reibung. Für DePIN ist das das gesamte Wertversprechen.

Die Kategorien, die das Wachstum vorantreiben

DePIN unterteilt sich in zwei grundlegende Kategorien: Physical Resource Networks (Hardware wie Mobilfunktürme, Energienetze und Sensoren) und Digital Resource Networks (Rechenleistung, Bandbreite und Speicher). Beide erleben ein explosives Wachstum, aber digitale Ressourcen skalieren aufgrund geringerer Barrieren bei der Bereitstellung schneller.

Speichernetzwerke wie Filecoin ermöglichen es Nutzern, ungenutzten Festplattenplatz zu vermieten, wodurch verteilte Alternativen zu AWS S3 und Google Cloud Storage entstehen. Das Wertversprechen: geringere Kosten, geografische Redundanz und Widerstandsfähigkeit gegen Single-Point-of-Failures. Unternehmen testen Filecoin für Archivdaten und Backups – Anwendungsfälle, bei denen sich die Egress-Gebühren der zentralisierten Cloud jährlich auf Millionen summieren können.

Rechenressourcen umfassen GPU-Rendering (Render), Allzweck-Rechenleistung (Akash) und KI-Inferenz (Aethir). Akash betreibt einen offenen Marktplatz für Kubernetes-Deployments, der es Entwicklern ermöglicht, Container auf weltweit nicht ausgelasteten Servern zu starten. Die Kosteneinsparungen liegen je nach Workload-Typ und Verfügbarkeitsanforderungen zwischen 30 % und 85 % im Vergleich zu AWS.

Drahtlose Netzwerke wie Helium und World Mobile Token gehen die Konnektivitätslücke in unterversorgten Märkten an. World Mobile hat dezentrale Mobilfunknetze in Sansibar aufgebaut und ein Fulham FC-Spiel gestreamt, während 500 Personen in einem Umkreis von 600 Metern mit Internet versorgt wurden. Dies sind keine Proof-of-Concepts – es sind Produktionsnetzwerke, die echte Nutzer in Regionen bedienen, in denen traditionelle ISPs den Betrieb aufgrund ungünstiger wirtschaftlicher Bedingungen verweigern.

Energienetze nutzen die Blockchain, um die verteilte Erzeugung und den Verbrauch zu koordinieren. Besitzer von Solaranlagen verkaufen überschüssigen Strom an Nachbarn. Besitzer von Elektrofahrzeugen sorgen für Netzstabilität, indem sie Ladevorgänge auf Nebenzeiten legen und Token für ihre Flexibilität verdienen. Energieversorger erhalten Echtzeit-Einblick in das lokale Angebot und die Nachfrage, ohne teure intelligente Zähler und Steuerungssysteme einsetzen zu müssen. Es ist eine Infrastrukturkoordinierung, die ohne die vertrauenswürdige Abwicklungsebene der Blockchain nicht existieren könnte.

Von 19,2 Mrd. auf3,5Bio.auf 3,5 Bio.: Was nötig ist, um dorthin zu gelangen

Die Prognose des Weltwirtschaftsforums von 3,5 Billionen bis2028istnichtnuroptimistischeSpekulationsiespiegeltwider,wiemassivderadressierbareMarktist,sobaldsichDePINimgroßenMaßstabbewa¨hrt.DieweltweitenAusgabenfu¨rTelekommunikationsinfrastrukturu¨bersteigenja¨hrlich1,5Billionenbis 2028 ist nicht nur optimistische Spekulation – sie spiegelt wider, wie massiv der adressierbare Markt ist, sobald sich DePIN im großen Maßstab bewährt. Die weltweiten Ausgaben für Telekommunikationsinfrastruktur übersteigen jährlich 1,5 Billionen. Cloud-Computing ist ein Markt von über 600 Milliarden $. Die Energieinfrastruktur steht für Investitionsausgaben in Billionenhöhe.

DePIN muss diese Branchen nicht ersetzen – es muss lediglich einen Marktanteil von 10–20 % erobern, indem es eine überlegene Wirtschaftlichkeit bietet. Die Rechnung geht auf, weil DePIN das traditionelle Infrastrukturmodell umkehrt: Anstatt dass Unternehmen Milliarden aufbringen, um Netzwerke aufzubauen und dann die Kosten über Jahrzehnte hinweg amortisieren, bietet DePIN Einzelpersonen Anreize, die Infrastruktur im Voraus bereitzustellen und Token zu verdienen, während sie Kapazität beisteuern. Es handelt sich um Crowdsourcing-Investitionsausgaben (CapEx), und es skaliert weitaus schneller als zentralisierte Aufbauten.

Aber um 3,5 Billionen $ zu erreichen, müssen drei Herausforderungen gelöst werden:

Regulatorische Klarheit. Telekommunikation und Energie sind stark regulierte Branchen. DePIN-Projekte müssen sich mit der Spektrumlizenzierung (drahtlos), Netzkopplungsvereinbarungen (Energie) und Anforderungen an die Datenresidenz (Rechenleistung und Speicher) auseinandersetzen. Es werden Fortschritte erzielt – Regierungen in Afrika und Lateinamerika setzen auf DePIN, um Konnektivitätslücken zu schließen –, aber reife Märkte wie die USA und die EU bewegen sich langsamer.

Vertrauen der Unternehmen. Fortune-500-Unternehmen werden geschäftskritische Workloads erst dann auf DePIN migrieren, wenn die Zuverlässigkeit der von zentralisierten Alternativen entspricht oder diese übertrifft. Das bedeutet Uptime-Garantien, SLAs, Versicherungen gegen Ausfälle und 24/7-Support – Grundvoraussetzungen in der Unternehmens-IT, die vielen DePIN-Projekten noch fehlen. Die Gewinner werden Projekte sein, die betriebliche Reife über den Token-Preis stellen.

Token-Ökonomie. Frühe DePIN-Projekte litten unter einer nicht nachhaltigen Tokenomics: inflationäre Belohnungen, die den Markt überschwemmten, falsch ausgerichtete Anreize, die Sybil-Angriffe gegenüber nützlicher Arbeit belohnten, und spekulationsgetriebene Preisbewegungen ohne Bezug zu den Netzwerkgrundlagen. Die nächste Generation von DePIN-Projekten lernt aus diesen Fehlern und implementiert Burn-Mechanismen, die an den Umsatz gekoppelt sind, Sperrfristen (Vesting-Schedules) für Mitwirkende und eine Governance, die langfristige Nachhaltigkeit priorisiert.

Warum sich BlockEden.xyz-Entwickler dafür interessieren sollten

Wenn Sie auf der Blockchain entwickeln, stellt DePIN einen der klarsten Product-Market-Fits in der Geschichte der Kryptowährungen dar. Im Gegensatz zur regulatorischen Unsicherheit bei DeFi oder den spekulativen Zyklen von NFTs löst DePIN reale Probleme mit messbarem ROI. Unternehmen benötigen kosteneffizientere Infrastruktur. Privatpersonen verfügen über nicht ausgelastete Ressourcen. Die Blockchain ermöglicht vertrauensfreie Koordination und Abrechnung. Alles fügt sich zusammen.

Für Entwickler liegt die Chance im Aufbau der Middleware, die DePIN unternehmenstauglich macht: Monitoring- und Observability-Tools, Smart Contracts zur Durchsetzung von SLAs, Reputationssysteme für Node-Betreiber, Versicherungsprotokolle für Uptime-Garantien und Payment-Rails, die sofort über geografische Grenzen hinweg abrechnen.

Die Infrastruktur, die Sie heute bauen, könnte das dezentrale Internet von 2028 antreiben – ein Internet, in dem Helium die mobile Konnektivität verwaltet, Render die KI-Inferenz verarbeitet, Filecoin die Archive der Welt speichert und Akash die Container ausführt, die das Ganze orchestrieren. Das ist kein Krypto-Futurismus – das ist die Roadmap, die Fortune-500-Unternehmen bereits heute in Pilotprojekten umsetzen.

Quellen

Ambients 7,2-Millionen-Dollar-Schachzug: Wie Proof of Logits das Hash-basierte Mining durch KI-Inferenz ersetzen könnte

· 19 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn dieselbe Rechenleistung, die eine Blockchain sichert, auch die nächste Generation von KI-Modellen trainieren würde? Das ist keine ferne Vision – es ist die Kern-These hinter Ambient, einem Solana-Fork, der gerade 7,2 Millionen $ von a16z CSX gesammelt hat, um die weltweit erste KI-gestützte Proof-of-Work-Blockchain aufzubauen.

Traditioneller Proof-of-Work verbraucht Elektrizität, um willkürliche kryptografische Rätsel zu lösen. Bitcoin-Miner konkurrieren darum, Hashes mit genügend führenden Nullen zu finden – eine Rechenarbeit ohne Wert über die Netzwerksicherheit hinaus. Ambient dreht dieses Skript komplett um. Sein Proof of Logits (PoL) Konsensmechanismus ersetzt das Hash-Grinding durch KI-Inferenz, Fine-Tuning und Modelltraining. Miner lösen keine Rätsel; sie generieren verifizierbare KI-Outputs. Validatoren berechnen nicht die gesamte Arbeitslast neu; sie prüfen kryptografische Fingerabdrücke, sogenannte Logits.

Das Ergebnis? Eine Blockchain, bei der Sicherheit und KI-Fortschritt wirtschaftlich aufeinander abgestimmt sind, wo ein Verifizierungsaufwand von 0,1 % die Konsensprüfung nahezu kostenlos macht und wo die Trainingskosten im Vergleich zu zentralisierten Alternativen um das 10-fache sinken. Wenn Ambient erfolgreich ist, könnte es eine der ältesten Kritiken an Krypto beantworten – dass Proof-of-Work Ressourcen verschwendet –, indem es Mining in produktive KI-Arbeit verwandelt.

Der Proof-of-Logits-Durchbruch: Verifizierbare KI ohne Neuberechnung

Um PoL zu verstehen, muss man verstehen, was Logits eigentlich sind. Wenn Large Language Models Text generieren, geben sie Wörter nicht direkt aus. Stattdessen produzieren sie bei jedem Schritt eine Wahrscheinlichkeitsverteilung über das gesamte Vokabular – numerische Werte, die das Konfidenzniveau für jedes mögliche nächste Token darstellen.

Diese Werte werden Logits genannt. Für ein Modell mit einem Vokabular von 50.000 Token bedeutet die Generierung eines einzigen Wortes die Berechnung von 50.000 Logits. Diese Zahlen dienen als einzigartiger rechnerischer Fingerabdruck. Nur ein bestimmtes Modell mit bestimmten Gewichten, das eine bestimmte Eingabe verarbeitet, erzeugt eine spezifische Logit-Verteilung.

Die Innovation von Ambient besteht darin, Logits als Proof-of-Work zu nutzen: Miner führen KI-Inferenz durch (generieren Antworten auf Prompts), und Validatoren verifizieren diese Arbeit, indem sie Logit-Fingerabdrücke prüfen, anstatt die gesamte Berechnung zu wiederholen.

Hier ist, wie der Verifizierungsprozess funktioniert:

Miner generiert Output: Ein Miner erhält einen Prompt (z. B. „Fasse die Prinzipien des Blockchain-Konsenses zusammen“) und verwendet ein Modell mit 600 Milliarden Parametern, um eine Antwort mit 4.000 Token zu generieren. Dies erzeugt 4.000 × 50.000 = 200 Millionen Logits.

Validator führt Stichprobenprüfung durch: Anstatt alle 4.000 Token neu zu generieren, zieht der Validator eine Zufallsstichprobe an einer Position – zum Beispiel Token 2.847. Der Validator führt einen einzelnen Inferenzschritt an dieser Position aus und vergleicht die vom Miner gemeldeten Logits mit der erwarteten Verteilung.

Kryptografisches Commitment: Wenn die Logits übereinstimmen (innerhalb eines akzeptablen Schwellenwerts, der die Gleitkommapräzision berücksichtigt), wird die Arbeit des Miners verifiziert. Wenn nicht, wird der Block abgelehnt und der Miner verliert seine Belohnungen.

Dies reduziert den Verifizierungsaufwand auf etwa 0,1 % der ursprünglichen Berechnung. Ein Validator, der 200 Millionen Logits prüft, muss nur 50.000 Logits (eine Token-Position) verifizieren, was die Kosten um 99,9 % senkt. Vergleichen Sie dies mit traditionellem PoW, bei dem die Validierung bedeutet, die gesamte Hash-Funktion erneut auszuführen – oder dem Ansatz von Bitcoin, bei dem die Prüfung eines einzelnen SHA-256-Hashs trivial ist, weil das Rätsel selbst willkürlich ist.

Das System von Ambient ist exponentiell günstiger als naive „Proof of Useful Work“-Konzepte, die eine vollständige Neuberechnung erfordern. Es ist näher an der Effizienz von Bitcoin (günstige Validierung), liefert aber tatsächlichen Nutzen (KI-Inferenz anstelle bedeutungsloser Hashes).

Die 10-fache Senkung der Trainingskosten: Dezentrale KI ohne Rechenzentrums-Monopole

Zentralisiertes KI-Training ist teuer – für die meisten Organisationen unerschwinglich. Das Training von Modellen in der Größenordnung von GPT-4 kostet zweistellige Millionenbeträge, erfordert Tausende von Enterprise-GPUs und konzentriert die Macht in den Händen weniger Tech-Giganten. Die Architektur von Ambient zielt darauf ab, dies zu demokratisieren, indem das Training über ein Netzwerk unabhängiger Miner verteilt wird.

Die 10-fache Kostensenkung ergibt sich aus zwei technischen Innovationen:

Sharding im PETALS-Stil: Ambient passt Techniken von PETALS an, einem dezentralen Inferenzsystem, bei dem jeder Knoten nur einen Shard eines großen Modells speichert. Anstatt von Minern zu verlangen, ein gesamtes Modell mit 600 Milliarden Parametern vorzuhalten (was Terabytes an VRAM erfordern würde), besitzt jeder Miner eine Teilmenge der Layer. Ein Prompt fließt sequenziell durch das Netzwerk, wobei jeder Miner seinen Shard verarbeitet und die Aktivierungen an den nächsten weitergibt.

Dies bedeutet, dass ein Miner mit einer einzigen Consumer-GPU (24 GB VRAM) am Training von Modellen teilnehmen kann, die andernfalls Hunderte von GPUs in einem Rechenzentrum erfordern würden. Durch die Verteilung des Berechnungsgraphen auf Hunderte oder Tausende von Knoten eliminiert Ambient die Notwendigkeit für teure Hochbreitband-Interconnects (wie InfiniBand), die in traditionellen ML-Clustern verwendet werden.

SLIDE-inspirierte Sparsität: Die meisten neuronalen Netzwerkberechnungen beinhalten das Multiplizieren von Matrizen, bei denen die meisten Einträge nahe Null liegen. SLIDE (Sub-LInear Deep learning Engine) nutzt dies aus, indem Aktivierungen gehasht werden, um zu identifizieren, welche Neuronen für eine bestimmte Eingabe tatsächlich von Bedeutung sind, wodurch irrelevante Berechnungen komplett übersprungen werden.

Ambient wendet diese Sparsität auf das dezentrale Training an. Anstatt dass alle Miner alle Daten verarbeiten, leitet das Netzwerk die Arbeit dynamisch an Knoten weiter, deren Shards für den aktuellen Batch relevant sind. Dies reduziert den Kommunikationsaufwand (ein Hauptengpass im dezentralen ML) und ermöglicht es Minern mit schwächerer Hardware, teilzunehmen, indem sie dünnbesetzte Subgraphen verarbeiten.

Die Kombination ergibt laut Ambient einen 10-mal besseren Durchsatz als bestehende Bemühungen für dezentrales Training wie DiLoCo oder Hivemind. Wichtiger noch, es senkt die Eintrittsbarriere: Miner benötigen keine Infrastruktur auf Rechenzentrumsniveau – ein Gaming-PC mit einer ordentlichen GPU reicht aus, um beizutragen.

Solana-Fork-Architektur: Hohe TPS trifft auf Non-Blocking PoW

Ambient baut nicht bei Null an. Es ist ein vollständiger Fork von Solana und übernimmt die Solana Virtual Machine (SVM), das Proof of History (PoH) Zeitstempel-Verfahren sowie die Gulf Stream Mempool-Weiterleitung. Dies verleiht Ambient den theoretischen Durchsatz von 65.000 TPS und die Finalität im Sub-Sekunden-Bereich von Solana.

Ambient nimmt jedoch eine entscheidende Änderung vor: Es fügt eine Non-Blocking Proof-of-Work-Schicht über den Konsens von Solana hinzu.

So funktioniert der hybride Konsens:

Proof of History ordnet Transaktionen: Solanas PoH bietet eine kryptografische Uhr, die Transaktionen ordnet, ohne auf einen globalen Konsens warten zu müssen. Dies ermöglicht eine parallele Ausführung über mehrere Kerne hinweg.

Proof of Logits sichert die Chain: Miner konkurrieren darum, valide KI-Inferenz-Ergebnisse zu produzieren. Die Blockchain akzeptiert Blöcke von Minern, die die wertvollste KI-Arbeit generieren (gemessen an der Inferenz-Komplexität, der Modellgröße oder der gestakten Reputation).

Non-Blocking-Integration: Anders als bei Bitcoin, wo die Blockproduktion stoppt, bis ein gültiger PoW gefunden wird, arbeitet der PoW von Ambient asynchron. Validatoren verarbeiten weiterhin Transaktionen, während Miner um die Einreichung von KI-Arbeit konkurrieren. Dies verhindert, dass der PoW zum Engpass wird.

Das Ergebnis ist eine Blockchain, die die Geschwindigkeit von Solana beibehält (entscheidend für KI-Anwendungen, die eine Inferenz mit geringer Latenz erfordern) und gleichzeitig den wirtschaftlichen Wettbewerb bei den Kernaktivitäten des Netzwerks sicherstellt – Inferenz, Fine-Tuning und Training.

Dieses Design vermeidet auch die früheren Fehler von Ethereum beim Konsens durch „nützliche Arbeit“. Primecoin und Gridcoin versuchten, wissenschaftliche Berechnungen als PoW zu nutzen, stießen jedoch auf einen fatalen Fehler: Nützliche Arbeit ist nicht gleichmäßig schwierig. Einige Probleme sind leicht zu lösen, aber schwer zu verifizieren; andere lassen sich leicht unlauter parallelisieren. Ambient umgeht dies, indem es die Logit-Verifizierung rechentechnisch günstig und standardisiert macht. Jede Inferenz-Aufgabe kann, unabhängig von ihrer Komplexität, mit demselben Spot-Checking-Algorithmus verifiziert werden.

Der Wettlauf um das Training von On-Chain-AGI: Wer konkurriert noch?

Ambient ist nicht allein beim Ziel einer Blockchain-nativen KI. Der Sektor ist voll von Projekten, die behaupten, maschinelles Lernen zu dezentralisieren, aber nur wenige liefern verifizierbares On-Chain-Training. So schneidet Ambient im Vergleich zu den wichtigsten Wettbewerbern ab:

Artificial Superintelligence Alliance (ASI): Entstanden durch den Zusammenschluss von Fetch.AI, SingularityNET und Ocean Protocol, konzentriert sich ASI auf eine dezentrale AGI-Infrastruktur. Die ASI Chain unterstützt die gleichzeitige Ausführung von Agenten und sichere Modell-Transaktionen. Im Gegensatz zum PoW-Ansatz von Ambient setzt ASI auf ein Marktplatzmodell, bei dem Entwickler für Rechenguthaben bezahlen. Dies funktioniert für die Inferenz, schafft aber keine Anreize für das Training – Miner haben keinen Grund, teure GPU-Stunden beizusteuern, sofern sie nicht explizit im Voraus entschädigt werden.

AIVM (ChainGPT): Die AIVM-Roadmap von ChainGPT zielt auf einen Mainnet-Start im Jahr 2026 ab und integriert Off-Chain-GPU-Ressourcen mit On-Chain-Verifizierung. Die Verifizierung von AIVM beruht jedoch auf Optimistic Rollups (Annahme der Korrektheit, sofern keine Anfechtung erfolgt), was eine Fraud-Proof-Latenz einführt. Die Logit-Prüfung von Ambient ist deterministisch – Validatoren wissen sofort, ob die Arbeit gültig ist.

Internet Computer (ICP): Dfinitys Internet Computer kann große Modelle nativ on-chain hosten, ohne eine externe Cloud-Infrastruktur zu benötigen. Die Canister-Architektur von ICP ist jedoch nicht für das Training optimiert – sie ist für Inferenz und die Ausführung von Smart Contracts konzipiert. Der PoW von Ambient bietet wirtschaftliche Anreize für eine kontinuierliche Modellverbesserung, während ICP von Entwicklern verlangt, das Training extern zu verwalten.

Bittensor: Bittensor verwendet ein Subnetz-Modell, bei dem spezialisierte Chains verschiedene KI-Aufgaben trainieren (Texterstellung, Bildklassifizierung usw.). Miner konkurrieren durch das Einreichen von Modellgewichten, und Validatoren bewerten sie nach Leistung. Bittensor glänzt bei der dezentralen Inferenz, hat aber Schwierigkeiten bei der Trainingskoordination – es gibt kein einheitliches globales Modell, sondern nur eine Sammlung unabhängiger Subnetze. Der Ansatz von Ambient vereinheitlicht das Training unter einem einzigen PoW-Mechanismus.

Lightchain Protocol AI: Das Whitepaper von Lightchain schlägt Proof of Intelligence (PoI) vor, bei dem Knoten KI-Aufgaben ausführen, um Transaktionen zu validieren. Der Konsens von Lightchain bleibt jedoch weitgehend theoretisch, da bisher kein Testnet-Start angekündigt wurde. Ambient plant im Gegensatz dazu ein Testnet für Q2 / Q3 2025.

Der Vorteil von Ambient liegt in der Kombination von verifizierbarer KI-Arbeit mit der bewährten Hochdurchsatz-Architektur von Solana. Die meisten Wettbewerber opfern entweder die Dezentralisierung (zentralisiertes Training mit On-Chain-Verifizierung) oder die Leistung (langsamer Konsens, der auf Fraud-Proofs wartet). Der Logit-basierte PoW von Ambient bietet beides: dezentrales Training mit nahezu sofortiger Verifizierung.

Wirtschaftliche Anreize: KI-Modelle wie Bitcoin-Blöcke minen

Das Wirtschaftsmodell von Ambient spiegelt das von Bitcoin wider: vorhersehbare Blockbelohnungen + Transaktionsgebühren. Aber anstatt leere Blöcke zu minen, produzieren Miner KI-Ergebnisse, die von Anwendungen genutzt werden können.

So funktioniert die Anreizstruktur:

Inflationsbasierte Belohnungen: Frühe Miner erhalten Blocksubventionen (neu geprägte Token) für die Bereitstellung von KI-Inferenz, Fine-Tuning oder Training. Ähnlich wie beim Halving-Zeitplan von Bitcoin nehmen die Subventionen im Laufe der Zeit ab, was eine langfristige Knappheit gewährleistet.

Transaktionsbasierte Gebühren: Anwendungen bezahlen für KI-Dienste – Inferenzanfragen, Modell-Fine-Tuning oder Zugang zu trainierten Gewichten. Diese Gebühren gehen an die Miner, die die Arbeit ausgeführt haben, wodurch ein nachhaltiges Erlösmodell entsteht, während die Subventionen sinken.

Reputations-Staking: Um Sybil-Angriffe zu verhindern (Miner, die minderwertige Arbeit einreichen, um Belohnungen zu erhalten), führt Ambient gestakte Reputation ein. Miner sperren Token, um teilzunehmen; das Erzeugen ungültiger Logits führt zum Slashing. Dies gleicht die Anreize aus: Miner maximieren ihren Gewinn, indem sie genaue, nützliche KI-Ergebnisse generieren, anstatt das System auszutricksen.

Moderate Hardware-Zugänglichkeit: Im Gegensatz zu Bitcoin, wo ASIC-Farmen dominieren, ermöglicht das PETALS-Sharding von Ambient die Teilnahme mit herkömmlichen GPUs. Ein Miner mit einer einzigen RTX 4090 (24 GB VRAM, ~ 1.600 $) kann zum Training von 600B-Parameter-Modellen beitragen, indem er einen Shard besitzt. Dies demokratisiert den Zugang – keine Notwendigkeit für Millionen-Dollar-Rechenzentren.

Dieses Modell löst ein kritisches Problem in der dezentralen KI: das Trittbrettfahrer-Problem. In traditionellen PoS-Chains staken Validatoren Kapital, tragen aber keine Rechenleistung bei. Bei Ambient leisten Miner tatsächliche KI-Arbeit und stellen so sicher, dass der Nutzen des Netzwerks proportional zu seinem Sicherheitsbudget wächst.

Der 27-Milliarden-Dollar-KI-Agenten-Sektor: Warum 2026 der Wendepunkt ist

Das Timing von Ambient passt zu breiteren Markttrends. Der KI-Agenten-Krypto-Sektor wird mit 27 Milliarden US-Dollar bewertet, angetrieben durch autonome Programme, die On-Chain-Assets verwalten, Trades ausführen und protokollübergreifend koordinieren.

Aber heutige Agenten stehen vor einem Vertrauensproblem: Die meisten verlassen sich auf zentralisierte KI-APIs (OpenAI, Anthropic, Google). Wenn ein Agent, der 10 Millionen US-Dollar in DeFi-Positionen verwaltet, GPT-4 für Entscheidungen nutzt, haben die Nutzer keine Garantie dafür, dass das Modell nicht manipuliert, zensiert oder voreingenommen war. Es gibt keinen Audit-Trail, der beweist, dass der Agent autonom gehandelt hat.

Ambient löst dies durch On-Chain-Verifizierung. Jede KI-Inferenz wird auf der Blockchain aufgezeichnet, wobei Logits das exakte Modell und den verwendeten Input belegen. Anwendungen können:

Agenten-Entscheidungen prüfen: Eine DAO könnte verifizieren, dass ihr Treasury-Management-Agent ein spezifisches, von der Community genehmigtes Modell verwendet hat – und keine heimlich modifizierte Version.

Compliance durchsetzen: Regulierte DeFi-Protokolle könnten von Agenten verlangen, Modelle mit verifizierten Sicherheits-Guardrails zu nutzen, die On-Chain nachweisbar sind.

KI-Marktplätze ermöglichen: Entwickler könnten feinabgestimmte Modelle als NFTs verkaufen, wobei Ambient den kryptografischen Nachweis der Trainingsdaten und -gewichte liefert.

Dies positioniert Ambient als Infrastruktur für die nächste Welle autonomer Agenten. Da 2026 als der Wendepunkt erscheint, an dem „KI, Blockchains und Zahlungen zu einem einzigen, sich selbst koordinierenden Internet verschmelzen“, wird die verifizierbare KI-Ebene von Ambient zur kritischen Basisinfrastruktur.

Technische Risiken und offene Fragen

Die Vision von Ambient ist ehrgeizig, aber mehrere technische Herausforderungen bleiben ungelöst:

Determinismus und Gleitkomma-Drift: KI-Modelle verwenden Gleitkomma-Arithmetik, die über verschiedene Hardware hinweg nicht perfekt deterministisch ist. Ein Modell, das auf einer NVIDIA A100 läuft, könnte leicht andere Logits erzeugen als dasselbe Modell auf einer AMD MI250. Wenn Validatoren Blöcke aufgrund geringfügiger numerischer Abweichungen ablehnen, wird das Netzwerk instabil. Ambient wird enge Toleranzgrenzen benötigen – sind diese jedoch zu eng, werden Miner auf unterschiedlicher Hardware ungerechtfertigt bestraft.

Modell-Updates und Versionierung: Wenn Ambient gemeinschaftlich ein globales Modell trainiert, wie geht es mit Updates um? Bei Bitcoin führen alle Nodes identische Konsensregeln aus. Bei Ambient verfeinern Miner Modelle kontinuierlich. Wenn die Hälfte des Netzwerks auf Version 2.0 aktualisiert und die andere Hälfte bei 1.9 bleibt, bricht die Verifizierung ab. Das Whitepaper führt nicht im Detail aus, wie Modellversionierung und Abwärtskompatibilität funktionieren.

Prompt-Diversität und Arbeitsstandardisierung: Der PoW von Bitcoin ist einheitlich – jeder Miner löst den gleichen Typ von Rätsel. Der PoW von Ambient variiert – einige Miner beantworten Mathefragen, andere schreiben Code, wieder andere fassen Dokumente zusammen. Wie vergleichen Validatoren den „Wert“ verschiedener Aufgaben? Wenn ein Miner 10.000 Token Kauderwelsch generiert (einfach) und ein anderer ein Modell auf einem schwierigen Datensatz feinabstimmt (teuer), wer wird höher belohnt? Ambient benötigt einen Schwierigkeitsanpassungs-Algorithmus für KI-Arbeit, analog zur Hash-Schwierigkeit von Bitcoin – aber die Messung der „Inferenzschwierigkeit“ ist nicht trivial.

Latenz beim verteilten Training: Sharding im PETALS-Stil funktioniert gut für die Inferenz (sequenzielle Layer-Verarbeitung), aber das Training erfordert Backpropagation – Gradienten, die rückwärts durch das Netzwerk fließen. Wenn Layer über Nodes mit unterschiedlichen Netzwerklatenzen verteilt sind, werden Gradienten-Updates zum Flaschenhals. Ambient verspricht 10-fache Durchsatzverbesserungen, aber die reale Leistung hängt von der Netzwerktopologie und der Miner-Verteilung ab.

Zentralisierungsrisiken beim Modell-Hosting: Wenn sich nur wenige Nodes leisten können, die wertvollsten Modell-Shards zu hosten (z. B. die finalen Layer eines Modells mit 600 Mrd. Parametern), gewinnen sie überproportionalen Einfluss. Validatoren könnten Arbeit bevorzugt an gut vernetzte Nodes delegieren, was die Rechenzentrumszentralisierung in einem vermeintlich dezentralen Netzwerk wiederherstellt.

Dies sind keine fatalen Fehler – es sind technische Herausforderungen, vor denen jedes Blockchain-KI-Projekt steht. Doch der Testnet-Start von Ambient im 2. / 3. Quartal 2025 wird zeigen, ob die Theorie unter realen Bedingungen Bestand hat.

Wie es weitergeht: Testnet, Mainnet und das AGI-Endspiel

Die Roadmap von Ambient sieht einen Testnet-Start im 2. / 3. Quartal 2025 vor, gefolgt vom Mainnet im Jahr 2026. Die 7,2 Millionen US-Dollar schwere Seed-Finanzierungsrunde von a16z CSX, Delphi Digital und Amber Group bietet Spielraum für die Kernentwicklung, doch der langfristige Erfolg des Projekts hängt von der Akzeptanz im Ökosystem ab.

Wichtige Meilensteine, auf die man achten sollte:

Teilnahme am Testnet-Mining: Wie viele Miner treten dem Netzwerk bei? Wenn Ambient Tausende von GPU-Besitzern anzieht (wie beim frühen Ethereum-Mining), beweist dies, dass das Wirtschaftsmodell funktioniert. Wenn nur eine Handvoll Einheiten mint, deutet dies auf Zentralisierungsrisiken hin.

Modell-Leistungsbenchmarks: Können mit Ambient trainierte Modelle mit OpenAI oder Anthropic konkurrieren? Wenn ein dezentrales Modell mit 600 Mrd. Parametern eine Qualität auf GPT-4-Niveau erreicht, validiert dies den gesamten Ansatz. Wenn die Leistung deutlich hinterherhinkt, werden Entwickler bei zentralisierten APIs bleiben.

Applikations-Integrationen: Welche DeFi-Protokolle, DAOs oder KI-Agenten bauen auf Ambient auf? Das Wertversprechen materialisiert sich nur, wenn reale Anwendungen On-Chain-KI-Inferenz nutzen. Frühe Anwendungsfälle könnten sein:

  • Autonome Handelsagenten mit beweisbarer Entscheidungslogik
  • Dezentrale Inhaltsmoderation (KI-Modelle filtern Beiträge, On-Chain prüfbar)
  • Verifizierbare KI-Orakel (On-Chain-Preisvorhersagen oder Sentiment-Analysen)

Interoperabilität mit Ethereum und Cosmos: Ambient ist ein Solana-Fork, aber die KI-Agenten-Ökonomie erstreckt sich über mehrere Chains. Bridges zu Ethereum (für DeFi) und Cosmos (für IBC-verbundene KI-Chains wie ASI) werden entscheiden, ob Ambient ein Silo oder ein Hub wird.

Das ultimative Endziel ist ehrgeizig: Das Training einer dezentralen AGI, bei der keine einzelne Instanz das Modell kontrolliert. Wenn Tausende von unabhängigen Minern gemeinsam ein superintelligentes System trainieren, mit kryptografischem Nachweis jedes Trainingsschritts, wäre dies der erste wirklich offene, prüfbare Weg zur AGI.

Ob Ambient dies erreicht oder zu einem weiteren überversprochenen Krypto-Projekt wird, hängt von der Ausführung ab. Aber die Kerninnovation – das Ersetzen willkürlicher kryptografischer Rätsel durch verifizierbare KI-Arbeit – ist ein echter Durchbruch. Wenn Proof-of-Work produktiv statt verschwenderisch sein kann, beweist Ambient dies als Erster.

Der Proof-of-Logits-Paradigmenwechsel

Die Finanzierungsrunde von Ambient in Höhe von 7,2 Millionen US-Dollar ist nicht nur eine weitere Krypto-Finanzierungsrunde. Es ist eine Wette darauf, dass Blockchain-Konsens und KI-Training zu einem einzigen, ökonomisch abgestimmten System verschmelzen können. Die Auswirkungen reichen weit über Ambient hinaus:

Wenn die Logit-basierte Verifizierung funktioniert, werden andere Chains sie übernehmen. Ethereum könnte PoL als Alternative zu PoS einführen und Validatoren belohnen, die KI-Arbeit leisten, anstatt nur ETH zu staken. Bitcoin könnte forken, um nützliche Berechnungen anstelle von SHA-256-Hashes zu verwenden (obwohl Bitcoin-Maximalisten dies niemals akzeptieren würden).

Wenn dezentrales Training eine wettbewerbsfähige Leistung erreicht, verlieren OpenAI und Google ihre Burggräben. Eine Welt, in der jeder mit einer GPU zur AGI-Entwicklung beitragen und Token für seine Arbeit verdienen kann, bricht das zentralisierte KI-Oligopol grundlegend auf.

Wenn die On-Chain-KI-Verifizierung zum Standard wird, gewinnen autonome Agenten an Glaubwürdigkeit. Anstatt Black-Box-APIs zu vertrauen, verifizieren Nutzer exakte Modelle und Prompts On-Chain. Dies ermöglicht reguliertes DeFi, algorithmische Governance und KI-gestützte Rechtsverträge.

Ambient hat keine Garantie auf Erfolg. Aber es ist der bisher technisch glaubwürdigste Versuch, Proof-of-Work produktiv zu machen, das KI-Training zu dezentralisieren und die Blockchain-Sicherheit mit dem zivilisatorischen Fortschritt in Einklang zu bringen. Der Testnet-Start wird zeigen, ob Theorie auf Realität trifft – oder ob Proof-of-Logits auf dem Friedhof der ambitionierten Konsens-Experimente landet.

So oder so, das Rennen um das Training von On-Chain-AGI ist nun unbestreitbar real. Und Ambient hat gerade 7,2 Millionen US-Dollar an der Startlinie platziert.


Quellen:

Gensyns Judge: Wie bitgenaue Reproduzierbarkeit die Ära der undurchsichtigen KI-APIs beendet

· 19 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Mal, wenn Sie ChatGPT, Claude oder Gemini abfragen, vertrauen Sie einer unsichtbaren Blackbox. Die Modellversion? Unbekannt. Die genauen Gewichte? Proprietär. Ob die Ausgabe von dem Modell generiert wurde, von dem Sie glauben, dass Sie es verwenden, oder von einer im Stillen aktualisierten Variante? Unmöglich zu verifizieren. Für Gelegenheitsnutzer, die nach Rezepten oder Trivia fragen, ist diese Intransparenz lediglich ärgerlich. Für kritische KI-Entscheidungen – wie Finanzhandelsalgorithmen, medizinische Diagnosen oder rechtliche Vertragsanalysen – ist sie eine fundamentale Vertrauenskrise.

Gensyn's Judge, der Ende 2025 eingeführt wurde und 2026 in die Produktion geht, bietet eine radikale Alternative: kryptografisch verifizierbare KI-Evaluierung, bei der jede Inferenz bis auf das Bit genau reproduzierbar ist. Anstatt OpenAI oder Anthropic zu vertrauen, das korrekte Modell bereitzustellen, ermöglicht Judge es jedem zu verifizieren, dass ein spezifisches, zuvor vereinbartes KI-Modell deterministisch mit realen Eingabedaten ausgeführt wurde – wobei kryptografische Beweise sicherstellen, dass die Ergebnisse nicht gefälscht werden können.

Der technische Durchbruch ist Verde, das Verifizierungssystem von Gensyn, das den Fließkomma-Nondeterminismus eliminiert – den Fluch der KI-Reproduzierbarkeit. Durch die Durchsetzung bitgenauer Berechnungen über verschiedene Geräte hinweg stellt Verde sicher, dass die Ausführung desselben Modells auf einer NVIDIA A100 in London und einer AMD MI250 in Tokio identische Ergebnisse liefert, die on-chain nachweisbar sind. Dies erschließt verifizierbare KI für dezentrale Finanzen, autonome Agenten und jede Anwendung, bei der Transparenz nicht optional, sondern existenziell ist.

Das Problem undurchsichtiger APIs: Vertrauen ohne Verifizierung

Die KI-Branche basiert auf APIs. Entwickler integrieren GPT-4 von OpenAI, Claude von Anthropic oder Gemini von Google über REST-Endpunkte, senden Prompts und erhalten Antworten. Aber diese APIs sind von Grund auf undurchsichtig:

Versionsunsicherheit: Wenn Sie gpt-4 aufrufen, welche genaue Version erhalte ich? GPT-4-0314? GPT-4-0613? Eine im Stillen aktualisierte Variante? Anbieter spielen häufig Patches ohne öffentliche Ankündigung ein und ändern so das Modellverhalten über Nacht.

Kein Audit-Trail: API-Antworten enthalten keinen kryptografischen Beweis dafür, welches Modell sie generiert hat. Wenn OpenAI eine zensierte oder voreingenommene Variante für bestimmte Regionen oder Kunden bereitstellt, haben die Nutzer keine Möglichkeit, dies zu erkennen.

Stille Degradierung: Anbieter können Modelle „lobotomieren“, um Kosten zu senken – also die Inferenzqualität verringern, während der gleiche API-Vertrag beibehalten wird. Nutzer berichten, dass GPT-4 mit der Zeit „dümmere“ Antworten gibt, aber ohne transparente Versionierung bleiben solche Behauptungen rein anekdotisch.

Nondeterministische Ausgaben: Sogar die zweimalige Abfrage desselben Modells mit identischen Eingaben kann aufgrund von Temperatureinstellungen, Batching oder Fließkomma-Rundungsfehlern auf Hardwareebene unterschiedliche Ergebnisse liefern. Dies macht Audits unmöglich – wie verifiziert man die Korrektheit, wenn die Ausgaben nicht reproduzierbar sind?

Für alltägliche Anwendungen sind diese Probleme Unannehmlichkeiten. Für kritische Entscheidungen sind sie Hindernisse. Betrachten Sie:

Algorithmischer Handel: Ein Hedgefonds setzt einen KI-Agenten ein, der DeFi-Positionen im Wert von 50 Millionen $ verwaltet. Der Agent verlässt sich auf GPT-4, um die Marktstimmung aus X-Posts zu analysieren. Wenn das Modell während einer Handelssitzung im Stillen aktualisiert wird, verschieben sich die Sentiment-Scores unvorhersehbar – was unbeabsichtigte Liquidationen auslöst. Der Fonds hat keinen Beweis dafür, dass sich das Modell falsch verhalten hat; die Protokolle von OpenAI sind nicht öffentlich prüfbar.

Medizinische Diagnostik: Ein Krankenhaus nutzt ein KI-Modell, um Krebsbehandlungen zu empfehlen. Vorschriften verlangen, dass Ärzte die Entscheidungsprozesse dokumentieren. Wenn die Version des KI-Modells jedoch nicht verifiziert werden kann, ist der Audit-Trail unvollständig. Ein Kunstfehlerprozess könnte davon abhängen, zu beweisen, welches Modell die Empfehlung generiert hat – was mit undurchsichtigen APIs unmöglich ist.

DAO-Governance: Eine dezentrale Organisation nutzt einen KI-Agenten, um über Schatzkammer-Vorschläge abzustimmen. Community-Mitglieder fordern den Beweis, dass der Agent das genehmigte Modell verwendet hat – und nicht eine manipulierte Variante, die bestimmte Ergebnisse begünstigt. Ohne kryptografische Verifizierung fehlt der Abstimmung die Legitimität.

Dies ist die Vertrauenslücke, die Gensyn adressiert: Da KI zunehmend in kritische Entscheidungsprozesse eingebettet wird, wird die Unfähigkeit, die Authentizität und das Verhalten von Modellen zu verifizieren, zu einem „fundamentalen Hindernis für den Einsatz agiler KI in risikoreichen Umgebungen“.

Judge: Das Protokoll für verifizierbare KI-Evaluierung

Judge löst das Transparenzproblem, indem es zuvor vereinbarte, deterministische KI-Modelle mit realen Eingabedaten ausführt und die Ergebnisse auf einer Blockchain festschreibt, wo jeder sie anfechten kann. So funktioniert das Protokoll:

1. Modell-Commitment: Die Teilnehmer einigen sich auf ein KI-Modell – seine Architektur, Gewichte und Inferenzkonfiguration. Dieses Modell wird gehasht und on-chain hinterlegt. Der Hash dient als kryptografischer Fingerabdruck: Jede Abweichung vom vereinbarten Modell erzeugt einen anderen Hash.

2. Deterministische Ausführung: Judge führt das Modell mit der Gensyn Reproducible Runtime aus, die eine bitgenaue Reproduzierbarkeit über verschiedene Geräte hinweg garantiert. Dies eliminiert den Fließkomma-Nondeterminismus – eine entscheidende Innovation, die wir gleich näher beleuchten.

3. Öffentliches Commitment: Nach der Inferenz postet Judge das Ergebnis (oder einen Hash davon) on-chain. Dies schafft einen dauerhaften, prüfbaren Datensatz darüber, was das Modell für eine bestimmte Eingabe produziert hat.

4. Challenge-Phase: Jeder kann das Ergebnis anfechten, indem er das Modell unabhängig erneut ausführt. Wenn das Ergebnis abweicht, reicht er einen Betrugsbeweis (Fraud Proof) ein. Der Refereed Delegation Mechanism von Verde lokalisiert den exakten Operator im Berechnungsgraphen, an dem die Ergebnisse divergieren.

5. Slashing bei Betrug: Wenn ein Challenger beweist, dass Judge falsche Ergebnisse geliefert hat, wird der ursprüngliche Ausführer bestraft (Slashing der gestakten Token). Dies gleicht die wirtschaftlichen Anreize an: Die Ausführer maximieren ihren Gewinn, indem sie die Modelle korrekt ausführen.

Judge transformiert die KI-Evaluierung von „Vertrauen in den API-Anbieter“ hin zu „Verifizierung des kryptografischen Beweises“. Das Verhalten des Modells ist öffentlich, prüfbar und durchsetzbar – nicht länger verborgen hinter proprietären Endpunkten.

Verde: Eliminierung des Gleitkomma-Nondeterminismus

Die zentrale technische Herausforderung bei verifizierbarer KI ist der Determinismus. Neuronale Netze führen während der Inferenz Milliarden von Gleitkommaoperationen durch. Auf modernen GPUs sind diese Operationen nicht perfekt reproduzierbar:

Nicht-Assoziativität: Die Gleitkomma-Addition ist nicht assoziativ. ( a + b ) + c könnte aufgrund von Rundungsfehlern ein anderes Ergebnis liefern als a + ( b + c ). GPUs parallelisieren Summen über Tausende von Kernen, und die Reihenfolge, in der Teilsummen akkumuliert werden, variiert je nach Hardware und Treiberversion.

Variabilität beim Kernel-Scheduling: GPU-Kernel (wie Matrixmultiplikation oder Attention) können je nach Arbeitslast, Treiberoptimierungen oder Hardwarearchitektur in unterschiedlichen Reihenfolgen ausgeführt werden. Selbst wenn man dasselbe Modell zweimal auf derselben GPU ausführt, kann dies zu unterschiedlichen Ergebnissen führen, wenn das Kernel-Scheduling variiert.

Batch-Größen-Abhängigkeit: Untersuchungen haben ergeben, dass LLM-Inferenz auf Systemebene nondeterministisch ist, da die Ausgabe von der Batch-Größe abhängt. Viele Kernel (Matmul, RMSNorm, Attention) ändern die numerische Ausgabe basierend darauf, wie viele Samples zusammen verarbeitet werden – eine Inferenz mit Batch-Größe 1 liefert andere Werte als dieselbe Eingabe in einem Batch von 8.

Diese Probleme machen Standard-KI-Modelle für die Blockchain-Verifizierung ungeeignet. Wenn zwei Validatoren dieselbe Inferenz erneut ausführen und leicht unterschiedliche Ergebnisse erhalten, wer hat dann recht? Ohne Determinismus ist ein Konsens unmöglich.

Verde löst dies mit RepOps (Reproducible Operators) – einer Bibliothek, die Hardware-Nondeterminismus eliminiert, indem sie die Reihenfolge der Gleitkommaoperationen auf allen Geräten kontrolliert. So funktioniert es:

Kanonische Reduktionsreihenfolgen: RepOps erzwingt eine deterministische Reihenfolge für das Summieren von Teilergebnissen in Operationen wie der Matrixmultiplikation. Anstatt den GPU-Scheduler entscheiden zu lassen, legt RepOps explizit fest: „Summiere Spalte 0, dann Spalte 1, dann Spalte 2...“ über alle Hardware hinweg. Dies stellt sicher, dass ( a + b ) + c immer in derselben Sequenz berechnet wird.

Benutzerdefinierte CUDA-Kernel: Gensyn hat optimierte Kernel entwickelt, die Reproduzierbarkeit vor reine Geschwindigkeit stellen. RepOps-Matrixmultiplikationen verursachen weniger als 30 % Overhead im Vergleich zum Standard-cuBLAS – ein akzeptabler Kompromiss für Determinismus.

Treiber- und Versions-Pinning: Verde verwendet versionsgebundene GPU-Treiber und kanonische Konfigurationen, um sicherzustellen, dass dasselbe Modell auf unterschiedlicher Hardware identische bitweise Ausgaben liefert. Ein Modell, das auf einer NVIDIA A100 in einem Rechenzentrum läuft, entspricht Bit für Bit der Ausgabe einer AMD MI250 in einem anderen.

Dies ist der Durchbruch, der die Verifizierung durch Judge ermöglicht: Bitgenaue Reproduzierbarkeit bedeutet, dass Validatoren Ergebnisse unabhängig bestätigen können, ohne den Executoren vertrauen zu müssen. Wenn der Hash übereinstimmt, ist die Inferenz korrekt – mathematisch beweisbar.

Refereed Delegation: Effiziente Verifizierung ohne vollständige Neuberechnung

Selbst bei deterministischer Ausführung ist die naive Verifizierung von KI-Inferenzen teuer. Ein Modell mit 70 Milliarden Parametern, das 1.000 Token generiert, könnte 10 GPU-Stunden erfordern. Wenn Validatoren jede Inferenz erneut ausführen müssen, um die Korrektheit zu prüfen, entsprechen die Verifizierungskosten den Ausführungskosten – was den Zweck der Dezentralisierung zunichtemacht.

Verdes Refereed-Delegation-Mechanismus macht die Verifizierung exponentiell günstiger:

Mehrere nicht vertrauenswürdige Executoren: Anstelle eines Executors weist Judge Aufgaben mehreren unabhängigen Anbietern zu. Jeder führt dieselbe Inferenz aus und reicht die Ergebnisse ein.

Unstimmigkeiten lösen Untersuchungen aus: Wenn sich alle Executoren einig sind, wird das Ergebnis akzeptiert – keine weitere Verifizierung erforderlich. Wenn die Ergebnisse voneinander abweichen, leitet Verde ein Challenge-Game ein.

Binäre Suche über den Berechnungsgraphen: Verde führt nicht die gesamte Inferenz erneut aus. Stattdessen wird eine binäre Suche über den Berechnungsgraphen des Modells durchgeführt, um den ersten Operator zu finden, bei dem die Ergebnisse divergieren. Dies lokalisiert genau die Ebene (z. B. „Attention Layer 47, Head 8“), die die Diskrepanz verursacht.

Minimale Referee-Berechnung: Ein Referee (der ein Smart Contract oder ein Validator mit begrenzter Rechenleistung sein kann) prüft nur den umstrittenen Operator – nicht den gesamten Forward-Pass. Für ein Modell mit 70 Mrd. Parametern und 80 Layern reduziert dies die Verifizierung im schlimmsten Fall auf die Prüfung von etwa 7 Layern ( log₂ 80 ).

Dieser Ansatz ist über 1.350 % effizienter als die naive Replikation (bei der jeder Validator alles erneut ausführt). Gensyn kombiniert kryptografische Beweise, Spieltheorie und optimierte Prozesse, um eine korrekte Ausführung ohne redundante Berechnungen zu garantieren.

Das Ergebnis: Judge kann KI-Workloads in großem Maßstab verifizieren und ermöglicht dezentrale Inferenznetzwerke, in denen Tausende von nicht vertrauenswürdigen Knoten Rechenleistung beisteuern – und unehrliche Executoren entlarvt und bestraft werden.

KI-Entscheidungsfindung mit hohem Einsatz: Warum Transparenz wichtig ist

Der Zielmarkt von Judge sind keine Gelegenheits-Chatbots – es sind Anwendungen, bei denen Verifizierbarkeit nicht nur ein nettes Feature, sondern eine regulatorische oder wirtschaftliche Anforderung ist. Hier sind Szenarien, in denen undurchsichtige APIs katastrophal scheitern:

Dezentrales Finanzwesen (DeFi): Autonome Trading-Agenten verwalten Milliarden an Vermögenswerten. Wenn ein Agent ein KI-Modell nutzt, um über die Neuausrichtung von Portfolios zu entscheiden, benötigen Nutzer den Beweis, dass das Modell nicht manipuliert wurde. Judge ermöglicht die On-Chain-Verifizierung: Der Agent legt sich auf einen spezifischen Modell-Hash fest, führt Trades basierend auf dessen Ausgaben aus, und jeder kann die Entscheidungslogik anfechten. Diese Transparenz verhindert Rug Pulls, bei denen böswillige Agenten ohne Beweise behaupten, „die KI habe mir gesagt, ich solle liquidieren“.

Einhaltung regulatorischer Vorschriften (Compliance): Finanzinstitute, die KI für Kredit-Scoring, Betrugserkennung oder Geldwäscheprävention (AML) einsetzen, müssen Audits durchlaufen. Regulatoren verlangen Erklärungen: „Warum hat das Modell diese Transaktion markiert?“ Undurchsichtige APIs bieten keinen Audit-Trail. Judge erstellt eine unveränderliche Aufzeichnung von Modellversion, Eingaben und Ausgaben – und erfüllt so die Compliance-Anforderungen.

Algorithmische Governance: Dezentrale Autonome Organisationen (DAOs) nutzen KI-Agenten, um Governance-Entscheidungen vorzuschlagen oder darüber abzustimmen. Community-Mitglieder müssen verifizieren können, dass der Agent das genehmigte Modell verwendet hat – und keine manipulierte Variante. Mit Judge kodiert die DAO den Modell-Hash in ihrem Smart Contract, und jede Entscheidung enthält einen kryptografischen Korrektheitsbeweis.

Medizinische und rechtliche KI: Gesundheits- und Rechtssysteme erfordern Rechenschaftspflicht. Ein Arzt, der Krebs mithilfe von KI diagnostiziert, muss die exakte verwendete Modellversion dokumentieren. Ein Anwalt, der Verträge mit KI entwirft, muss beweisen können, dass die Ausgabe von einem geprüften, unvoreingenommenen Modell stammt. Der On-Chain-Audit-Trail von Judge liefert diesen Beweis.

Prognosemärkte und Orakel: Projekte wie Polymarket nutzen KI, um Wettergebnisse zu klären (z. B. „Wird dieses Ereignis eintreten?“). Wenn die Klärung von einem KI-Modell abhängt, das Nachrichtenartikel analysiert, benötigen die Teilnehmer den Beweis, dass das Modell nicht manipuliert wurde. Judge verifiziert die KI-Inferenz des Orakels und verhindert so Streitigkeiten.

In jedem dieser Fälle ist der gemeinsame Nenner, dass Vertrauen ohne Transparenz unzureichend ist. Wie VeritasChain anmerkt, benötigen KI-Systeme „kryptografische Flugschreiber“ – unveränderliche Protokolle, die beweisen, was passiert ist, wenn Streitigkeiten auftreten.

Die Zero-Knowledge-Proof-Alternative: Vergleich zwischen Verde und ZKML

Judge ist nicht der einzige Ansatz für verifizierbare KI. Zero-Knowledge Machine Learning (ZKML) erreicht ähnliche Ziele mittels zk-SNARKs: kryptografische Beweise, dass eine Berechnung korrekt durchgeführt wurde, ohne Eingaben oder Gewichtungen offenzulegen.

Wie schneidet Verde im Vergleich zu ZKML ab?

Verifizierungskosten: ZKML erfordert etwa 1.000× mehr Rechenaufwand als die ursprüngliche Inferenz, um Beweise zu generieren (Forschungsschätzungen). Ein Modell mit 70 Milliarden Parametern, das 10 GPU-Stunden für die Inferenz benötigt, könnte 10.000 GPU-Stunden für den Beweis erfordern. Die referenzierte Delegation von Verde ist logarithmisch: Die Überprüfung von ca. 7 Schichten anstelle von 80 entspricht einer 10-fachen Reduktion, nicht einer 1.000-fachen.

Prover-Komplexität: ZKML verlangt spezialisierte Hardware (wie maßgeschneiderte ASICs für zk-SNARK-Schaltkreise), um Beweise effizient zu erstellen. Verde funktioniert auf handelsüblichen GPUs – jeder Miner mit einem Gaming-PC kann teilnehmen.

Datenschutz-Abwägungen: Die Stärke von ZKML ist der Datenschutz – Beweise verraten nichts über Eingaben oder Modellgewichte. Die deterministische Ausführung von Verde ist transparent: Eingaben und Ausgaben sind öffentlich (obwohl Gewichte verschlüsselt werden können). Für weitreichende Entscheidungsfindungen ist Transparenz oft wünschenswert. Eine DAO, die über die Zuweisung von Treasury-Mitteln abstimmt, möchte öffentliche Audit-Trails, keine verborgenen Beweise.

Umfang der Beweisführung: ZKML ist praktisch auf die Inferenz beschränkt – der Nachweis des Trainings ist bei den aktuellen Rechenkosten nicht machbar. Verde unterstützt sowohl die Verifizierung von Inferenz als auch von Training (das umfassendere Protokoll von Gensyn verifiziert verteiltes Training).

Praxisnahe Einführung: ZKML-Projekte wie Modulus Labs haben Durchbrüche erzielt (Verifizierung von Modellen mit 18 Mio. Parametern auf der Chain), bleiben aber auf kleinere Modelle beschränkt. Die deterministische Runtime von Verde bewältigt Modelle mit mehr als 70 Mrd. Parametern in der Produktion.

ZKML glänzt dort, wo Datenschutz an oberster Stelle steht – etwa bei der Verifizierung biometrischer Authentifizierung (Worldcoin), ohne Iris-Scans preiszugeben. Verde glänzt dort, wo Transparenz das Ziel ist – der Nachweis, dass ein bestimmtes öffentliches Modell korrekt ausgeführt wurde. Beide Ansätze ergänzen sich und stehen nicht im Wettbewerb.

Das Gensyn-Ökosystem: Von Judge zum dezentralen Training

Judge ist ein Bestandteil der umfassenderen Vision von Gensyn: ein dezentrales Netzwerk für Machine-Learning-Rechenleistung. Das Protokoll umfasst:

Execution Layer: Konsistente ML-Ausführung auf heterogener Hardware (Consumer-GPUs, Enterprise-Cluster, Edge-Geräte). Gensyn standardisiert Inferenz- und Trainings-Workloads und gewährleistet Kompatibilität.

Verification Layer (Verde): Vertrauenslose Verifizierung durch referenzierte Delegation. Unehrliche Ausführer werden erkannt und bestraft.

Peer-to-Peer-Kommunikation: Workload-Verteilung über Geräte hinweg ohne zentrale Koordination. Miner erhalten Aufgaben, führen sie aus und übermitteln Beweise direkt an die Blockchain.

Dezentrale Koordination: Smart Contracts auf einem Ethereum-Rollup identifizieren Teilnehmer, weisen Aufgaben zu und verarbeiten Zahlungen erlaubnisfrei.

Das öffentliche Testnetz von Gensyn startete im März 2025, das Mainnet ist für 2026 geplant. Der öffentliche Verkauf des $AI-Tokens fand im Dezember 2025 statt und schuf wirtschaftliche Anreize für Miner und Validatoren.

Judge fügt sich als Evaluierungsebene in dieses Ökosystem ein: Während das Kernprotokoll von Gensyn Training und Inferenz übernimmt, stellt Judge sicher, dass diese Ausgaben verifizierbar sind. Dies schafft einen Flywheel-Effekt:

Entwickler trainieren Modelle im dezentralen Netzwerk von Gensyn (günstiger als AWS aufgrund von nicht ausgelasteten Consumer-GPUs, die Rechenleistung beisteuern).

Modelle werden bereitgestellt, wobei Judge die Integrität der Evaluierung garantiert. Anwendungen nutzen Inferenz über die APIs von Gensyn, aber im Gegensatz zu OpenAI enthält jede Ausgabe einen kryptografischen Beweis.

Validatoren verdienen Gebühren, indem sie Beweise prüfen und Betrug aufdecken, wodurch wirtschaftliche Anreize mit der Netzwerksicherheit in Einklang gebracht werden.

Vertrauen skaliert, da immer mehr Anwendungen verifizierbare KI übernehmen und die Abhängigkeit von zentralisierten Anbietern verringern.

Das Endziel: KI-Training und -Inferenz, die nachweislich korrekt, dezentral und für jeden zugänglich sind – nicht nur für Big Tech.

Herausforderungen und offene Fragen

Der Ansatz von Judge ist bahnbrechend, doch es bleiben einige Herausforderungen:

Performance-Overhead: Die Verlangsamung von RepOps um 30 % ist für die Verifizierung akzeptabel. Wenn jedoch jede Inferenz deterministisch laufen muss, könnten latenzkritische Anwendungen (Echtzeithandel, autonome Fahrzeuge) schnellere, nicht verifizierbare Alternativen bevorzugen. Die Roadmap von Gensyn sieht wahrscheinlich eine weitere Optimierung von RepOps vor – es gibt jedoch einen grundlegenden Kompromiss zwischen Geschwindigkeit und Determinismus.

Fragmentierung der Treiberversionen: Verde setzt auf festgeschriebene Treiberversionen, aber GPU-Hersteller veröffentlichen ständig Updates. Wenn einige Miner CUDA 12.4 und andere 12.5 verwenden, bricht die bitweise Reproduzierbarkeit zusammen. Gensyn muss ein striktes Versionsmanagement durchsetzen – was das Onboarding von Minern verkompliziert.

Geheimhaltung von Modellgewichten: Die Transparenz von Judge ist ein Vorteil für öffentliche Modelle, aber ein Nachteil für proprietäre. Wenn ein Hedgefonds ein wertvolles Handelsmodell trainiert, legt die Bereitstellung auf Judge die Gewichte gegenüber Konkurrenten offen (über das On-Chain-Commitment). ZKML-basierte Alternativen könnten für geheime Modelle bevorzugt werden – was darauf hindeutet, dass Judge auf offene oder halb-offene KI-Anwendungen abzielt.

Latenz bei der Streitbeilegung: Wenn ein Challenger Betrug behauptet, erfordert die Lösung des Streits via binärer Suche mehrere On-Chain-Transaktionen (jede Runde grenzt den Suchraum ein). Hochfrequenzanwendungen können nicht Stunden auf die Finalität warten. Gensyn könnte eine optimistische Verifizierung einführen (Korrektheit annehmen, sofern nicht innerhalb eines Zeitfensters angefochten), um die Latenz zu verringern.

Sybil-Resistenz in der referenzierten Delegation: Wenn mehrere Ausführer zustimmen müssen, was hindert eine einzelne Entität daran, alle Ausführer über Sybil-Identitäten zu kontrollieren? Gensyn nutzt wahrscheinlich eine Stake-gewichtete Auswahl (Validatoren mit hoher Reputation werden bevorzugt ausgewählt) sowie Slashing, um Absprachen abzuschrecken – die wirtschaftlichen Schwellenwerte müssen jedoch sorgfältig kalibriert werden.

Dies sind keine Ausschlusskriterien – es sind technische Herausforderungen. Die Kerninnovation (deterministische KI + kryptografische Verifizierung) ist solide. Die Details der Ausführung werden mit dem Übergang vom Testnet zum Mainnet ausreifen.

Der Weg zur verifizierbaren KI: Adaptionspfade und Marktpassung

Der Erfolg von Judge hängt von der Adaption ab. Welche Anwendungen werden verifizierbare KI zuerst einsetzen?

DeFi-Protokolle mit autonomen Agenten: DAOs wie Aave, Compound oder Uniswap könnten durch Judge verifizierte Agenten für das Treasury-Management integrieren. Die Community stimmt über die Genehmigung eines Modell-Hashs ab, und alle Entscheidungen der Agenten enthalten Beweise. Diese Transparenz schafft Vertrauen – entscheidend für die Legitimität von DeFi.

Prognosemärkte und Orakel: Plattformen wie Polymarket oder Chainlink könnten Judge nutzen, um Wetten aufzulösen oder Preis-Feeds bereitzustellen. KI-Modelle, die Stimmungslagen, Nachrichten oder On-Chain-Aktivitäten analysieren, würden verifizierbare Ausgaben produzieren – was Streitigkeiten über Orakel-Manipulationen eliminiert.

Dezentrale Identität und KYC: Projekte, die eine KI-basierte Identitätsverifizierung erfordern (Altersschätzung anhand von Selfies, Echtheitsprüfungen von Dokumenten), profitieren vom Audit-Trail von Judge. Regulierungsbehörden akzeptieren kryptografische Compliance-Nachweise, ohne zentralen Identitätsanbietern vertrauen zu müssen.

Inhaltsmoderation für soziale Medien: Dezentrale soziale Netzwerke (Farcaster, Lens Protocol) könnten durch Judge verifizierte KI-Moderatoren einsetzen. Community-Mitglieder verifizieren, dass das Moderationsmodell nicht voreingenommen oder zensiert ist – was die Neutralität der Plattform sicherstellt.

AI-as-a-Service-Plattformen: Entwickler, die KI-Anwendungen erstellen, können "verifizierbare Inferenz" als Premium-Funktion anbieten. Nutzer zahlen extra für Beweise und differenzieren so Dienste von undurchsichtigen Alternativen.

Die Gemeinsamkeit: Anwendungen, bei denen Vertrauen teuer ist (aufgrund von Regulierung, Dezentralisierung oder hohen Einsätzen) und die Verifizierungskosten akzeptabel sind (im Vergleich zum Wert der Gewissheit).

Judge wird OpenAI bei Consumer-Chatbots nicht ersetzen – Nutzer legen keinen Wert darauf, ob GPT-4 verifizierbar ist, wenn sie nach Rezeptideen fragen. Aber für Finanzalgorithmen, medizinische Werkzeuge und Governance-Systeme ist verifizierbare KI die Zukunft.

Verifizierbarkeit als neuer Standard

Der Judge von Gensyn stellt einen Paradigmenwechsel dar: Die KI-Evaluierung bewegt sich von "Vertrauen in den Anbieter" hin zu "Verifizierung des Beweises". Die technische Grundlage – bitgenaue Reproduzierbarkeit via Verde, effiziente Verifizierung durch referenzierte Delegation (refereed delegation) und On-Chain-Audit-Trails – macht diesen Übergang praktisch und nicht nur erstrebenswert.

Die Auswirkungen reichen weit über Gensyn hinaus. Wenn verifizierbare KI zum Standard wird, verlieren zentrale Anbieter ihre Wettbewerbsvorteile (Moats). Das Wertversprechen von OpenAI sind nicht nur die Fähigkeiten von GPT-4 – es ist die Bequemlichkeit, die Infrastruktur nicht selbst verwalten zu müssen. Aber wenn Gensyn beweist, dass dezentrale KI mit der Leistung zentralisierter Systeme mithalten kann und zusätzlich Verifizierbarkeit bietet, haben Entwickler keinen Grund mehr, sich an proprietäre APIs zu binden.

Das Rennen läuft. ZKML-Projekte (Modulus Labs, Worldcoins biometrisches System) setzen auf Zero-Knowledge-Proofs. Deterministische Laufzeiten (Gensyns Verde, EigenAI) setzen auf Reproduzierbarkeit. Optimistische Ansätze (Blockchain-KI-Orakel) setzen auf Betrugsbeweise (Fraud Proofs). Jeder Pfad hat Kompromisse – aber das Ziel ist dasselbe: KI-Systeme, deren Ausgaben beweisbar und nicht nur plausibel sind.

Für folgenschwere Entscheidungen ist dies nicht optional. Regulierungsbehörden werden in Finanz-, Gesundheits- oder Rechtsanwendungen kein "Vertrauen Sie uns" von KI-Anbietern akzeptieren. DAOs werden das Treasury-Management nicht an Black-Box-Agenten delegieren. Und da autonome KI-Systeme immer leistungsfähiger werden, wird die Öffentlichkeit Transparenz fordern.

Judge ist das erste produktionsreife System, das dieses Versprechen einlöst. Das Testnet ist live. Die kryptografischen Grundlagen sind solide. Der Markt – 27 Milliarden US-Dollar in Krypto-KI-Agenten, Milliarden an DeFi-Vermögenswerten, die von Algorithmen verwaltet werden, und der zunehmende regulatorische Druck – ist bereit.

Die Ära der undurchsichtigen KI-APIs endet. Das Zeitalter der verifizierbaren Intelligenz beginnt. Und der Judge von Gensyn weist den Weg.


Quellen:

Nillions Blacklight geht live: Wie ERC-8004 die Vertrauensschicht für autonome KI-Agenten aufbaut

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Am 2. Februar 2026 machte die Ökonomie der KI-Agenten einen entscheidenden Schritt nach vorne. Nillion startete Blacklight, einen Verification Layer, der den ERC-8004-Standard implementiert, um eine der dringlichsten Fragen der Blockchain zu lösen: Wie vertraut man einem KI-Agenten, dem man noch nie begegnet ist?

Die Antwort ist nicht ein einfacher Reputation Score oder ein zentralisiertes Register. Es ist ein fünfstufiger Verifizierungsprozess, der durch kryptografische Beweise, programmierbare Audits und ein Netzwerk von gemeinschaftlich betriebenen Nodes gestützt wird. Da autonome Agenten zunehmend Trades ausführen, Treasuries verwalten und Cross-Chain-Aktivitäten koordinieren, stellt Blacklight die Infrastruktur dar, die eine trustless KI-Koordination in großem Maßstab ermöglicht.

Das Vertrauensproblem, das KI-Agenten nicht alleine lösen können

Die Zahlen sprechen für sich. KI-Agenten tragen mittlerweile 30 % des Handelsvolumens von Polymarket bei, verwalten DeFi-Yield-Strategien über mehrere Protokolle hinweg und führen autonom komplexe Workflows aus. Aber es gibt einen grundlegenden Engpass: Wie verifizieren Agenten die Vertrauenswürdigkeit des jeweils anderen ohne bestehende Beziehungen?

Traditionelle Systeme verlassen sich auf zentrale Instanzen, die Credentials ausstellen. Das Versprechen von Web3 ist ein anderes – trustless Verifizierung durch Kryptografie und Konsens. Doch bis ERC-8004 gab es keinen standardisierten Weg für Agenten, ihre Authentizität zu beweisen, ihr Verhalten zu verfolgen oder ihre Entscheidungslogik On-Chain zu validieren.

Dies ist kein rein theoretisches Problem. Wie Davide Crapis erklärt: „ERC-8004 ermöglicht dezentrale Interaktionen von KI-Agenten, etabliert trustless Handel und verbessert Reputationssysteme auf Ethereum.“ Ohne diesen Standard bleibt der Handel von Agent zu Agent auf geschlossene Systeme beschränkt oder erfordert manuelle Aufsicht – was den Zweck der Autonomie zunichtemacht.

ERC-8004: Die Trust-Infrastruktur aus drei Registern

Der ERC-8004-Standard, der am 29. Januar 2026 im Ethereum-Mainnet live ging, etabliert einen modularen Trust Layer durch drei On-Chain-Register:

Identity Registry: Nutzt ERC-721, um portable Agenten-Identifikatoren bereitzustellen. Jeder Agent erhält einen Non-Fungible Token, der seine einzigartige On-Chain-Identität repräsentiert, was eine plattformübergreifende Erkennung ermöglicht und Identitäts-Spoofing verhindert.

Reputation Registry: Sammelt standardisiertes Feedback und Bewertungen. Im Gegensatz zu zentralisierten Bewertungssystemen wird das Feedback On-Chain mit kryptografischen Signaturen aufgezeichnet, wodurch ein unveränderlicher Audit-Trail entsteht. Jeder kann diese Historie durchsuchen und eigene Reputationsalgorithmen erstellen.

Validation Registry: Unterstützt die kryptografische und ökonomische Verifizierung der Arbeit von Agenten. Hier finden programmierbare Audits statt – Validatoren können Berechnungen erneut ausführen, Zero-Knowledge-Proofs verifizieren oder Trusted Execution Environments (TEEs) nutzen, um zu bestätigen, dass ein Agent korrekt gehandelt hat.

Die Brillanz von ERC-8004 liegt in seinem unvoreingenommenen Design. Wie die technische Spezifikation anmerkt, unterstützt der Standard verschiedene Validierungstechniken: „Stake-gesicherte Neuausführung von Aufgaben (inspiriert von Systemen wie EigenLayer), Verifizierung von Zero-Knowledge Machine Learning (zkML) Proofs und Attestierungen von Trusted Execution Environments.“

Diese Flexibilität ist wichtig. Ein DeFi-Arbitrage-Agent könnte zkML-Proofs verwenden, um seine Handelslogik zu verifizieren, ohne Alpha preiszugeben. Ein Supply-Chain-Agent könnte TEE-Attestierungen nutzen, um zu beweisen, dass er korrekt auf Real-World-Daten zugegriffen hat. Ein Cross-Chain-Bridge-Agent könnte auf krypto-ökonomische Validierung mit Slashing setzen, um eine ehrliche Ausführung zu gewährleisten.

Blacklights fünfstufiger Verifizierungsprozess

Nillions Implementierung von ERC-8004 auf Blacklight fügt eine entscheidende Ebene hinzu: gemeinschaftlich betriebene Verifizierungs-Nodes. So funktioniert der Prozess:

1. Agenten-Registrierung: Ein Agent registriert seine Identität in der Identity Registry und erhält ein ERC-721 NFT. Dies erstellt einen eindeutigen On-Chain-Identifikator, der an den öffentlichen Schlüssel des Agenten gebunden ist.

2. Initiierung der Verifizierungsanfrage: Wenn ein Agent eine Aktion ausführt, die eine Validierung erfordert (z. B. Ausführung eines Trades, Überweisung von Geldern oder Aktualisierung des Status), sendet er eine Verifizierungsanfrage an Blacklight.

3. Zuweisung des Komitees: Das Protokoll von Blacklight weist zufällig ein Komitee aus Verifizierungs-Nodes zu, um die Anfrage zu prüfen. Diese Nodes werden von Community-Mitgliedern betrieben, die 70.000 NIL-Token staken, wodurch Anreize für die Netzwerkintegrität geschaffen werden.

4. Node-Prüfungen: Komitee-Mitglieder führen die Berechnung erneut aus oder validieren kryptografische Proofs. Wenn Validatoren fehlerhaftes Verhalten feststellen, können sie den Stake des Agenten kürzen (in Systemen, die krypto-ökonomische Validierung nutzen) oder die Identität in der Reputation Registry markieren.

5. On-Chain-Reporting: Die Ergebnisse werden On-Chain veröffentlicht. Die Validation Registry zeichnet auf, ob die Arbeit des Agenten verifiziert wurde, und schafft so einen permanenten Ausführungsbeweis. Die Reputation Registry wird entsprechend aktualisiert.

Dieser Prozess erfolgt asynchron und nicht blockierend, was bedeutet, dass Agenten bei Routineaufgaben nicht auf die Verifizierung warten müssen – aber bei risikoreichen Aktionen (große Überweisungen, Cross-Chain-Operationen) kann eine Vorab-Validierung erforderlich sein.

Programmierbare Audits: Jenseits von binärem Vertrauen

Das ehrgeizigste Feature von Blacklight ist die „programmierbare Verifizierung“ – die Fähigkeit zu prüfen, wie ein Agent Entscheidungen trifft, und nicht nur, was er tut.

Betrachten wir einen DeFi-Agenten, der eine Treasury verwaltet. Traditionelle Audits verifizieren, dass Gelder korrekt bewegt wurden. Programmierbare Audits verifizieren:

  • Konsistenz der Entscheidungslogik: Hat der Agent seine angegebene Investmentstrategie befolgt oder ist er davon abgewichen?
  • Ausführung mehrstufiger Workflows: Wenn der Agent Portfolios über drei Chains hinweg umschichten sollte, hat er alle Schritte abgeschlossen?
  • Sicherheitsbeschränkungen: Hat der Agent Gas-Limits, Slippage-Toleranzen und Exposure-Obergrenzen eingehalten?

Dies ist möglich, da die Validation Registry von ERC-8004 beliebige Proof-Systeme unterstützt. Ein Agent kann sich on-chain auf einen Entscheidungsalgorithmus festlegen (z. B. ein Hash seiner neuronalen Netzwerkgewichtungen oder ein zk-SNARK-Schaltkreis, der seine Logik darstellt) und dann beweisen, dass jede Aktion diesem Algorithmus entspricht, ohne proprietäre Details offenzulegen.

Nillions Roadmap zielt explizit auf diese Anwendungsfälle ab: „Nillion plant, die Fähigkeiten von Blacklight auf die ‚programmierbare Verifizierung‘ auszuweiten, was dezentrale Audits komplexer Verhaltensweisen wie die Konsistenz der Entscheidungslogik von Agenten, die Ausführung mehrstufiger Workflows und Sicherheitsbeschränkungen ermöglicht.“

Dies verschiebt die Verifizierung von reaktiv (Fehler im Nachhinein finden) zu proaktiv (korrektes Verhalten durch Design erzwingen).

Blind Computation: Privatsphäre trifft auf Verifizierung

Nillions zugrunde liegende Technologie – Nil Message Compute (NMC) – fügt der Agenten-Verifizierung eine Datenschutz-Dimension hinzu. Im Gegensatz zu herkömmlichen Blockchains, bei denen alle Daten öffentlich sind, ermöglicht Nillions „Blind Computation“ Operationen auf verschlüsselten Daten ohne Entschlüsselung.

Warum das für Agenten wichtig ist: Ein KI-Agent muss möglicherweise seine Handelsstrategie verifizieren, ohne sein Alpha an Konkurrenten preiszugeben. Oder er muss beweisen, dass er korrekt auf vertrauliche medizinische Unterlagen zugegriffen hat, ohne Patientendaten offenzulegen. Oder er muss die Einhaltung regulatorischer Auflagen nachweisen, ohne proprietäre Geschäftslogik zu enthüllen.

Nillions NMC erreicht dies durch Multi-Party Computation (MPC), bei der Nodes gemeinsam „Blinding Factors“ generieren – korrelierte Zufälligkeit, die zur Verschlüsselung von Daten verwendet wird. Wie DAIC Capital erklärt: „Nodes generieren die wichtigste Netzwerkressource, die für die Datenverarbeitung benötigt wird – eine Art korrelierte Zufälligkeit, die als Blinding Factor bezeichnet wird. Dabei speichert jeder Node seinen Anteil am Blinding Factor sicher und verteilt das Vertrauen quantensicher über das Netzwerk.“

Diese Architektur ist von Grund auf quantenresistent. Selbst wenn ein Quantencomputer die heutige Elliptische-Kurven-Kryptographie knackt, bleiben verteilte Blinding Factors sicher, da kein einzelner Node über genügend Informationen verfügt, um Daten zu entschlüsseln.

Für KI-Agenten bedeutet dies, dass die Verifizierung nicht auf Kosten der Vertraulichkeit geht. Ein Agent kann beweisen, dass er eine Aufgabe korrekt ausgeführt hat, während er seine Methoden, Datenquellen und Entscheidungslogik privat hält.

Der 4,3 Milliarden $ Infrastruktur-Ansatz der Agent-Economy

Der Start von Blacklight erfolgt zu einem Zeitpunkt, an dem der Blockchain-KI-Sektor in ein Hyperwachstum eintritt. Es wird prognostiziert, dass der Markt von 680 Millionen (2025)auf4,3Milliarden(2025) auf 4,3 Milliarden (2034) mit einer CAGR von 22,9 % wachsen wird, während der breitere Markt für Confidential Computing bis 2032 ein Volumen von 350 Milliarden $ erreicht.

Aber Nillion setzt nicht nur auf die Marktexpansion – es positioniert sich als kritische Infrastruktur. Der Engpass der Agent-Economy ist nicht Rechenleistung oder Speicherplatz, sondern Vertrauen in großem Maßstab. Wie der Ausblick von KuCoin für 2026 anmerkt, gestalten drei Haupttrends die KI-Identität und den Wertefluss neu:

Agent-Wrapping-Agent-Systeme: Agenten, die sich mit anderen Agenten koordinieren, um komplexe mehrstufige Aufgaben auszuführen. Dies erfordert standardisierte Identität und Verifizierung – genau das, was ERC-8004 bietet.

KYA (Know Your Agent): Finanzielle Infrastruktur, die Agenten-Credentials verlangt. Regulierungsbehörden werden keine autonomen Agenten zulassen, die Gelder verwalten, ohne dass ein Beweis für korrektes Verhalten vorliegt. Die programmierbaren Audits von Blacklight adressieren dies direkt.

Nano-Zahlungen: Agenten müssen Mikrozahlungen effizient abwickeln. Das x402-Zahlungsprotokoll, das im Januar 2026 über 20 Millionen Transaktionen verarbeitete, ergänzt ERC-8004, indem es die Abwicklung übernimmt, während Blacklight für das Vertrauen sorgt.

Zusammen erreichten diese Standards innerhalb weniger Wochen nacheinander die Produktionsreife – ein Durchbruch in der Koordination, der die Reifung der Infrastruktur signalisiert.

Ethereums Agent-zentrierte Zukunft

Die Einführung von ERC-8004 geht weit über Nillion hinaus. Seit Anfang 2026 haben mehrere Projekte den Standard integriert:

  • Oasis Network: Implementierung von ERC-8004 für Confidential Computing mit TEE-basierter Validierung
  • The Graph: Unterstützung von ERC-8004 und x402 zur Ermöglichung verifizierbarer Agenten-Interaktionen in der dezentralen Indexierung
  • MetaMask: Erforschung von Agent-Wallets mit integrierter ERC-8004-Identität
  • Coinbase: Integration von ERC-8004 für institutionelle Verwahrungslösungen für Agenten

Diese schnelle Akzeptanz spiegelt einen breiteren Wandel in Ethereums Roadmap wider. Vitalik Buterin hat wiederholt betont, dass die Rolle der Blockchain zunehmend „nur noch die Rohrleitungen“ für KI-Agenten wird – nicht die Ebene für Endverbraucher, sondern die Vertrauensinfrastruktur, die autonome Koordination ermöglicht.

Nillions Blacklight beschleunigt diese Vision, indem es die Verifizierung programmierbar, datenschutzfreundlich und dezentral macht. Anstatt sich auf zentralisierte Orakel oder menschliche Prüfer zu verlassen, können Agenten ihre Korrektheit kryptographisch beweisen.

Was als nächstes kommt: Mainnet-Integration und Ökosystem-Erweiterung

Die 2026 Roadmap von Nillion priorisiert Ethereum-Kompatibilität und nachhaltige Dezentralisierung. Die Ethereum-Bridge ging im Februar 2026 live, gefolgt von nativen Smart Contracts für Staking und Blind Computation.

Community-Mitglieder, die 70.000 NIL-Token staken, können Blacklight-Verifizierungs-Nodes betreiben und Belohnungen verdienen, während sie die Netzwerkintegrität aufrechterhalten. Dieses Design spiegelt die Validator-Ökonomie von Ethereum wider, fügt jedoch eine verifizierungsspezifische Rolle hinzu.

Die nächsten Meilensteine umfassen:

  • Erweiterte zkML-Unterstützung: Integration mit Projekten wie Modulus Labs zur Verifizierung von KI-Inferenzen On-Chain
  • Cross-Chain-Verifizierung: Ermöglichung von Blacklight, Agenten zu verifizieren, die über Ethereum, Cosmos und Solana hinweg agieren
  • Institutionelle Partnerschaften: Kooperationen mit Coinbase und Alibaba Cloud für den Einsatz von Enterprise-Agenten
  • Tools für regulatorische Compliance: Entwicklung von KYA-Frameworks (Know Your Agent) für die Einführung im Finanzdienstleistungssektor

Vielleicht am wichtigsten ist, dass Nillion nilGPT entwickelt — einen vollständig privaten KI-Chatbot, der demonstriert, wie Blind Computation vertrauliche Agenten-Interaktionen ermöglicht. Dies ist nicht nur eine Demo; es ist eine Blaupause für Agenten, die sensible Daten im Gesundheitswesen, im Finanzwesen und im öffentlichen Sektor verarbeiten.

Das Endgame der trustlosen Koordination

Der Start von Blacklight markiert einen Wendepunkt für die Agent-Ökonomie. Vor ERC-8004 operierten Agenten in Silos — vertrauenswürdig innerhalb ihrer eigenen Ökosysteme, aber unfähig, sich ohne menschliche Vermittler plattformübergreifend zu koordinieren. Nach ERC-8004 können Agenten die Identität des jeweils anderen verifizieren, das Verhalten des anderen prüfen und Zahlungen autonom abwickeln.

Dies erschließt völlig neue Kategorien von Anwendungen:

  • Dezentrale Hedgefonds: Agenten, die Portfolios über verschiedene Chains hinweg verwalten, mit verifizierbaren Investmentstrategien und transparenten Performance-Audits
  • Autonome Lieferketten: Agenten, die Logistik, Zahlungen und Compliance ohne zentrale Aufsicht koordinieren
  • KI-gestützte DAOs: Organisationen, die von Agenten gesteuert werden, die auf Basis einer kryptografisch verifizierten Entscheidungslogik abstimmen, Vorschläge machen und diese ausführen
  • Protokollübergreifendes Liquiditätsmanagement: Agenten, die Vermögenswerte über DeFi-Protokolle hinweg mit programmierbaren Risikobeschränkungen umschichten

Der rote Faden? Alle erfordern trustlose Koordination — die Fähigkeit von Agenten, ohne bestehende Beziehungen oder zentrale Vertrauensanker zusammenzuarbeiten.

Nillions Blacklight bietet genau das. Durch die Kombination der Identitäts- und Reputationsinfrastruktur von ERC-8004 mit programmierbarer Verifizierung und Blind Computation schafft es eine Vertrauensebene, die skalierbar genug für die bevorstehende Billionen-Agenten-Ökonomie ist.

Da die Blockchain zum Grundgerüst für KI-Agenten und das globale Finanzwesen wird, ist die Frage nicht, ob wir eine Verifizierungsinfrastruktur benötigen — sondern wer sie baut und ob sie dezentralisiert ist oder von einigen wenigen Gatekeepern kontrolliert wird. Die von der Community betriebenen Nodes und der offene Standard von Blacklight sprechen für Letzteres.

Das Zeitalter der autonomen On-Chain-Akteure ist angebrochen. Die Infrastruktur ist live. Die einzige offene Frage ist, was darauf aufgebaut wird.


Quellen:

KI × Web3 Konvergenz: Wie die Blockchain zum Betriebssystem für autonome Agenten wurde

· 16 Min. Lesezeit
Dora Noda
Software Engineer

Am 29. Januar 2026 führte Ethereum ERC-8004 ein, einen Standard, der KI-Softwareagenten dauerhafte On-Chain-Identitäten verleiht. Innerhalb weniger Tage registrierten sich über 24.549 Agenten, und die BNB Chain gab die Unterstützung des Protokolls bekannt. Dies ist kein schrittweiser Fortschritt — es ist die Infrastruktur für autonome wirtschaftliche Akteure, die ohne menschliche Vermittlung Transaktionen durchführen, sich koordinieren und eine Reputation aufbauen können.

KI-Agenten benötigen keine Blockchain, um zu existieren. Aber sie benötigen die Blockchain zur Koordination. Um vertrauenswürdig über Organisationsgrenzen hinweg zu agieren. Um eine verifizierbare Reputation aufzubauen. Um Zahlungen autonom abzuwickeln. Um die Ausführung ohne zentralisierte Vermittler zu beweisen.

Die Konvergenz beschleunigt sich, weil beide Technologien die kritische Schwäche der jeweils anderen lösen: KI bietet Intelligenz und Automatisierung, die Blockchain bietet Vertrauen und wirtschaftliche Infrastruktur. Gemeinsam schaffen sie etwas, das keine von beiden allein erreicht: autonome Systeme, die an offenen Märkten teilnehmen können, ohne dass bereits bestehende Vertrauensbeziehungen erforderlich sind.

Dieser Artikel untersucht die Infrastruktur, welche die Konvergenz von KI × Web3 unvermeidlich macht — von Identitätsstandards über wirtschaftliche Protokolle bis hin zur dezentralen Modellausführung. Die Frage ist nicht, ob KI-Agenten auf der Blockchain operieren werden, sondern wie schnell die Infrastruktur skaliert, um Millionen von autonomen wirtschaftlichen Akteuren zu unterstützen.

ERC-8004: Identitätsinfrastruktur für KI-Agenten

ERC-8004 ging am 29. Januar 2026 im Ethereum-Mainnet live und etablierte standardisierte, erlaubnisfreie Mechanismen für die Identität, Reputation und Validierung von Agenten.

Das Protokoll löst ein grundlegendes Problem: Wie man Agenten über Organisationsgrenzen hinweg ohne bestehendes Vertrauen entdeckt, auswählt und mit ihnen interagiert. Ohne Identitätsinfrastruktur erfordert jede Interaktion zwischen Agenten eine zentralisierte Vermittlung — Marktplatzplattformen, Verifizierungsdienste, Schlichtungsebenen. ERC-8004 macht diese vertrauenslos (trustless) und kombinierbar (composable).

Drei Kernregister:

Identity Registry (Identitätsregister): Ein minimaler On-Chain-Handle basierend auf ERC-721 mit URIStorage-Erweiterung, der auf die Registrierungsdatei eines Agenten verweist. Jeder Agent erhält eine portable, zensurresistente Kennung. Keine zentrale Instanz kontrolliert, wer eine Agentenidentität erstellen kann oder welche Plattformen sie anerkennen.

Reputation Registry (Reputationsregister): Eine standardisierte Schnittstelle zum Veröffentlichen und Abrufen von Feedbacksignalen. Agenten bauen ihre Reputation durch die On-Chain-Transaktionshistorie, abgeschlossene Aufgaben und Bewertungen von Gegenparteien auf. Die Reputation wird über Plattformen hinweg portabel, anstatt in einzelnen Marktplätzen isoliert zu bleiben.

Validation Registry (Validierungsregister): Generische Hooks zum Anfordern und Aufzeichnen unabhängiger Validierungsprüfungen — Staker, die Aufträge erneut ausführen, zkML-Verifizierer, die die Ausführung bestätigen, TEE-Oracles, die Berechnungen beweisen, oder vertrauenswürdige Richter, die Streitigkeiten beilegen. Validierungsmechanismen lassen sich modular andocken, anstatt plattformspezifische Implementierungen zu erfordern.

Die Architektur schafft die Voraussetzungen für offene Agentenmärkte. Anstelle eines "Upwork für KI-Agenten" entstehen erlaubnisfreie Protokolle, in denen Agenten einander entdecken, Bedingungen aushandeln, Aufgaben ausführen und Zahlungen begleichen — und das alles ohne die Kontrolle einer zentralisierten Plattform.

Die schnelle Ankündigung der Unterstützung durch die BNB Chain signalisiert den Weg des Standards hin zu einer kettenübergreifenden (cross-chain) Einführung. Eine Multi-Chain-Identität ermöglicht es Agenten, über verschiedene Blockchain-Ökosysteme hinweg zu operieren und dabei ein einheitliches Reputations- und Verifizierungssystem beizubehalten.

DeMCP: Model Context Protocol trifft auf Dezentralisierung

DeMCP startete als das erste dezentrale Model Context Protocol Netzwerk und adressiert Vertrauen und Sicherheit mit TEE (Trusted Execution Environments) und Blockchain.

Das Model Context Protocol (MCP), entwickelt von Anthropic, standardisiert, wie Anwendungen Kontext für große Sprachmodelle (LLMs) bereitstellen. Man kann es sich wie USB-C für KI-Anwendungen vorstellen — statt individueller Integrationen für jede Datenquelle bietet MCP universelle Schnittstellenstandards.

DeMCP erweitert dies auf Web3: Es bietet nahtlosen Pay-as-you-go-Zugriff auf führende LLMs wie GPT-4 und Claude über On-Demand-MCP-Instanzen, die vollständig in Stablecoins (USDT/USDC) bezahlt werden und durch Revenue-Sharing-Modelle gesteuert werden.

Die Architektur löst drei kritische Probleme:

Zugang: Traditionelle KI-Modell-APIs erfordern zentralisierte Konten, Zahlungsinfrastrukturen und plattformspezifische SDKs. DeMCP ermöglicht es autonomen Agenten, über standardisierte Protokolle auf LLMs zuzugreifen und in Krypto zu bezahlen, ohne dass von Menschen verwaltete API-Schlüssel oder Kreditkarten erforderlich sind.

Vertrauen: Zentralisierte MCP-Dienste werden zu Single Points of Failure und Überwachungspunkten. Die TEE-gesicherten Knoten von DeMCP bieten eine verifizierbare Ausführung — Agenten können bestätigen, dass Modelle bestimmte Prompts ohne Manipulation ausgeführt haben, was für Finanzentscheidungen oder regulatorische Compliance entscheidend ist.

Komponierbarkeit: Eine neue Generation von KI-Agenten-Infrastruktur basierend auf MCP- und A2A-Protokollen (Agent-to-Agent) entsteht, die speziell für Web3-Szenarien entwickelt wurde. Sie ermöglicht es Agenten, auf Multi-Chain-Daten zuzugreifen und nativ mit DeFi-Protokollen zu interagieren.

Das Ergebnis: MCP macht KI zu einem gleichberechtigten Bürger (First-Class Citizen) von Web3. Die Blockchain liefert das Vertrauen, die Koordination und das wirtschaftliche Substrat. Zusammen bilden sie ein dezentrales Betriebssystem, in dem Agenten über interoperable Protokolle hinweg denken, sich koordinieren und handeln.

Zu den wichtigsten MCP-Kryptoprojekten, die man 2026 im Auge behalten sollte, gehören Infrastrukturanbieter, die Agenten-Koordinationsschichten aufbauen, dezentrale Modellausführungsnetzwerke und Integrationen auf Protokollebene, die es Agenten ermöglichen, autonom in Web3-Ökosystemen zu agieren.

Die über 170 Agenten-Tools von Polymarket: Infrastruktur in Aktion

Das Ökosystem von Polymarket ist auf über 170 Drittanbieter-Tools in 19 Kategorien angewachsen und hat sich zu einer unverzichtbaren Infrastruktur für alle entwickelt, die den Handel auf Prognosemärkten ernst nehmen.

Die Tool-Kategorien decken den gesamten Workflow von Agenten ab:

Autonomer Handel: KI-gestützte Agenten, die automatisch Strategien entdecken und optimieren, indem sie Prognosemärkte mit Yield Farming und DeFi-Protokollen integrieren. Einige Agenten erreichen eine Genauigkeit von 98 % bei kurzfristigen Vorhersagen.

Arbitrage-Systeme: Automatisierte Bots, die Preisunterschiede zwischen Polymarket und anderen Prognoseplattformen oder traditionellen Wettmärkten identifizieren und Trades schneller als menschliche Akteure ausführen.

Whale-Tracking: Tools zur Überwachung groß angelegter Positionsveränderungen, die es Agenten ermöglichen, institutionellen Aktivitäten basierend auf historischen Performance-Korrelationen zu folgen oder entgegenzuwirken.

Copy-Trading-Infrastruktur: Plattformen, die es Agenten ermöglichen, Strategien von Top-Performern zu replizieren, wobei On-Chain-Verifizierungen von Erfolgsbilanzen gefälschte Performance-Ansprüche verhindern.

Analytik & Daten-Feeds: Analysen auf institutionellem Niveau, die Agenten Markttiefe, Liquiditätsanalysen, historische Wahrscheinlichkeitsverteilungen und Korrelationen von Ereignisergebnissen liefern.

Risikomanagement: Automatisierte Positionsgrößenbestimmung, Exposure-Limits und Stop-Loss-Mechanismen, die direkt in die Handelslogik der Agenten integriert sind.

Das Ökosystem bestätigt die These der Konvergenz von KI × Web3. Polymarket stellt GitHub-Repositories und SDKs speziell für die Agenten-Entwicklung bereit und behandelt autonome Akteure als erstklassige Plattformteilnehmer und nicht als Randfälle oder Verstöße gegen die Nutzungsbedingungen.

Der Ausblick für 2026 beinhaltet den potenziellen Start des $ POLY-Tokens, der eine neue Dynamik in Bezug auf Governance, Gebührenstrukturen und Ökosystem-Anreize schafft. CEO Shayne Coplan deutete an, dass dies eines der größten TGEs (Token Generation Events) des Jahres 2026 werden könnte. Zusätzlich könnte der potenzielle Blockchain-Launch von Polymarket (nach dem Hyperliquid-Modell) die Infrastruktur grundlegend umgestalten, wobei Milliarden an eingeworbenen Mitteln eine Appchain zu einer natürlichen Evolution machen.

Der Infrastruktur-Stack: Ebenen von KI × Web3

Autonome Agenten, die auf der Blockchain operieren, erfordern eine koordinierte Infrastruktur über mehrere Ebenen hinweg:

Ebene 1: Identität & Reputation

  • ERC-8004-Register zur Agenten-Identifizierung
  • On-Chain-Reputationssysteme zur Verfolgung der Performance
  • Kryptografischer Nachweis von Agenten-Eigentum und -Autorität
  • Cross-Chain-Identitäts-Bridging für Multi-Ökosystem-Operationen

Ebene 2: Zugriff & Ausführung

  • DeMCP für dezentralen LLM-Zugriff
  • TEE-gesicherte Berechnungen für private Agenten-Logik
  • zkML (Zero-Knowledge Machine Learning) für verifizierbare Inferenz
  • Dezentrale Inferenznetzwerke zur Verteilung der Modellausführung

Ebene 3: Koordination & Kommunikation

  • A2A (Agent-to-Agent)-Protokolle für direkte Verhandlungen
  • Standardisierte Nachrichtenformate für die Kommunikation zwischen Agenten
  • Discovery-Mechanismen zum Finden von Agenten mit spezifischen Fähigkeiten
  • Treuhand- und Streitbeilegung für autonome Verträge

Ebene 4: Wirtschaftliche Infrastruktur

  • Stablecoin-Zahlungsschienen für grenzüberschreitende Abwicklungen
  • Automated Market Maker für von Agenten generierte Assets
  • Programmierbare Gebührenstrukturen und Umsatzbeteiligung
  • Token-basierte Anreizausrichtung

Ebene 5: Anwendungsprotokolle

  • DeFi-Integrationen für autonome Renditeoptimierung
  • Prognosemarkt-APIs für den Informationshandel
  • NFT-Marktplätze für von Agenten erstellte Inhalte
  • Frameworks für die Teilnahme an der DAO-Governance

Dieser Stack ermöglicht zunehmend komplexe Agenten-Verhaltensweisen: einfache Automatisierung (Smart-Contract-Ausführung), reaktive Agenten (Reaktion auf On-Chain-Ereignisse), proaktive Agenten (Initiierung von Strategien basierend auf Inferenz) und koordinierende Agenten (Verhandlung mit anderen autonomen Akteuren).

Die Infrastruktur ermöglicht es KI-Agenten nicht nur, die Blockchain zu nutzen – sie macht die Blockchain zur natürlichen Betriebsumgebung für autonome wirtschaftliche Aktivitäten.

Warum KI die Blockchain braucht: Das Vertrauensproblem

KI-Agenten stehen vor grundlegenden Vertrauensherausforderungen, die zentralisierte Architekturen nicht lösen können:

Verifizierung: Wie beweist man, dass ein KI-Agent eine bestimmte Logik ohne Manipulation ausgeführt hat? Traditionelle APIs bieten keine Garantien. Blockchain mit zkML- oder TEE-Attestierungen schafft verifizierbare Berechnungen – einen kryptografischen Nachweis, dass bestimmte Modelle bestimmte Eingaben verarbeitet und bestimmte Ausgaben erzeugt haben.

Reputation: Wie bauen Agenten über Organisationsgrenzen hinweg Glaubwürdigkeit auf? Zentralisierte Plattformen schaffen geschlossene Systeme – eine auf Upwork verdiente Reputation lässt sich nicht auf Fiverr übertragen. On-Chain-Reputation wird portabel, verifizierbar und resistent gegen Manipulationen durch Sybil-Angriffe.

Abwicklung: Wie handhaben autonome Agenten Zahlungen ohne menschliche Vermittlung? Traditionelles Banking erfordert Konten, KYC und menschliche Autorisierung für jede Transaktion. Stablecoins und Smart Contracts ermöglichen eine programmierbare, sofortige Abwicklung mit kryptografischer statt bürokratischer Sicherheit.

Koordination: Wie verhandeln Agenten verschiedener Organisationen ohne vertrauenswürdige Vermittler? Traditionelle Geschäfte erfordern Verträge, Anwälte und Durchsetzungsmechanismen. Smart Contracts ermöglichen die vertrauenslose Ausführung von Vereinbarungen – Code setzt Bedingungen automatisch basierend auf verifizierbaren Konditionen durch.

Attribuierung: Wie beweist man, welcher Agent bestimmte Ausgaben erstellt hat? Die Herkunft von KI-Inhalten wird entscheidend für Urheberrecht, Haftung und Umsatzverteilung. On-Chain-Attestierung bietet manipulationssichere Aufzeichnungen über Erstellung, Änderung und Eigentum.

Blockchain ermöglicht diese Fähigkeiten nicht nur – sie ist die einzige Architektur, die sie ohne die Wiedereinführung zentralisierter Vertrauensannahmen ermöglicht. Die Konvergenz ergibt sich aus technischer Notwendigkeit, nicht aus einem spekulativen Narrativ.

Warum Blockchain KI braucht: Das Intelligenzproblem

Blockchain steht vor ebenso fundamentalen Einschränkungen, die KI adressiert:

Komplexitätsabstraktion: Die Blockchain-UX bleibt mangelhaft — Seed-Phrasen, Gas-Gebühren, Transaktionssignierung. KI-Agenten können Komplexität abstrahieren und als intelligente Vermittler agieren, die die Absicht des Nutzers ausführen, ohne technische Implementierungsdetails preiszugeben.

Informationsverarbeitung: Blockchains liefern Daten, aber es fehlt ihnen an Intelligenz, um diese zu interpretieren. KI-Agenten analysieren On-Chain-Aktivitätsmuster, identifizieren Arbitrage-Möglichkeiten, sagen Marktbewegungen voraus und optimieren Strategien in einer Geschwindigkeit und einem Umfang, die für Menschen unmöglich sind.

Automatisierung: Smart Contracts führen Logik aus, können sich aber ohne explizite Programmierung nicht an veränderte Bedingungen anpassen. KI-Agenten ermöglichen eine dynamische Entscheidungsfindung, lernen aus Ergebnissen und passen Strategien an, ohne dass für jede Parameteränderung Governance-Vorschläge erforderlich sind.

Auffindbarkeit: DeFi-Protokolle leiden unter Fragmentierung — Nutzer müssen Möglichkeiten manuell auf Hunderten von Plattformen entdecken. KI-Agenten scannen, bewerten und leiten Aktivitäten kontinuierlich an optimale Protokolle weiter, basierend auf anspruchsvoller Optimierung mehrerer Variablen.

Risikomanagement: Menschliche Trader kämpfen mit Disziplin, Emotionen und Aufmerksamkeitsgrenzen. KI-Agenten setzen vordefinierte Risikoparameter durch, führen Stop-Loss-Orders ohne Zögern aus und überwachen Positionen rund um die Uhr auf mehreren Chains gleichzeitig.

Die Beziehung wird symbiotisch: Blockchain bietet die Vertrauensinfrastruktur, die die KI-Koordination ermöglicht, KI bietet die Intelligenz, die die Blockchain-Infrastruktur für komplexe wirtschaftliche Aktivitäten nutzbar macht.

Die entstehende Agenten-Ökonomie

Der Infrastruktur-Stack ermöglicht neue Wirtschaftsmodelle:

Agent-as-a-Service: Autonome Agenten vermieten ihre Fähigkeiten auf Abruf und legen Preise dynamisch basierend auf Angebot und Nachfrage fest. Keine Plattformen, keine Vermittler — direkte Agent-to-Agent-Servicemärkte.

Kollaborative Intelligenz: Agenten bündeln Fachwissen für komplexe Aufgaben und koordinieren sich über Smart Contracts, die Einnahmen automatisch basierend auf dem Beitrag verteilen. Multi-Agenten-Systeme lösen Probleme, die über die Fähigkeiten eines einzelnen Agenten hinausgehen.

Vorhersage-Erweiterung: Agenten überwachen kontinuierlich Informationsflüsse, aktualisieren Wahrscheinlichkeitsschätzungen und handeln auf Basis von Erkenntnissen, bevor Nachrichten für Menschen lesbar sind. Information Finance (InfoFi) wird algorithmisch, wobei Agenten die Preisfindung dominieren.

Autonome Organisationen: DAOs, die vollständig von KI-Agenten gesteuert werden, die im Namen der Token-Inhaber handeln und Entscheidungen durch verifizierbare Inferenz statt durch menschliche Abstimmungen treffen. Organisationen, die mit Maschinengeschwindigkeit und kryptografischer Rechenschaftspflicht arbeiten.

Content-Ökonomie: KI-generierte Inhalte mit On-Chain-Herkunft, die eine automatisierte Lizenzierung, Lizenzgebührenverteilung und Rechte zur Erstellung von Derivaten ermöglichen. Agenten verhandeln Nutzungsbedingungen und setzen die Namensnennung durch Smart Contracts durch.

Diese sind nicht hypothetisch — frühe Versionen sind bereits in Betrieb. Die Frage ist: Wie schnell skaliert die Infrastruktur, um Millionen autonomer wirtschaftlicher Akteure zu unterstützen?

Verbleibende technische Herausforderungen

Trotz schneller Fortschritte bleiben erhebliche Hindernisse bestehen:

Skalierbarkeit: Aktuelle Blockchains kämpfen mit dem Durchsatz. Millionen von Agenten, die kontinuierlich Mikrotransaktionen ausführen, erfordern Layer-2-Lösungen, Optimistic Rollups oder dedizierte agentenspezifische Chains.

Privatsphäre: Viele Agentenoperationen erfordern vertrauliche Logik oder Daten. TEEs bieten Teillösungen, aber Fully Homomorphic Encryption (FHE) und fortschrittliche Kryptografie bleiben für den Produktionseinsatz zu teuer.

Regulierung: Autonome wirtschaftliche Akteure fordern bestehende rechtliche Rahmenbedingungen heraus. Wer ist haftbar, wenn Agenten Schaden anrichten? Wie werden KYC / AML-Anforderungen angewendet? Die regulatorische Klarheit hinkt der technischen Leistungsfähigkeit hinterher.

Modellkosten: LLM-Inferenz bleibt teuer. Dezentrale Netzwerke müssen mit zentralisierten API-Preisen mithalten und gleichzeitig Verifizierungs-Overhead hinzufügen. Die wirtschaftliche Rentabilität erfordert kontinuierliche Verbesserungen der Modelleffizienz.

Orakel-Probleme: Agenten benötigen zuverlässige Echtzeitdaten aus der realen Welt. Bestehende Orakel-Lösungen führen Vertrauensannahmen und Latenzzeiten ein. Bessere Brücken zwischen On-Chain-Logik und Off-Chain-Informationen bleiben entscheidend.

Diese Herausforderungen sind nicht unüberwindbar — es sind technische Probleme mit klaren Lösungswegen. Die Entwicklung der Infrastruktur deutet auf eine Lösung innerhalb der nächsten 12 bis 24 Monate hin.

Der Wendepunkt 2026

Im Jahr 2026 kommen mehrere Katalysatoren zusammen:

Reifung von Standards: Die Einführung von ERC-8004 auf den wichtigsten Chains schafft eine interoperable Identitätsinfrastruktur. Agenten agieren nahtlos über Ethereum, BNB Chain und aufstrebende Ökosysteme hinweg.

Modelleffizienz: Kleinere, spezialisierte Modelle reduzieren die Inferenzkosten um das 10- bis 100-fache, während sie die Leistung für spezifische Aufgaben beibehalten. Die wirtschaftliche Rentabilität verbessert sich drastisch.

Regulatorische Klarheit: Die ersten Rechtssysteme legen Rahmenbedingungen für autonome Agenten fest und bieten institutionellen Akteuren rechtliche Sicherheit.

Durchbruch bei Anwendungen: Prognosemärkte, DeFi-Optimierung und die Erstellung von Inhalten demonstrieren eine klare Überlegenheit von Agenten gegenüber menschlichen Akteuren und treiben die Akzeptanz über Krypto-native Nutzer hinaus.

Infrastruktur-Wettbewerb: Mehrere Teams, die dezentrale Inferenz, Agenten-Koordinationsprotokolle und spezialisierte Chains entwickeln, erzeugen Wettbewerbsdruck, der die Entwicklung beschleunigt.

Die Konvergenz geht vom Experimentellen in das Infrastrukturelle über. Frühe Anwender gewinnen Vorteile, Plattformen integrieren standardmäßig die Unterstützung für Agenten, und wirtschaftliche Aktivitäten fließen zunehmend über autonome Vermittler.

Was das für die Web3-Entwicklung bedeutet

Entwickler , die für die nächste Phase des Web3 bauen , sollten folgendes priorisieren :

Agent-First-Design : Betrachten Sie autonome Akteure als primäre Nutzer , nicht als Randfälle . Entwerfen Sie APIs , Gebührenstrukturen und Governance-Mechanismen unter der Annahme , dass Agenten die Aktivitäten dominieren .

Komponierbarkeit : Bauen Sie Protokolle , die Agenten leicht integrieren , koordinieren und erweitern können . Standardisierte Schnittstellen sind wichtiger als proprietäre Implementierungen .

Verifizierung : Stellen Sie kryptografische Ausführungsnachweise bereit , nicht nur Ausführungsergebnisse . Agenten benötigen verifizierbare Berechnungen , um Vertrauensketten aufzubauen .

Wirtschaftliche Effizienz : Optimieren Sie für Mikrotransaktionen , kontinuierliche Abrechnungen und dynamische Gebührenmärkte . Traditionelle Stapelverarbeitung und manuelle Eingriffe lassen sich nicht für Agentenaktivitäten skalieren .

Datenschutzoptionen : Unterstützen Sie sowohl transparente als auch vertrauliche Agentenoperationen . Unterschiedliche Anwendungsfälle erfordern unterschiedliche Datenschutzgarantien .

Die Infrastruktur ist vorhanden . Die Standards zeichnen sich ab . Die wirtschaftlichen Anreize stimmen überein . Die AI × Web3-Konvergenz kommt nicht erst — sie ist bereits hier . Die Frage lautet : Wer baut die Infrastruktur , die zur Grundlage für das nächste Jahrzehnt autonomer wirtschaftlicher Aktivitäten wird ?

BlockEden.xyz bietet Infrastruktur auf Unternehmensniveau für Web3-Anwendungen und ermöglicht zuverlässigen , leistungsstarken RPC-Zugriff über die wichtigsten Blockchain-Ökosysteme hinweg . Entdecken Sie unsere Dienstleistungen für die Infrastruktur von KI-Agenten und die Unterstützung autonomer Systeme .


Quellen :

InfoFi-Explosion: Wie Informationen zum meistgehandelten Vermögenswert der Wall Street wurden

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Die Finanzindustrie hat gerade eine Schwelle überschritten, die die meisten nicht kommen sahen. Im Februar 2026 verarbeiteten Prognosemärkte ein wöchentliches Volumen von 6,32 Milliarden $ – nicht durch spekulatives Glücksspiel, sondern durch institutionelle Investoren, die Informationen selbst als handelbares Gut bepreisen.

Information Finance, oder „InfoFi“, stellt den Höhepunkt einer jahrzehntelangen Transformation dar: von 4,63 Milliarden $ im Jahr 2025 auf prognostizierte 176,32 Milliarden $ bis 2034. Die Web3-Infrastruktur hat Prognosemärkte von Wettplattformen zu dem entwickelt, was Vitalik Buterin als „Wahrheitsmaschinen“ (Truth Engines) bezeichnet – Finanzmechanismen, die Erkenntnisse schneller aggregieren als traditionelle Medien oder Umfragesysteme.

Hierbei geht es nicht nur um Krypto-Spekulation. ICE (Intercontinental Exchange, Eigentümer der New York Stock Exchange) investierte 2 Milliarden $ in Polymarket und bewertete den Prognosemarkt mit 9 Milliarden $. Hedgefonds und Zentralbanken integrieren heute Prognosemarktdaten in dieselben Terminals, die für Aktien und Derivate verwendet werden. InfoFi ist zu einer Finanzinfrastruktur geworden.

Was InfoFi eigentlich bedeutet

InfoFi behandelt Informationen als eine Anlageklasse. Anstatt Nachrichten passiv zu konsumieren, setzen die Teilnehmer Kapital auf die Richtigkeit von Behauptungen – und machen so jeden Datenpunkt zu einem Markt mit einem feststellbaren Preis.

Die Mechanik funktioniert wie folgt:

Traditioneller Informationsfluss: Ereignis tritt ein → Medien berichten → Analysten interpretieren → Märkte reagieren (Tage bis Wochen)

InfoFi-Informationsfluss: Märkte sagen Ereignis voraus → Kapital fließt in genaue Prognosen → Preis signalisiert die Wahrheit sofort (Minuten bis Stunden)

Prognosemärkte erreichten bis Januar 2026 ein wöchentliches Volumen von 5,9 Milliarden $, wobei Kalshi einen Marktanteil von 66,4 % eroberte und Polymarket von der institutionellen Infrastruktur der ICE unterstützt wurde. KI-Agenten tragen mittlerweile über 30 % zur Handelsaktivität bei und bepreisen kontinuierlich geopolitische Ereignisse, Wirtschaftsindikatoren und Unternehmensergebnisse.

Das Ergebnis: Informationen werden bepreist, bevor sie zu Nachrichten werden. Prognosemärkte identifizierten den Schweregrad von COVID-19 Wochen vor den Erklärungen der WHO, bepreisten das Ergebnis der US-Wahlen 2024 genauer als herkömmliche Umfragen und sagten Änderungen in der Zentralbankpolitik vor offiziellen Ankündigungen voraus.

Der Kampf Polymarket gegen Kalshi

Zwei Plattformen dominieren die InfoFi-Landschaft und repräsentieren grundlegend unterschiedliche Ansätze für Informationsmärkte.

Kalshi: Der staatlich regulierte Anwärter. Verarbeitete 2025 ein Volumen von 43,1 Milliarden $, wobei die CFTC-Aufsicht für institutionelle Legitimität sorgte. Der Handel erfolgt in Dollar, ist in traditionelle Brokerage-Konten integriert und konzentriert sich auf US-konforme Märkte.

Der regulatorische Rahmen begrenzt den Marktumfang, zieht aber institutionelles Kapital an. Die traditionelle Finanzwelt fühlt sich wohl dabei, Aufträge über Kalshi abzuwickeln, da es innerhalb der bestehenden Compliance-Infrastruktur operiert. Bis Februar 2026 hält Kalshi eine Wahrscheinlichkeit von 34 %, das Volumen im Jahr 2026 anzuführen, wobei 91,1 % des Handels auf Sportverträge konzentriert sind.

Polymarket: Der krypto-native Herausforderer. Auf Blockchain-Infrastruktur aufgebaut, verarbeitete 2025 ein Volumen von 33 Milliarden $ mit deutlich diversifizierteren Märkten – nur 39,9 % aus dem Sportbereich, der Rest verteilt auf Geopolitik, Wirtschaft, Technologie und kulturelle Ereignisse.

Die Investition der ICE in Höhe von 2 Milliarden $ änderte alles. Polymarket erhielt Zugang zu institutioneller Abwicklungsinfrastruktur, Marktdatenverteilung und regulatorischen Wegen, die zuvor traditionellen Börsen vorbehalten waren. Händler betrachten die ICE-Partnerschaft als Bestätigung dafür, dass Prognosemarktdaten bald neben Bloomberg-Terminals und Reuters-Feeds erscheinen werden.

Der Wettbewerb treibt Innovationen voran. Die regulatorische Klarheit von Kalshi ermöglicht die institutionelle Akzeptanz. Die Krypto-Infrastruktur von Polymarket ermöglicht globale Teilnahme und Komponierbarkeit. Beide Ansätze treiben InfoFi in Richtung Massenakzeptanz – unterschiedliche Wege, die zum selben Ziel führen.

KI-Agenten als Informationshändler

KI-Agenten konsumieren Informationen nicht nur – sie handeln mit ihnen.

Über 30 % des Volumens auf Prognosemärkten stammt heute von KI-Agenten, die kontinuierlich Datenströme analysieren, Trades ausführen und Wahrscheinlichkeitsprognosen aktualisieren. Dies sind keine einfachen Bots, die vordefinierten Regeln folgen. Moderne KI-Agenten integrieren mehrere Datenquellen, identifizieren statistische Anomalien und passen Positionen basierend auf sich entwickelnden Informationslandschaften an.

Der Aufstieg des KI-Handels schafft Rückkopplungsschleifen:

  1. KI-Agenten verarbeiten Informationen schneller als Menschen
  2. Handelsaktivitäten erzeugen Preissignale
  3. Preissignale werden zu Informationsinputs für andere Agenten
  4. Mehr Agenten treten bei, was die Liquidität und Genauigkeit erhöht

Diese Dynamik hat Prognosemärkte von menschlicher Spekulation zur algorithmischen Informationsgewinnung transformiert. Märkte werden nun in Echtzeit aktualisiert, da KI-Agenten Wahrscheinlichkeiten kontinuierlich basierend auf Nachrichtenflüssen, sozialer Stimmung, Wirtschaftsindikatoren und marktübergreifenden Korrelationen neu bewerten.

Die Auswirkungen reichen über den Handel hinaus. Prognosemärkte werden zu „Wahrheits-Oracles“ für Smart Contracts und bieten verifizierbare, ökonomisch abgesicherte Datenfeeds. DeFi-Protokolle können basierend auf den Ergebnissen von Prognosemärkten abrechnen. DAOs können den InfoFi-Konsens für Governance-Entscheidungen nutzen. Der gesamte Web3-Stack erhält Zugang zu einer hochwertigen, anreizorientierten Informationsinfrastruktur.

Der Absturz der Plattform X: Das erste Scheitern von InfoFi

Nicht alle InfoFi-Experimente sind erfolgreich. Im Januar 2026 brachen die Preise für InfoFi-Token ein, nachdem X (ehemals Twitter) Anwendungen für Engagement-Belohnungen verboten hatte.

Projekte wie KAITO (minus 18 %) und COOKIE (minus 20 %) bauten „Information-as-an-Asset“-Modelle auf, die Nutzer für Engagement, Datenbeiträge und Inhaltsqualität belohnten. Die These: Aufmerksamkeit hat einen Wert, und Nutzer sollten diesen Wert durch Token-Ökonomie erfassen.

Der Absturz offenbarte eine grundlegende Schwachstelle: den Aufbau dezentraler Ökonomien auf zentralisierten Plattformen. Als X die Nutzungsbedingungen änderte, verdampften ganze InfoFi-Ökosysteme über Nacht. Nutzer verloren den Token-Wert. Projekte verloren ihre Distribution. Die „dezentrale“ Informationsökonomie erwies sich als fragil gegenüber den Risiken zentralisierter Plattformen.

Überlebende haben die Lektion gelernt. Wahre InfoFi-Infrastruktur erfordert eine Blockchain-native Distribution, keine Abhängigkeiten von Web2-Plattformen. Projekte schwenkten auf dezentrale soziale Protokolle (Farcaster, Lens) und On-Chain-Datenmärkte um. Der Absturz beschleunigte die Migration von hybriden Web2-Web3-Modellen zu einer vollständig dezentralen Informationsinfrastruktur.

InfoFi jenseits von Prognosemärkten

Information-as-an-Asset erstreckt sich über binäre Vorhersagen hinaus.

Daten-DAOs: Organisationen, die kollektiv Datensätze besitzen, kuratieren und monetarisieren. Mitglieder tragen Daten bei, validieren die Qualität und teilen die Einnahmen aus der kommerziellen Nutzung. Die Tokenisierung von Real-World Assets erreichte bis Mitte 2025 23 Milliarden $, was den institutionellen Appetit auf die On-Chain-Wertdarstellung demonstriert.

Dezentrale physische Infrastrukturnetzwerke (DePIN): Anfang 2025 mit rund 30 Milliarden $ bewertet, mit über 1.500 aktiven Projekten. Einzelpersonen teilen ungenutzte Hardware (GPU-Leistung, Bandbreite, Speicher) und verdienen Token. Informationen werden zu handelbaren Rechenressourcen.

KI-Modell-Marktplätze: Blockchain ermöglicht verifizierbares Modell-Eigentum und die Verfolgung der Nutzung. Entwickler monetarisieren KI-Modelle durch On-Chain-Lizensierung, wobei Smart Contracts die Umsatzverteilung automatisieren. Informationen (Modellgewichte, Trainingsdaten) werden zu einer kombinierbaren, handelbaren Infrastruktur.

Credential-Märkte: Zero-Knowledge-Proofs ermöglichen eine datenschutzfreundliche Verifizierung von Berechtigungsnachweisen. Nutzer weisen Qualifikationen nach, ohne persönliche Daten preiszugeben. Verifizierbare Credentials werden zu handelbaren Vermögenswerten im Kontext von Einstellung, Kreditvergabe und Governance.

Der gemeinsame Nenner: Information wandelt sich von einer kostenlosen Externalität zu einem bepreisten Vermögenswert. Märkte entdecken den Wert für bisher nicht monetarisierbare Daten – Suchanfragen, Aufmerksamkeitsmetriken, Expertenverifizierung, Rechenressourcen.

Integration institutioneller Infrastruktur

Die Einführung von InfoFi an der Wall Street ist nicht theoretisch – sie ist operativ.

Das 2-Milliarden-$-Investment von ICE in Polymarket bietet das institutionelle Fundament: Compliance-Frameworks, Settlement-Infrastruktur, Marktdatenverteilung und regulatorische Wege. Daten von Prognosemärkten werden nun in Terminals integriert, die von Hedgefonds-Managern und Zentralbanken genutzt werden.

Diese Integration transformiert Prognosemärkte von alternativen Datenquellen zu einer primären Intelligence-Infrastruktur. Portfolio-Manager beziehen InfoFi-Wahrscheinlichkeiten neben technischen Indikatoren ein. Risikomanagementsysteme integrieren Signale von Prognosemärkten. Handelsalgorithmen verarbeiten Echtzeit-Wahrscheinlichkeits-Updates.

Der Übergang spiegelt wider, wie Bloomberg-Terminals über Jahrzehnte hinweg Datenquellen absorbierten – angefangen bei Anleihekursen über News-Feeds bis hin zur Integration sozialer Stimmungen. InfoFi stellt die nächste Ebene dar: ökonomisch abgesicherte Wahrscheinlichkeitsschätzungen für Ereignisse, die traditionelle Daten nicht einpreisen können.

Das traditionelle Finanzwesen erkennt das Wertversprechen. Informationskosten sinken, wenn Märkte die Genauigkeit kontinuierlich einpreisen. Hedgefonds zahlen Millionen für proprietäre Forschung, die Prognosemärkte organisch durch Anreizabstimmung (Incentive Alignment) generieren. Zentralbanken überwachen die öffentliche Stimmung durch Umfragen, die InfoFi in Echtzeit-Wahrscheinlichkeitsverteilungen erfasst.

Da die Branche ein Wachstum von 40 Milliarden $ im Jahr 2025 auf über 100 Milliarden $ bis 2027 prognostiziert, wird weiterhin institutionelles Kapital in die InfoFi-Infrastruktur fließen – nicht als spekulative Krypto-Wetten, sondern als Kernkomponenten des Finanzmarktes.

Die regulatorische Herausforderung

Das explosive Wachstum von InfoFi zieht die Aufmerksamkeit der Regulierungsbehörden auf sich.

Kalshi unterliegt der Aufsicht der CFTC und behandelt Prognosemärkte als Derivate. Dieser Rahmen schafft Klarheit, schränkt jedoch den Marktumfang ein – keine politischen Wahlen, keine „gesellschaftlich schädlichen“ Ergebnisse, keine Ereignisse außerhalb der regulatorischen Zuständigkeit.

Der krypto-native Ansatz von Polymarket ermöglicht globale Märkte, erschwert jedoch die Compliance. Regulierungsbehörden debattieren darüber, ob Prognosemärkte Glücksspiel, Wertpapierangebote oder Informationsdienste darstellen. Die Einstufung bestimmt, welche Behörden regulieren, welche Aktivitäten zulässig sind und wer teilnehmen darf.

Die Debatte konzentriert sich auf grundlegende Fragen:

  • Sind Prognosemärkte Glücksspiel oder Informationsgewinnung?
  • Stellen Token, die Marktpositionen repräsentieren, Wertpapiere dar?
  • Sollten Plattformen die Teilnehmer nach Geografie oder Akkreditierung einschränken?
  • Wie lassen sich bestehende Finanzvorschriften auf dezentrale Informationsmärkte anwenden?

Regulatorische Ergebnisse werden die Entwicklung von InfoFi prägen. Restriktive Rahmenbedingungen könnten Innovationen ins Ausland verlagern und gleichzeitig die institutionelle Beteiligung einschränken. Eine ausgewogene Regulierung könnte die Massenadaption beschleunigen und gleichzeitig die Marktintegrität schützen.

Erste Signale deuten auf pragmatische Ansätze hin. Regulierungsbehörden erkennen den Wert von Prognosemärkten für die Preisfindung und das Risikomanagement an. Die Herausforderung: Rahmenbedingungen zu schaffen, die Innovationen ermöglichen und gleichzeitig Manipulationen verhindern, Verbraucher schützen und die Finanzstabilität wahren.

Wie es weitergeht

InfoFi ist mehr als nur Prognosemärkte – es ist die Infrastruktur für die Informationsökonomie.

Da KI-Agenten zunehmend die Interaktion zwischen Mensch und Computer vermitteln, benötigen sie vertrauenswürdige Informationsquellen. Blockchain bietet verifizierbare, an Anreizen ausgerichtete Datenfeeds. Prognosemärkte bieten Echtzeit-Wahrscheinlichkeitsverteilungen. Die Kombination schafft eine „Wahrheitsinfrastruktur“ für autonome Systeme.

DeFi-Protokolle integrieren bereits InfoFi-Oracles für das Settlement. DAOs nutzen Prognosemärkte für die Governance. Versicherungsprotokolle bewerten Risiken mithilfe von On-Chain-Wahrscheinlichkeitsschätzungen. Die nächste Phase: die Einführung in Unternehmen für Lieferkettenprognosen, Marktforschung und strategische Planung.

Die Marktprognose von 176 Milliarden US-Dollar bis 2034 geht von einem schrittweisen Wachstum aus. Disruptionen könnten die Entwicklung schneller beschleunigen. Wenn große Finanzinstitute die InfoFi-Infrastruktur vollständig integrieren, geraten traditionelle Umfrage-, Forschungs- und Prognosebranchen unter existenziellen Druck. Warum Analysten für Schätzungen bezahlen, wenn Märkte kontinuierlich Wahrscheinlichkeiten bepreisen?

Der Übergang wird nicht reibungslos verlaufen. Regulatorische Kämpfe werden sich intensivieren. Der Wettbewerb zwischen den Plattformen wird zur Konsolidierung zwingen. Versuche der Marktmanipulation werden die Ausrichtung der Anreize auf die Probe stellen. Aber die grundlegende These bleibt: Informationen haben einen Wert, Märkte finden Preise, Blockchain ermöglicht die Infrastruktur.

InfoFi ersetzt nicht das traditionelle Finanzwesen – es wird zum traditionellen Finanzwesen. Die Frage ist nicht, ob Informationsmärkte eine Massenadaption erreichen, sondern wie schnell institutionelles Kapital das Unvermeidliche erkennt.

BlockEden.xyz bietet Infrastruktur auf Unternehmensniveau für Web3-Anwendungen und bietet zuverlässigen, leistungsstarken RPC-Zugriff über die wichtigsten Blockchain-Ökosysteme hinweg. Erkunden Sie unsere Dienstleistungen für skalierbare InfoFi- und Prognosemarkt-Infrastruktur.


Quellen:

InfoFi-Marktlandschaft: Über Prognosemärkte hinaus zu Daten als Infrastruktur

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Prognosemärkte überschritten Anfang Februar 2026 ein wöchentliches Volumen von 6,32 Mrd. $, wobei Kalshi einen Marktanteil von 51 % und Polymarket von 47 % hielt. Doch Information Finance (InfoFi) reicht weit über binäre Wetten hinaus. Datentokenisierungsmärkte, Data DAOs und Information-as-Asset-Infrastruktur schaffen ein aufstrebendes Ökosystem, in dem Informationen programmierbar, handelbar und verifizierbar werden.

Die InfoFi-These: Informationen haben Wert, Märkte finden Preise, Blockchain ermöglicht Infrastruktur. Dieser Artikel skizziert die Landschaft — von Polymarkets Prognose-Engine bis zur Datentokenisierung von Ocean Protocol, von Data DAOs bis hin zu KI-gesteuerten Wahrheitsmärkten.

Die Basis der Prognosemärkte

Prognosemärkte verankern das InfoFi-Ökosystem und liefern Preissignale für unsichere zukünftige Ereignisse.

Das Kalshi-Polymarket-Duopol

Der Markt teilte sich fast 51/49 zwischen Kalshi und Polymarket auf, aber die Zusammensetzung unterscheidet sich grundlegend.

Kalshi: Wickelte im Jahr 2025 über 43,1 Mrd. $ ab, stark gewichtet in Richtung Sportwetten. CFTC-lizenziert, auf Dollar lautend, integriert in US-Einzelhandelsbrokerage. Robinhoods „Prediction Markets Hub“ leitet Milliarden an Kontrakten durch die Kalshi-Infrastruktur.

Polymarket: Verarbeitete im Jahr 2025 33,4 Mrd. ](https://markets.financialcontent.com/stocks/article/predictstreet202622thegreatpredictionwarof2026polymarketandkalshibattleforthevolumecrown),konzentriertaufHighSignalEreignisseGeopolitik,Makroo¨konomie,wissenschaftlicheDurchbru¨che.Cryptonative,globaleTeilnahme,kombinierbarmitDeFi.[SchlossEnde2025die112Millionen](https://markets.financialcontent.com/stocks/article/predictstreet-2026-2-2-the-great-prediction-war-of-2026-polymarket-and-kalshi-battle-for-the-volume-crown), konzentriert auf „High-Signal“-Ereignisse — Geopolitik, Makroökonomie, wissenschaftliche Durchbrüche. Crypto-native, globale Teilnahme, kombinierbar mit DeFi. [Schloss Ende 2025 die 112-Millionen--Übernahme von QCEX ab für den Wiedereintritt in den US-Markt via CFTC-Lizenzierung.

Der Wettbewerb treibt Innovationen voran: Kalshi gewinnt bei Privatkunden und institutioneller Compliance, Polymarket führt bei Krypto-nativer Komponierbarkeit und internationalem Zugang.

Jenseits von Wetten: Informations-Oracles

Prognosemärkte entwickelten sich von Spekulationswerkzeugen zu Informations-Oracles für KI-Systeme. Markt-Wahrscheinlichkeiten dienen als „externe Anker“, die KI-Halluzinationen begrenzen — viele KI-Systeme gewichten Behauptungen nun niedriger, auf die in Prognosemärkten nicht gewettet werden kann.

Dies schafft Rückkopplungsschleifen: KI-Agenten handeln auf Prognosemärkten, Marktpreise informieren KI-Ergebnisse, KI-generierte Prognosen beeinflussen den menschlichen Handel. Das Ergebnis: Informationsmärkte werden zur Infrastruktur für die algorithmische Wahrheitsfindung.

Datentokenisierung: Das Modell von Ocean Protocol

Während Prognosemärkte zukünftige Ereignisse bewerten, tokenisiert Ocean Protocol bestehende Datensätze und schafft so Märkte für KI-Trainingsdaten, Forschungsdatensätze und proprietäre Informationen.

Die Datatoken-Architektur

Das Modell von Ocean: Jeder Datatoken repräsentiert eine Unterlizenz der ursprünglichen Eigentümer des geistigen Eigentums, die es Nutzern ermöglicht, auf zugehörige Datensätze zuzugreifen und diese zu nutzen. Datatokens sind ERC20-konform, was sie handelbar, mit DeFi kombinierbar und über Smart Contracts programmierbar macht.

Der dreistufige Stack:

Data NFTs: Repräsentieren das Eigentum an zugrunde liegenden Datensätzen. Ersteller prägen NFTs, um Provenienz und Kontrollrechte festzulegen.

Datatokens: Zugriffskontroll-Token. Das Halten von Datatokens gewährt temporäre Nutzungsrechte, ohne das Eigentum zu übertragen. Trennt den Datenzugriff vom Dateneigentum.

Ocean Marketplace: Dezentrale Börse für Datatokens. Datenanbieter monetarisieren Assets, Konsumenten erwerben Zugang, Spekulanten handeln mit Token.

Diese Architektur löst kritische Probleme: Datenanbieter monetarisieren, ohne die Kontrolle zu verlieren, Konsumenten greifen zu, ohne volle Anschaffungskosten zu tragen, und Märkte ermitteln faire Preise für den Informationswert.

Anwendungsfälle jenseits des Handels

KI-Trainingsmärkte: Modellentwickler erwerben Zugriff auf Datensätze für das Training. Die Ökonomie von Datatoken richtet Anreize aus — wertvolle Daten erzielen höhere Preise, Ersteller verdienen fortlaufende Einnahmen aus KI-Modell-Trainingsaktivitäten.

Teilen von Forschungsdaten: Akademische und wissenschaftliche Datensätze werden für eine kontrollierte Verteilung tokenisiert. Forscher verifizieren die Herkunft, verfolgen die Nutzung und entschädigen Datenerzeuger durch automatisierte Lizenzgebührenverteilung.

Datenzusammenarbeit in Unternehmen: Unternehmen teilen proprietäre Datensätze durch tokenisierten Zugriff statt durch vollständige Übertragung. Die Vertraulichkeit bleibt gewahrt, während kollaborative Analysen und Modellentwicklungen ermöglicht werden.

Monetarisierung persönlicher Daten: Einzelpersonen tokenisieren Gesundheitsakten, Verhaltensdaten oder Verbraucherpräferenzen. Sie verkaufen den Zugriff direkt, anstatt dass Plattformen den Wert ohne Entschädigung abschöpfen.

Ocean ermöglicht Ethereum-Komponierbarkeit für Daten-DAOs als Datenkooperativen, wodurch eine Infrastruktur geschaffen wird, in der Daten zu programmierbaren Finanzanlagen werden.

Daten-DAOs: Kollektives Informationseigentum

Daten-DAOs fungieren als dezentrale autonome Organisationen, die Datenbestände verwalten, und ermöglichen kollektives Eigentum, Governance und Monetarisierung.

Das Modell der Datenunion

Mitglieder tragen gemeinsam Daten bei, die DAO verwaltet Zugriffsrichtlinien und Preisgestaltung, Einnahmen werden automatisch über Smart Contracts verteilt, und Governance-Rechte skalieren mit dem Datenbeitrag.

Neu entstehende Beispiele:

Datenunionen im Gesundheitswesen: Patienten bündeln Gesundheitsakten und wahren dabei ihre individuelle Privatsphäre durch kryptografische Nachweise. Forscher erwerben aggregierten Zugriff, und die Einnahmen fließen an die Mitwirkenden zurück. Die Daten bleiben unter der Kontrolle der Patienten und nicht bei zentralisierten Gesundheitssystemen.

Neurowissenschaftliche Forschungs-DAOs: Akademische Einrichtungen und Forscher tragen Bildgebungsdatensätze des Gehirns, genetische Informationen und klinische Ergebnisse bei. Der kollektive Datensatz wird wertvoller als einzelne Beiträge, was die Forschung beschleunigt und gleichzeitig die Datenlieferanten entschädigt.

Ökologische / GIS-Projekte: Umweltsensoren, Satellitenbilder und geografische Daten werden von Gemeinschaften gebündelt. DAOs verwalten den Datenzugriff für Klimamodellierung, Stadtplanung und Naturschutz, während sichergestellt wird, dass lokale Gemeinschaften von den in ihren Regionen generierten Daten profitieren.

Daten-DAOs lösen Koordinationsprobleme: Einzelpersonen mangelt es an Verhandlungsmacht, Plattformen schöpfen Monopolrenten ab und Daten bleiben isoliert. Kollektives Eigentum ermöglicht eine faire Vergütung und demokratische Governance.

Informationen als digitale Vermögenswerte

Das Konzept betrachtet Datenbestände als digitale Vermögenswerte und nutzt eine ursprünglich für Kryptowährungen entwickelte Blockchain-Infrastruktur, um Informationseigentum, Transfer und Bewertung zu verwalten.

Diese architektonische Entscheidung schafft eine leistungsstarke Komponierbarkeit: Datenbestände lassen sich in DeFi-Protokolle integrieren, nehmen an automatisierten Market Makern teil, dienen als Sicherheiten für Kredite und ermöglichen eine programmierbare Umsatzbeteiligung.

Der Infrastruktur-Stack

Identitätsebene: Kryptografischer Nachweis von Dateneigentum und -beitrag. Verhindert Plagiate, etabliert die Herkunft und ermöglicht die Zuordnung.

Zugriffskontrolle: Smart Contracts, die regeln, wer unter welchen Bedingungen auf Daten zugreifen kann. Programmierbare Lizenzierung ersetzt manuelle Vertragsverhandlungen.

Preismechanismen: Automatisierte Market Maker, die den fairen Wert für Datensätze ermitteln. Angebots- und Nachfragedynamik statt willkürlicher institutioneller Preisgestaltung.

Umsatzverteilung: Smart Contracts teilen die Erlöse automatisch zwischen Mitwirkenden, Kuratoren und Plattformbetreibern auf. Eliminiert Zahlungszwischenhändler und Verzögerungen.

Komponierbarkeit: Datenbestände lassen sich in das breitere Web3-Ökosystem integrieren. Nutzen Sie Datensätze als Sicherheiten, erstellen Sie Derivate oder bündeln Sie diese zu Verbundprodukten.

Bis Mitte 2025 erreichten die On-Chain-RWA-Märkte (einschließlich Daten) 23 Milliarden US-Dollar, was das institutionelle Interesse an tokenisierten Vermögenswerten jenseits spekulativer Kryptowährungen unterstreicht.

KI beschränkt InfoFi: Die Verifizierungsschleife

KI-Systeme verlassen sich zunehmend auf InfoFi-Infrastrukturen zur Wahrheitsverifizierung.

Prognosemärkte schränken KI-Halluzinationen ein: Händler riskieren echtes Geld, Markt-Wahrscheinlichkeiten dienen als externe Anker, und KI-Systeme gewichten Behauptungen niedriger, auf die nicht gewettet werden kann.

Dies schafft Qualitätsfilter: Verifizierbare Behauptungen werden auf Prognosemärkten gehandelt, unverifizierbare Behauptungen erhalten ein geringeres KI-Vertrauen, Marktpreise liefern kontinuierliche Wahrscheinlichkeitsaktualisierungen und KI-Ergebnisse werden stärker in der ökonomischen Realität verankert.

Die Rückkopplungsschleife funktioniert in beide Richtungen: KI-Agenten generieren Vorhersagen, welche die Markteffizienz verbessern; Marktpreise geben Aufschluss über die Qualität der KI-Trainingsdaten; hochwertige Vorhersagen treiben Datenerfassungsbemühungen voran; Informationsmärkte optimieren auf Signale statt auf Rauschen.

Die InfoFi-Ökosystem-Karte 2026

Die Landschaft umfasst mehrere miteinander verbundene Schichten:

Layer 1: Wahrheitsfindung (Truth Discovery)

  • Prognosemärkte (Kalshi, Polymarket)
  • Vorhersageplattformen
  • Reputationssysteme
  • Verifizierungsprotokolle

Layer 2: Datenmonetarisierung

  • Ocean Protocol Datatokens
  • Marktplätze für Datensätze
  • API-Zugriffstoken
  • Plattformen für Informationslizenzen

Layer 3: Kollektives Eigentum

  • Daten-DAOs
  • Forschungskooperationen
  • Daten-Gewerkschaften (Data Unions)
  • Community-Informationspools

Layer 4: KI-Integration

  • Märkte für Modelltraining
  • Inferenz-Verifizierung
  • Output-Attestierung
  • Halluzinationsbeschränkungen

Layer 5: Finanzinfrastruktur

  • Informationsderivate
  • Daten als Sicherheiten (Data Collateral)
  • Automatisierte Market Maker (AMM)
  • Protokolle zur Umsatzverteilung

Jede Schicht baut auf den anderen auf: Prognosemärkte etablieren Preissignale, Datenmärkte monetarisieren Informationen, DAOs ermöglichen kollektives Handeln, KI erzeugt Nachfrage, die Finanzinfrastruktur stellt Liquidität bereit.

Was das Jahr 2026 offenbart

InfoFi wandelt sich vom experimentellen Stadium zur Infrastruktur.

Institutionelle Validierung: Große Plattformen integrieren Prognosemärkte. Die Wall Street nutzt InfoFi-Signale. Regulatorische Rahmenbedingungen für die Behandlung von Informationen als Vermögenswerte entstehen.

Reifung der Infrastruktur: Standards für die Tokenisierung von Daten festigen sich. DAO-Governance-Muster haben sich in großem Maßstab bewährt. Die KI-Blockchain-Integration wird nahtlos.

Marktwachstum: 6,32 Milliarden USD wöchentliches Volumen auf Prognosemärkten, 23 Milliarden USD an On-Chain-Datenwerten, beschleunigte Akzeptanz über verschiedene Sektoren hinweg.

Erweiterung der Anwendungsfälle: Über Spekulation hinaus zu Forschung, Unternehmenskooperationen, KI-Entwicklung und Koordination öffentlicher Güter.

Die Frage ist nicht, ob Informationen zu einer Anlageklasse werden – sondern wie schnell die Infrastruktur skaliert und welche Modelle dominieren. Prognosemärkte haben zuerst die Aufmerksamkeit gewonnen, aber Daten-DAOs und Tokenisierungsprotokolle könnten letztlich größere Wertströme vorantreiben.

Die InfoFi-Landschaft im Jahr 2026: etabliertes Fundament, bewährte Anwendungsfälle, beginnende institutionelle Akzeptanz, reifende Infrastruktur. Die nächste Phase: Integration in Mainstream-Informationssysteme, Ersetzung herkömmlicher Datenmarktplätze und Entwicklung zur Standardinfrastruktur für den Informationsaustausch.

BlockEden.xyz bietet erstklassige Infrastruktur für Web3-Anwendungen und ermöglicht zuverlässigen, hochperformanten RPC-Zugriff auf wichtige Blockchain-Ökosysteme. Entdecken Sie unsere Services für InfoFi-Infrastruktur und die Unterstützung von Datenmärkten.


Quellen:

Prognosemärkte erreichen 5,9 Mrd. $: Wie KI-Agenten zum Prognosewerkzeug der Wall Street wurden

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Als Kalshis tägliches Handelsvolumen Anfang 2026 814 Mio. erreichteund66,4erreichte und 66,4 % des Prognosemarktanteils eroberte, waren es nicht die Kleinanleger, die den Anstieg vorantrieben. Es waren KI-Agenten. Autonome Handelsalgorithmen tragen nun über 30 % zum Volumen der Prognosemärkte bei und verwandeln das, was als Internet-Kuriosität begann, in die neueste institutionelle Prognoseinfrastruktur der Wall Street. Das wöchentliche Volumen des Sektors – 5,9 Mrd. und steigend – konkurriert mit vielen traditionellen Derivatemärkten, mit einem entscheidenden Unterschied: Diese Märkte handeln mit Informationen, nicht nur mit Vermögenswerten.

Dies ist „Information Finance“ – die Monetarisierung kollektiver Intelligenz durch Blockchain-basierte Prognosemärkte. Wenn Händler 42 Mio. daraufwetten,obOpenAIvor2030AGIerreichenwird,oder18Mio.darauf wetten, ob OpenAI vor 2030 AGI erreichen wird, oder 18 Mio., welches Unternehmen als nächstes an die Börse geht, spielen sie nicht. Sie erstellen liquide, handelbare Prognosen, denen institutionelle Anleger, politische Entscheidungsträger und Unternehmensstrategen zunehmend mehr vertrauen als traditionellen Analysten. Die Frage ist nicht, ob Prognosemärkte das Vorhersagewesen revolutionieren werden. Es ist die Frage, wie schnell Institutionen Märkte einführen werden, die Expertenprognosen um messbare Margen übertreffen.

Der 5,9-Mrd.-$-Meilenstein: Vom Nischendasein zur Finanzinfrastruktur

Prognosemärkte beendeten das Jahr 2025 mit Rekord-Allzeithochs beim Volumen von nahezu 5,3 Mrd. ,eineEntwicklung,diesichbis2026beschleunigte.Diewo¨chentlichenVoluminau¨bersteigennunbesta¨ndig5,9Mrd., eine Entwicklung, die sich bis 2026 beschleunigte. Die wöchentlichen Volumina übersteigen nun beständig 5,9 Mrd. , wobei die täglichen Spitzenwerte während Großereignissen 814 Mio. $ erreichen. Zum Vergleich: Dies übersteigt das tägliche Handelsvolumen vieler Mid-Cap-Aktien und konkurriert mit spezialisierten Derivatemärkten.

Das Wachstum verläuft nicht linear – es ist exponentiell. Die Volumina auf den Prognosemärkten im Jahr 2024 wurden jährlich in Hunderten von Millionen gemessen. Bis 2025 überstiegen die monatlichen Volumina 1 Mrd. .ImJahr2026erreichtendiewo¨chentlichenVoluminaroutinema¨ßig5,9Mrd.. Im Jahr 2026 erreichten die wöchentlichen Volumina routinemäßig 5,9 Mrd. , was einem jährlichen Wachstum von über dem 10-fachen entspricht. Diese Beschleunigung spiegelt grundlegende Veränderungen in der Sichtweise von Institutionen auf Prognosemärkte wider: vom Kuriosum zur Notwendigkeit.

Kalshi dominiert mit einem Marktanteil von 66,4 % und wickelt den Großteil des institutionellen Volumens ab. Polymarket, das im Krypto-nativen Bereich tätig ist, erfasst einen erheblichen Anteil des Retail- und internationalen Flows. Zusammen verarbeiten diese Plattformen wöchentlich Milliarden an Volumen in Tausenden von Märkten, die Wahlen, Wirtschaft, technologische Entwicklungen, Sport und Unterhaltung abdecken.

Die Legitimität des Sektors wurde durch die Validierung der ICE (Intercontinental Exchange) bestätigt, als die Muttergesellschaft der NYSE 2 Mrd. $ in die Infrastruktur von Prognosemärkten investierte. Wenn der Betreiber der weltweit größten Börse Kapital in dieser Größenordnung einsetzt, signalisiert dies, dass Prognosemärkte nicht mehr experimentell sind – sie sind eine strategische Infrastruktur.

KI-Agenten: Der 30 %-Beitragsfaktor

Der am meisten unterschätzte Treiber für das Wachstum der Prognosemärkte ist die Beteiligung von KI-Agenten. Autonome Handelsalgorithmen tragen mittlerweile über 30 % zum Gesamtvolumen bei und verändern die Marktdynamik grundlegend.

Warum handeln KI-Agenten mit Prognosen? Drei Gründe:

Informationsarbitrage: KI-Agenten scannen Tausende von Datenquellen – Nachrichten, soziale Medien, On-Chain-Daten, traditionelle Finanzmärkte –, um falsch bewertete Prognosen zu identifizieren. Wenn ein Markt die Wahrscheinlichkeit eines Ereignisses mit 40 % bewertet, die KI-Analyse jedoch 55 % nahelegt, handeln die Agenten den Spread.

Liquiditätsbereitstellung: Genau wie Market-Maker an Aktienbörsen Liquidität bereitstellen, bieten KI-Agenten zweiseitige Märkte auf Prognoseplattformen an. Dies verbessert die Preisbildung und reduziert die Spreads, wodurch die Märkte für alle Teilnehmer effizienter werden.

Portfolio-Diversifizierung: Institutionelle Anleger setzen KI-Agenten ein, um Zugang zu nicht-traditionellen Informationssignalen zu erhalten. Ein Hedgefonds könnte Prognosemärkte nutzen, um politische Risiken, Zeitpläne für technologische Entwicklungen oder regulatorische Ergebnisse abzusichern – Risiken, die in traditionellen Märkten schwer auszudrücken sind.

Die Entstehung des Handels durch KI-Agenten schafft einen positiven Rückkopplungseffekt. Mehr KI-Beteiligung bedeutet bessere Liquidität, was mehr institutionelles Kapital anzieht, was wiederum mehr KI-Entwicklung rechtfertigt. Prognosemärkte entwickeln sich zu einem Trainingsfeld für autonome Agenten, die lernen, komplexe, reale Prognoseherausforderungen zu bewältigen.

Händler auf Kalshi bewerten die Wahrscheinlichkeit, dass OpenAI vor 2030 AGI erreicht, mit 42 % – ein Anstieg gegenüber 32 % sechs Monate zuvor. Dieser Markt mit über 42 Mio. $ Liquidität spiegelt die „Schwarmintelligenz“ wider, die Ingenieure, Risikokapitalgeber, Politikexperten und zunehmend KI-Agenten umfasst, die Signale verarbeiten, die Menschen nicht in diesem Umfang verfolgen können.

Kalshis institutionelle Dominanz: Der Vorteil der regulierten Börse

Kalshis Marktanteil von 66,4 % ist kein Zufall – er ist strukturell bedingt. Als erste CFTC-regulierte Prognosemarktbörse in den USA bietet Kalshi institutionellen Anlegern etwas, das Wettbewerber nicht können: regulatorische Sicherheit.

Institutionelles Kapital erfordert Compliance. Hedgefonds, Vermögensverwalter und Unternehmen können keine Milliarden in unregulierte Plattformen investieren, ohne rechtliche und Compliance-Risiken einzugehen. Die CFTC-Registrierung von Kalshi beseitigt diese Barriere und ermöglicht es Institutionen, Prognosen neben Aktien, Anleihen und Derivaten in ihren Portfolios zu handeln.

Der regulierte Status schafft Netzwerkeffekte. Mehr institutionelles Volumen zieht bessere Liquiditätsanbieter an, was die Spreads verengt, was wiederum mehr Händler anzieht. Die Orderbücher von Kalshi sind mittlerweile so tief, dass Multi-Millionen-Dollar-Trades ohne nennenswerte Slippage ausgeführt werden – eine Schwelle, die funktionierende Märkte von experimentellen unterscheidet.

Auch die Produktbreite von Kalshi ist von Bedeutung. Die Märkte umfassen Wahlen, Wirtschaftsindikatoren, technologische Meilensteine, IPO-Zeitpunkte, Unternehmensgewinne und makroökonomische Ereignisse. Diese Vielfalt ermöglicht es institutionellen Anlegern, nuancierte Ansichten auszudrücken. Ein Hedgefonds, der bei Tech-Bewertungen bearish eingestellt ist, kann Prognosemärkte für Unicorn-Börsengänge shorten. Ein Politikanalyst, der regulatorische Änderungen erwartet, kann auf Märkten für Kongressergebnisse handeln.

Die hohe Liquidität stellt sicher, dass Preise nicht leicht manipuliert werden können. Bei Einsätzen in Millionenhöhe und Tausenden von Teilnehmern spiegeln die Marktpreise einen echten Konsens wider und keine individuelle Manipulation. Diese „Schwarmintelligenz“ schlägt Expertenprognosen in Blindtests – Prognosemärkte übertreffen konsistent Umfragen, Analystenprognosen und Expertenmeinungen.

Polymarkets krypto-native Alternative: Der dezentrale Herausforderer

Während Kalshi die regulierten US-Märkte dominiert, fängt Polymarket krypto-native und internationale Zuflüsse ab. Polymarket operiert auf Blockchain-Infrastrukturen mit USDC-Abrechnung und bietet erlaubnisfreien Zugang – ohne KYC, ohne geografische Beschränkungen und ohne regulatorische Zugangskontrolle.

Der Vorteil von Polymarket ist die globale Reichweite. Händler aus Jurisdiktionen, in denen Kalshi nicht zugänglich ist, können frei teilnehmen. Während der US-Wahlen 2024 verarbeitete Polymarket ein Volumen von über 3 Milliarden $, was beweist, dass krypto-native Infrastruktur institutionelle Größenordnungen bewältigen kann.

Die Krypto-Integration der Plattform ermöglicht neuartige Mechanismen. Smart Contracts erzwingen die Abrechnung automatisch auf der Grundlage von Orakel-Daten. Liquiditätspools arbeiten kontinuierlich ohne Zwischenhändler. Die Abrechnung erfolgt in Sekunden statt in Tagen. Diese Vorteile sprechen krypto-native Händler an, die mit DeFi-Primitiven vertraut sind.

Dennoch bleibt die regulatorische Unsicherheit die Herausforderung für Polymarket. Der Betrieb ohne ausdrückliche regulatorische Genehmigung in den USA schränkt die institutionelle Akzeptanz im Inland ein. Während Privatkunden und internationale Nutzer den erlaubnisfreien Zugang begrüßen, meiden US-Institutionen weitgehend Plattformen, denen es an regulatorischer Klarheit mangelt.

Der Wettbewerb zwischen Kalshi (reguliert, institutionell) und Polymarket (krypto-nativ, erlaubnisfrei) spiegelt breitere Debatten im digitalen Finanzwesen wider. Beide Modelle funktionieren. Beide bedienen unterschiedliche Nutzergruppen. Das Wachstum des Sektors deutet darauf hin, dass Platz für mehrere Gewinner ist, die jeweils für unterschiedliche regulatorische und technologische Kompromisse optimiert sind.

Information Finance: Kollektive Intelligenz monetarisieren

Der Begriff „Information Finance“ beschreibt die Kerninnovation von Prognosemärkten: die Umwandlung von Vorhersagen in handelbare, liquide Instrumente. Traditionelle Prognosen stützen sich auf Experten, die Punktschätzungen mit ungewisser Genauigkeit abgeben. Prognosemärkte aggregieren verteiltes Wissen in kontinuierliche, marktgepreiste Wahrscheinlichkeiten.

Warum Märkte Experten schlagen:

Skin in the game: Marktteilnehmer riskieren Kapital bei ihren Prognosen. Schlechte Vorhersagen führen zu Geldverlusten. Diese Anreizstruktur filtert Rauschen besser aus Signalen heraus als Meinungsumfragen oder Expertenrunden, in denen die Teilnehmer keine Konsequenzen für Fehlprognosen tragen.

Kontinuierliche Aktualisierung: Marktpreise passen sich in Echtzeit an, wenn neue Informationen auftauchen. Expertenprognosen sind statisch bis zum nächsten Bericht. Märkte sind dynamisch und beziehen aktuelle Nachrichten, Leaks und aufkommende Trends sofort mit ein.

Aggregiertes Wissen: Märkte bündeln Informationen von Tausenden von Teilnehmern mit unterschiedlichem Fachwissen. Kein einzelner Experte kann mit dem kollektiven Wissen von Ingenieuren, Investoren, politischen Entscheidungsträgern und Betreibern mithalten, die jeweils spezialisierte Einblicke beisteuern.

Transparente Wahrscheinlichkeit: Märkte drücken Prognosen als Wahrscheinlichkeiten mit klaren Konfidenzintervallen aus. Ein Markt, der ein Ereignis mit 65 % bewertet, sagt „etwa zwei Drittel Chance“ aus – nützlicher als ein Experte, der ohne Quantifizierung „wahrscheinlich“ sagt.

Untersuchungen zeigen durchweg, dass Prognosemärkte Expertenrunden, Umfragen und Analystenprognosen in verschiedenen Bereichen übertreffen – bei Wahlen, in der Wirtschaft, bei technologischen Entwicklungen und Unternehmensergebnissen. Die Erfolgsbilanz ist nicht perfekt, aber messbar besser als die Alternativen.

Finanzinstitute werden aufmerksam. Anstatt teure Berater für Szenarioanalysen zu engagieren, können Unternehmen Prognosemärkte konsultieren. Möchten Sie wissen, ob der Kongress in diesem Jahr Krypto-Regulierungen verabschieden wird? Dafür gibt es einen Markt. Fragen Sie sich, ob ein Konkurrent vor Jahresende an die Börse geht? Handeln Sie diese Prognose. Geopolitisches Risiko einschätzen? Setzen Sie darauf.

Der institutionelle Anwendungsfall: Forecasting as a Service

Prognosemärkte wandeln sich von spekulativer Unterhaltung zu institutioneller Infrastruktur. Mehrere Anwendungsfälle treiben die Akzeptanz voran:

Risikomanagement: Unternehmen nutzen Prognosemärkte zur Absicherung von Risiken, die in traditionellen Derivaten schwer auszudrücken sind. Ein Supply-Chain-Manager, der sich über Hafenstreiks sorgt, kann auf Prognosemärkten für Tarifverhandlungen handeln. Ein CFO, der über Zinssätze besorgt ist, kann Fed-Prognosemärkte mit Anleihe-Futures abgleichen.

Strategische Planung: Unternehmen treffen Milliardenentscheidungen auf der Grundlage von Prognosen. Wird eine KI-Regulierung verabschiedet? Wird eine Technologieplattform mit Kartellklagen konfrontiert? Wird ein Konkurrent ein Produkt auf den Markt bringen? Prognosemärkte liefern probabilistische Antworten mit echtem Risikokapital.

Investment-Research: Hedgefonds und Vermögensverwalter nutzen Prognosemärkte als alternative Datenquellen. Marktpreise für technologische Meilensteine, regulatorische Ergebnisse oder makroökonomische Ereignisse fließen in die Portfoliopositionierung ein. Einige Fonds handeln Prognosemärkte direkt als Alpha-Quellen.

Politikanalyse: Regierungen und Denkfabriken ziehen Prognosemärkte heran, um die öffentliche Meinung jenseits von Umfragen zu erfassen. Märkte filtern echte Überzeugungen von „Virtue Signaling“ heraus – Teilnehmer, die ihr Geld setzen, offenbaren wahre Erwartungen und keine sozial erwünschten Antworten.

Die Investition der ICE in Höhe von 2 Milliarden $ signalisiert, dass traditionelle Börsen Prognosemärkte als neue Anlageklasse betrachten. So wie in den 1970er Jahren Derivatemärkte entstanden, um das Risikomanagement zu monetarisieren, entstehen in den 2020er Jahren Prognosemärkte, um Vorhersagen zu monetarisieren.

Die Feedback-Schleife zwischen KI-Agenten und Märkten

KI-Agenten , die an Prognosemärkten teilnehmen , schaffen eine Feedback-Schleife , die beide Technologien beschleunigt :

Bessere KI durch Marktdaten : KI-Modelle trainieren auf den Ergebnissen von Prognosemärkten , um Vorhersagen zu verbessern . Ein Modell , das den Zeitpunkt von Tech-IPOs vorhersagt , verbessert sich durch Backtesting gegen historische Daten von Kalshi . Dies schafft Anreize für KI-Labore , vorhersageorientierte Modelle zu entwickeln .

Bessere Märkte durch KI-Teilnahme : KI-Agenten stellen Liquidität bereit , arbitrieren Fehlbewertungen und verbessern die Preisfindung . Menschliche Händler profitieren von engeren Spreads und einer besseren Informationsaggregation . Märkte werden effizienter , wenn die KI-Beteiligung zunimmt .

Institutionelle KI-Adoption : Institutionen , die KI-Agenten in Prognosemärkten einsetzen , sammeln Erfahrungen mit autonomen Handelssystemen in Umgebungen mit geringerem Risiko . Die daraus gewonnenen Erkenntnisse lassen sich auf den Handel mit Aktien , Devisen und Derivaten übertragen .

Der KI-Anteil von über 30 % am Volumen ist keine Obergrenze – sondern eine Basis . Mit der Verbesserung der KI-Fähigkeiten und der zunehmenden institutionellen Akzeptanz könnte die Beteiligung von Agenten innerhalb weniger Jahre 50–70 % erreichen . Dies ersetzt nicht das menschliche Urteilsvermögen – es ergänzt es . Menschen legen Strategien fest , KI-Agenten führen sie in einem Umfang und einer Geschwindigkeit aus , die manuell unmöglich wäre .

Die Technologie-Stacks konvergieren . KI-Labore gehen Partnerschaften mit Prognosemarkt-Plattformen ein . Börsen bauen APIs für den algorithmischen Handel . Institutionen entwickeln proprietäre KI für Prognosemarkt-Strategien . Diese Konvergenz positioniert Prognosemärkte als Testfeld für die nächste Generation autonomer Finanzagenten .

Herausforderungen und Skepsis

Trotz des Wachstums stehen Prognosemärkte vor legitimen Herausforderungen :

Manipulationsrisiko : Während hohe Liquidität Manipulationen erschwert , bleiben Märkte mit geringem Volumen anfällig . Ein motivierter Akteur mit Kapital kann die Preise in Nischenmärkten vorübergehend verzerren . Plattformen bekämpfen dies mit Liquiditätsanforderungen und Manipulationserkennung , aber das Risiko bleibt bestehen .

Orakel-Abhängigkeit : Prognosemärkte benötigen Orakel – vertrauenswürdige Instanzen , die Ergebnisse feststellen . Fehler oder Korruption bei Orakeln können zu falschen Abrechnungen führen . Blockchain-basierte Märkte minimieren dies durch dezentrale Orakel-Netzwerke , während traditionelle Märkte auf zentralisierte Lösungen setzen .

Regulatorische Unsicherheit : Während Kalshi CFTC-reguliert ist , bleiben breitere regulatorische Rahmenbedingungen unklar . Werden mehr Prognosemärkte eine Zulassung erhalten ? Werden internationale Märkte mit Beschränkungen konfrontiert ? Die regulatorische Entwicklung könnte das Wachstum unvorhersehbar hemmen oder beschleunigen .

Liquiditätskonzentration : Der Großteil des Volumens konzentriert sich auf hochkarätige Märkte (Wahlen , große Tech-Events) . Nischenmärkten fehlt es an Liquidität , was ihren Nutzen für spezialisierte Prognosen einschränkt . Die Lösung erfordert entweder Market-Making-Anreize oder die Bereitstellung von Liquidität durch KI-Agenten .

Ethische Bedenken : Sollten Märkte zu sensiblen Themen existieren – politische Gewalt , Todesfälle , Katastrophen ? Kritiker argumentieren , dass die Monetarisierung tragischer Ereignisse unethisch ist . Befürworter halten dagegen , dass Informationen aus solchen Märkten helfen , Schaden zu verhindern . Diese Debatte wird prägen , welche Märkte Plattformen zulassen .

Der Pfad für 2026–2030

Wenn das wöchentliche Volumen Anfang 2026 5,9 Milliarden $ erreicht , wohin entwickelt sich der Sektor ?

Bei moderatem Wachstum (50 % jährlich – konservativ angesichts der jüngsten Beschleunigung) könnte das Volumen der Prognosemärkte bis 2028 jährlich 50 Milliarden $ und bis 2030 150 Milliarden $ überschreiten . Dies würde den Sektor mit mittelgroßen Derivatemärkten vergleichbar machen .

Aggressivere Szenarien – etwa die Einführung von Prognosemärkten an der NYSE durch die ICE , das Angebot von Prognoseinstrumenten durch Großbanken oder die regulatorische Genehmigung für weitere Markttypen – könnten das Volumen bis 2030 in Richtung 500 Milliarden $ + treiben . In diesem Maßstab werden Prognosemärkte zu einer eigenständigen Assetklasse in institutionellen Portfolios .

Die technologischen Wegbereiter sind vorhanden : Blockchain-Abrechnung , KI-Agenten , regulatorische Rahmenbedingungen , institutionelles Interesse und eine nachgewiesene Erfolgsbilanz , die traditionelle Prognosen übertrifft . Was bleibt , ist die Dynamik der Adoptionskurve – wie schnell Institutionen Prognosemärkte in ihre Entscheidungsprozesse integrieren .

Der Wandel von der „Randspekulation“ zum „institutionellen Prognosewerkzeug“ ist in vollem Gange . Wenn die ICE 2 Milliarden $ investiert , wenn KI-Agenten 30 % des Volumens beisteuern , wenn das tägliche Volumen von Kalshi 814 Millionen $ erreicht , hat sich das Narrativ dauerhaft verändert . Prognosemärkte sind keine Kuriosität . Sie sind die Zukunft der Art und Weise , wie Institutionen Unsicherheit quantifizieren und Informationsrisiken absichern .

Quellen

Dezentrale GPU-Netzwerke 2026: Wie DePIN AWS im 100-Milliarden-Dollar-Markt für KI-Rechenleistung herausfordert

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die KI-Revolution hat einen beispiellosen Hunger nach Rechenleistung geweckt. Während Hyperscaler wie AWS, Azure und Google Cloud diesen Bereich dominiert haben, entsteht eine neue Klasse dezentraler GPU-Netzwerke, um deren Vorherrschaft herauszufordern. Da der DePIN-Sektor (Decentralized Physical Infrastructure Networks) innerhalb eines Jahres von 5,2 Milliarden aufu¨ber19Milliardenauf über 19 Milliarden Marktkapitalisierung explodiert ist und die Prognosen bis 2028 3,5 Billionen $ erreichen, stellt sich nicht mehr die Frage, ob dezentrales Computing mit traditionellen Cloud-Anbietern konkurrieren wird – sondern wie schnell es Marktanteile gewinnen wird.

Die GPU-Knappheitskrise: Ein perfekter Sturm für die Dezentralisierung

Die Halbleiterindustrie steht vor einem Lieferengpass, der die These des dezentralen Computings bestätigt.

SK Hynix und Micron, zwei der weltweit größten Hersteller von High Bandwidth Memory (HBM), haben beide angekündigt, dass ihre gesamte Produktion für 2026 ausverkauft ist. Samsung hat vor zweistelligen Preiserhöhungen gewarnt, da die Nachfrage das Angebot drastisch übersteigt.

Diese Knappheit schafft einen Zweiklassenmarkt: diejenigen mit direktem Zugang zu Hyperscale-Infrastruktur und alle anderen.

Für KI-Entwickler, Startups und Forscher ohne Milliardenbudgets stellt das traditionelle Cloud-Modell drei kritische Barrieren dar:

  • Prohibitive Kosten, die 50 - 70 % des Budgets verschlingen können
  • Langfristige Bindungsverträge mit minimaler Flexibilität
  • Begrenzte Verfügbarkeit von High-End-GPUs wie dem NVIDIA H100 oder H200

Dezentrale GPU-Netzwerke sind so positioniert, dass sie alle drei Probleme lösen.

Die Marktführer: Vier Architekturen, eine Vision

Render Network: Von 3D-Künstlern zur KI-Infrastruktur

Ursprünglich entwickelt, um ungenutzte GPUs für verteilte Rendering-Aufgaben zu bündeln, hat das Render Network erfolgreich den Schwenk zu KI-Computing-Workloads vollzogen. Das Netzwerk verarbeitet nun monatlich etwa 1,5 Millionen Frames, und der Start von Dispersed.com im Dezember 2025 markierte eine strategische Expansion über die Kreativbranche hinaus.

Wichtige Meilensteine für 2026 sind:

  • Skalierung der KI-Computing-Subnetze: Erweiterte dezentrale GPU-Ressourcen speziell für Machine-Learning-Workloads
  • Über 600 integrierte KI-Modelle: Open-Weight-Modelle für Inferencing und Robotik-Simulationen
  • 70 % Optimierung beim Upload: Differential Uploads für Blender reduzieren die Dateiübertragungszeiten drastisch

Die Migration des Netzwerks von Ethereum zu Solana (Rebranding von RNDR zu RENDER) positionierte es für die hohen Durchsatzanforderungen von KI-Computing.

Auf der CES 2026 präsentierte Render Partnerschaften, die darauf abzielen, das explosive Wachstum der GPU-Nachfrage für Edge-ML-Workloads zu bedienen. Der Wechsel vom kreativen Rendering zum Allzweck-KI-Computing stellt eine der erfolgreichsten Marktexpansionen im DePIN-Sektor dar.

Akash Network: Der Kubernetes-kompatible Herausforderer

Akash verfolgt mit seinem Reverse-Auction-Modell einen grundlegend anderen Ansatz. Anstatt fester Preise konkurrieren GPU-Anbieter um Workloads, was die Kosten senkt und gleichzeitig die Qualität über einen dezentralen Marktplatz sichert.

Die Ergebnisse sprechen für sich: 428 % Wachstum der Nutzung im Vergleich zum Vorjahr, mit einer Auslastung von über 80 % zu Beginn des Jahres 2026.

Die Starcluster-Initiative des Netzwerks stellt seinen bisher ehrgeizigsten Vorstoß dar – die Kombination von zentral verwalteten Rechenzentren mit dem dezentralen Marktplatz von Akash, um ein sogenanntes „planetares Mesh“ zu schaffen, das sowohl für Training als auch für Inferenz optimiert ist. Die geplante Beschaffung von etwa 7.200 NVIDIA GB200 GPUs über Starbonds würde Akash in die Lage versetzen, die Hyperscale-KI-Nachfrage zu unterstützen.

Die Kennzahlen für das dritte Quartal 2025 zeigen eine beschleunigte Dynamik:

  • Die Gebühreneinnahmen stiegen im Quartalsvergleich um 11 % auf 715.000 AKT
  • Die Anzahl neuer Leasings wuchs im Quartalsvergleich um 42 % auf 27.000
  • Die Erweiterung des Burn-Mechanismus (BME) im ersten Quartal 2026 koppelt das Verbrennen von AKT-Token an die Ausgaben für Computing – jeder ausgegebene 1 verbrennt0,85verbrennt 0,85 in AKT

Bei einem monatlichen Computing-Volumen von 3,36 Millionen deutetdiesdaraufhin,dassmonatlichetwa2,1MillionenAKT(ca.985.000deutet dies darauf hin, dass monatlich etwa 2,1 Millionen AKT (ca. 985.000) verbrannt werden könnten, was einen deflationären Druck auf das Token-Angebot erzeugt.

Diese direkte Verbindung zwischen Nutzung und Tokenomics unterscheidet Akash von Projekten, bei denen der Token-Nutzen erzwungen oder von der tatsächlichen Produktakzeptanz losgelöst wirkt.

Hyperbolic: Der Kostendisruptor

Das Wertversprechen von Hyperbolic ist denkbar einfach: Die gleichen KI-Inferenz-Funktionen wie AWS, Azure und Google Cloud zu 75 % niedrigeren Kosten anzubieten. Die Plattform, die über 100.000 Entwickler unterstützt, nutzt Hyper-dOS, ein dezentrales Betriebssystem, das weltweit verteilte GPU-Ressourcen über eine fortschrittliche Orchestrierungsschicht koordiniert.

Die Architektur besteht aus vier Kernkomponenten:

  1. Hyper-dOS: Koordiniert weltweit verteilte GPU-Ressourcen
  2. GPU-Marktplatz: Verbindet Anbieter mit der Computing-Nachfrage
  3. Inferenz-Service: Zugang zu modernsten Open-Source-Modellen
  4. Agent Framework: Tools, die autonome Intelligenz ermöglichen

Was Hyperbolic auszeichnet, ist sein kommendes Proof of Sampling (PoSP)-Protokoll – entwickelt mit Forschern der UC Berkeley und der Columbia University –, das eine kryptografische Verifizierung von KI-Ausgaben ermöglichen wird.

Dies adressiert eine der größten Herausforderungen des dezentralen Computings: vertrauenslose Verifizierung, ohne auf zentrale Autoritäten angewiesen zu sein. Sobald PoSP live ist, können Unternehmen überprüfen, ob Inferenz-Ergebnisse korrekt berechnet wurden, ohne dem GPU-Anbieter vertrauen zu müssen.

Inferix: Der Brückenbauer

Inferix positioniert sich als Verbindungsebene zwischen Entwicklern, die GPU-Rechenleistung benötigen, und Anbietern mit überschüssiger Kapazität. Sein Pay-as-you-go-Modell eliminiert die langfristigen Verpflichtungen, die Nutzer an traditionelle Cloud-Anbieter binden.

Obwohl Inferix neu am Markt ist, repräsentiert es die wachsende Klasse spezialisierter GPU-Netzwerke, die auf bestimmte Segmente abzielen – in diesem Fall Entwickler, die flexiblen, kurzzeitigen Zugriff ohne Anforderungen auf Enterprise-Niveau benötigen.

Die DePIN-Revolution: Zahlen und Fakten

Der breitere DePIN-Sektor bietet den entscheidenden Kontext, um zu verstehen, wo sich dezentrales GPU-Computing in der Infrastrukturlandschaft einordnet.

Stand September 2025 verfolgt CoinGecko fast 250 DePIN-Projekte mit einer kombinierten Marktkapitalisierung von über 19 Milliarden einAnstiegvon5,2Milliarden– ein Anstieg von 5,2 Milliarden nur 12 Monate zuvor. Diese Wachstumsrate von 265 % übertrifft den breiteren Kryptomarkt dramatisch.

Innerhalb dieses Ökosystems dominieren KI-bezogene DePINs nach Marktkapitalisierung und machen 48 % des Themas aus. Dezentrale Rechen- und Speichernetzwerke machen zusammen etwa 19,3 Milliarden $ aus, was mehr als der Hälfte der gesamten DePIN-Marktkapitalisierung entspricht.

Die herausragenden Akteure demonstrieren die Reifung des Sektors:

  • Aethir: Lieferte über 1,4 Milliarden Rechenstunden und meldete im Jahr 2025 einen Quartalsumsatz von fast 40 Millionen $
  • io.net und Nosana: Erreichten während ihrer Wachstumszyklen jeweils Marktkapitalisierungen von über 400 Millionen $
  • Render Network: Überschritt eine Marktkapitalisierung von 2 Milliarden $, während es von Rendering auf KI-Workloads expandierte

Das Gegenargument der Hyperscaler: Wo Zentralisierung immer noch gewinnt

Trotz der überzeugenden Wirtschaftlichkeit und beeindruckenden Wachstumsmetriken stehen dezentrale GPU-Netzwerke vor legitimen technischen Herausforderungen, für deren Bewältigung Hyperscaler ausgelegt sind.

Langfristige Workloads: Das Training großer Sprachmodelle kann Wochen oder Monate kontinuierlicher Rechenleistung in Anspruch nehmen. Dezentrale Netzwerke haben Schwierigkeiten zu garantieren, dass bestimmte GPUs über längere Zeiträume verfügbar bleiben, während AWS Kapazitäten so lange wie nötig reservieren kann.

Enge Synchronisation: Verteiltes Training über mehrere GPUs erfordert eine Koordination im Mikrosekundenbereich. Wenn diese GPUs über Kontinente verteilt sind und unterschiedliche Netzwerklatenzen aufweisen, wird die Aufrechterhaltung der für effizientes Training erforderlichen Synchronisation exponentiell schwieriger.

Vorhersehbarkeit: Für Unternehmen, die geschäftskritische Workloads ausführen, ist es nicht verhandelbar, genau zu wissen, welche Leistung zu erwarten ist. Hyperscaler können detaillierte SLAs bereitstellen; dezentrale Netzwerke bauen noch an der Verifizierungsinfrastruktur, um ähnliche Garantien abgeben zu können.

Der Konsens unter Infrastrukturexperten ist, dass dezentrale GPU-Netzwerke bei Batch-Workloads, Inferenzaufgaben und kurzzeitigen Trainingsläufen glänzen.

Für diese Anwendungsfälle sind die Kosteneinsparungen von 50 - 75 % im Vergleich zu Hyperscalern bahnbrechend. Aber für die anspruchsvollsten, langlaufenden und geschäftskritischen Workloads behält die zentrale Infrastruktur immer noch den Vorteil – zumindest vorerst.

Katalysator 2026: Die Explosion der KI-Inferenz

Ab 2026 wird prognostiziert, dass sich die Nachfrage nach KI-Inferenz und Trainings-Rechenleistung drastisch beschleunigen wird, angetrieben durch drei konvergierende Trends:

  1. Proliferation agentischer KI: Autonome Agenten benötigen permanente Rechenleistung für die Entscheidungsfindung
  2. Einführung von Open-Source-Modellen: Da Unternehmen sich von proprietären APIs abwenden, benötigen sie Infrastruktur zum Hosten von Modellen
  3. KI-Einsatz in Unternehmen: Unternehmen gehen vom Experimentieren zur Produktion über

Dieser Nachfrageschub spielt direkt den Stärken dezentraler Netzwerke in die Hände.

Inferenz-Workloads sind typischerweise kurzzeitig und massiv parallelisierbar – genau das Profil, bei dem dezentrale GPU-Netzwerke Hyperscaler bei den Kosten übertreffen und gleichzeitig eine vergleichbare Leistung liefern. Ein Startup, das Inferenz für einen Chatbot oder einen Bildgenerierungsdienst ausführt, kann seine Infrastrukturkosten um 75 % senken, ohne die Benutzererfahrung zu beeinträchtigen.

Token-Ökonomie: Die Anreizebene

Die Kryptowährungskomponente dieser Netzwerke ist keine bloße Spekulation – sie ist der Mechanismus, der die globale GPU-Aggregation wirtschaftlich tragfähig macht.

Render (RENDER): Ursprünglich als RNDR auf Ethereum ausgegeben, migrierte das Netzwerk zwischen 2023 und 2024 zu Solana, wobei Token-Inhaber im Verhältnis 1 : 1 tauschten. GPU-Sharing-Token, einschließlich RENDER, stiegen Anfang 2026 um über 20 %, was die wachsende Überzeugung in diesem Sektor widerspiegelt.

Akash (AKT): Der BME-Burn-Mechanismus schafft eine direkte Verbindung zwischen der Netzwerknutzung und dem Token-Wert. Im Gegensatz zu vielen Kryptoprojekten, bei denen sich die Tokenomics von der Produktnutzung entkoppelt anfühlen, stellt das Modell von Akash sicher, dass jeder Dollar für Rechenleistung die Token-Versorgung direkt beeinflusst.

Die Token-Ebene löst das Kaltstart-Problem, das frühere Versuche dezentralen Computings plagte.

Indem GPU-Anbieter in den frühen Tagen des Netzwerks mit Token-Belohnungen incentiviert werden, können diese Projekte das Angebot aufbauen, bevor die Nachfrage eine kritische Masse erreicht. Mit zunehmender Reife des Netzwerks ersetzen echte Einnahmen aus der Rechenleistung schrittweise die Token-Inflation.

Dieser Übergang von Token-Anreizen zu echten Einnahmen ist der Lackmustest, der nachhaltige Infrastrukturprojekte von unhaltbarer Ponzi-Nomics unterscheidet.

Die 100 Milliarden $ Frage: Kann Dezentralisierung mithalten?

Der Markt für dezentrale Rechenleistung wird voraussichtlich von 9 Milliarden $ im Jahr 2024 auf 100 Milliarden $ bis 2032 anwachsen. Ob dezentrale GPU-Netzwerke einen bedeutenden Anteil gewinnen, hängt von der Lösung dreier Herausforderungen ab:

Verifizierung in großem Maßstab: Das PoSP-Protokoll von Hyperbolic stellt einen Fortschritt dar, aber die Branche benötigt standardisierte Methoden zur kryptografischen Verifizierung, dass die Rechenarbeit korrekt ausgeführt wurde. Ohne dies werden Unternehmen zögerlich bleiben.

Zuverlässigkeit auf Enterprise-Niveau: Um eine Verfügbarkeit von 99,99 % bei der Koordination global verteilter, unabhängig betriebener GPUs zu erreichen, ist eine anspruchsvolle Orchestrierung erforderlich – das Starcluster-Modell von Akash zeigt hier einen Weg auf.

Entwicklererfahrung: Dezentrale Netzwerke müssen die Benutzerfreundlichkeit von AWS, Azure oder GCP erreichen. Kubernetes-Kompatibilität (wie sie von Akash angeboten wird) ist ein Anfang, aber die nahtlose Integration in bestehende ML-Workflows ist unerlässlich.

Was dies für Entwickler bedeutet

Für KI-Entwickler und Web3-Builder bieten dezentrale GPU-Netzwerke eine strategische Chance:

Kostenoptimierung: Rechnungen für Training und Inferenz können leicht 50 – 70 % des Budgets eines KI-Startups verschlingen. Die Halbierung oder weitere Senkung dieser Kosten verändert die Unit Economics grundlegend.

Vermeidung von Vendor-Lock-in: Hyperscaler machen den Einstieg einfach und den Ausstieg teuer. Dezentrale Netzwerke, die offene Standards nutzen, bewahren die Wahlfreiheit.

Zensurresistenz: Für Anwendungen, die unter Druck von zentralisierten Anbietern geraten könnten, bietet dezentrale Infrastruktur eine entscheidende Resilienz-Ebene.

Der Vorbehalt liegt in der Abstimmung der Arbeitslast auf die Infrastruktur. Für schnelles Prototyping, Batch-Verarbeitung, Inferenz-Serving und parallele Trainingsläufe sind dezentrale GPU-Netzwerke heute schon bereit. Für mehrwöchiges Modelltraining, das absolute Zuverlässigkeit erfordert, bleiben Hyperscaler die sicherere Wahl – vorerst.

Der Weg nach vorn

Das Zusammentreffen von GPU-Knappheit, steigender Nachfrage nach KI-Rechenleistung und reifender DePIN-Infrastruktur schafft eine seltene Marktchance. Traditionelle Cloud-Anbieter dominierten die erste Generation der KI-Infrastruktur durch Zuverlässigkeit und Komfort. Dezentrale GPU-Netzwerke konkurrieren nun über Kosten, Flexibilität und Widerstandsfähigkeit gegen zentralisierte Kontrolle.

Die nächsten 12 Monate werden entscheidend sein. Während Render sein KI-Rechen-Subnetz skaliert, Akash Starcluster-GPUs online bringt und Hyperbolic die kryptografische Verifizierung einführt, werden wir sehen, ob dezentrale Infrastruktur ihr Versprechen im Hyperscale-Bereich einlösen kann.

Für Entwickler, Forscher und Unternehmen, die derzeit Premiumpreise für knappe GPU-Ressourcen zahlen, kann die Entstehung glaubwürdiger Alternativen nicht früh genug kommen. Die Frage ist nicht, ob dezentrale GPU-Netzwerke einen Teil des 100 Milliarden $ schweren Rechenmarktes erobern werden – sondern wie viel.

BlockEden.xyz bietet Blockchain-Infrastruktur auf Enterprise-Niveau für Entwickler, die auf Fundamenten bauen, die Bestand haben. Erkunden Sie unseren API-Marktplatz, um auf zuverlässige Node-Services über führende Blockchain-Netzwerke hinweg zuzugreifen.