Direkt zum Hauptinhalt

217 Beiträge getaggt mit „Infrastruktur“

Blockchain-Infrastruktur und Node-Services

Alle Tags anzeigen

Gensyn Judge: Die fehlende Qualitätsverifizierungsschicht für dezentrale KI

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die dezentrale KI hat fünf Jahre lang damit verbracht, die falsche Frage zu beantworten. Der gesamte Stack — Bittensors Subnetze, Gensyns Trainings-Marktplatz, Ambients Inferenz-Netzwerk, jedes ZKML-Beweissystem — war davon besessen, zu beweisen, dass die Berechnung stattgefunden hat. Ein Miner führte die Inferenz aus. Ein Node trainierte N Stunden lang auf dem richtigen Datensatz. Eine GPU produzierte die behaupteten Logits. Kryptografisch, elegant und teuer verifiziert.

Nichts davon beantwortet die Frage, die ein Einkaufsleiter eines Unternehmens tatsächlich stellt: Taugt das Modell etwas?

Der Launch von Judge durch Gensyn Ende April 2026 ist der erste ernsthafte Versuch, diese Lücke zu schließen. Es ist kein weiterer Konsensmechanismus. Es ist kein weiteres Proof-of-Something. Es ist eine verifizierbare Evaluierungsebene, die „Training hat stattgefunden“ von „Training wurde korrekt durchgeführt“ entkoppelt — und diese Unterscheidung könnte das wichtigste Primitiv sein, das DeAI in diesem Zyklus hervorgebracht hat.

Circles stiller Coup: Wie die Übernahme von Interop Labs die Cross-Chain-Stablecoin-Landschaft neu gestaltet

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Circle hat keinen Token gekauft. Es hat die Menschen gekauft, die eines der einflussreichsten Cross-Chain-Protokolle im Kryptobereich entwickelt haben – und den Token zurückgelassen. Dieser eine Satz verdeutlicht, warum die Übernahme von Interop Labs einen Streit über die Zukunft der Stablecoin-Infrastruktur, die Legitimität von „Team-only“-Deals und die Frage entfacht hat, ob AXL-Holder gerade in Echtzeit erfahren haben, was ihre Token für Insider tatsächlich wert waren.

Der Deal sieht von außen betrachtet klein aus: Ein Stablecoin-Emittent stellt ein Entwicklerteam ein. Doch wenn man die Sprache der Pressemitteilung weglässt, tritt eine bewusste Umstrukturierung zutage, wie sich der zweitgrößte Stablecoin der Welt im nächsten Jahrzehnt zwischen verschiedenen Chains bewegen wird. Circle mietet keine Cross-Chain-Schienen mehr von Chainlink, LayerZero oder Wormhole. Es besetzt seine eigenen – und die AXL-Token-Inhaber, die glaubten, sie stünden auf einer Seite mit dieser Engineering-Organisation, müssen feststellen, dass sie mit dem Protokoll verbunden waren, nicht mit den Menschen.

ILITYs vereinheitlichte ZK-Verifizierungsschicht: Ein Verifizierer für 200 Rollups

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Es gibt mittlerweile mehr als 200 Zero-Knowledge-Rollups in der Produktion, von denen jedes seinen eigenen Verifier-Contract bereitstellt. Hier SP1, dort Risc Zero, Plonky3 in einer Chain, Halo2 in einer anderen, wobei Jolt und Powdr alle paar Wochen hinzukommen. Jede Datenschutz-App, die den Zustand von mehr als einer Chain lesen möchte, zahlt eine Steuer: jeden Prover integrieren, jeden Verifier prüfen, bei jeder Circuit-Änderung neu bereitstellen. Dies ist der N×N-Integrationsalbtraum, der sich still und heimlich zu den größten versteckten Kosten in der Web3-Datenschutzinfrastruktur entwickelt hat.

Am 28. April 2026 beendete ILITY den Stealth-Modus mit der Wette, dass die Lösung nicht eine weitere zkVM ist, sondern eine Schicht darüber. Seine Multi-Chain-ZK-Proof-Unified-Verification-Layer — die neben dem am 30. Januar live gegangenen Alpha-Mainnet steht — präsentiert sich als "universelle Cross-Chain-Datenschutz-Schnittstelle", die jede Chain als datenschutzwahrenden Nachrichtenbus übernehmen kann. Web3Caff Research veröffentlichte am selben Tag ein Financing Decode, das den Launch als generationenübergreifende Wette auf die Verifier-Abstraktion einordnet. Die These ist provokant: So wie IBC den Zustand der Cosmos-Zonen und die EVM-Äquivalenz die L2-Ausführung abstrahiert hat, kann eine einzige Proof-Verification-API jedes darunter liegende SNARK-System abstrahieren.

Die Fragmentierung, über die niemand sprechen möchte

Polygon Labs, Succinct, Risc Zero und ein halbes Dutzend kleinerer Teams haben die letzten drei Jahre damit verbracht, schnellere, kleinere und allgemeinere zkVMs auf den Markt zu bringen. Das Rennen hat außergewöhnliche Ergebnisse hervorgebracht — Plonky3 in Produktion, SP1, das Proofs in Fragmente zerlegt und sie zu einem einzigen universellen Proof aggregiert, und Risc Zero, das auf seinen offenen Boundless-Proof-Markt umschwenkt.

Aber das Rennen hat einen Nebeneffekt, für den fast niemand optimiert: Jeder Gewinner liefert seinen eigenen Verifier aus. Ein datenschutzwahrendes Lending-Protokoll, das Collateral-Attestierungen von einem SP1-geprüften Optimism-Rollup, einer Plonky3-geprüften Polygon-CDK-Chain und einem Halo2-geprüften Scroll-Deployment akzeptieren möchte, muss drei völlig unterschiedliche Verifier-Contracts bereitstellen und warten. Jeder Verifier hat unterschiedliche Gaskosten, unterschiedliche Upgrade-Pfade und unterschiedliche Fehleroberflächen. Die Audit-Budgets explodieren. Der Cross-Chain-TVL bleibt auf der Chain gefangen, auf der die Datenschutz-App gestartet wurde.

Die Branche erkennt dies als Problem an. Polygons Pessimistic Proof — selbst ein mit SP1 und Plonky3 generierter ZK-Proof — vermarktet Aggregation explizit als "Vereinigung von Multistack-Zukünften". Doch die Vereinigung des AggLayers funktioniert nur für Chains, die sich für den Polygon-CDK-Stack entschieden haben. Solana, Cosmos, Ethereum L2s außerhalb des Polygon-Stacks und Bitcoin L2s bleiben außerhalb seines Perimeters. Die Fragmentierung wird innerhalb eines geschlossenen Systems gelöst und an dessen Grenzen reproduziert.

Was ILITY tatsächlich baut

ILITYs Ansatz ist strukturell anders. Anstatt über die Geschwindigkeit der Prover zu konkurrieren, baut es eine souveräne Layer-1-Blockchain, deren einzige Aufgabe es ist, Proofs aus einer beliebigen Quell-Chain zu verifizieren und Attestierungen erneut auszugeben, denen jede konsumierende Chain vertrauen kann. Der Besitz von Vermögenswerten, die Historie, Transaktionsmuster, On-Chain-Verhalten — all das kann bewiesen werden, ohne Wallet-Adressen oder zugrunde liegende Daten offenzulegen.

Die architektonische Wette besteht aus drei Teilen. Erstens, eine einheitliche Proof-Verification-API: Jede Anwendung liest von einem Endpunkt, unabhängig davon, welches zugrunde liegende SNARK-System den Proof generiert hat. Zweitens, die ILITY ZK Engine, der datenschutzbewusste Verifizierungskern der Chain, den das Alpha-Mainnet seit Januar durch interne Cross-Chain-Datenabruftests gehärtet hat. Drittens, der ILITY Hub — die kommende Produktisierungsschicht, die die Verifier-Abstraktion als Entwicklerdienst und nicht als Forschungsobjekt bereitstellt.

Der Mechanismus ähnelt der Art und Weise, wie IBC es Cosmos-Zonen ermöglichte, miteinander zu kommunizieren, ohne dass jede Zone den Konsens jeder anderen Zone implementieren musste. ILITY schlägt denselben Trick für Proofs vor: Chains müssen nicht wissen, wie die jeweils andere Seite Dinge beweist. Sie müssen nur dem Verifizierungsergebnis vertrauen, das die einheitliche Schicht ausgibt. Wenn die Abstraktion hält, kann eine einmal auf ILITY geschriebene datenschutzwahrende DeFi-App Attestierungen von einem Solana-Programm, einem Ethereum-L2-Contract, einer Cosmos-Zone und einer Bitcoin-L2 konsumieren — von denen keine etwas über die anderen wissen muss.

Wie sich ILITY von angrenzenden Wetten unterscheidet

Die einheitliche Verifizierungsschicht ist nicht der einzige Versuch, dieses Problem zu lösen. Der Bereich hat sich um drei konkurrierende Ansätze kristallisiert, von denen ILITY behauptet, sie alle einzuschließen.

Brevis hat den allgemeinsten ZK-Koprozessor auf den Markt gebracht — einen hybriden ZK-Datenkoprozessor plus Allzweck-zkVM mit L1-Echtzeit-Beweisfunktion. Brevis ermöglicht es Smart Contracts, auf historische EVM-Zustände zuzugreifen und Dinge darüber zu beweisen. Aber Brevis ist im Kern ein Koprozessor: Er erstellt Proofs, er vereinheitlicht keine Verifier. Eine konsumierende Chain muss einen Brevis-Proof immer noch in dem Proof-System verifizieren, das Brevis zufällig verwendet.

Axiom ist spezialisierter, aber extrem schnell in dem, was es tut — verifizierbare Abfragen gegen tiefe Ethereum-Zustände, die exakte Storage-Slot-Werte oder die Existenz von Transaktionen bei bestimmten Blockhöhen beweisen. Der Kompromiss ist explizit: nur Ethereum, Single-Chain per Design. Nützlich als Primitiv, nutzlos als Multi-Chain-Schnittstelle.

Lagrange wählte einen anderen Kompromiss — einen ZK-plus-Optimistic-Hybrid, der die Effizienz der Cross-Chain-Berechnung verbessert, indem er die ZK-Garantien für Zustände lockert, die unwahrscheinlich angefochten werden. Lagrange beweist Dinge über Chains hinweg, aber die Verifizierungssemantik ist nicht dieselbe wie eine reine ZK-Garantie, was die Einsatzmöglichkeiten für Institutionen einschränkt.

ILITYs Behauptung ist, dass alle drei Punktlösungen für ein fehlendes Primitiv sind. Brevis verifiziert, Axiom fragt ab, Lagrange aggregiert — aber keines von ihnen bietet eine API, die jede Chain aufrufen kann, um jeden Proof von jeder anderen Chain zu verifizieren. ILITY wettet darauf, dass das fehlende Primitiv die Verifizierungsschicht selbst ist und nicht ein weiterer Prover oder Koprozessor.

Der deutlichste Kontrast besteht zum Polygon AggLayer. Das Pessimistic-Proof-System des AggLayers ist technisch gesehen eine einheitliche Verifizierungsschicht — aber es funktioniert nur für Chains, die mit der CDK Sovereign Config konfiguriert sind. AggLayer v0.3 erweiterte den Stack bis zum ersten Quartal 2026 auf Multistack-EVM, aber Solana, Cosmos und Bitcoin L2s bleiben außen vor. ILITYs Designentscheidung ist das Gegenteil: Zuerst die Verifizierungsschicht bauen, jede Chain anschließen lassen und auf Breite vor Tiefe optimieren.

Der Privacy-Stack, der sich um April 2026 bildet

Der Zeitpunkt der Markteinführung ist kein Zufall. Ende April 2026 hat zwei weitere Infrastruktur-Wetten hervorgebracht, die zusammen mit ILITY zu etwas Größerem verschmelzen, als es jeder für sich allein wäre.

Mind Networks FHE-Privacy-Boost — aufgebaut auf dem OP Stack und integriert mit Chainlink CCIP — bietet vertrauliche Berechnungen (Confidential Computation). Vollständig homomorphe Verschlüsselung (Fully Homomorphic Encryption, FHE) ermöglicht es Smart Contracts, verschlüsselte Eingaben zu verarbeiten, ohne sie jemals zu entschlüsseln. Dies ist von enormer Bedeutung für das institutionelle DeFi, bei dem die Eingabedaten selbst sensibel sind. Die Sicherheitsaudits von Mind Network im zweiten Quartal 2026 und der Mainnet-Rollout der FHE-gestützten Agent-zu-Agent-Zahlungslösung im dritten Quartal 2026 sind der erste glaubwürdige Versuch einer vertraulichen Berechnungsebene mit institutionellen Roadmaps.

ILITY sorgt für die Verifizierung: die Fähigkeit, Fakten über den chain-übergreifenden Zustand (Cross-Chain State) zu beweisen, ohne den Zustand selbst preiszugeben.

Eine dritte Säule, die in Finanzierungsrunden im mittleren Segment zunehmend sichtbar wird, ist die dezentrale Beweisberechnung (Decentralized Proving Compute) — offene Beweismärkte wie Boundless von Risc Zero und das Prover-Netzwerk von Succinct. Diese ermöglichen es GPU-Betreibern, auf die Erstellung von Beweisen zu bieten und so die Grenzkosten gegen Null zu treiben.

Zusammengenommen bilden diese drei Säulen — vertrauliche Berechnung (FHE), einheitliche Verifizierung (ZK) und offene Beweisberechnung — den Infrastruktur-Stack, den institutionelle Nutzer tatsächlich benötigen würden, um an DeFi teilzunehmen, ohne Strategie-, Positions- oder Gegenparteidaten preiszugeben. Keine der Säulen ist allein ausreichend. ILITY behauptet, dass die Verifizierungsebene das Bindegewebe ist, das die anderen beiden erst nützlich macht. Denn ohne eine einheitliche Verifizierung müsste jede Institution, die privates Cross-Chain-DeFi betreibt, einen "Verifizierer-Zoo" für jeden Prover unterhalten, den ihre Gegenparteien verwenden könnten.

Die Wette auf die Verifizierer-Abstraktion, ehrlich betrachtet

Die Verifizierer-Abstraktion (Verifier Abstraction) ist eine starke These. Es ist jedoch auch die Art von These, die historisch gesehen schwer umzusetzen war. Drei Risiken sollten beim Namen genannt werden.

Das Problem der nativen Integration. Eine einheitliche Verifizierungsebene ist nur dann von Bedeutung, wenn Chains sie übernehmen. Das Alpha Mainnet von ILITY führt die Verifizierung intern durch und gibt die Ergebnisse aus — aber damit Solana-Smart-Contracts diese Attestierungen tatsächlich nutzen können, muss das Solana-Programm dem signierten Ergebnis von ILITY vertrauen. Diese Vertrauensannahme ähnelt der einer Light-Client-Bridge, was bedeutet, dass ILITY letztendlich nicht nur bei der ZK-Beweisverifizierung mit LayerZero, Wormhole und Chainlink CCIP konkurriert, sondern um die umfassendere Aufgabe eines „vertrauenswürdigen Nachrichtenbus“ (Trusted Message Bus). Die Geschichte der Verifizierer-Abstraktion ist eleganter als die von LayerZero, aber der Go-to-Market ist derselbe.

Das Risiko der vorzeitigen Abstraktion. zkVerify — eine modulare L1, die als universelle ZK-Beweisverifizierungsebene konzipiert wurde — verfolgt seit 2024 eine ähnliche These. Sie hat bisher noch keine institutionelle Escape Velocity erreicht. Das Risiko besteht darin, dass die Verifizierer-Abstraktion zwar technisch elegant, aber kommerziell verfrüht ist: Wenn keine Chain die Abstraktion nativ integriert, ist jede Verifizierung auf der einheitlichen Ebene ein zusätzlicher Hop im Vergleich zur direkten Bereitstellung des Verifizierers auf der konsumierenden Chain.

Die Optimierungslücke. Verifizierer pro Chain können aggressiv für das spezifische SNARK-System optimiert werden, das sie verifizieren. Eine einheitliche Ebene opfert fast per Definition einige dieser Optimierungen. AggLayer gewinnt auf Polygon CDK-Chains teilweise deshalb, weil der pessimistische Beweis (Pessimistic Proof) gemeinsam mit SP1+Plonky3 und dem Chain-Stack entwickelt wurde. ILITY hat diesen Luxus nicht, wenn ein Halo2-Beweis von einer Chain und ein SP1-Beweis von einer anderen verifiziert werden. Die Leistungsgrenze eines wirklich chain-agnostischen Verifizierers ist von Natur aus niedriger als die eines gemeinsam entwickelten Systems.

Der optimistische Fall ist, dass keines dieser Risiken fatal ist — sie bedeuten lediglich, dass die einheitliche Verifizierungsebene eher durch Entwickler-Ergonomie als durch rohe Verifizierungs-Gaskosten gewinnen muss. Wenn das Onboarding einer neuen Chain bei ILITY eine Woche statt sechs Monate individueller Verifizierer-Arbeit dauert, wird der Unterschied in der Time-to-Market den Unterschied in den Gaskosten für alle außer für hyper-optimierte DeFi-Protokolle dominieren. Das ist derselbe Kompromiss, den frühe Multi-Chain-Bridges eingegangen sind und mit dem sie gewonnen haben.

Was man als Nächstes beobachten sollte

Drei Signale werden uns verraten, ob die These der einheitlichen Verifizierung aufgeht.

Native Integrationen. Bindet irgendeine große Chain — ein Solana-Grant, eine Ethereum L2-Partnerschaft, eine Cosmos-Zone — das Verifizierungsergebnis von ILITY nativ in ihre On-Chain-Logik ein? Ohne mindestens eine solche Integration im Jahr 2026 bleibt die Abstraktion eine Insel.

Einsatz von Privacy-Apps. Die richtige Validierung ist nicht theoretisch. Es ist ein datenschutzfreundliches Lending-Protokoll oder eine vertrauliche Settlement-Ebene, die ILITY im Live-Betrieb mit zahlenden Nutzern nutzt, um Collateral-Attestierungen aus drei oder mehr verschiedenen Prover-Ökosystemen zu lesen.

Stack-Zusammensetzung mit FHE und Beweismärkten. Wenn der Stack aus „FHE plus ZK plus Beweismarkt“ in institutionellen DeFi-Piloten auftaucht — etwa in genehmigten Pools im Stil von JPMorgan oder bei der Abwicklung regulierter tokenisierter Fonds — dann ist das der Ökosystem-Effekt, für den sich ILITY positioniert. Wenn dies nicht geschieht, bleibt die einheitliche Verifizierungsebene ein cleveres Stück Infrastruktur, das auf eine Anwendung wartet, die es benötigt.

Die ehrliche Zusammenfassung lautet, dass ILITYs Wette enorm ist und die bisherigen Erfahrungen mit dem „Gewinnen durch Abstrahieren der Primitive anderer Leute“ im Krypto-Bereich gemischt sind. IBC hat gewonnen. EVM-Äquivalenz hat gewonnen. Es gab aber auch Abstraktionen, die auf den Markt kamen, bevor die zugrunde liegenden Systeme bereit waren, und die ihren Vorsprung nie wieder aufholen konnten. Der 28. April ist der Tag, an dem die Uhr für diese Wette öffentlich zu ticken beginnt.

BlockEden.xyz betreibt RPC- und Indexierungs-Infrastruktur der Enterprise-Klasse für Sui, Aptos, Ethereum, Solana und andere große Chains — dieselbe Multi-Chain-Abdeckung, die datenschutzfreundliche Anwendungen benötigen, um verifizierte chain-übergreifende Zustände zu nutzen. Erkunden Sie unseren API-Marktplatz, um auf einer Infrastruktur aufzubauen, die für die Multi-Chain-Ära entwickelt wurde.

Quellen

Smart Contracts wurden sicherer, Krypto wurde schlechter: Einblick in die Ära der Infrastrukturangriffe im 1. Quartal 2026

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Im 1. Quartal 2026 brachen Exploits von DeFi-Smart-Contracts im Vergleich zum Vorjahr um 89 % ein. Dennoch verlor Krypto etwa eine halbe Milliarde Dollar. Wenn das widersprüchlich klingt, ist es das nicht — es ist die wichtigste strukturelle Verschiebung in der Web3-Sicherheit seit The DAO. Die Fehler, die ein Jahrzehnt der Krypto-Schlagzeilen prägten, werden gelöst. Die Angreifer sind lediglich eine Ebene höher gezogen.

Der Web3-Sicherheitsbericht von Sherlock für das 1. Quartal 2026 nennt die Zahlen deutlich: DeFi-spezifische Exploits fielen im Vergleich zum 1. Quartal 2025 um etwa 89 %. Dies ist der bisher klarste Beweis dafür, dass Audits, formale Verifizierung und kampferprobter Code ihre Aufgabe erfüllen. Die parallele Zählung von Hacken beziffert die gesamten Web3-Verluste für dasselbe Quartal auf 482,6 Millionen US-Dollar, wobei allein Phishing und Social Engineering 306 Millionen US-Dollar davon in nur 44 Vorfällen verursachten. Der Schwerpunkt hat sich verschoben, und der Großteil der defensiven Strategien der Branche zielt in die falsche Richtung.

Solanas 99 %-Wette: Warum die Foundation glaubt, dass Menschen bis 2028 aufhören werden, die Blockchain zu berühren

· 12 Min. Lesezeit
Dora Noda
Software Engineer

In zwei Jahren könnte der menschliche Nutzer auf Solana zu einem Rundungsfehler werden.

Das ist keine Metapher. Das ist die explizite Prognose von Vibhu Norby, Chief Product Officer bei der Solana Foundation, der dem Branchenpublikum im März 2026 erklärte, dass „99,99 % aller On-Chain-Transaktionen in 2 Jahren von Agenten, Bots sowie LLM-basierten Wallets und Handelsprodukten gesteuert werden“. In einem separaten Interview weitete er die Spanne leicht auf „95 bis 99 % aller Transaktionen“ aus, die von großen Sprachmodellen (LLMs) stammen, die im Namen eines Nutzers handeln. So oder so bleibt die Botschaft dieselbe: Die Ära, in der Menschen in einem Wallet-Pop-up auf „Transaktion signieren“ klicken, geht zu Ende, und Solana baut für die Ära, die danach kommt.

Dies ist die aggressivste Vision eines agentischen Internets, die jemals ein führendes Layer-1-Protokoll offiziell geäußert hat. Die Reaktion von Ethereum bestand darin, Standards zu liefern – ERC-8004 für die Identität von Agenten, ERC-8183 für vertrauenslosen Agenten-Handel. Solanas Antwort war es, Durchsatz zu liefern und eine skill.txt im Stammverzeichnis seiner Website zu hinterlegen, damit KI-Agenten sie lesen und herausfinden können, wie sie selbstständig ein Wallet erstellen. Die beiden Ansätze offenbaren mehr als nur eine Marketing-Rivalität. Sie zeigen eine tiefgreifende philosophische Spaltung darüber auf, worauf eine „agentische“ Blockchain optimiert sein sollte.

Solana DePINs Wendepunkt bei 2,9 Mio. $: Lyft und T-Mobile betrachten Krypto-Hardware nicht mehr als Hobby

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Im März 2026 ging ein stiller Meilenstein an den meisten Krypto-Schlagzeilen vorbei: Die Solana DePIN-Kohorte — Helium, Hivemapper, Render, UpRock, NATIX, XNET und Geodnet — verbuchte gemeinsam einen monatlichen Umsatz von 2,9 Millionen $, ein bisheriges Jahreshoch. Diese Zahl ist in absoluten Werten gering. In ihrer Bedeutung ist sie jedoch enorm.

Zum ersten Mal sind die Kunden, die diese Schecks ausstellen, keine krypto-nativen Spekulanten oder Yield Farmer. Es sind Lyft, T-Mobile, AT&T, Telefónica und Volkswagen. Token-incentivierte Hardware-Netzwerke haben begonnen, mit etablierten Telekommunikations- und Kartierungsunternehmen auf Basis von Leistung — Kapazität, Aktualität, Preis — statt nur aufgrund von "Vibes" zu konkurrieren.

Das ist der Wendepunkt. Lassen Sie uns analysieren, was das tatsächlich bedeutet.

Know Your Agent: Wie KYA KYC als das entscheidende Compliance-Schlachtfeld der Agent-Economy ersetzte

· 13 Min. Lesezeit
Dora Noda
Software Engineer

KI-Agenten wickeln mittlerweile etwa 19 % aller On-Chain-DeFi-Aktivitäten ab. Allein die BNB Chain beherbergt mehr als 150.000 bereitgestellte Agenten – ein Anstieg von weniger als 400 zu Jahresbeginn, was einem Zuwachs von 43.750 % in weniger als vier Monaten entspricht. Bots generieren über 76 % des Transfervolumens von Stablecoins, und Gartner erwartet, dass bis Ende 2026 etwa 40 % der Unternehmensanwendungen aufgabenspezifische KI-Agenten einbetten werden.

Es gibt nur ein Problem: Niemand weiß, wer diese Agenten sind. KYC wurde entwickelt, um Menschen zu verifizieren. Die Compliance-Frameworks des nächsten Jahrzehnts müssen autonome Software verifizieren – und der Standard, der diesen Kampf gewinnt, wird stillschweigend eines der größten regulatorischen Vertikale im Finanzdienstleistungssektor besetzen. a16z nennt es KYA: Know Your Agent.

AI-Agenten wickeln jetzt 19 % des DeFi-Volumens ab — und unterliegen Menschen beim Trading immer noch um das 5-Fache

· 10 Min. Lesezeit
Dora Noda
Software Engineer

KI-Agenten initiieren mittlerweile etwa ein Fünftel jeder DeFi-Transaktion. Sie unterliegen zudem menschlichen diskretionären Tradern um den Faktor fünf in jedem Wettbewerb, der tatsächliche Entscheidungen erfordert. Diese unangenehme Lücke – zwischen dem Anteil an der Infrastruktur, den Agenten bereits kontrollieren, und dem Alpha, das sie beständig nicht generieren – ist der wichtigste Datenpunkt in der Debatte um die „agentische Ökonomie“ im Kryptosektor. Dieser Punkt wurde diesen Monat durch einen Forschungsbericht von DWF Ventures verdeutlicht, der leise ein Jahr voller Marketing-Hype entzaubert.

Coinbase-CEO Brian Armstrong verbrachte das letzte Quartal damit, jedem, der zuhörte, zu erklären, dass die agentische Ökonomie die menschliche Ökonomie überholen wird. Sein Unternehmen veröffentlichte Agentic.market, einen App-Store für KI-Agenten, der bereits 165 Millionen Transaktionen und ein Volumen von 50 Mio. $ über 480.000 Agenten verarbeitet hat. Die These lautet, dass Maschinen über Stablecoins miteinander transagieren werden, da sie keine Bankkonten eröffnen können. Die Mathematik dahinter ist oberflächlich betrachtet unwiderstehlich.

Doch die Daten von DWF legen nahe, dass wir das bloße Volumen der Infrastruktur mit Leistung verwechseln – und diese Unterscheidung ist enorm wichtig für jeden, der entscheidet, wo er 2026 Ausgaben für Infrastruktur, Audits oder Kapital allokiert.

Die 19 %-Schlagzeile verbirgt drei verschiedene Geschäftsbereiche

Wenn die Decrypt-Schlagzeile besagt, dass „KI-Agenten bereits ein Fünftel von DeFi kontrollieren“, was beinhalten diese 19 % tatsächlich?

DWFs eigene Aufschlüsselung – untermauert durch die Berichterstattung von PANews über denselben Bericht – unterteilt die Aktivitäten der Agenten in drei sehr unterschiedliche Kategorien:

  1. Eng gefasste extraktive Bots – MEV-Searcher, Sandwich-Attacker, Liquidations-Trigger, Arbitrageure über DEXes hinweg. Dies sind deterministische Programme mit bestenfalls etwas LLM-Logik, und die meisten von ihnen existieren schon Jahre vor dem Begriff „Agent“.
  2. Strukturierte Optimierer – Stablecoin-Yield-Router wie ARMA von Giza, das autonom 32 Mio. $ an Nutzervermögen über 102.000 Transaktionen verwaltet hat, sowie Rebalancer, die Gelder zwischen Aave, Morpho und Pendle verschieben, wenn die Zinssätze divergieren. Diese nutzen tatsächlich LLM-Schlussfolgerungen, jedoch innerhalb extrem enger Leitplanken.
  3. Offene Trading-Agenten – die Schlagzeilen machenden autonomen Trader, die Stimmungen lesen, Narrative bewerten und direktionale Wetten platzieren. Dies ist der kleinste Teil der 19 % und genau der Teil, der kläglich verliert.

Diese Vermischung ist wichtig, da jede Kategorie ein anderes Nachfrageprofil, einen anderen Fehlermodus und einen anderen Infrastruktur-Fußabdruck hat. Alle drei als „KI-Agenten“ zu zählen, ist in etwa so, als würde man Cron-Jobs, ETL-Pipelines und Senior-Portfolio-Manager gleichermaßen als „automatisierte Entscheidungsträger“ bezeichnen. Technisch korrekt. Operativ bedeutungslos.

Wo Agenten gewinnen: Ertragsoptimierung, mit großem Abstand

Die deutlichsten Siege für Agenten finden genau dort statt, wo das Problem gut definiert und der Optimierungsbereich begrenzt ist.

Der Bericht von DWF – wie von KuCoin zusammengefasst – stellt fest, dass Yield-Optimierungs-Agenten in einigen Kohorten annualisierte Renditen von über 9 % liefern, wobei Giza's ARMA bei USDC 15 % erreichte (teilweise durch Token-Incentives geboostet, aber dennoch). Warum? Weil die Aufgabe darauf reduziert werden kann: Scanne N Kreditmärkte, berechne den Netto-APY nach Gas und Slippage, rebalanciere, wenn das Delta einen Schwellenwert überschreitet. Es gibt kein Narrativ. Es gibt keinen Regimewechsel. Es gibt eine Zahl, und der Agent, der die Zahl optimiert, gewinnt.

Dieselbe Logik gilt für MEV-Erfassung, Stablecoin-Routing und Basis-Trades. Dies sind Probleme, die eine Reaktionslatenz im Subsekundenbereich, emotionslose Stops und eine 24/7-Ausführung belohnen – drei Dinge, in denen Menschen von Natur aus schlecht sind und für die Maschinen optimiert wurden. Der Volumenanteil von 19 % in diesen Nischen ist kein Artefakt des Hypes. Es ist ein realer Effizienzgewinn, den Menschen wahrscheinlich nicht zurückerobern werden.

Die Daten von Coinbase's Agentic.market bestätigen dasselbe Muster: Von den 165 Mio. Transaktionen, die über x402 verarbeitet wurden, sind die dominierenden Kategorien Inferenz, Datenzugriff und Infrastrukturaufrufe – begrenzte, wiederholbare, maschinenfreundliche Aufgaben. Die Agenten sind gut darin, Maschinen zu sein.

Wo Agenten verlieren: Alles, was Urteilsvermögen erfordert

Die 5-zu-1-Lücke zeigt sich in dem Moment, in dem die Aufgabe komplexer wird.

DWF zitiert einen tradexyz-Aktienhandelswettbewerb, bei dem der beste menschliche diskretionäre Trader den besten autonomen Agenten bei der risikobereinigten Rendite um mehr als das Fünffache schlug. Die Autoren des Berichts sagen ganz klar, warum: „Wo sie versagen, ist der offene Handel, der kontextbezogenes Denken, Bewusstsein für Narrative und das Abwägen unstrukturierter Informationen erfordert.“

Analysiert man die Unterlegenheit, treten drei Muster hervor:

  • Übermäßiges Trading in Slippage hinein. Agenten fehlt die Geduld, die Menschen natürlicherweise haben, wenn sie auf Setups warten. Sie gehen marginale Trades ein, die sich zu einer Belastung durch Transaktionskosten summieren.
  • Regime-Blindheit. Wenn sich die makroökonomische Geschichte ändert – Fed-Pivot, Folgen eines Exploits, regulatorische Schlagzeilen –, positionieren sich Menschen basierend auf einem Tweet innerhalb von Sekunden neu. Agenten, die auf Daten früherer Regimes trainiert wurden, führen weiterhin die Strategie von gestern aus.
  • Adversative Anfälligkeit. Vorhersehbare Agenten werden „gesandwicht“. Die Berichterstattung von Cryptollia über die MEV-Landschaft 2026 beschreibt einen „KI-gegen-KI“-Dunklen-Wald, in dem extraktive Agenten gezielt die Muster von Optimierer-Agenten jagen. Die Vorhersehbarkeit des Optimierers wird zum Vorteil des Jägers.

Derselbe DWF-Bericht kommt zu dem Schluss, dass „ein realistischer Zeitrahmen fünf bis sieben Jahre beträgt, bevor das agentische Volumen das menschliche Volumen in einem großen Finanzsektor nennenswert herausfordert.“ Das ist eine bemerkenswerte Prognose von einem Fonds, dessen gesamte Portfolio-These vom Erfolg der Agenten-Adoption abhängt. Wenn die Befürworter von fünf bis sieben Jahren sprechen, lautet die ehrliche Interpretation: „Nicht 2026 und möglicherweise nicht einmal 2028.“

Die Infrastrukturrechnung wird so oder so fällig

Hier ist der Punkt, den die meisten Kommentare zur Agentic Economy übersehen: Die Performance-Lücke ist für die Infrastrukturlast irrelevant.

Selbst wenn jeder autonome Trading-Agent Geld verliert, erzeugen die Agenten, die gewinnen – Yield-Optimierer, MEV-Searcher, Stablecoin-Router – Abfragevolumina, die den RPC-Verbrauch von Menschen in den Schatten stellen. Ein einzelner Agent im ARMA-Stil, der ein Rebalancing über fünf Lending-Protokolle hinweg durchführt, fragt die Chain hunderte Male pro Tag und Nutzer ab. Multipliziert man dies mit den über 17.000 Agenten, die DWF seit 2025 zählt, und dann noch einmal mit den 480.000 Agenten, die jetzt auf x402 von Coinbase transaktieren, ist die Schlussfolgerung klar: Das Abfragevolumen der Agenten kann 10-mal schneller wachsen als ihr verwaltetes Vermögen (AUM).

Dies ist die stille Verschiebung innerhalb des „Agentic“-Narrativs. Die interessanten ökonomischen Kennzahlen hängen nicht davon ab, ob der Agent Alpha generiert – sondern davon, ob der Read-Write-Footprint des Agenten linear mit den Nutzern oder quadratisch mit der Komplexität der Strategie skaliert. Jeder, der die Infrastruktur für diese Systeme betreibt, sieht die Antwort bereits, und sie lautet: „quadratisch“.

Das hat Konsequenzen für das RPC-Pricing, die Indexer-Last, die Kosten für die Mempool-Überwachung und die Gas-Märkte. Selbst eine Zukunft, in der Agenten kollektiv schlechter abschneiden als Menschen beim Trading, ist eine Zukunft, in der Agenten den Read-Traffic, Signing-Requests und Intent-Router-Hops dominieren.

Brian Armstrongs Wette, neu kalibriert

Armstrongs These der Machine-to-Machine-Ökonomie ist nicht falsch. Sie operiert lediglich auf einer anderen Zeitskala, als seine Quartalsprioritäten vermuten lassen.

Coinbases eigene Formulierung – „damit die Agentic Economy die menschliche Wirtschaft überholen kann, benötigen Agenten eine Möglichkeit, Dienste zu entdecken“ – ist ehrlich in Bezug auf die Lücke. Discovery (Entdeckung) ist ein Problem für 2026. Reasoning (logisches Schlussfolgern) ist ein Problem für 2030. Die mittlere Schicht, die von den DWF-Daten erfasst wird, ist der Bereich, in dem heute das echte Geld verdient wird: strukturierte Optimierer in engen Fachbereichen, bezahlt von Nutzern, die ihre Yield-Strategie nicht selbst verwalten wollen.

Die ehrliche Segmentierung für 2026 sieht so aus:

  • Produktionsreife, profitable Agenten-Nischen: Stablecoin-Yield-Routing, Cross-Chain-Rebalancing, MEV-resistente Intent-Ausführung, Treasury-Management-Bots für DAOs.
  • Mittlere Reife, gemischte Ergebnisse: Social-Sentiment-Trading-Agenten, Prediction-Market-Agenten (wo KI in einigen Studien eine um 27 % bessere Genauigkeit als Menschen erreicht), Narrative-Rotation-Strategien.
  • Hype, aber noch kein Alpha: Vollautonome diskretionäre Trader, Multi-Step-Reasoning-Agenten, die direktionale Portfolios verwalten, Orchestrierungsschichten für „Agent-of-Agents“.

Ein Unternehmen, das im Jahr 2026 Kapital in Kategorie eins investiert, kauft ein echtes Produkt. Ein Unternehmen, das Kapital in Kategorie drei investiert, kauft ein Forschungsprojekt, das bis 2030 Renditen abwerfen kann oder auch nicht.

Was das für Builder bedeutet

Für Entwickler und Infrastrukturbetreiber schafft die 19-%-Zahl zwei klare Chancen und eine Falle.

Die Chancen: Bauen Sie für Agenten in begrenzten Domänen, die bereits funktionieren (Stablecoin-Router, Yield-Optimierer, MEV-bewusste Ausführung), und Sie bedienen einen wachsenden Markt mit nachgewiesener Zahlungsbereitschaft. Bauen Sie für den leseintensiven Footprint von Agenten, und Sie bedienen eine Lastkurve, die schneller ansteigt, als es jedes Budget vorgesehen hat.

Die Falle: Das Erstellen von autonomen Trading-Frameworks für den Einsatz im Jahr 2026, wenn die zugrunde liegende Fähigkeitslücke noch fünf bis sieben Jahre vom Schließen entfernt ist. Die Agenten, die heute versprechen, „menschliche diskretionäre Trader zu übertreffen“, verpacken größtenteils dieselben MEV-Strategien neu, die seit 2020 existieren, lediglich mit einem LLM vor dem Gas-Estimator.

Für den Rest des Marktes – Kapitalallokatoren, Treasury-Manager, Retail-Nutzer, die sich fragen, ob sie ihr Portfolio einem Chatbot anvertrauen sollen – ist die Antwort für 2026 die langweilige: Nutzen Sie Agenten dort, wo sie nachweislich gewinnen (Yield, Routing, Ausführung), und nicht dort, wo das Marketing es verspricht.

Die Zahl, auf die es wirklich ankommt

Rechnet man die Optimierungs-Bots, die MEV-Searcher und die Stablecoin-Router heraus, liegt der Anteil des DeFi-Volumens von wirklich autonom denkenden Agenten wahrscheinlich eher bei 2–3 % als bei 19 %. Das ist die Zahl, die es in den nächsten 24 Monaten zu beobachten gilt.

Wenn sie bis Mitte 2027 von 2 % auf 10 % steigt, ist Armstrongs These auf Kurs. Bleibt sie flach, während die breitere 19-%-Zahl weiter steigt – was bedeutet, dass spezialisierte Bots effizienter werden, Reasoning-Agenten aber nicht klüger –, dann ist die Agentic Economy zwar real, aber sie ist eine Geschichte der Backend-Infrastruktur, keine Revolution des Portfoliomanagements.

So oder so haben die Daten das Marketing bereits von der Mathematik getrennt. Die 19-%-Schlagzeile ist wahr. Die 5-zu-1-Lücke ist ebenfalls wahr. Jeder, der auf die Agent-Economy setzt, ohne beide Zahlen im Kopf zu behalten, setzt auf eine Geschichte, der die Verfasser der Forschung bereits widersprechen.

BlockEden.xyz betreibt die Indexer, RPC-Endpunkte und die Intent-Routing-Infrastruktur, auf der agentengesteuertes DeFi läuft – über Sui, Aptos, Ethereum, Solana und mehr als 27 weitere Chains. Erkunden Sie unseren API-Marktplatz, um Agenten auf einer Infrastruktur aufzubauen, die für leseintensive und signaturstarke Workloads ausgelegt ist, wie sie die nächste Welle des autonomen DeFi erfordern wird.

Qwen geht Onchain: Wie 0G × Alibaba Cloud den KI-Stack für autonome Agenten neu verdrahtet hat

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Zum ersten Mal in der kurzen Geschichte der KI hat ein Hyperscaler die Schlüssel zu seinem Flaggschiff unter den großen Sprachmodellen an eine Blockchain übergeben. Am 21. April 2026 gaben die 0G Foundation und Alibaba Cloud eine Partnerschaft bekannt, die Qwen – die weltweit am häufigsten heruntergeladene Open-Source-LLM-Familie – für autonome Agenten direkt on-chain aufrufbar macht. Dabei wird die Inferenz in Token anstatt über API-Keys abgerechnet.

Lies das noch einmal. Keine Registrierung. Keine Kreditkarte. Kein Formular für Rate-Limits. Ein Agent mit einer Wallet kann einfach Qwen3.6 aufrufen und pro Million Token in $0G bezahlen, genau wie ein Smart Contract einen Uniswap-Pool aufruft. Diese einzige architektonische Änderung – die Behandlung der Inferenz von Basismodellen als programmierbare Ressource statt als SaaS-Produkt – könnte die folgenreichste Krypto-KI-Geschichte des Jahres sein.