Direkt zum Hauptinhalt

48 Beiträge getaggt mit „DePIN“

Dezentrale physische Infrastrukturnetzwerke

Alle Tags anzeigen

Bittensors Conviction-Test: Kann gesperrtes TAO die dezentrale KI nach dem Covenant-Schock retten?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Am 10. März 2026 schloss ein Netzwerk von etwa 70 Fremden, die über das offene Internet verteilt waren, das Training eines Sprachmodells mit 72 Milliarden Parametern ab, das LLaMA-2-70B beim MMLU schlug. Sechs Wochen später versuchte dasselbe Netzwerk zu verhindern, dass es auseinanderfällt.

Dieses Schleudertrauma – von einem historischen technischen Meilenstein zu einer ausgewachsenen Governance-Krise – ist die Geschichte von Bittensor im Jahr 2026. Und die vorgeschlagene Lösung, ein seltsames neues Primitiv namens Conviction Mechanism, könnte das wichtigste Governance-Experiment im Bereich Krypto-KI in diesem Jahr sein.

InfoFi's Abrechnung: Wie ein API-Verbot Kryptos Billionen-Dollar-Wette auf Informationen neu gestaltete

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Am 9. Januar 2026 veröffentlichten Bots innerhalb von vierundzwanzig Stunden 7,75 Millionen kryptobezogene Nachrichten auf X – ein Anstieg von 1.224 % über dem Basiswert. Sechs Tage später trat Nikita Bier, der Produktleiter von X, vor ein Mikrofon und beendete mit einer einzigen Ankündigung einen gesamten Krypto-Subsektor: Die Plattform würde den API-Zugriff für jede Anwendung dauerhaft widerrufen, die Nutzer finanziell für ihre Posts belohnt. Innerhalb weniger Stunden fielen KAITO und COOKIE – die beiden Flaggschiff-Token der sogenannten Information-Finance-Bewegung – um mehr als 20 %. Der Sektor, den optimistische Analysten zwölf Monate lang als „Kryptos nächste Billionen-Dollar-Kategorie“ bezeichnet hatten, wirkte plötzlich wie ein zugangsbeschränktes Geschäft mit einem einzigen Vermieter.

Drei Monate später wirken die Verfasser von Nachrufen voreilig. Polymarket und Kalshi verarbeiten zusammen ein monatliches Volumen von rund 25 Milliarden US-Dollar. Grass, das Datennetzwerk für Bandbreiten-Sharing, hat die Marke von drei Millionen aktiven Nodes überschritten, die das offene Web für KI-Trainingsdaten durchsuchen. Und Kaito selbst kehrte nach der Einstellung seiner incentivierten „Yapper Leaderboards“ im Januar im Februar mit einer Polymarket-Partnerschaft zurück, die Aufmerksamkeit selbst in ein handelbares Derivat verwandelte. InfoFi ist nicht gestorben. Es hat sich gehäutet – und die Version, die überlebt hat, sieht strukturell anders und strukturell gesünder aus als jene, die Investoren auf dem Höhepunkt des Hypes eingepreist hatten.

Aethirs 344 Mio. $ schwere strategische Rechenreserve: Der Moment, in dem DePIN erwachsen wurde

· 7 Min. Lesezeit
Dora Noda
Software Engineer

In der Geschichte der Kryptowährungen war „dezentrale Infrastruktur“ meist eine Phrase, mit der Venture-Decks das kaschierten, was in Wahrheit nur subventioniertes Token-Mining mit zusätzlichen Schritten war. Man schloss ungenutzte Hardware an, sammelte inflationäre Belohnungen und hoffte, dass die Nachfrage irgendwann mit dem Angebot gleichziehen würde. Meistens passierte das nicht.

Diese Geschichte hat sich in diesem Quartal geändert. Aethir sicherte sich eine strategische Rechenreserve in Höhe von 344 Millionen $, die von einem an der NASDAQ notierten Digital-Asset-Treasury unterstützt wird – die größte Verpflichtung auf Enterprise-Ebene, die jemals für ein dezentrales GPU-Netzwerk eingegangen wurde. Es ist kein Zuschuss. Es ist kein Token-Swap. Es ist institutionelles Kapital, das Rechenkapazität absichert, die von Unternehmen tatsächlich verbraucht wird. Und es ist vielleicht das bisher deutlichste Signal dafür, dass DePIN den Sprung von einer Krypto-nativen Kuriosität zu einem legitimen Beschaffungskanal geschafft hat, der direkt mit AWS, Azure und GCP konkurriert.

Der DeFi-Summer-Moment von AI Crypto: Warum 123.000 Agents und 22 Mrd. $ Marktkapitalisierung jetzt vor der VOC-Abrechnung stehen

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Im Januar 2026 gab es etwa 337 KI-Agenten, die auf öffentlichen Blockchains bereitgestellt wurden. Bis März war diese Zahl auf über 123.000 gestiegen. Allein die BNB Chain beherbergt mittlerweile mehr als 122.000 ERC-8004-Agenten – ein Anstieg von 36.000 % in weniger als neunzig Tagen, der alles in den Schatten stellt, was der DeFi Summer 2020 jemals hervorgebracht hat.

Und doch, wenn man nach den Agenten filtert, die in den letzten sieben Tagen tatsächlich eine Transaktion durchgeführt haben, liegt die Zahl der Überlebenden im niedrigen Tausenderbereich.

Diese Lücke – zwischen Bereitstellung und wirtschaftlicher Aktivität – ist die entscheidende Spannung im KI-Krypto-Sektor zu Beginn des zweiten Quartals 2026. Der Markt ist nun endlich alt genug, um ein Glaubwürdigkeitsproblem zu haben. Mit einer kombinierten Marktkapitalisierung von rund 22,6 Mrd. $ über 919 KI-bezogene Token hinweg wird der Sektor nun auf seinen ersten echten „Nützlich oder nur Hype?“-Moment zugesteuert, und die Kennzahl, die diesen Druck ausübt, hat einen Namen: Verifiable On-Chain Revenue (verifizierbarer On-Chain-Umsatz) oder VOC.

Die große Kapitalrotation: Warum 40 % des Krypto-VC jetzt in die KI-Krypto-Konvergenz fließen

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Als Paradigm im März 2026 stillschweigend die Unterlagen für einen 1,5 Milliarden US-Dollar schweren Fonds für „Krypto, KI und Robotik“ einreichte, erzählte das Rebranding eine wichtigere Geschichte als die Schlagzeile. Der angesehenste Name im Krypto-Venture-Bereich — die Firma, die Uniswap, Optimism und Blur unterstützte — bezeichnet sich nicht mehr als Kryptofonds. Sie nennt sich einen Frontier-Tech-Fonds, der zufällig Krypto macht.

Diese Neupositionierung ist kein Marketing. Es ist ein Indiz. Das Kapital, das 2026 in Web3 fließt, sucht nicht nach dem nächsten DeFi-Protokoll oder der nächsten L1-Chain. Es sucht nach der Schaufel-und-Spaten-Infrastruktur der Agenten-Ökonomie — den Rechennetzwerken, Zahlungsschienen, Identitätsschichten und Datenmarktplätzen, die autonome KI-Systeme benötigen, um miteinander zu interagieren. Und die Zahlen sagen, dass dies keine Nebenwette ist. Es ist die dominante These.

Die Zahlen hinter der Rotation

Das Krypto-Venture-Capital belief sich im ersten Quartal 2026 auf rund 5 Milliarden US-Dollar, was einem Rückgang von etwa 15 % gegenüber dem Vorjahr entspricht. Das allein würde als Abkühlung des Sektors interpretiert werden. Doch wenn man das gesamte VC-Universum betrachtet, ergibt sich ein anderes Bild: Das globale Venture-Funding erreichte im Quartal etwa 300 Milliarden US-Dollar, wovon KI 242 Milliarden US-Dollar einnahm — etwa 80 % der Gesamtsumme. Krypto konkurriert nicht mehr mit Fintech oder SaaS um den marginalen Dollar. Es konkurriert mit KI. Und zunehmend gewinnt es diesen Wettbewerb nur dann, wenn es ein KI-Trikot trägt.

Innerhalb dieses 5-Milliarden-Dollar-Krypto-Pools ist der Anteil, der in KI-Krypto-Konvergenzprojekte fließt, massiv angestiegen. Dezentrale KI stellt im März 2026 einen Sektor mit einer Marktkapitalisierung von 22,6 Milliarden US-Dollar dar, verteilt auf 919 erfasste Projekte. Bittensor allein weist eine Marktkapitalisierung von 3,49 Milliarden US-Dollar auf, verfügt über einen ausstehenden Grayscale-ETF, 128 aktive Subnetze und eine Performance von rund +47 % seit Jahresbeginn. Projekte wie Render Network, Virtuals Protocol, io.net, Akash und der Fetch-Cluster sind keine spekulativen Narrative-Trades mehr. Sie generieren Protokoll-Einnahmen, schließen Rechenverträge mit Unternehmen ab und erscheinen als feste Posten in institutionellen Research-Berichten.

Das Muster der Kapitalallokation spiegelt den DeFi-Sommer 2020 in einer wichtigen Hinsicht wider und weicht in einer anderen davon ab. Wie beim DeFi-Sommer ist ein einziges Schlagwort — „KI“ — zur obligatorischen Überschrift für jedes Pitch-Deck eines Gründers geworden, der Kapital aufnehmen möchte. Im Gegensatz zum DeFi-Sommer liefern die Top-KI-Krypto-Projekte jedoch Umsätze, die von Prüfern verifiziert werden können, und nicht nur TVL, das von Flash-Loan-Farmen über Nacht künstlich aufgebläht werden kann.

Wie sich die Top-Fonds neu positionieren

Die drei Firmen, die die Krypto-Venture-Ära von 2020 bis 2023 dominierten, schwenken alle gleichzeitig um, und die Art jedes Schwenks ist von Bedeutung.

a16z crypto legt einen fünften Fonds mit einem Zielvolumen von rund 2 Milliarden US-Dollar auf, der voraussichtlich in der ersten Hälfte des Jahres 2026 geschlossen wird. Dies geschieht, nachdem die Muttergesellschaft Andreessen Horowitz im Jahr 2025 mehr als 15 Milliarden US-Dollar über mehrere Vehikel eingesammelt hat, darunter 1,7 Milliarden US-Dollar für KI-Infrastruktur und 1,7 Milliarden US-Dollar für KI auf der Anwendungsebene. Die Partner von a16z crypto äußerten sich in öffentlichen Publikationen ungewöhnlich deutlich: 2026 ist das Jahr, in dem KI-Agenten entweder den Sprung von der Demo zum Einsatz schaffen oder die gesamte These in sich zusammenfällt. Zu den Portfolio-Zusagen gehören Catena Labs (Zahlungsinfrastruktur für Agenten) und eine wachsende Liste von „Stablecoin-as-Agent-Rail“-Modellen.

Paradigm sammelt bis zu 1,5 Milliarden US-Dollar für einen neuen Fonds, dessen Umfang stillschweigend über Krypto hinaus auf KI und Robotik erweitert wurde. Zu den jüngsten Wetten gehören Nous Research (Open-Source-Modelltraining mit Krypto-Koordination) und EVMbench (On-Chain-Performance-Tooling). Paradigms Bereitschaft, Anlageklassen zu mischen, signalisiert, dass LPs nicht mehr bereit sind, reine Krypto-Vehikel in den Größenordnungen des Jahrgangs 2021 zu finanzieren.

Polychain hat sich in Richtung KI-Vertrauens- und Identitätsinfrastruktur orientiert — jener Schicht, die die Frage beantwortet: „Ist diese Gegenpartei ein Mensch, ein Agent oder ein Bot, und kann ich ihren Behauptungen vertrauen?“ Investitionen in Billions Network und Talus Labs spiegeln die These wider, dass die knappste Ressource in der Agenten-Ökonomie nicht Rechenleistung oder Token sein werden, sondern verifizierbare Identität.

Der rote Faden bei allen dreien: Diese Fonds finanzieren eine Welt, in der autonome Software Milliarden Mal am Tag mit autonomer Software interagiert und dabei Krypto-Schienen nutzt, weil kein anderes System die Granularität von Mikrozahlungen, die grenzüberschreitende Abwicklungsgeschwindigkeit oder die erforderliche programmierbare Autorisierung bewältigen kann.

Warum DeFi-Kapital nicht in DeFi fließt

Fünf Jahre lang war die Standardantwort auf die Frage „Was finanziert Krypto-VC?“ eine Variation von DeFi — Lending, DEXs, Yield-Aggregatoren, Stablecoin-Emittenten, Derivate-Handelsplätze. Im Jahr 2026 ist dieser Anteil drastisch geschrumpft.

Das liegt nicht daran, dass DeFi stirbt. Die Marktkapitalisierung von Stablecoins überschritt 315 Milliarden US-Dollar, Lending-Protokolle erreichten Rekordauslastungen und Polymarket baute seinen gesamten Exchange-Stack auf PUSD-nativen Sicherheiten neu auf. DeFi ist als Nutzungsschicht gesünder denn je. Aber VCs sehen darin kein Neuland mehr für neues Startup-Eigenkapital.

Die Begründung ist einfach. Die Kern-Primitive von DeFi — AMMs, überbesichertes Lending, Perp-DEXs — sind zur Massenware geworden. Die gewinnenden Protokolle in jeder Kategorie sind etabliert, durch Liquidität geschützt und generieren Einnahmen, aber ihr Eigenkapital ist entweder bereits über Token öffentlich zugänglich oder wird zu Multiplikatoren der Wachstumsphase bewertet, die Venture-Renditen zunichtemachen. Ein neuer Fork, der 2026 startet, kann Uniswap oder Aave nicht plausibel schlagen, und die Gebührenkompression im gesamten Stack lässt wenig Spielraum für einen zwanzigsten AMM.

Was VCs in der Venture-Phase noch finanzieren können, ist die Infrastruktur, die DeFi noch nicht gebaut hat, aber benötigen wird: datenschutzwahrende Ausführung, verifizierbare Off-Chain-Daten, KI-gesteuertes Risikomanagement, von Agenten initiierte Transaktionen mit programmierbaren Leitplanken und domänenübergreifende Abwicklung zwischen öffentlichen Chains und institutionellen privaten Ledgern. Die meisten dieser Kategorien überschneiden sich maßgeblich mit der KI-Krypto-Konvergenz. Ein DeFi-Protokoll, das KI-Modelle zur Risikobewertung nutzt, mit autonomen Agenten abrechnet und Daten durch Zero-Knowledge-Proofs verifiziert, ist nach jeder vernünftigen Definition ein KI-Krypto-Projekt.

Die Mathematik des Pitch Decks

Gehen Sie eine typische Krypto-Finanzierungsrunde im Jahr 2026 durch, und das KI-Framing ist nicht zu übersehen. Projekte, die vor drei Jahren noch „dezentralen Speicher“ gepitcht hätten, pitchen heute eine „Memory-Layer für KI-Agenten“. Projekte, die früher „Orakel“ gepitcht hätten, pitchen jetzt „verifizierbare Daten für das KI-Training“. Projekte, die „Zahlungskanäle“ gepitcht hätten, pitchen jetzt „x402 Mikrozahlungsschienen für den autonomen Handel“.

Einiges davon ist echt. Das Walrus Protocol hat tatsächlich eine Sui-native Speicherschicht entwickelt, die für die Persistenzmuster von KI-Agenten optimiert ist. Das Virtuals Protocol verarbeitet tatsächlich Hunderte von Millionen an Agenten-Bruttoinlandsprodukt (AGDP) durch Token-native Umsatzbeteiligungen. Das Render Network hat tatsächlich NVIDIA Blackwell B200-Hardware integriert und bedient Enterprise-Compute-SLAs.

Einiges davon ist narrativer Deckmantel. Die Q1 2026 Analyse von CryptoSlate argumentiert, dass von den 28 Billionen US-Dollar Transaktionsvolumen, die der „Agenten-Ökonomie“ zugeschrieben werden, bis zu 76 % auf automatisierte Bots entfallen, die Stablecoins zwischen Verträgen hin- und herschieben, anstatt auf autonome Agenten, die neuartigen Handel betreiben. Nur etwa 19 % der On-Chain-Transaktionen gelten als tatsächlich von Agenten initiiert. Die über 17.000 seit 2025 gestarteten Agenten konzentrieren sich stark auf Trading-Bots – geschätzt auf über 84 % des Agenten-AGDP – wobei weniger als 5 % Nicht-Trading-Handel betreiben.

Das Risiko einer Abrechnung im Stil von 2022 ist real. Wenn die Transaktionszahlen der „Agenten-Ökonomie“ so geprüft werden, wie es schließlich beim DeFi TVL der Fall war, wird ein beträchtlicher Teil der Bewertungen, die derzeit durch diese Schlagzeilen gestützt werden, massiv einbrechen. Die Projekte, die überleben werden, sind diejenigen, deren Einnahmen mit identifizierbaren neuen wirtschaftlichen Aktivitäten verknüpft sind – ein KI-Charakter, der GPU-Zeit mietet, ein autonomer Lieferketten-Agent, der grenzüberschreitende Rechnungen begleicht, ein Forschungsmodell-Subnetz, das Inferenzgebühren von Drittanbieter-Anwendungen verdient – und nicht Bots, die USDC in den immer gleichen Pools bewegen.

Wer finanziert wird und wer auf der Strecke bleibt

Die 40-prozentige Verschiebung der Allokation verändert die Rangordnung für Krypto-Gründer, die im Jahr 2026 Kapital aufnehmen wollen.

Bevorzugte Kategorien:

  • Infrastruktur für Agenten-Zahlungen — Catena Labs, das x402-Ökosystem von Coinbase und angrenzende, auf Stablecoins lautende Mikrozahlungsschienen
  • Dezentrale Rechen- und GPU-Marktplätze — Render, io.net, Akash, die aufkommende Stufe der für Nvidia-Blackwell optimierten Netzwerke
  • Verifizierbare KI-Inferenz und Trainingsdaten — ZK-ML-Anbieter, dezentrale Datenkooperativen, Identitäts- und Attestierungsschichten
  • Agenten-Identität und Vertrauen — Billions Network, Humanity Protocol, Worldcoin-ähnliche Proof-of-Personhood-Ansätze
  • Onchain-Agent-Frameworks — Launchpads im Stil von Virtuals, autonome Tresorsysteme, LLM-orchestrierte DeFi-Strategien

Auf der Strecke gebliebene Kategorien:

  • Consumer-DeFi-Apps ohne KI-Bezug — das zwanzigste Spar-Frontend kann kein Kapital mehr aufnehmen
  • Generalistische L1s — neue Chains, die über „schneller, billiger“ konkurrieren, ohne eine Agenten-native Story, finden keine Abnehmer
  • Memecoin-Infrastruktur — Launchpads, Sniping-Tools, Rug-Detection-Overlays sind zu einer Kategorie mit komprimierten Gebühren gereift
  • Reine NFT- und Metaverse-Projekte — das Kapital ist nach 2022 abgezogen und nicht zurückgekehrt

Die Auswirkungen für RPC- und Infrastrukturanbieter sind erheblich. Node-Services, Indexer und Daten-APIs müssen ihren Wert speziell in Agenten-Workflows unter Beweis stellen – indem sie automatisierte Transaktionsströme verarbeiten, nicht-menschliche Abfragemuster unterstützen und KI-freundliche Datenschemata bereitstellen – anstatt nur über reine Latenz und Uptime zu konkurrieren.

Das Risikoszenario

Drei Wege, wie die These scheitern könnte.

Erstens: Die Zahlen der Agenten-Ökonomie halten einer Prüfung möglicherweise nicht stand. Wenn die Schlagzeile von 28 Billionen US-Dollar auf verifizierbare 3 bis 5 Billionen US-Dollar an tatsächlich produktivem Handel zusammenschrumpft, sobald die Bots herausgerechnet werden, korrigieren die Token-Bewertungen im gesamten KI-Krypto-Sektor massiv nach unten. Dies ist das DeFi 2.0-Playbook, angewendet auf Agenten, und die Erinnerung an diese Abrechnung ist erst drei Jahre alt.

Zweitens: Hyperscaler-Capture. Wenn über 80 % der „On-Chain“-Agenten letztlich Inferenz auf AWS, Azure und Google Cloud ausführen, wird die Dezentralisierungsgeschichte zur Kosmetik. Die DePIN-Rechennetzwerke müssen entweder zu echter alternativer Kapazität skalieren oder sich damit abfinden, nur billige Überlaufkapazität zu sein – nützlich, aber nicht grundlegend.

Drittens: Regulatorischer Hinterhalt. Von Agenten initiierte Transaktionen strapazieren jeden bestehenden Rahmen. KYC / AML erwartet einen menschlichen Gegenpart. Die Wertpapierregulierung erwartet einen menschlichen Vermittler. Der Verbraucherschutz erwartet ein menschliches Opfer. Wenn Regulierungsbehörden entscheiden, dass autonome Systeme völlig neue Regelwerke erfordern – und diese Regelwerke nur langsam und ungleichmäßig eintreffen –, verengt sich der adressierbare Markt für Agenten-Krypto-Infrastruktur schneller, als der Entwicklungszyklus sich anpassen kann.

Keines dieser Risiken ist existenzbedrohend für die These, aber jedes für sich kann die Bewertungen für exponierte Portfoliounternehmen halbieren.

Was das für Entwickler bedeutet

Wenn Sie im Jahr 2026 im Krypto-Bereich bauen, hat die Rotation praktische Konsequenzen.

Das Pitch-Meeting ist anders. VCs, die Ihr DeFi-Protokoll im Jahr 2022 finanziert haben, beginnen jetzt mit Fragen zu Ihrer Agenten-Strategie, Ihrer Unit-Economics von Token-zu-KI-Service und der Frage, ob Ihre Infrastruktur eine Verschiebung von menschlichen Transaktionsmustern hin zu maschinellem Durchsatz überlebt. Die Projekte, die Term Sheets erhalten, sind diejenigen, bei denen der KI-Aspekt tragend und nicht nur dekorativ ist.

Der technische Stack ist anders. Agenten-native Anwendungen erfordern andere Primitive als menschen-native – deterministische Ausführung, widerrufbare Autorisierung, ratenbegrenzte Ausgaben, verifizierbare Argumentationsketten. Stacks, die sowohl menschliche als auch Agenten-Nutzer ohne Neugestaltung der Architektur unterstützen, sind selten, und die Prämie dafür, dies richtig zu machen, ist beträchtlich.

Der Zeitdruck ist anders. Ein Krypto-Startup im Jahr 2021 konnte auf Basis von Hype Kapital aufnehmen und ein Produkt in 18 bis 24 Monaten ausliefern. Ein KI-Krypto-Startup im Jahr 2026 steht im Wettbewerb nicht nur mit anderen Krypto-Teams, sondern mit jedem Hyperscaler, jedem KI-nativen SaaS-Player und jeder traditionellen Finanzintegration. Wer langsam liefert, liefert in einen Markt, in dem die Gewinner den Vertrieb bereits unter sich aufgeteilt haben.

Das Fazit

Die 40 %-Rotation ist keine Modeerscheinung und keine Abkehr von Krypto. Sie ist die Antwort der Krypto-Branche auf die Frage, die jeder LP seit 2024 stellt: Wie sieht der nächste Zyklus aus? Die Antwort, auf die sich Paradigm, a16z und Polychain geeinigt haben, lautet: Im nächsten Zyklus geht es nicht um spekulative Token oder Retail-Memecoins. Es geht darum, die Infrastruktur für eine Maschinenökonomie bereitzustellen, die keine andere Wahl hat, als on-chain abzuwickeln.

Ob diese These den Kontakt mit Audits, Regulierung und dem Wettbewerb durch Hyperscaler überlebt, wird den Zyklus 2026–2028 definieren. Aber das Kapital ist bereits positioniert, die Portfoliounternehmen bauen bereits, und die Infrastruktur wird bereits gelegt. Gründer, die diese Rotation frühzeitig erkennen und entsprechend bauen, haben so viel Rückenwind wie seit drei Jahren nicht mehr. Gründer, die dies fälschlicherweise für ein vorübergehendes Narrativ halten, werden das Jahr 2026 mit der Frage verbringen, warum die Meetings ausgeblieben sind.

BlockEden.xyz bietet die API- und Node-Infrastruktur, auf die agent-native Anwendungen angewiesen sind – über Sui, Aptos, Ethereum, Solana und mehr als zwei Dutzend weitere Chains hinweg. Wenn Sie für die Agent-Ökonomie bauen, erkunden Sie unseren API-Marktplatz, um auf einer Infrastruktur zu entwickeln, die für Durchsatz auf Maschinenebene ausgelegt ist.

Quellen

peaq Network nach dem Mainnet: Kann eine Polkadot-Parachain zum Ethereum der Maschinenökonomie werden?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Sechzig DePINs. Zweiundzwanzig Branchen. Millionen von Geräten, die sich selbst Blockchain-native Identitäten ausstellen. Und ein 0,017 $ Token.

Diese vier Zahlen, nebeneinander gestellt, erzählen die Geschichte des peaq Networks im April 2026 besser als jede Pressemitteilung. Achtzehn Monate nach dem Mainnet-Launch verfügt die für die Maschinenwirtschaft konzipierte Polkadot-Parachain über die Ökosystem-Traktion eines erstklassigen L1 und die Marktkapitalisierung eines Mid-Cycle-Altcoins. Der Forschungsbericht von HashKey Capital vom Februar 2026 bezeichnet peaq als grundlegende Schicht für den konvergierenden Web3- und Robotiksektor. Der Markt nennt es einen 200 Millionen $ Micro-Cap. Eine dieser Einschätzungen ist falsch – und herauszufinden, welche, ist die derzeit interessanteste Frage im Bereich DePIN.

Solana Frontier Hackathon: Können 80.000 Entwickler einen 286-Mio.-Dollar-Hack und einen Kurseinbruch von 33 % wettmachen?

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Am 6. April 2026, während das Incident-Response-Team des Drift-Protokolls noch dabei war, gestohlene Vermögenswerte im Wert von 286 Millionen US-Dollar über Cross-Chain-Bridges hinweg zu verfolgen, öffnete Colosseum in aller Stille die Registrierung für den Solana Frontier Hackathon. Das Timing wirkte fast schon trotzig. Solana hatte gerade seinen größten DeFi-Exploit seit dem Wormhole-Bridge-Hack im Jahr 2022 verkraftet, der SOL-Kurs lag nach einem Rückgang von 33 % im ersten Quartal bei fast 87 US-Dollar, und das Sei-Netzwerk schloss am selben Wochenende seine EVM-only-Migration ab – was einen weiteren Wettbewerber aus dem Lager der Solana Virtual Machine abzog.

Inmitten dieser Turbulenzen bittet Colosseum die Entwickler, fünf Wochen lang an Projekten zu arbeiten. Die Frage ist nicht, ob der Frontier Hackathon ein Publikum anziehen wird. Die Frage ist, ob die Teilnahme an einem Hackathon immer noch als Frühindikator für die Gesundheit des Ökosystems dienen kann, wenn sowohl der Preischart als auch das Narrativ der Sicherheit des Ökosystems leiden.

Der Frontier Hackathon in Zahlen

Der Solana Frontier Hackathon findet vom 6. April bis zum 11. Mai 2026 statt – fünf Wochen, vollständig online und weltweit offen. Die Teilnehmer treten in sechs Kategorien an: DeFi, Infrastruktur, Consumer-Anwendungen, Entwickler-Tools, KI und Krypto sowie Projekte für die physische Welt (DePIN). Der Preispool liegt deutlich im siebenstelligen Bereich, aber der wahre Anreiz liegt im weiteren Verlauf: Der Venture-Fonds von Colosseum hat über 2,5 Millionen US-Dollar für die Gewinner-Gründer zugesagt, wobei ausgewählte Teams Pre-Seed-Schecks in Höhe von 250.000 US-Dollar sowie die Aufnahme in den Colosseum-Accelerator erhalten.

Die bisherige Erfolgsbilanz ist das beste Argument. In zwölf Hackathons der Solana Foundation (von denen vier nun von Colosseum durchgeführt werden) haben mehr als 80.000 Entwickler teilgenommen. Die jüngste Veranstaltung, der Solana Cypherpunk Hackathon, zog über 9.000 Teilnehmer und 1.576 finale Einreichungen an – der größte Krypto-Hackathon aller Zeiten. Frühere Jahrgänge brachten Projekte hervor, die heute Flaggschiff-Protokolle von Solana sind: Marinade Finance, Jupiter und Phantom lassen sich alle auf Hackathons der Foundation zurückführen.

Diese Geschichte spricht für eine positive Entwicklung. Die Gegenargumente liefern die Ereignisse der letzten sechs Wochen.

Die Drift-Wunde

Am 1. April 2026 entwendeten Angreifer 286 Millionen US-Dollar aus dem Drift-Protokoll – der größten DEX für Perpetual-Futures auf Solana. Die Mechanismen sind von Bedeutung, da sie keinen Fehler im Smart Contract ausnutzten. Sie nutzten ein Feature aus.

Die Angreifer gaben sich monatlich als quantitative Handelsfirma aus und bauten soziales Vertrauen zu den Drift-Mitwirkenden auf. Sie lancierten einen gefälschten Token namens CVT (CarbonVote Token) mit einem Angebot von 750 Millionen Stück, erstellten einen dünnen Liquiditätspool, manipulierten den Preis durch Wash-Trading auf etwa 1 US-Dollar und installierten ein kontrolliertes Preis-Oracle, um Drift diese Fiktion zu füttern. Der entscheidende Schlag erfolgte unter Verwendung von Solanas „Durable Nonces“ – einem Komfort-Primitiv, mit dem Transaktionen jetzt signiert und später gesendet werden können –, um Mitglieder des Sicherheitsrats dazu zu verleiten, ruhende Transaktionen vorab zu signieren, die die Angreifer schließlich auslösten.

Elliptic und TRM Labs schrieben die Operation Bedrohungsakteuren mit Verbindungen zur DVRK zu und verwiesen auf Geldwäschemuster und On-Chain-Zeitstempel, die mit der Arbeitsweise der Lazarus-Gruppe übereinstimmen. Der TVL von Drift brach innerhalb weniger Tage von etwa 550 Millionen US-Dollar auf unter 250 Millionen US-Dollar ein. Die Solana Foundation reagierte am 7. April mit dem Solana Incident Response Network (SIRN), einer koordinierten Sicherheitsabsicherung für Protokolle im gesamten Ökosystem.

Für einen Hackathon, der nur eine Woche später Entwickler anwirbt, ist die Frage unangenehm: Beginnt man einen fünfwöchigen Sprint zum Aufbau von Infrastruktur auf einer Chain, auf der die größte Perp-DEX gerade die Hälfte ihres TVL durch einen Social-Engineering-Angriff auf ein integriertes Primitiv verloren hat?

Das Paradoxon: Aktivität steigt, Preis sinkt, Entwickler bleiben stabil

Dies macht das Timing des Frontier Hackathons interessanter, als es die Schlagzeilen vermuten lassen. SOL ist im bisherigen Jahresverlauf um 33 % gefallen, aber Solana wickelt etwa 41 % des gesamten On-Chain-Handelsvolumens ab – mehr als Ethereum und alle L2-Lösungen zusammen. Die Chain verzeichnete im Jahr 2025 mehr als 11.500 neue Entwickler, was nach Ethereum den zweiten Platz bedeutet, und überschritt Ende März 2026 die Marke von 10.000 einzigartigen Entwicklern insgesamt. Die Solana Developer Platform (SDP) wurde Ende März eingeführt und bündelt über 20 Infrastrukturanbieter hinter einer einzigen API-Oberfläche für Emissionen, Zahlungen und Handel.

Das Muster sieht weniger nach einem Rückzug des Ökosystems aus, sondern eher nach einer schwierigen Phase der Neubewertung. Die Preisentwicklung reagiert auf das Sicherheitsnarrativ und die allgemeinen Risk-off-Bedingungen. Die Aktivität reagiert auf die Tatsache, dass Solana Trades immer noch schneller und günstiger abwickelt als seine Konkurrenten. Die Teilnahme am Hackathon wird uns zeigen, welches dieser Signale bei den Menschen überwiegt, die sich tatsächlich entscheiden, wo sie bauen möchten.

Der Wettbewerb wurde schärfer, nicht schwächer

Der Starttermin am 6. April liegt zwei Tage vor dem Abschluss der EVM-only-Migration des Sei-Netzwerks am 8. April. Damit fällt die duale SVM/Cosmos-Kompatibilität von Sei komplett weg – eine Chain weniger, die Solana-nahe Ausführungssemantiken anbietet. Theoretisch festigt dies die SVM-Anziehungskraft um Solana selbst. In der Praxis bedeutet es, dass jeder, der SVM nutzen wollte, nun genau eine ausgereifte Option hat, und die Hürde, ihn zu überzeugen, davon abhängt, wie sich die Entwicklererfahrung von Solana im Mai 2026 präsentiert.

In der Zwischenzeit schläft die Ethereum-Seite nicht. Der Kalender von ETHGlobal für 2026 umfasst Cannes (3.–5. April), New York (12.–14. Juni), Lissabon (24.–26. Juli), Tokio (25.–27. September) und Mumbai im vierten Quartal. Allein HackMoney 2026 zog 155 Teams für das Testnetz eines einzigen Sponsors an. Base, Arbitrum, Monad und der Rest der L2-Kohorte führen nahezu kontinuierlich Entwicklerprogramme durch. Der Frontier Hackathon konkurriert nicht in einem Vakuum; er konkurriert mit einem voll besetzten Ethereum-Recruiting-Funnel, der sich um KI-native und Consumer-Krypto-Narrative neu formiert hat.

Das Differenzierungsmerkmal, auf das Colosseum setzt, ist die Konversion. ETHGlobal-Hackathons sind Talent-Entdeckungs-Events; Colosseum-Hackathons sind Gründer-Bildungs-Events. Der 250.000-Dollar-Scheck, der Platz im Accelerator und die ausdrückliche Zusage, „ausgewählte Gewinner-Gründer“ zu finanzieren, machen einen fünfwöchigen Sprint zum Einstieg in eine Venture-Pipeline. Dieses Modell ist seltener, als es klingt, und es ist der Grund, warum Colosseum-Events eher Unternehmen als reine Demos hervorbringen.

Worauf bis zum 11. Mai zu achten ist

Einige Signale werden uns verraten, ob der Frontier Hackathon den Schwung der Solana-Entwickler wiederbelebt oder ihn nur aufrechterhält:

  • Anzahl der Einreichungen im Vergleich zu den 1.576 von Cypherpunk. Eine gleichbleibende oder steigende Zahl trotz des Drift-Zwischenfalls deutet darauf hin, dass die Überzeugung der Entwickler strukturell und nicht sentimental begründet ist.
  • Verteilung der Tracks. Eine starke Gewichtung auf Infrastruktur und Entwickler-Tools würde signalisieren, dass die Entwickler auf das Sicherheitsnarrativ reagieren, indem sie den Stack härten. Ein Fokus auf Consumer/KI würde signalisieren, dass sie stattdessen auf den nächsten narrativen Zyklus setzen.
  • Geografische Verteilung. Frühere Colosseum-Events waren eher auf Nordamerika und Europa ausgerichtet. Ein größerer Anteil aus Asien und Lateinamerika würde darauf hindeuten, dass die SVM-Konsolidierung (nach Sei) internationale, an SVM interessierte Teams standardmäßig zu Solana zieht.
  • DePIN- und KI-Agent-Einreichungen. In beiden Kategorien ist die geringe Latenz von Solana am wichtigsten, und für beide hat der Frontier Hackathon explizit zur Teilnahme eingeladen. Starke Ergebnisse hier würden Solanas Schwenk hin zu agentischen und physischen Anwendungsfällen validieren.
  • Post-Hackathon-TVL der Gewinner nach sechs Monaten. Dies ist die einzige Kennzahl, die auf lange Sicht zählt, und diejenige, auf deren Optimierung das Accelerator-Modell von Colosseum ausgelegt ist.

Die größere Wette

Hackathons beheben keine Exploits. Sie machen keine Preischarts rückgängig. Was sie jedoch tun – wenn sie funktionieren –, ist die nächste Kohorte von Gründern zu rekrutieren, die die Protokolle aufbauen werden, die darüber entscheiden, ob sich der Chart und das Sicherheitsnarrativ überhaupt erholen. Der Cypherpunk-Hackathon brachte Unruggable, Yumi, Seer und eine Handvoll anderer Projekte hervor, die bereits aktiv am Markt sind. Wenn der Frontier Hackathon eine vergleichbare Kohorte liefert, wird der Drift-Exploit eher als Vorfall im Jahr 2026 in Erinnerung bleiben und nicht als Wendepunkt.

Die schwierigere Wette ist, ob die Entwickler überhaupt erscheinen. Bis zum 11. Mai werden wir eine Antwort haben.


BlockEden.xyz bietet Solana-RPC- und Indexer-Infrastruktur der Enterprise-Klasse für Teams, die auf SVM entwickeln. Wenn Sie am Frontier Hackathon teilnehmen oder ein Protokoll nach Drift härten, erkunden Sie unsere Solana-API-Dienste für produktionsbereite Endpunkte, die für die entscheidenden Workloads entwickelt wurden.

Walrus wird zum Gehirn: Wie Suis Speicherprotokoll zur Standard-Speicherschicht für KI-Agenten im Jahr 2026 wurde

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Jeder autonome KI-Agent, der heute On-Chain läuft, hat dasselbe demütigende Geheimnis: Er vergisst fast alles. Ein Trading-Agent schichtet am Montag ein Treasury von 2 Mio. um,meistertamDienstageinekomplexeArbitrageundhatbisMittwochkeinekoha¨renteErinnerunganbeidesweildieInfrastrukturfu¨rdasErinnernnochnichtineinerFormexistiert,diezurArbeitsweisevonAgentenpasst.DieseLu¨ckeistnundaswichtigsteungelo¨steProbleminder450Mrd.um, meistert am Dienstag eine komplexe Arbitrage und hat bis Mittwoch keine kohärente Erinnerung an beides – weil die Infrastruktur für das Erinnern noch nicht in einer Form existiert, die zur Arbeitsweise von Agenten passt. Diese Lücke ist nun das wichtigste ungelöste Problem in der 450 Mrd. schweren On-Chain-Agenten-Ökonomie, und im April 2026 hat sich ein ursprünglich für Dateien entwickeltes Speichernetzwerk als Lösung positioniert.

Walrus Protocol, das Sui-native dezentrale Speichernetzwerk von Mysten Labs, überschritt an seinem ersten Jahrestag 450 TB an gespeicherten Daten, übertraf damit die 385 TB von Arweave und entwickelte sich zum dominierenden Write-Heavy-Storage-Layer im Web3. Doch die interessantere Geschichte ist nicht die schiere Tonnage – es ist MemWal, das KI-Memory-SDK, das Walrus am 25. März 2026 veröffentlichte. Es definiert das gesamte Protokoll als Infrastruktur für Agenten statt für Dateien neu. Für Entwickler, die die nächste Welle autonomer Systeme bauen, zeichnet dies die Karte des dezentralen Speichers still und leise neu.

Der Speicher-Engpass, über den niemand sprechen wollte

LLM-basierte Agenten leben innerhalb einer grausamen Einschränkung: dem Kontextfenster. Jeder Denkschritt, jeder Tool-Aufruf, jede Beobachtung muss in ein paar hunderttausend Token passen, und alles, was nicht hineinpasst, hört aus der Sicht des Agenten einfach auf zu existieren. Menschliche Entwickler überbrücken dies mit Vektordatenbanken, Redis-Caches und Postgres-Tabellen – zentrale Infrastruktur, die gut funktioniert, bis man möchte, dass der Agent seine eigenen Keys hält, seine eigenen Transaktionen signiert und ohne ein vertrauenswürdiges Backend operiert.

Die On-Chain-Agenten-Bewegung hat dieses Problem verschärft. Bis zum ersten Quartal 2026 verfolgte allein das Virtuals Protocol über 479 Mio. $ an von Agenten generierten Wirtschaftsaktivitäten und mehr als 17.000 On-Chain-Agenten, die Guthaben halten. Diese Agenten benötigen einen Status zwischen den Sitzungen. Sie müssen sich merken, welche Gegenparteien zahlungsunfähig wurden, welche Strategien Geld verloren haben und welche Nutzer ihnen Berechtigungen erteilt haben. Und sie können das nicht einfach in AWS schreiben – der ganze Witz an der autonomen On-Chain-Arbeitsweise ist, dass es kein „Sie“ gibt, dem man ein Datenbankpasswort anvertrauen könnte.

Die bestehenden dezentralen Speicheroptionen stießen alle an verschiedene Grenzen des Problems:

  • IPFS ist inhaltsadressiert und Peer-to-Peer, hat aber keinen nativen wirtschaftlichen Anreiz für jemanden, Ihre Daten weiterhin zu „pinnen“. Dateien verschwinden, wenn der letzte Node das Interesse verliert.
  • Filecoin löst Anreize mit Storage Deals, aber seine Abruflatenz – oft zig Sekunden für Cold Data – ist unvereinbar mit einem Agenten, der ein Speicherfragment mitten in einer Reasoning-Schleife abrufen muss.
  • Arweave bietet echte Permanenz mit einem Pay-Once-Store-Forever-Modell, aber seine Ökonomie ist für die Archivierung optimiert: günstiger Langzeitspeicher, teure und umständliche Schreibvorgänge für kleine Objekte, keine native Integration mit dem Compute-Layer, auf dem die Agenten tatsächlich leben.

Keine dieser Lösungen wurde für einen Anwendungsfall entwickelt, bei dem eine Million autonomer Programme alle paar Sekunden kleine, strukturierte Status-Blobs schreiben und diese mit einer Latenz von unter einer Sekunde zurücklesen möchten, während sie gleichzeitig das Eigentum an einem Wallet-gesteuerten Objekt auf einer Smart-Contract-Chain verankern. Walrus hingegen schon.

Was Walrus eigentlich ist

Walrus ist ein dezentrales Speicher- und Datenverfügbarkeitsprotokoll, das von Mysten Labs auf Sui aufgebaut wurde. Es startete sein Mainnet im Jahr 2025 und erreichte seinen Meilenstein von einem Jahr Anfang 2026 mit beeindruckenden Vitalwerten: 100 Storage Nodes in 19 Ländern, 4,12 PB Gesamtsystemkapazität (wobei derzeit etwa 39 % genutzt werden) und eine wachsende Pipeline von Protokollintegrationen. Die Top-Validatoren nach Stake konzentrieren sich auf die USA, Finnland, die Niederlande, Deutschland und Litauen – eine geografische Verteilung, die sowohl für die Latenz als auch für die regulatorische Resilienz wichtig ist.

Unter der Haube ist der Zaubertrick ein Erasure-Coding-Schema namens Red Stuff. Anstatt jeden Blob in vielen vollständigen Kopien zu replizieren (der klassische Filecoin/S3-Ansatz), unterteilt Red Stuff jeden Blob in Slivers und verteilt sie auf über 100 Nodes mit nur einem 4,5-fachen Replikationsfaktor. Das bedeutet, dass Walrus weitaus weniger für die Dauerhaftigkeit bezahlt als eine naive Replikation, während es dennoch den Ausfall einer Supermehrheit von Nodes toleriert. Ebenso wichtig ist, dass das Schema selbstheilend ist: Wenn ein Node offline geht, kostet die Wiederherstellung seines Datenanteils nur Bandbreite proportional zu den verlorenen Daten und nicht zum gesamten Blob – so wird das Netzwerk schrittweise abgebaut und repariert, anstatt abrupt auszufallen.

Die wirtschaftliche Ebene ist der WAL-Token. Blob-Publisher zahlen pro Epoche Aufbewahrungsgebühren in WAL; Staker stellen Speicherbandbreite zur Verfügung und verdienen diese Gebühren; Sui-Objekte verankern das Eigentum und die Zugriffskontrolle für jeden Blob. Ab Mitte April 2026 wird WAL bei etwa 0,098 gehandelt,miteinerMarktkapitalisierungvonetwa225Mio.gehandelt, mit einer Marktkapitalisierung von etwa 225 Mio., was einem Anstieg von 45 % innerhalb von 24 Stunden nach dem MemWal-Ankündigungszyklus entspricht. Das sind immer noch etwa 87 % weniger als das Allzeithoch von 0,76 $ im Mai 2025, was zeigt, dass der Großteil der Wertsteigerung noch vor dem Protokoll liegt, falls die KI-Agenten-These aufgeht.

Entscheidend ist – und das ist der Teil, den die Konkurrenz immer wieder übersieht –, dass Schreibvorgänge auf Walrus billig und schnell sind. Man kann Gigabytes auf einmal hochladen, da der Blob das Netzwerk nur einmal durchläuft und Storage Nodes Slivers verarbeiten, die nur einen Bruchteil der ursprünglichen Größe haben. Das macht kleine, häufige Schreibvorgänge wirtschaftlich rentabel, was enorm wichtig ist, wenn der schreibende Akteur ein Agent ist, der seinen Status alle paar Tool-Aufrufe sichern möchte.

Willkommen bei MemWal: Speicherung neu definiert als Kognition

Am 25. März 2026 stellte das Walrus-Team MemWal vor, ein Entwickler-SDK und eine Runtime für den Bau von Agenten mit persistentem Gedächtnis. Es befindet sich derzeit in der Beta-Phase, hat aber bereits die Art und Weise verändert, wie Entwickler über das Protokoll sprechen: Walrus ist nicht mehr nur „die günstige dezentrale Speicherschicht“, sondern „der Ort, an dem sich Ihre Agenten an Dinge erinnern“.

Die Kernabstraktion, die MemWal einführt, ist der Speicherraum (Memory Space) — ein strukturierter, zweckgebundener Container, der die unstrukturierten Logdateien ersetzt, in die Agenten früher ihren Status geladen haben. Ein Trading-Agent könnte beispielsweise über drei Speicherräume verfügen: einen Kurzzeit-Arbeitsgedächtnis-Raum mit den Beobachtungen der letzten Minuten, einen mittelfristigen Portfolio-Status-Raum mit Positionen und nicht realisierten Gewinnen und Verlusten (G&V) sowie einen langfristigen Kontrahenten-Reputations-Raum, der über Wochen oder Monate der Interaktionshistorie hinweg bestehen bleibt. Jeder Raum hat seine eigenen Aufbewahrungsrichtlinien, Zugriffsberechtigungen und Aktualisierungszyklen.

Unter der Haube kommuniziert ein Agent, der das MemWal-SDK nutzt, mit einem Backend-Relayer, der das Batching, die Kodierung und die Sui-Interaktion für Blob-Commits übernimmt. Der Relayer überträgt die Daten zur Speicherung an Walrus und aktualisiert gleichzeitig Sui-Objekte, die das Eigentum und die Zugriffskontrolle für jeden Speicherraum beschreiben. Das bedeutet, dass das Gedächtnis eines Agenten nicht nur gespeichert wird — es befindet sich im Eigentum eines Sui-Objekts. Dadurch kann es übertragen, delegiert, widerrufen oder mit anderen On-Chain-Primitiven kombiniert werden, genau wie jeder andere Vermögenswert.

Drei konkrete Anwendungsfälle treiben bereits erste Integrationen voran:

  1. Sitzungsübergreifende Persistenz ohne ein Always-on-Backend. Ein Agent kann gestartet werden, seine relevanten Speicherräume über das SDK von Walrus laden, für eine Weile logische Schlüsse ziehen, Aktualisierungen committen und wieder herunterfahren — ohne dass ein zentralisierter Server involviert ist. Wenn er das nächste Mal aufwacht, sei es im selben Prozess oder auf einer anderen Maschine, rekonstruiert er seinen eigenen Status direkt aus der Chain.

  2. Gemeinsamer Kontext für Multi-Agenten mit kryptografischen Berechtigungen. Da das Objektmodell von Sui eine feingliedrige Delegierung von Funktionen ermöglicht, kann ein Agent einem anderen Lesezugriff auf einen bestimmten Speicherraum gewähren, ohne den Rest seines Status offenzulegen. Dies ist das Primitiv, nach dem „Agenten-Schwärme“ (wie sie auf ElizaOS entstehen) verlangt haben — ein Weg, um einem Sentiment-Analyse-Agenten das Lesen der Ausgaben des Scraping-Agenten zu ermöglichen, ohne dass beide einer gemeinsamen Datenbank vertrauen müssen.

  3. Prüfbare Entscheidungspfade für regulierte Agenten. Finanzagenten, die Trades ausführen, Kredite genehmigen oder Compliance-Workflows verwalten, müssen Aufzeichnungen erstellen, die von Regulierungsbehörden, Prüfern und Kontrahenten verifiziert werden können. Ein Speicherraum, der an ein Sui-Objekt mit einem unveränderlichen Commit-Log gekoppelt ist, ist genau das, was „verifizierbare Compliance“ in einem agenten-nativen System bedeutet.

Das hierarchische Design — Kurzzeit-Arbeitsgedächtnis getrennt von langfristigem persistentem Speicher, ergänzt durch kryptografische Integritätsprüfungen — spiegelt die Architektur wider, zu der die kognitionswissenschaftliche Forschung KI-Entwickler seit Jahren drängt. Der Unterschied besteht darin, dass MemWal dies zu einem Protokoll-Primitiv macht und nicht zu einem individuellen Anwendungsfall.

Warum die etablierten Akteure hier nicht einfach umschwenken können

Es ist verlockend anzunehmen, dass Filecoin oder Arweave einfach ein „Agent Memory“-SDK hinzufügen und konkurrieren könnten. Das Problem ist jedoch architektonischer Natur, nicht marketingbedingt.

Filecoins F3 Fast-Finality-Upgrade im Jahr 2025 hat zwar die Latenz verbessert und die Marktkapitalisierung des Netzwerks auf über 5 Mrd. $ getrieben, aber das deal-basierte Speichermodell setzt grundlegend voraus, dass Schreibvorgänge groß, selten und im Voraus ausgehandelt sind. Der Datenabruf wird zwar besser, wird aber bei kalten Daten immer noch in Sekunden gemessen, was außerhalb des Budgets eines Agenten-Logikzyklus liegt. Man könnte Agenten zwingen, dies mit aggressivem Caching zu umgehen, aber an diesem Punkt hätte man lediglich ein Off-Chain-Backend nachgebaut.

Arweaves Permaweb folgt einer anderen Philosophie — es ist für Daten konzipiert, die den Ersteller überdauern sollen. Das ist wunderbar für Journalismus, Herkunftsnachweise und historische Archive, aber ungeeignet für sich schnell aktualisierende Agenten-Status. Das Modell „einmal zahlen, für immer speichern“ passt zudem nicht zur ökonomischen Realität von Agenten-Gedächtnissen, bei denen die meisten Daten nur für einige Tage oder Wochen relevant sind und dann aussortiert werden können. Die AO-Computing-Layer von Arweave ist interessant und beobachtenswert, stellt aber eine andere Wette dar: paralleles Computing auf dem Permaweb statt einer Speicherschicht für Agenten, die andernorts laufen.

IPFS bleibt das, was einer Lingua Franca für die Web3-Datei-Adressierung am nächsten kommt, aber ohne Persistenzgarantien wird kein ernsthafter Agenten-Entwickler geschäftskritische Status dort ablegen. Das Ökosystem der Pinning-Dienste, das um IPFS herum entstanden ist, ist ein pragmatischer Patch, aber keine architektonische Lösung.

Der Vorteil von Walrus liegt nicht darin, dass es ein neues Primitiv erfunden hat — Erasure Coding gibt es schon seit Jahrzehnten. Es liegt daran, dass das Wirtschaftsmodell (Miete pro Epoche statt dauerhafter Ausstattung), das Latenzprofil (Sub-Sekunden-Lesevorgänge bei kleinen Blobs) und die Smart-Contract-Integration (Sui-Objekte als Eigentumsanker) genau darauf abgestimmt sind, wie autonome Agenten agieren müssen. Der Rest des Stacks muss diese Eigenschaften mühsam in bestehende Architekturen pressen, die für völlig andere Zwecke entworfen wurden.

Es gibt eine nützliche Vergleichstabelle des Four Pillars Research-Teams, die einen weiteren, nicht offensichtlichen Vorteil aufzeigt: die Kosten. Das Erasure Coding von Walrus und der niedrige Replikationsfaktor machen es pro MB dauerhaftem Speicher etwa 100-mal günstiger als Filecoin oder Arweave. Für Agenten, die täglich hunderte kleiner Status-Updates schreiben könnten, summiert sich das bei entsprechender Skalierung zu erheblichen Beträgen.

Was dies für Infrastruktur-Entwickler bedeutet

Die Entstehung von Walrus als Agent-Memory-Layer ist Teil eines größeren Musters, das jeder, der im Jahr 2026 Web3-Infrastruktur aufbaut, verinnerlichen muss. Die Agenten-Ökonomie zersplittert in spezialisierte Substrate, von denen jedes ein spezifisches Problem löst:

  • Coinbase's Agentic Wallet löst das Thema Custody: wo die Keys liegen.
  • Mind Network's x402z kümmert sich um vertrauliche Zahlungen: wie Agenten transagieren, ohne ihre Strategie offenzulegen.
  • Nava Labs widmet sich der Intent-Verifizierung: entsprach die ausgeführte Aktion dem, was der Nutzer angefordert hat.
  • ERC-8004 definiert die Identität: wer der Agent on-chain ist.
  • Warden baut den kryptoeconomic Settlement-Layer auf: wie Agenten Sicherheiten hinterlegen und bei Fehlverhalten geslasht werden.
  • Walrus + MemWal besitzen nun den Memory-Layer: was der Agent weiß und woran er sich erinnert.

Keines dieser Projekte ist für sich genommen ein Winner-Take-All-Markt, aber zusammen bilden sie den neuen Agentic Stack — und die Projekte, die gewinnen werden, sind diejenigen, die sich nahtlos über alle Layer hinweg integrieren. Ein Entwickler, der im Jahr 2026 einen neuen On-Chain-Trading-Agenten startet, sollte erwarten, ein Sui-Wallet, einen Walrus-Memory-Layer, einen Identity-Credential, einen Verifizierungsnachweis und eine Payment-Rail zu kombinieren. Kein einzelnes Protokoll beherrscht alle fünf Bereiche gut, und diejenigen, die es versuchen, beherrschen meist keinen davon wirklich gut.

Die DePIN-Prognose des World Economic Forum — von 50 Mrd. imJahr2025auf3,5Bio.im Jahr 2025 auf 3,5 Bio. bis 2028 — ist der makroökonomische Rückenwind für all dies. Storage und Compute sind die größten Komponenten dieser Prognose, und im Bereich Storage setzt Walrus am aggressivsten seine Flagge. Die Allium-Partnerschaft, die Anfang des Jahres 65 TB an verifizierbaren Blockchain-Daten in institutioneller Qualität (historische Aufzeichnungen von Bitcoin, Ethereum, Sui) auf die Walrus-Plattform brachte, ist die institutionelle Validierung, die das Protokoll benötigte: Es ist nicht nur ein Spielzeug für Sui-native NFT-Projekte, sondern ein lebensfähiges Substrat für ernsthafte Daten-Workloads.

Offene Fragen

Nichts davon ist garantiert. Drei Dinge könnten diese These noch zu Fall bringen:

Sui-Konzentrationsrisiko. Walrus ist ökonomisch durch die WAL-Tokenomics und technisch durch die Integration des Object-Models an Sui gebunden. Wenn Sui als Smart-Contract-Plattform an Bedeutung verliert — zugunsten von Aptos, Solana oder einer L2-Renaissance — muss die Agent-Memory-Story von Walrus auf einer schwächeren Basis neu aufgebaut werden. Bisher sieht die Traktion der Entwickler auf Sui gesund aus, aber "bisher" ist die Art und Weise, wie man jede Krypto-Plattform vor ihrem Wendepunkt in die eine oder andere Richtung beschreibt.

MemWal-Adoptionskurve. Das SDK befindet sich noch in der Beta-Phase. Der wahre Test ist, ob große Agent-Frameworks — ElizaOS, AutoGPT-ähnliche Systeme, die aufkommenden MCP / A2A-Agenten-Protokolle — MemWal zu einer First-Class-Integration oder nur zu einer von mehreren Optionen machen. Ohne eine enge Framework-Unterstützung wird MemWal zu einem Nischen-Tool für Entwickler, die sich explizit für die Nutzung von Sui entscheiden.

Kommerzieller Zentralisierungsdruck. Wenn OpenAI oder Anthropic ein First-Party-"Agent-Memory"-Produkt mit enger LLM-Integration auf den Markt bringen, werden viele Entwickler die bequeme Option der dezentralen vorziehen. Die Antwort von Walrus muss sein, dass dezentraler Speicher Anwendungsfälle ermöglicht — Agenten, die ihr eigenes Vermögen verwalten, Zusammenarbeit zwischen mehreren Agenten ohne einen vertrauenswürdigen Betreiber —, die zentralisierter Speicher nicht bieten kann. Das stimmt zwar, erfordert aber eine kontinuierliche Aufklärungsarbeit beim Markteintritt.

Bauen auf dem neuen Agentic Stack

Die nächsten 18 Monate werden entscheiden, ob der Agentic Web3 Stack um drei oder vier etablierte Akteure erstarrt oder in ein Dutzend konkurrierender Layer zersplittert. Walrus setzt darauf, dass Memory zu einem eigenständigen, beanspruchbaren Layer in diesem Stack wird — und dass der Gewinner des Memory-Layers derjenige ist, der programmierbares Eigentum, Low-Latency-Reads, nachhaltige Ökonomie und tatsächliche Entwickler-Tools kombiniert. Nach dieser Checkliste ist es heute weiter fortgeschritten als jeder seiner direkten Konkurrenten.

Für Builder, die im Jahr 2026 agent-native Produkte ausliefern wollen, ist die praktische Empfehlung einfach: Betrachten Sie Memory als ein erstklassiges Infrastruktur-Thema, nicht als Nebensache. Die Agenten, die sich an ihre Nutzer, ihre Strategien und ihre Fehler erinnern, werden Vorteile aufbauen, die stateless Agenten schlichtweg nicht erreichen können.

BlockEden.xyz bietet eine zuverlässige Sui-RPC-Infrastruktur in Produktionsqualität für Teams, die On-Chain-Agenten und dApps entwickeln, die mit Walrus, MemWal und dem breiteren Sui-Ökosystem integriert sind. Entdecken Sie unsere Sui-API-Dienste, um auf denselben Grundlagen aufzubauen, die den agent-nativen Web3-Stack antreiben.

Quellen

Circles 0,000001 $ USDC-Nanopayments: Die unsichtbare Schiene, die die Roboter-Ökonomie antreibt

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Ein Roboterhund läuft zu einer Ladestation, schließt sich selbst an und bezahlt für den Strom. Kein Mensch zieht eine Karte durch. Es wird kein Händlerkonto berührt. Die gesamte Transaktion kostet weniger als das Kilowatt, das sie kauft.

Dies ist kein Konzeptvideo. Im Februar 2026 tat „Bits“, der Roboterhund von OpenMind, genau das mithilfe der neuen Nanopayment-Schiene von Circle – er wickelte USDC-Transfers von nur 0,000001 $ bei null Gas-Gebühren für den Entwickler ab. Am 3. März 2026 brachte Circle diese Funktion in das öffentliche Testnet und schuf damit die erste Stablecoin-Infrastruktur, die wirklich für die Ökonomie von Maschinen entwickelt wurde.

Seit einem Jahrzehnt sind „Mikrozahlungen“ der Anwendungsfall der Blockchain-Branche, der am meisten versprochen und am wenigsten eingelöst wurde. Circle Nanopayments ist der bisher stärkste Beweis dafür, dass die Rechnung endlich aufgeht.

Warum Sub-Cent-Transfers jede bestehende Schiene sprengten

Sprechen Sie mit einem Zahlungsingenieur über Mikrozahlungen, und er wird seufzen. Der Traum – Bezahlung pro Artikel, Bezahlung pro API-Aufruf, Bezahlung pro Sekunde Streaming – ist mit einer einfachen Wahrheit kollidiert: Die Gebühren fressen die Nutzlast auf.

Die effektive Untergrenze von Visa für Kartentransaktionen liegt nach Interbankenentgelten und Bearbeitung bei etwa 1,4 Cent. Das Minimum von PayPal liegt eher bei 5 Cent. Der Standardsatz von Stripe von 2,9 % plus 30 Cent macht alles unter etwa 5 $ wirtschaftlich sinnlos. Diese Netzwerke wurden entwickelt, um Dollars zu bewegen, nicht Bruchteile von Pennys.

Blockchain sollte dies beheben. Das tat sie meistens nicht.

  • Das Gas im Ethereum-Mainnet sinkt selbst bei Tiefstständen nach Dencun selten unter ein paar Cent pro Transfer – um Größenordnungen mehr als die Nutzlast bei jeder echten Mikrozahlung.
  • Solana kommt dem mit Gebühren im Sub-Cent-Bereich und einer Finalität von unter 400 ms nahe, aber eine Maschine, die eine Million Aufrufe pro Tag tätigt, zahlt immer noch einen erheblichen Overhead, und die Gas-Volatilität macht die Budgetierung zunichte.
  • Das Lightning Network kann Bitcoin-Zahlungen im Sub-Cent-Bereich durchführen, erfordert jedoch dedizierte Liquidität in Kanälen und hat das Benutzererlebnis (UX) für autonome Agenten nie gelöst.
  • Das x402 HTTP-Zahlungsprotokoll von Stripe ist zwar elegant, baut aber immer noch auf der zugrunde liegenden Chain-Ökonomie auf – sein tägliches On-Chain-Volumen von 28.000 $ (Stand März 2026) zeigt, dass die Nachfrage in großem Umfang nicht eingetreten ist.

Das fehlende Puzzleteil war ein Zahlungsprimitiv, bei dem die Gebührenstruktur nicht proportional zur Nutzlast ist. Die Antwort von Circle ist brutal einfach: Alles off-chain aggregieren, in Batches abrechnen und Circle selbst die On-Chain-Kosten übernehmen lassen.

Was Circle tatsächlich gebaut hat

Circle Nanopayments ermöglicht USDC-Transfers von nur 0,000001 $ – einem Zehntausendstel Cent – wobei null Gas-Gebühren an den Entwickler weitergegeben werden. Der Mechanismus ist keine neue Kryptographie. Es ist diszipliniertes Engineering:

  • Off-chain-Aggregation: Tausende von Mikrotransfers werden in einem signierten Ledger außerhalb der Chain gesammelt.
  • Verzögerte, gebündelte Abrechnung (Batched Settlement): Diese aggregierten Salden werden in regelmäßigen Abständen in einer einzigen Transaktion auf der Chain abgerechnet.
  • Von Circle subventioniertes Gas: On-Chain-Abrechnungsgebühren werden von Circle auf der Batch-Ebene bezahlt, nicht vom Entwickler oder der Maschine, die den Transfer durchführt.

Der architektonische Trick besteht darin, zu erkennen, dass Machine-to-Machine-Ströme keine sofortige Finalität für jede einzelne Zahlung benötigen. Ein Roboter, der seine Batterie lädt, benötigt keine Abrechnung mit sechs Bestätigungen für eine Stromrechnung über 0,04 $, bevor er den Stecker zieht. Er benötigt eine signierte Quittung, einen widerrufsresistenten Ledger-Eintrag und einen Mechanismus, der die schließliche Abrechnung garantiert. Genau das bietet das Batching.

Seit Februar 2026 unterstützt Circle Nanopayments im Testnet auf Arbitrum, Arc, Avalanche, Base, Ethereum, HyperEVM, Optimism, Polygon PoS, Sei, Sonic, Unichain und World Chain – eine Präsenz auf 12 Chains, die der nativen Ausgabe von USDC entspricht und Wettbewerber mit einem Problem der überbrückten Liquidität (Bridged Liquidity) zurücklässt.

Der Roboterhund, der seinen eigenen Strom kaufte

Die überzeugendste Demo für die neue Schiene stammte aus der Partnerschaft von Circle mit OpenMind, einem Robotik-Softwareunternehmen, das OM1 entwickelt, ein dezentrales Betriebssystem für autonome Maschinen.

Im Februar 2026 führte der vierbeinige Roboter „Bits“ von OpenMind einen geschlossenen autonomen Workflow aus:

  1. Interne Sensoren erkannten eine schwache Batterie.
  2. Bits navigierte zur nächsten Ladestation.
  3. Die Station bot über das x402-Protokoll einen Preis pro Kilowatt an.
  4. Bits steckte sich ein, initiierte einen USDC-Nanopayment-Stream und lud auf.
  5. Die Zahlung wurde nahezu sofort bestätigt; die tatsächliche On-Chain-Abrechnung erfolgte später über die Batch-Ebene von Circle.

Kein Mensch autorisierte die Transaktion. Es war kein Händlerkonto beteiligt. Keine Kartenzahlungsgebühr fraß die Marge auf. Der Roboter besaß seine eigene USDC-Wallet, authentifizierte sich über x402 und zahlte genau das, was er schuldete – bis hin zu Bruchteilen eines Cents pro Wattstunde.

Dies ist die Art von Kreislauf, die die Maschinenökonomie seit Jahren verspricht. Circles eigener Blog bezeichnete dies als „Kernprimitiv für agentische wirtschaftliche Aktivität“, und das ist keine Marketingsprache. Zuvor musste jede Roboter-Zahlungs-Demo die Abrechnungsebene vage umschreiben oder auf ein Prepaid-Gutscheinsystem setzen. Nanopayments schließt die Lücke zwischen autonomer Entscheidungsfindung und autonomer Abrechnung.

Wo dies in den Agent Stack von 2026 passt

Circle baut Nanopayments nicht isoliert auf. Die umgebende Infrastruktur ist für einen Markt, der noch Jahre von der breiten Akzeptanz entfernt ist, ungewöhnlich dicht:

  • x402-Protokoll (geführt von Coinbase, beigetreten zur Linux Foundation am 2. April 2026 mit Unterstützung von Stripe, Cloudflare, AWS, American Express, Ant International, Visa und Microsoft) – der HTTP-native Zahlungsstandard, der es Agenten ermöglicht, für API-Aufrufe über Blockchain-Rails zu bezahlen.
  • Stripe + Tempos Machine Payments Protocol (MPP) – ein konkurrierender Agent-First-Standard, der im März 2026 eingeführt wurde, gemeinsam von Stripe und dem von Paradigm unterstützten Tempo entwickelt wurde und ebenfalls auf der HTTP-402-Semantik basiert.
  • Coinbase Agentic Wallet – eine „Wallet as callable service“-Architektur, bei der Agenten niemals private Schlüssel halten; Wallet-Aktionen werden über MCP-Tool-Aufrufe initiiert.
  • BNB Chain BAP-578 – der vorgeschlagene Token-Standard, um KI-Agenten selbst als On-Chain-Assets zu behandeln.

Circle Nanopayments fungiert unter all diesen als Money Layer. x402 und MPP definieren, wie ein Agent signalisiert: „Ich möchte bezahlen.“ Agentic Wallet ist die Instanz, welche die Transaktion signiert. BAP-578 beschreibt, was ein Agent als Asset ist. Nanopayments ist das, was das Geld tatsächlich zu einem Preis pro Transaktion bewegt, der die Rechnung wirtschaftlich aufgehen lässt.

Bemerkenswerterweise ist die Rail von Circle die einzige unter diesen, die das Problem der Gebühren pro Transaktion direkt gelöst hat, anstatt es aufzuschieben. x402 läuft heute hauptsächlich auf Solana oder Base zu nativen Gas-Gebühren; es erbt die jeweilige Chain-Ökonomie, die seine Nutzer wählen. Circle bündelt das Problem auf der Issuer-Ebene weg.

Die Zahlen hinter der Wette auf die Maschinenwirtschaft

Warum investiert Circle Engineering-Aufwand in eine Rail, deren Volumen jahrelang gering sein könnte? Weil der adressierbare Markt strukturell anders ist als der menschliche Handel.

  • Der DePIN-Sektor, der engste öffentliche Proxy für Aktivitäten in der Maschinenwirtschaft, lag Anfang 2026 bei einer erfassten Marktkapitalisierung von etwa 9 – 10 Milliarden US-Dollar, wobei einige Branchenprognosen je nach Adoptionsgeschwindigkeit Szenarien von 50 Milliarden bis 800 Milliarden US-Dollar bis zum Ende des Jahrzehnts vorhersehen.
  • Das IoT-Netzwerk von Helium betreibt über 900.000 aktive Hotspots, von denen jeder ein potenzieller Endpunkt für Sub-Cent-Maschinenzahlungen ist.
  • Autonome Robotik im Stil von OpenMind bewegt sich aus den Forschungslaboren in Lagerhäuser, die Zustellung auf der letzten Meile und die industrielle Inspektion.
  • Jedes der Agent-Frameworks von Anthropic, OpenAI und Google konvergiert in Richtung einer „Pay-per-Call“-Ökonomie im HTTP-402-Stil.

Wenn ein KI-Agent 10.000 API-Aufrufe zu je 0,0001 US-Dollar tätigt, entspricht dies einem Gesamtwert von 1 US-Dollar – aber 10.000 Transaktionen. Auf Ethereum, Solana oder jedem aktuellen L1 übersteigen allein die Gas-Gebühren den eigentlichen Zahlungsbetrag bei weitem. Bei Circle Nanopayments zahlt der Entwickler null. Dieses Delta ist kein Feature; es ist ein marktschaffendes Ereignis.

Tether hat bereits gezeigt, dass Stablecoins beim Volumen mit Visa konkurrieren können – USDT verarbeitete im Jahr 2024 Transaktionen im Wert von über 10 Billionen US-Dollar gegenüber 16 Billionen US-Dollar bei Visa. Aber dieses Volumen findet auf menschlicher Ebene, Händlerebene und im Bereich der Überweisungen statt. Die Nanopayment-Ebene ist ein anderes Universum: Maschinenebene, API-Ebene, Kilowattstunden-Ebene. Es ist das Volumen, das Visa physisch nicht bedienen kann.

Der Wettbewerbsvorteil ist regulatorisch, nicht nur technisch

Gebündelte Abrechnung (Batched Settlement) ist keine neue Idee. Stripe, PayPal und jeder ACH-Prozessor bündeln seit Jahrzehnten Zahlungen. Was die Version von Circle verteidigungsfähig macht, ist die Kombination mit dem regulatorischen Fußabdruck von USDC.

Unter der Einstufung als „Payment Stablecoin“ des GENIUS Act hat USDC einen klareren Compliance-Pfad als konkurrierende Micropayment-Rails. Das ist entscheidend, wenn ein Agent einen echten Händler, ein echtes Versorgungsunternehmen oder einen echten Cloud-Anbieter bezahlt – Parteien, die keine Gelder annehmen können, die später als nicht registrierte Wertpapiere oder nicht lizenzierte Geldübermittlung eingestuft werden könnten. Lightning-natives USDC existiert, aber die Fragmentierung zwischen USDC-Varianten auf verschiedenen L1s und L2s hat die institutionelle Emission begrenzt gehalten.

Der Positionierungsvorteil von Circle:

  1. USDC wird von einer in den USA regulierten Einheit mit geprüften Reserven ausgegeben.
  2. Nanopayments-Batches werden auf öffentlichen Chains abgerechnet, was die Prüfbarkeit und Transparenz für die Compliance wahrt.
  3. Die Testnet-Präsenz auf 12 Chains bedeutet, dass ein Entwickler keine Chain wählen muss, um die Rail von Circle zu nutzen.
  4. Circle verfügt bereits über Integrationen mit Visa, Stripe und Coinbase – den drei Unternehmen, die am ehesten Zahlungs-Rails für Agenten an Mainstream-Händler verteilen werden.

Konkurrierende Rails – Lightning USDT, Solana Pay, Chain-native Micropayment-Systeme – lösen alle die Gebührenrechnung, aber keine stellt den vollständigen Stack aus Regulierung + Vertrieb + Multi-Chain zusammen, den Circle ausliefert.

Was noch gelingen muss

Der Testnet-Start ist keine Ziellinie. Mehrere Aspekte müssen geklärt werden, bevor Nanopayments zur Standard-Rail der Maschinenwirtschaft wird:

  • Mainnet-Migration: Circle hat sich noch nicht öffentlich zu einem Mainnet-Termin verpflichtet. Die On-Chain-Abrechnungsmechanik benötigt noch operative Reife auf Produktionsniveau.
  • Echte Nachfrage: CoinDesk berichtete, dass x402 selbst nur etwa 28.000 US-Dollar an täglichem On-Chain-Volumen verarbeitet, wobei ein Großteil davon Testverkehr ist. Die Nachfrage in der Agent-Ökonomie ist noch weitgehend spekulativ.
  • Risiko der Batch-Ebene: Wenn der Off-Chain-Aggregator von Circle der einzige Abrechnungspunkt ist, wird er zu einem Flaschenhals und einem Gegenparteirisiko. Die Dezentralisierung dieser Ebene ist ein separates, ungelöstes Problem.
  • Chain-Auswahl: Mit 12 unterstützten Netzwerken im Testnet muss Circle entscheiden, welche Chains erstklassigen Mainnet-Support erhalten und welche zweitrangig bleiben, was Auswirkungen auf die Liquidität für Entwickler hat.
  • Regulatorische Klarheit bei Maschinenzahlungen: Die Klassifizierung durch den GENIUS Act hilft, aber der Fall, dass ein autonomer Agent ohne menschliche Autorisierung bezahlt, wurde im US-Zahlungsrecht noch nie gerichtlich geklärt.

Jeder dieser Punkte könnte den Rollout um Quartale verzögern. Keiner davon untergräbt die grundlegende architektonische Erkenntnis.

Warum dieser Moment entscheidend ist

Jedes bisherige Micropayment-Primitiv verlangte vom Benutzer einen Kompromiss: niedrigere Gebühren für eine schlechtere UX, höhere Geschwindigkeit für schwächere Settlement-Garantien, günstigeres Gas für geringere regulatorische Absicherung. Circle Nanopayments ist der erste Versuch, diesen Kompromiss vollständig zu eliminieren — nativer Stablecoin, Multi-Chain, Sub-Cent-Bereich, Zero-Gas, regulatorisch nah.

Wenn diese Schiene im Mainnet-Maßstab funktioniert, potenzieren sich die nachgelagerten Effekte schnell:

  • DePIN-Netzwerke berechnen Rechenleistung, Bandbreite und Speicher pro Sekunde statt pro Monat.
  • KI-Agenten bezahlen für Daten auf Pro-Abfrage-Basis und brechen damit das aktuelle Modell des „API-Abonnements“ auf.
  • Robotik wechselt von zentral finanzierten Flotten zu autonomen, umsatzgenerierenden Einheiten.
  • IoT erhält endlich wirtschaftliche Anreize für einzelne Sensoren, um ihren Output zu monetarisieren.
  • Content-Ersteller experimentieren mit Pay-per-Paragraph- und Pay-per-Second-Modellen, die seit 20 Jahren aufgrund von Transaktionskosten gescheitert sind.

Keiner dieser Ausgänge ist garantiert. Aber zum ersten Mal ist die darunter liegende Infrastruktur nicht mehr der Blockierer.

Unterm Strich

Das Nanopayments-Testnet von Circle ist ein stilles, technisches Release mit weitreichenden Auswirkungen. Durch die Lösung der Gebühren-Mathematik mittels Batching, die Subventionierung des On-Chain-Settlements und die Nutzung der Multi-Chain-Präsenz sowie des regulatorischen Fußabdrucks von USDC hat Circle die erste Stablecoin-Infrastruktur geliefert, die die Maschinenökonomie auf ökonomischer Ebene statt nur als Vision ernst nimmt.

Der Roboterhund, der für seinen eigenen Strom bezahlt, ist der Moment für die Schlagzeilen. Die eigentliche Geschichte ist, dass jeder autonome Agent, jedes IoT-Gerät und jedes API-zahlende Skript nun eine Schiene hat, auf der die Transaktionsgebühr den Transaktionswert nicht übersteigt. Das war bisher nie der Fall.

Maschinen sind dabei, erstklassige wirtschaftliche Teilnehmer zu werden. Die Schienen, auf denen sie bezahlen werden, werden in diesem Jahr gelegt.

BlockEden.xyz bietet Blockchain-API-Infrastruktur auf Enterprise-Niveau für über 27 Chains an — einschließlich der Netzwerke, die Circle Nanopayments unterstützt. Wenn Sie agentengesteuerte Anwendungen oder Dienste für die Maschinenökonomie entwickeln, erkunden Sie unseren API-Marktplatz für die Endpunkte mit geringer Latenz und hoher Zuverlässigkeit, die autonome Workflows erfordern.

Quellen