Direkt zum Hauptinhalt

io.net Agent Cloud: Wenn KI-Agenten beginnen, ihre eigenen GPUs zu kaufen

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Am 25. März 2026 legte io.net einen Schalter um, der im Stillen neu definierte, was „dezentrale Rechenleistung“ bedeutet. Die neue Agent Cloud erfordert keinen Menschen mehr an der Tastatur. KI-Agenten – keine Ingenieure, keine Beschaffungsteams, kein DevOps – können nun autonom GPUs mieten, Workloads ausführen, Rechnungen in Stablecoins begleichen und alles wieder abbauen, ohne ein einziges Ticket, KYC-Formular oder Login.

Dies ist der Wendepunkt, den die DePIN-Branche seit zwei Jahren umkreist. Die Ära im Stil des Krypto-Minings, in der man „passive Belohnungen durch das Anschließen einer 3090“ verdient, geht zu Ende. Was sie ersetzt, ist ein Markt, in dem die Kunden Software sind, die Lieferanten Software sind und die gesamte Verhandlung über Model Context Protocol-Aufrufe und On-chain-Zahlungen erfolgt. io.net ist gerade das erste Netzwerk geworden, das diese Zukunft vollständig produktiv gemacht hat – und damit jedes andere DePIN-GPU-Projekt gezwungen hat, eine neue Frage zu beantworten: Wie sieht Ihr Netzwerk aus, wenn der Käufer eine Maschine ist?

Von 30.000 GPUs zu einer Revolution auf der Käuferseite

io.net ist nicht das größte dezentrale GPU-Netzwerk nach reiner Container-Anzahl. Dieser Titel gehört Aethir, das Unternehmen mit mehr als 435.000 GPU-Containern in 93 Ländern verbindet. Der Marktplatz von io.net listet etwa 30.000 GPUs in 138 Regionen in über 130 Ländern auf – ein kleinerer, aber geografisch breiter verteilter Fußabdruck, der für die Abrechnung auf Solana verankert ist.

Was sich im März 2026 geändert hat, ist nicht die Angebotsseite. Es ist die Nachfrageseite. Bis jetzt ging jeder dezentrale GPU-Marktplatz – Akash, Render, Aethir, Fluence, io.net selbst – von einem menschlichen Benutzer aus. Ein Entwickler meldet sich an, verknüpft eine Wallet, wählt eine GPU-SKU aus, akzeptiert die EULA, konfiguriert Docker und beobachtet ein Dashboard. Jeder Schritt erfolgt im menschlichen Tempo.

Die Agent Cloud entfernt den Menschen vollständig. Die Plattform stellt eine MCP-Bibliothek bereit, die es einem autonomen Agenten ermöglicht:

  • Verfügbare GPU-Cluster in über 130 Ländern zu entdecken
  • Persistente Rechenumgebungen mit integriertem Agenten-Speicher und Status zu erstellen
  • Sich ohne OAuth-Flows, KYC oder Unternehmens-Onboarding zu authentifizieren
  • In USDC oder Fiat (automatisch in IO umgerechnet) mit einer Reservierungsgebühr von 0,25 % zu zahlen, wobei die Vermittlungsgebühr von 2 % bei direkter IO-Abrechnung entfällt
  • Ressourcen basierend auf eigenen Workload-Signalen hoch- oder runterzuskalieren
  • Über eine integrierte Messaging-API mit anderen Agenten zu kommunizieren

Der Kostenvorteil ist der Köder: io.net wirbt mit H100- und H200-Zugang zu Preisen, die bis zu 70 % unter denen herkömmlicher Anbieter liegen. Aber die strukturelle Veränderung ist das Fehlen von Reibungsverlusten. Ein Agent, der für die nächsten neunzig Minuten acht A100 benötigt, stellt keine Beschaffungsanfrage. Er ruft eine Funktion auf.

Warum persistente Rechenleistung wichtiger ist als Spot-Pricing

Die Vermietung von Spot-GPUs – das Modell, das Akash mit seinem Reverse-Auction-Marktplatz perfektioniert hat, der 1,20 1,80– 1,80 / Stunde für eine H100 verlangt, im Vergleich zu den 4,50 5,50– 5,50 von AWS – hat ein Preisproblem gelöst. Es hat das Agenten-Problem nicht gelöst.

Autonome KI-Agenten haben eine harte architektonische Anforderung, die Batch-Workloads nicht teilen: Status-Kontinuität. Ein Agent, der einen Trade untersucht, Code entwirft oder eine mehrstufige Forschungsaufgabe ausführt, kann keine Kaltstarts alle paar Minuten tolerieren. Er benötigt persistenten Speicher, eine persistente Identität und persistente Verbindungen zu seinen Werkzeugen und anderen Agenten.

Das ist es, was die Agent Cloud tatsächlich verkauft. Keine GPUs. Immer aktive Agenten-Backends. Das Preismodell – pro GPU-Stunde für persistente Agenten-Workloads statt pro Batch-Job – ist eine bewusste Abkehr vom Spot-Marktplatz von Akash und dem Frame-Rendering-Durchsatzmodell von Render. Es zielt auf einen völlig anderen Kunden ab: den Agenten, der aufwacht, arbeitet, eine Stunde schläft und wieder aufwacht und erwartet, dass sein Arbeitsspeicher noch vorhanden ist.

Diese Anforderung ist der Grund, warum Anthropic im April 2026 Claude Managed Agents veröffentlicht hat – eine gehostete Plattform, die Sandboxing, Statusmanagement, Tool-Ausführung und Fehlerbehebung übernimmt. Es ist der Grund, warum das x402-Protokoll von Coinbase existiert, mit dem Agenten für den MCP-Serverzugriff mit Stablecoins bezahlen können. Der gesamte Stack konvergiert auf einer einzigen Erkenntnis: Agenten benötigen eine Infrastruktur, die wie Agenten geformt ist, nicht wie Web-Apps.

Die Wette von io.net ist, dass die dezentrale Version dieses Stacks kein Luxus ist. Es ist die einzige Version, die auf Millionen von Agenten skaliert werden kann, ohne durch AWS-Kontogenehmigungen, regionale Rechenquoten oder Beschaffungszyklen von Unternehmen aufgehalten zu werden.

Die drei Go-to-Market-Strategien, die DePIN-Compute spalten

Der Start der Agent Cloud kristallisiert drei verschiedene Strategien im dezentralen Rechenleistungsmarkt heraus – jede jagt einen anderen Kunden mit einer anderen Unit-Economics-Story:

1. io.net – Krypto-native Entwickler-Ökosysteme und autonome Agenten. Das Versprechen ist erlaubnisfreier API-Zugriff, MCP-native Integrationen, USDC-Abrechnung und null Onboarding-Reibung. Der Kunde ist ein Web3-natives Team oder zunehmend die KI-Agenten selbst. Der Rollout der Incentive Dynamic Engine (IDE) im zweiten Quartal 2026 – die Anbieter-Auszahlungen in USD-Werten stabilisiert und das Token-Angebot dynamisch an den Echtzeit-Umsatz anpasst – ist explizit darauf ausgelegt, das Angebot rational zu halten, da die durch Agenten getriebene Nachfrage schwerer vorhersehbar wird. io.net verarbeitete Anfang 2026 Rechenleasing-Verträge im Wert von über 20 Millionen US-Dollar, wobei allein im Januar IO-Rückkäufe in Höhe von 217.000 US-Dollar getätigt wurden – ein Plus von 15 % gegenüber dem Vormonat.

2. Aethir – Beschaffungsbudgets von Unternehmen. Aethir generierte im Januar 2026 den höchsten monatlichen DePIN-Umsatz aller Protokolle und übertraf damit Render. Es unterzeichnete einen Deal über eine Rechenleistungsreserve von 344 Millionen US-Dollar und meldete einen ARR von 166 Millionen US-Dollar aus B2B-Verträgen. Der Kunde ist ein Unternehmens-CIO, der H100-Kapazität mit Rabatt wünscht, aber einen Anbieter benötigt, der sich wie eine traditionelle Cloud anfühlt – Rechnungsstellung, MSAs, SLAs und dedizierte Account-Manager. Die über 435.000 GPU-Container von Aethir und null Vorabkosten sind für Käufer positioniert, denen Vorhersehbarkeit wichtiger ist als Erlaubnisfreiheit.

3. Akash – Kostengesteuerte Workload-Migration. Das Reverse-Auction-Modell von Akash – bei dem Anbieter um Aufträge konkurrieren – hält die Preise strukturell unter denen der Hyperscaler. Das Netzwerk erreichte ein Nutzungswachstum von 428 % im Jahresvergleich mit Auslastungsraten von über 80 % zu Beginn des Jahres 2026. Seine Starcluster-Initiative, einschließlich einer geplanten Akquisition von etwa 7.200 NVIDIA GB200 GPUs über Starbonds, treibt Akash in Richtung Hyperscale-KI-Nachfrage, während sein dezentraler Marktplatz intakt bleibt.

Render steht neben allen dreien und verarbeitet monatlich 1,5 Millionen Render-Frames, während der Governance-Vorschlag RNP-023 im April 2026 etwa 60.000 GPUs aus dem Salad-Netzwerk absorbierte – was Render in den Bereich der KI-Inferenz erweitert, während seine Wurzeln im Bereich der kreativen Rechenleistung erhalten bleiben.

Diese vier Protokolle kämpfen nicht mehr um denselben Dollar. Sie kämpfen um verschiedene Dollar – für Unternehmen, agenten-nativ, kostengesteuert und kreativ – die zufällig alle GPUs benötigen.

Die Mathematik der Inferenz-Ära, die die Agent Cloud plausibel macht

Jedes Gespräch über dezentrales Computing begann früher mit einem Vorbehalt: Das Training sei zu empfindlich gegenüber Bandbreite, Latenz und SLAs, um jemals die Rechenzentren der Hyperscaler zu verlassen. Dieser Einwand gilt weiterhin für das Training von Frontier-Modellen. Für den tatsächlichen Markt ist er jedoch irrelevant geworden.

Im Jahr 2026 entfallen etwa 70 % der GPU-Nachfrage auf Inferenz, nicht auf Training. Inferenz-Workloads – das Ausführen eines Modells, das Bereitstellen eines Agenten, das Ausführen eines Tool-Aufrufs – tolerieren die architektonischen Realitäten dezentraler Netzwerke weitaus besser als das Training. Latenzvarianz ist akzeptabel, wenn die Arbeitslast stoßartig auftritt. Geografische Verteilung ist ein Vorteil, wenn Agenten Nutzer weltweit bedienen. Spot-Kapazität ist in Ordnung, wenn die Arbeit zustandslos oder mit Checkpoints versehbar ist.

Diese Verschiebung im Workload-Mix ist der strukturelle Grund, warum DePIN-Computing AWS und Azure bei der Inferenz glaubhaft um 45 – 75 % unterbieten kann. Es ist auch der Grund, warum der Zeitpunkt des Starts der Agent Cloud von Bedeutung ist. Agenten sind konstruktionsbedingt inferenzlastig. Sie erzeugen ständig kleine Aufrufe, keine gelegentlichen großen Trainingsaufträge. Sie benötigen viele GPUs, kurzzeitig und an vielen Orten. Das ist genau das Workload-Profil, für das dezentrale Netzwerke gebaut wurden.

Wenn Anthropic, OpenAI und Google sich auf MCP standardisieren – und bis Anfang 2026 zählt die Linux Foundation bereits mehr als 10.000 aktive öffentliche MCP-Server und zig Millionen monatliche SDK-Downloads –, dann wird jedes Compute-Netzwerk, das MCP „spricht“, für jedes Agenten-Ökosystem adressierbar. io.net wettet darauf, dass es wertvoller ist, als Erster eine vollständig MCP-native, von Agenten erwerbbare Compute-Ebene bereitzustellen, als das größte Netzwerk zu sein.

Die Vertrauenslücke, die io.net noch schließen muss

Das ehrliche Spannungsfeld in dieser Geschichte ist die Zuverlässigkeit. AWS und Azure verkaufen Uptime-SLAs von 99,9 %, die durch Entschädigungszahlungen in Milliardenhöhe abgesichert sind. io.net verkauft 30.000 GPUs, die über mehr als 130 Länder verteilt sind, wobei die Qualität je nach Anbieter variiert. Für einen Hobbyisten, der ein Experiment durchführt, überwiegen die Kosteneinsparungen das Risiko bei Weitem. Für einen Produktions-Agenten, der das Geld eines Kunden verwaltet, ist die Kalkulation schwieriger.

Die Incentive Dynamic Engine ist Teil der Antwort – indem sie die Auszahlungen an die Anbieter in USD-Terminen stabilisiert, macht sie das Verhalten der Anbieter vorhersehbarer, was wiederum die Zuverlässigkeit erhöht. Die MCP-native Architektur ist ein weiterer Teil: Agenten, die einen beeinträchtigten Anbieter erkennen und innerhalb von Sekunden auf einen anderen Cluster umleiten können, machen die zugrunde liegende Volatilität für den Endnutzer weniger sichtbar.

Doch die fundamentale Vertrauenslücke wird sich erst schließen, wenn entweder (a) dezentrale Netzwerke genügend Betriebshistorie angesammelt haben, um glaubwürdige Uptime-Zahlen zu veröffentlichen, oder (b) KI-Produktions-Agenten so tolerant gegenüber Compute-Volatilität werden, dass 99,9 % nicht mehr der Standard ist. Beides geschieht parallel, und beides ist noch nicht abgeschlossen.

Das realistische Ergebnis für 2026 ist ein geteilter Markt: Agenten-Workloads der Enterprise-Klasse bleiben bei Aethir oder den Hyperscalern, während der Long Tail der Indie-Entwickler, autonomen Handelsagenten und Web3-nativen KI-Anwendungen zu io.net Agent Cloud und deren künftigen Wettbewerbern migriert. Dieser Long Tail ist enorm – und es ist der Teil, der am schnellsten wächst.

Was sich für Builder ändert

Wenn Sie im Jahr 2026 KI-Agenten bauen, haben sich drei Dinge grundlegend geändert:

  1. Die Compute-Beschaffung ist kein menschlicher Engpass mehr. Ihr Agent kann seine eigene Finanzierungsquelle, seinen eigenen Compute-Anbieter und seine eigene Skalierungslogik haben. Die Architektur auf eine GPU-Beschaffung mit menschlicher Beteiligung (Human-in-the-Loop) auszulegen, ist ein Fehler, kein Feature.

  2. In Stablecoins denominierte Compute-Preise werden zur Normalität. Die USDC-Abrechnung auf der Infrastrukturebene bedeutet, dass Agenten ein Treasury halten, für Rechenleistung bezahlen und mit anderen Agenten abrechnen können, ohne jemals Fiat-Schienen zu berühren. Dies ist das fehlende Puzzleteil, das vollautonome Agenten-Ökonomien plausibel macht.

  3. MCP wird zur Integrationsfläche. Unabhängig davon, ob Ihr Stack dezentral ist oder nicht: Der Weg zu einer für Agenten adressierbaren Infrastruktur führt über MCP. io.net ist nicht das einzige Netzwerk, das dies erkannt hat – aber es ist das erste, das es ins Zentrum eines GPU-Marktplatzes stellt.

Die Protokolle, die die nächste Phase von DePIN gewinnen, werden nicht die mit den meisten GPUs sein. Es werden diejenigen sein, deren GPUs für Software am einfachsten zu kaufen sind.


BlockEden.xyz bietet RPC- und Indexierungs-Infrastruktur der Enterprise-Klasse für die Ökosysteme Solana, Sui, Aptos und EVM, in denen viele dieser KI-Agenten leben und agieren. Wenn Sie agenten-native Anwendungen entwickeln, die neben dezentralem Computing einen zuverlässigen On-Chain-Zugang benötigen, erkunden Sie unseren API-Marktplatz, um die Datenebene anzubinden.

Quellen