Direkt zum Hauptinhalt

Gensyn RL Swarm: Der erste Live-Test für verifizierbares dezentrales KI-Training

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Seit fast einem Jahrzehnt war das „Training eines Frontier-Modells“ ein Synonym für den „Besitz eines GPU-Clusters der Hyperscaler-Klasse“. Gensyn hat gerade ein öffentliches Testnetz veröffentlicht, das darauf setzt, dass die nächste Generation der KI an einem ganz anderen Ort trainiert wird – in einem Schwarm von internetverbundenen Knoten, die über ein Ethereum-Rollup koordiniert werden, wobei ETHGlobal 50.000 $ an Preisgeldern für Entwickler bereitstellt, die Agenten darauf aufbauen können.

Die Frage ist nicht mehr, ob dezentrales Training für maschinelles Lernen technisch möglich ist. RL Swarm ist live, jeder kann das Repo klonen, und die Architektur wird bereits seit November 2025 schrittweise ausgerollt. Die Frage ist, ob die Wirtschaftlichkeit, die Verifizierung und das Interesse der Entwickler ausreichen, um Trainings-Workloads aus den Rechenzentren von AWS und Azure zu lösen – und ob der $ AI-Token-Verkauf, der im Dezember 2025 abgeschlossen wurde, diese Zukunft tatsächlich korrekt eingepreist hat.

Warum „RL Swarm“ der erste Produktionstest für dezentrales Training ist

Die meisten Projekte im Bereich „dezentrale KI“, von denen Sie gehört haben – Bittensor, io.net, Akash, Render – lösen angrenzende Probleme. Bittensor koordiniert kompetitive Modell-Benchmarks über Subnetze hinweg. io.net und Akash sind Marktplätze für die GPU-Vermietung mit krypto-nativen Abrechnungsmodellen. Render verteilt Inference-Rendering-Arbeiten. Keines von ihnen war bisher ein Live-System, in dem nicht vertrauenswürdige Knoten gemeinschaftlich ein Modell trainieren.

Das ist es, was RL Swarm von Gensyn tut. Es ist das Fundament von Phase 0 des Gensyn-Testnetzes: eine dezentrale Umgebung, in der Reinforcement-Learning-Agenten über das öffentliche Internet kooperieren, anstatt innerhalb eines einzelnen Rechenzentrums. Jeder teilnehmende Knoten führt ein lokales Sprachmodell aus. Die Knoten spielen mehrstufige RL-Argumentationsspiele – sie beantworten, kritisieren und überarbeiten Lösungen gemeinsam mit ihren Peers – und jeder Beitrag wird gegen eine On-Chain-Identität im Gensyn-Testnetz protokolliert.

Die architektonische Verschiebung ist sprachlich klein, aber in der Praxis enorm. Bittensor bietet Anreize für Miner, um das beste Ergebnis zu konkurrieren; Gensyn bietet Anreize für Knoten, beim Training eines gemeinsamen Artefakts zu kooperieren. Das ist der Unterschied zwischen einem kompetitiven Marktplatz und einem echten verteilten Trainingslauf, und deshalb ist RL Swarm der erste glaubwürdige Versuch eines dezentralen ML-Trainingsnetzwerks auf Produktionsniveau statt einer lediglich optimierten Rechenmiet-Ebene.

Die Veröffentlichung im November 2025 fügte CodeZero hinzu, eine kooperative Coding-Umgebung, die auf demselben Peer-to-Peer-Framework basiert. Zusammen gelesen skizzieren die beiden Veröffentlichungen eine Roadmap: RL Swarm beweist, dass die Koordinations-Primitive für die Argumentation funktionieren, CodeZero erweitert sie auf die strukturierte Nutzung von Werkzeugen. Bis zum Ende des Hackathons am 6. Mai 2026 sind beide Umgebungen live und ohne Warteliste zugänglich.

Die Vier-Schichten-Architektur: Ausführung, Verifizierung, Kommunikation, Koordination

Unterhalb des nutzerorientierten Testnetzes ist Gensyn ein maßgeschneiderter Ethereum-Layer-2-Rollup, der auf dem OP Stack (Bedrock) basiert. Das Protokoll zerlegt das Problem des dezentralen Trainings in vier Schichten, von denen jede einen spezifischen Grund löst, warum das „einfache Mieten von GPUs über das Internet“ bisher gescheitert ist.

Ausführung. Große Modelle passen nicht auf einen einzelnen Endverbraucher-Knoten, daher fragmentiert Gensyn Modelle in Parameterblöcke, die über Geräte verteilt werden, was den Speicherbedarf pro Knoten reduziert. Das schwierigere Problem ist der Determinismus: Fließkommaoperationen auf unterschiedlicher Hardware (eine Nvidia A100 im Vergleich zu einer H100) können leicht unterschiedliche Ergebnisse liefern, was für ein Verifizierungsprotokoll, das Betrug erkennen muss, fatal ist. Die RepOps-Bibliothek von Gensyn legt die Reihenfolge der Fließkommaoperationen fest, sodass dieselben Eingaben auf heterogener Hardware bitweise identische Ergebnisse liefern. Das Reproducible Execution Environment (REE) hüllt RepOps in einen benutzerdefinierten MLIR-basierten Compiler ein, der Modelle in diese reproduzierbaren Kernel kompiliert.

Verifizierung. Dies ist die Schicht, die jeden früheren Versuch eines dezentralen Trainings gestoppt hat. Wenn ein Knoten behauptet, einen Trainingsschritt ausgeführt zu haben, und einen Gradienten übermittelt, wie weiß man, dass er die Arbeit ehrlich erledigt hat, ohne die gesamte Berechnung selbst erneut auszuführen? Die Antwort von Gensyn ist das Verde-Verifizierungsprotokoll – ein leichtgewichtiges Streitbeilegungssystem, das eine binäre Suche durch den Trainingsverlauf durchführt, um den einzelnen Schritt zu isolieren, bei dem sich Prover und Verifier uneinig sind, und dann nur diese Operation neu berechnet. In Kombination mit probabilistischem Proof-of-Learning erhält das Netzwerk kryptografische Sicherheit, ohne die Kosten einer vollständigen erneuten Ausführung zu tragen. Dies ähnelt konzeptionell dem interaktiven Verifizierungsmodell von Truebit, das von allgemeiner Berechnung auf ML-spezifische Kernel übertragen wurde.

Kommunikation. Die Koordination des Trainings über ein bandbreitenbeschränktes öffentliches Internet erfordert das Verwerfen herkömmlicher Ansätze. Das Standard-Rechenzentrums-Primitiv – das synchrone All-Reduce – setzt dicke InfiniBand-Leitungen voraus. Gensyn ersetzt dies durch drei maßgeschneiderte Primitive: NoLoCo ersetzt All-Reduce durch ein Gossip-Protokoll mit geringer Kommunikation, CheckFree bietet fehlertolerante Wiederherstellung ohne teures periodisches Checkpointing, und SkipPipe führt einen Algorithmus für das Gradienten-Sharing ein, der die Nachrichten-Hops im Schwarm minimiert. Jedes davon ist ein wissenschaftlicher Beitrag für sich; zusammen machen sie aus einem „Haufen Laptops im Heim-Internet“ einen funktionierenden Trainings-Cluster.

Koordination. Die Ethereum-L2 selbst ist der wirtschaftliche Motor. Sie identifiziert Teilnehmer, rechnet tokenisierte Belohnungen ab und führt Zahlungen über ein erlaubnisfreies Rollup aus. Dort befindet sich auch der $ AI-Token und dort wird jeder Beitrag zu einem Trainingslauf letztendlich verbucht.

Der klarste Weg, diesen Stack zu verstehen, ist als bewusste Umkehrung des Cloud-GPU-Modells. AWS und Azure investieren ihre Ingenieurskunst in rohen Durchsatz und setzen Vertrauen durch Verträge voraus. Gensyn investiert seine Ingenieurskunst in Reproduzierbarkeit und Streitbeilegung und setzt beim Betreiber auf der anderen Seite der Leitung gar nichts voraus.

Wie sich Gensyn von Bittensor, io.net und Render unterscheidet

Sobald die Architektur feststeht, klärt sich die Wettbewerbslandschaft. Drei Projekte werden oft im selben Atemzug mit Gensyn genannt, lösen jedoch unterschiedliche Probleme.

  • Bittensor (TAO, ~ 2,64 Mrd. $ Marktkapitalisierung) ist ein kompetitives Benchmarking-Netzwerk. Subnetze definieren eine Aufgabe, Miner erstellen Ergebnisse, Validatoren bewerten diese und TAO fließt an denjenigen mit der höchsten Punktzahl. Es ist hervorragend darin, die Modellqualität zu incentivieren, koordiniert jedoch keinen einzelnen gemeinsamen Trainingslauf über Knoten hinweg. Das Schwarm-basierte Training von Gensyn ist strukturell kooperativ; das Subnetz-Modell von Bittensor ist strukturell adversarial.
  • io.net und Akash sind GPU-Marktplätze. Sie ermöglichen es einem Betreiber mit ungenutzter Hardware, Zeit an jeden zu verkaufen, der bereit ist zu zahlen. Entscheidend ist, dass keines der Protokolle verifiziert, ob der Workload des Käufers korrekt ausgeführt wurde – das ist das Problem des Käufers, das typischerweise dadurch gelöst wird, dass er seinen eigenen Trainings-Stack betreibt und den Belegen vertraut. Das Paar aus Verde + REE von Gensyn ist genau die Ebene, die diesen Marktplätzen fehlt.
  • Render Network verteilt Inference-Rendering-Aufgaben, primär für Grafiken. Das Wirtschaftsmodell ähnelt eher io.net als Gensyn: Rechenleistung mieten, Ergebnis erhalten, dem Betreiber vertrauen. Das Dispersed Subnet von Render ist ein angrenzendes Produkt, kein Konkurrent.

Gensyn startete seinen Token auf Rang 368 mit einer Marktkapitalisierung von etwa 71,6 Mio. $ – ein Bruchteil dessen von Bittensor. Diese Lücke ist die Grundthese: Wenn verifizierbares kooperatives Training eine echte Kategorie ist und nicht nur eine komplexere Version der Miet-Rechenleistung, stellt die Differenz einen Einstiegspunkt dar. Falls nicht, spiegelt die Differenz die korrekte Marktbewertung eines Forschungsprojekts wider.

Der AITokenVerkauf:Eine3AI-Token-Verkauf: Eine 3 %-ige englische Auktion in einer Cap-Range von 1 Mio. bis 1 Mrd. $

Die wirtschaftliche Seite wurde am 15. Dezember 2025 konkret, als Gensyn seinen AITokenVerkaufaufSonarero¨ffnete.DieStrukturwarungewo¨hnlichtransparent:eineenglischeAuktionfu¨r300MillionenToken3AI-Token-Verkauf auf Sonar eröffnete. Die Struktur war ungewöhnlich transparent: eine englische Auktion für 300 Millionen Token – 3 % des festen Gesamtangebots von 10 Milliarden – begrenzt durch einen FDV-Boden von 1 Mio. und einen FDV-Deckel von 1 Mrd. .DieBieterwa¨hlteneinenHo¨chstpreiszwischen0,0001. Die Bieter wählten einen Höchstpreis zwischen 0,0001 und 0,1 proTokenbeieinemMindestgebotvon100pro Token bei einem Mindestgebot von 100. Die Gebote wurden in USDC oder USDT auf dem Ethereum-Mainnet abgewickelt; die Token konnten auf dem Gensyn Network L2 beansprucht werden.

Die vollständige Zuweisung zeigt, welche Art von Projekt Gensyn sein möchte:

ZuweisungProzentsatz
Community-Schatzkammer40,4 %
Investoren29,6 %
Team25,0 %
Community-Verkauf3,0 %
Sonstiges2,0 %

Eine Community-Schatzkammer von 40 % in Kombination mit einem öffentlichen Verkauf von 3 % erinnert eher an eine Governance-Haltung im Stil von Optimism als an einen typischen DePIN-Launch. Der Anteil für Team und Investoren (insgesamt 54,6 %, wobei a16z die jüngste private Runde bei demselben Cap von 1 Mrd. $ wie die Obergrenze des öffentlichen Verkaufs anführte) ist hoch, aber nicht extrem.

Die interessanteste Designentscheidung des Verkaufs war der Testnet-Anreiz: Ein 2 %-iger Bonus-Belohnungspool wurde als Token-Multiplikator an verifizierte Testnet-Teilnehmer verteilt, skaliert nach ihrem Beteiligungsgrad und ihrem Gebotsbetrag. Dies ist ein mildes, aber reales Signal, dass Gensyn die Verteilung an tatsächliche Mitwirkende wichtiger ist als die Maximierung des Preises im öffentlichen Verkauf. US-Käufer akzeptierten einen 12-monatigen Lockup; Nicht-US-Käufer konnten sich für einen ähnlichen Lockup entscheiden, um im Gegenzug einen 10 %-igen Bonus-Multiplikator zu erhalten.

Was diese Auktion bewertet hat, ist eine Wette – darauf, dass die Unit-Economics von dezentralem Training 60–80 % günstiger sind als ein vergleichbarer AWS- oder Azure-H100-Cluster (etwa 3 $/Stunde zu On-Demand-Preisen) und dass ungenutzte Consumer- und Prosumer-GPUs ausreichend vorhanden sind, um eine nennenswerte Trainingsnachfrage zu absorbieren. Ob diese Wette aufgeht, wird sich durch die tatsächlichen Workloads zeigen, die 2026 im Netzwerk erscheinen, und nicht durch den Auktionspreis.

ETHGlobal Open Agents: Das Produktionssignal

Die Nachricht, die dies von einem „interessanten Infrastrukturprojekt“ in etwas verwandelt, „worauf Entwickler tatsächlich Anwendungen veröffentlichen“, ist ETHGlobal Open Agents, das vom 24. April bis 6. Mai 2026 stattfindet. Gensyn ist ein Sponsor mit über 50.000 anPreisgeldern,einschließlicheinerKategorieBesteAnwendungdesAgenteXchangeLayer(AXL)imWertvon5.000an Preisgeldern, einschließlich einer Kategorie „Beste Anwendung des Agent eXchange Layer (AXL)“ im Wert von 5.000. Jeder Gewinner wird beschleunigt in das Förderprogramm der Gensyn Foundation aufgenommen.

Das ist aus zwei Gründen von Bedeutung.

Erstens sind Hackathons der Weg, wie neue Infrastrukturen von Entwicklern entdeckt werden, die noch gar nicht wissen, dass sie sie benötigen. Dieselbe Strategie brachte die frühen Ökosysteme von Optimism, Base und Sui hervor. Ein Preispool von 50.000 $ ist keine marktverändernde Summe, aber er ist ein starker Anreiz, um einige hundert hochkarätige ETHGlobal-Entwickler erstmals mit RL Swarm und den AXL-APIs in Kontakt zu bringen. Ein gewisser Teil wird auch nach dem Ende des Hackathons weiter darauf aufbauen.

Zweitens verraten die Preiskategorien, wie Gensyn sich die Killer-App vorstellt. Agent eXchange Layer ist der Rahmen – autonome Agenten, die einander entdecken, Rechenleistung austauschen sowie sich gegenseitig bei Bedarf trainieren und feinabstimmen. Wenn Gensyn darauf wetten würde, dass die Zukunft im monolithischen Training von Basismodellen liegt, würden die Preise dies betonen. Stattdessen liegt der Fokus auf der Agenten-Infrastruktur, was zum breiteren Narrativ von 2026 passt: Agenten, die einander für Arbeit bezahlen können, benötigen ein Substrat, um die teuerste Arbeit – Modelltraining und Feinabstimmung – an ein verifizierbares Netzwerk auszulagern.

Die ehrlichen Vorbehalte

Es ist wichtig, im Mai 2026 klar zu benennen, was RL Swarm nicht ist.

Derzeit laufen keine offiziellen Swarms auf dem Live-Testnet. Teilnehmer können sich im Gemeinschaftsbesitz befindlichen Swarms anschließen, was genau das Bootstrap-Problem darstellt, das in erlaubnisfreien Netzwerken immer wieder auftritt: Das Protokoll ist offen, aber tatsächliche, hochgradig koordinierte Trainingsläufe finden noch nicht im großen Maßstab statt. Bis ein ernsthaftes Labor oder ein Open-Source-Kollektiv einen realen Modelllauf im Netzwerk durchführt, bleibt das Testnet eher ein Proof-of-Concept als ein Produktionssystem.

Die Verifizierungskosten sind nach wie vor eine offene Frage. Verdes Binärsuche-basierte Streitbeilegung ist dramatisch günstiger als die erneute Ausführung eines gesamten Trainingsjobs, aber sie ist nicht kostenlos. Ihr Overhead auf Frontier-Skala (Hunderte von Milliarden Parametern, wochenlanges Training) wurde bisher noch nicht demonstriert. Die Geschichte des Hardware-Determinismus — RepOps, die bitweise identische Ergebnisse auf A100s und H100s liefern — ist elegant, bringt jedoch einen Compiler-Overhead mit sich, den konkurrierende zentralisierte Stacks nicht zahlen müssen.

Und die Kosteneinsparungsthese (60–80 % günstiger als AWS H100 Spot-Instanzen) setzt voraus, dass der Long Tail an ungenutzten Consumer- und Prosumer-GPUs dicht genug ist, um die Kapazität von Hyperscalern zu ersetzen. Das ist für Fine-Tuning-Läufe mit 7B bis 70B Parametern plausibel. Für Pretraining auf echtem Frontier-Niveau ist dies jedoch noch nicht realistisch, und Gensyn ist ehrlich genug, dies auch nicht zu behaupten.

Was das für Infrastruktur-Entwickler bedeutet

Für Entwickler, die darüber nachdenken, wo sie die nächsten 12 Monate investieren sollen, ist das nützlichste Framing, dass Gensyn eine neue Kategorie von API-Oberfläche eröffnet, die es zuvor nicht gab: programmatischer, verifizierbarer Zugriff auf ein Trainingsnetzwerk. Bisher gab es für die Aufgabe „ein Modell dazu bringen, etwas Bestimmtes zu tun“ nur zwei Optionen: (a) eine gehostete API wie OpenAI oder Anthropic aufrufen oder (b) GPUs mieten und das Training selbst durchführen. Gensyn schlägt eine dritte Option vor — einen Trainingsjob an einen verifizierbaren Swarm übermitteln und kryptografische Garantien zurückerhalten —, die sich nahtlos in die von ETHGlobal incentivierte Agenten-Ökonomie einfügt.

Diese dritte Option wird, sofern sie funktioniert, zu einem Primitiv. Agenten, die ein kleines Spezialmodell für eine Nischenaufgabe feinabstimmen müssen, werden keine GPUs mieten und betreiben wollen. Sie werden einen Trainings-Intent abgeben, in Stablecoins oder $AI bezahlen und die resultierenden Gewichte konsumieren wollen. Die Wette von Gensyn besteht darin, dass die Protokollschicht, die dies ermöglicht — das L2-Rollup, das Verifizierungssystem, die Swarm-Koordinations-Primitive —, mit zunehmender Verbreitung dieses Musters erheblichen Wert generiert.

BlockEden.xyz betreibt die Indexierungs-, RPC- und Analyse-Infrastruktur, auf die Web3-Entwickler in über 25 Chains vertrauen. Während verifizierbare KI-Trainingsnetzwerke wie Gensyn reifen, wird die darunter liegende Daten- und Koordinationsschicht immer wichtiger. Erkunden Sie unseren API-Marktplatz, um auf einer Infrastruktur aufzubauen, die für die agentenbasierte, KI-native Ära von Web3 entwickelt wurde.

Quellen