Direkt zum Hauptinhalt

77 Beiträge getaggt mit „Dezentrales Computing“

Dezentrales Computing und Cloud

Alle Tags anzeigen

PeerDAS erklärt: Wie Ethereum Daten verifiziert, ohne alles herunterzuladen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Sie die Existenz eines 500-seitigen Buches verifizieren könnten, ohne eine einzige Seite zu lesen? Genau das hat Ethereum mit PeerDAS gelernt – und es gestaltet im Stillen neu, wie Blockchains skalieren können, ohne die Dezentralisierung zu opfern.

Am 3. Dezember 2025 aktivierte Ethereum das Fusaka-Upgrade und führte PeerDAS (Peer Data Availability Sampling) als Hauptfeature ein. Während sich die meisten Schlagzeilen auf die Senkung der Gebühren für Layer 2-Netzwerke um 40 - 60 % konzentrierten, stellt der zugrunde liegende Mechanismus etwas viel Bedeutenderes dar: einen grundlegenden Wandel in der Art und Weise, wie Blockchain-Nodes die Existenz von Daten beweisen, ohne diese tatsächlich vollständig zu speichern.

Dezentrale KI: Bittensor vs. Sahara AI im Rennen um Open Intelligence

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn die Zukunft der künstlichen Intelligenz nicht von einer Handvoll Billionen-Dollar-Unternehmen kontrolliert würde, sondern von Millionen von Mitwirkenden, die Token für das Training von Modellen und das Teilen von Daten verdienen? Zwei Projekte liefern sich ein Wettrennen, um diese Vision Wirklichkeit werden zu lassen — und sie könnten in ihrem Ansatz nicht unterschiedlicher sein.

Bittensor hat mit seiner von Bitcoin inspirierten Tokenomics und dem Proof-of-Intelligence-Mining ein Ökosystem im Wert von 2,9 Milliarden aufgebaut,indemKIModelleumBelohnungenkonkurrieren.SaharaAI,unterstu¨tztdurch49Millionenaufgebaut, in dem KI-Modelle um Belohnungen konkurrieren. Sahara AI, unterstützt durch 49 Millionen von Pantera und Binance Labs, baut eine Full-Stack-Blockchain auf, bei der Dateneigentum und Urheberrechtsschutz an erster Stelle stehen. Das eine belohnt den Output an roher Intelligenz; das andere schützt die Menschen hinter den Daten.

Während zentralisierte KI-Giganten wie OpenAI und Google dem Ziel der künstlichen allgemeinen Intelligenz (AGI) entgegenstürmen, setzen diese dezentralen Alternativen darauf, dass die Zukunft offenen, erlaubnisfreien Systemen gehört. Doch welche Vision wird sich durchsetzen?

Das Zentralisierungsproblem der KI

Die KI-Branche steht vor einer massiven Machtkonzentration. Das Training von Frontier-Modellen erfordert eine Recheninfrastruktur in Milliardenhöhe, wobei Cluster aus Tausenden von GPUs monatelang laufen. Nur eine Handvoll Unternehmen — OpenAI, Google, Anthropic, Meta — können sich diesen Umfang leisten. DeepMind-CEO Demis Hassabis beschrieb dies kürzlich als "das intensivste Wettbewerbsumfeld", das erfahrene Technologen je gesehen haben.

Diese Konzentration schafft kaskadierende Probleme. Datenlieferanten — die Künstler, Autoren und Programmierer, deren Arbeit diese Modelle trainiert — erhalten weder Vergütung noch Namensnennung. Kleine Entwickler können nicht gegen proprietäre Barrieren konkurrieren. Und die Nutzer haben keine andere Wahl, als darauf zu vertrauen, dass zentralisierte Anbieter verantwortungsvoll mit ihren Daten und Ergebnissen umgehen.

Dezentrale KI-Protokolle bieten eine alternative Architektur. Durch die Verteilung von Rechenleistung, Daten und Belohnungen über globale Netzwerke zielen sie darauf ab, den Zugang zu demokratisieren und gleichzeitig eine faire Vergütung zu gewährleisten. Aber der Gestaltungsraum ist riesig, und zwei führende Projekte haben radikal unterschiedliche Wege gewählt.

Bittensor: Das Proof-of-Intelligence-Mining-Netzwerk

Bittensor funktioniert wie ein "Bitcoin für KI" — ein erlaubnisfreies Netzwerk, in dem Teilnehmer TAO-Token verdienen, indem sie wertvolle Machine-Learning-Ergebnisse beisteuern. Anstatt willkürliche kryptografische Rätsel zu lösen, betreiben Miner KI-Modelle und beantworten Anfragen. Je besser ihre Antworten sind, desto mehr verdienen sie.

Wie es funktioniert

Das Netzwerk besteht aus spezialisierten Subnetzen (Subnets), von denen sich jedes auf eine bestimmte KI-Aufgabe konzentriert: Textgenerierung, Bildsynthese, Handelssignale, Proteinfaltung, Code-Vervollständigung. Bis Anfang 2026 beherbergt Bittensor über 129 aktive Subnetze, gegenüber 32 in der Anfangsphase.

Innerhalb jedes Subnetzes interagieren drei Rollen:

  • Miner betreiben KI-Modelle und beantworten Anfragen, wobei sie TAO basierend auf der Output-Qualität verdienen.
  • Validatoren bewerten die Antworten der Miner und vergeben Punkte unter Verwendung des Yuma-Konsens-Algorithmus.
  • Subnet-Besitzer kuratieren die Aufgabenspezifikationen und erhalten einen Teil der Emissionen.

Die Aufteilung der Emissionen beträgt 41 % an Miner, 41 % an Validatoren und 18 % an Subnet-Besitzer. Dies schafft ein marktgetriebenes System, in dem die besten KI-Beiträge die höchsten Belohnungen verdienen — eine Meritokratie, die durch kryptografischen Konsens statt durch unternehmenseigene Hierarchien durchgesetzt wird.

Die TAO-Token-Ökonomie

TAO spiegelt die Tokenomics von Bitcoin wider: eine feste Obergrenze von 21 Millionen Token, regelmäßige Halving-Ereignisse und kein Pre-Mine oder ICO. Am 12. Dezember 2025 schloss Bittensor sein erstes Halving ab, wodurch die täglichen Emissionen von 7.200 auf 3.600 TAO gesenkt wurden.

Das Upgrade auf dynamisches TAO (dTAO) im Februar 2025 führte eine marktgetriebene Preisgestaltung für Subnetze ein. Wenn Staker in den Alpha-Token eines Subnetzes investieren, stimmen sie mit ihrem TAO über den Wert dieses Subnetzes ab. Höhere Nachfrage bedeutet höhere Emissionen — ein Preisfindungsmechanismus für KI-Fähigkeiten.

Derzeit sind rund 73 % des TAO-Angebots gestakt, was eine starke langfristige Überzeugung signalisiert. Der GTAO-Trust von Grayscale beantragte im Dezember 2025 die Umwandlung an der NYSE, was potenziell die Tür für einen TAO-ETF und einen breiteren institutionellen Zugang öffnet.

Netzwerkskalierung und Akzeptanz

Die Zahlen erzählen eine Geschichte von schnellem Wachstum:

  • 121.567 einzigartige Wallets über alle Subnetze hinweg
  • 106.839 Miner und 37.642 Validatoren
  • Marktkapitalisierung von etwa 2,9 Milliarden $
  • EVM-Kompatibilität ermöglicht Smart Contracts auf Subnetzen

Die These von Bittensor ist einfach: Wenn man die richtigen Anreize schafft, wird Intelligenz aus dem Netzwerk entstehen. Kein zentraler Koordinator erforderlich.

Sahara AI: Die Full-Stack-Plattform für Datensouveränität

Während sich Bittensor auf die Incentivierung von KI-Outputs konzentriert, befasst sich Sahara AI mit dem Input-Problem: Wem gehören die Daten, mit denen diese Modelle trainiert werden, und wie werden die Mitwirkenden bezahlt?

Gegründet von Forschern des MIT und der USC, hat Sahara in Finanzierungsrunden unter der Leitung von Pantera Capital, Binance Labs und Polychain Capital 49 Millionen eingesammelt.IhrIDOimJahr2025aufBuidlpadzog103.000Teilnehmeraus118La¨ndernanundsammelteu¨ber74Millioneneingesammelt. Ihr IDO im Jahr 2025 auf Buidlpad zog 103.000 Teilnehmer aus 118 Ländern an und sammelte über 74 Millionen ein — wobei 79 % in der USD1-Stablecoin von World Liberty Financial gezahlt wurden.

Die drei Säulen

Sahara AI basiert auf drei grundlegenden Prinzipien:

1. Souveränität und Provenienz: Jeder Datenbeitrag wird On-Chain mit unveränderlicher Zuordnung aufgezeichnet. Selbst nachdem Daten während des Trainings in KI-Modelle eingespeist wurden, behalten die Mitwirkenden das verifizierbare Eigentum. Die Plattform ist SOC2-zertifiziert für Sicherheit und Compliance.

2. KI-Nutzen: Der Sahara-Marktplatz ( gestartet in der offenen Beta im Juni 2025 ) ermöglicht es Nutzern, KI-Modelle, Datensätze und Rechenressourcen zu kaufen, zu verkaufen und zu lizenzieren. Jede Transaktion wird auf der Blockchain mit transparenter Umsatzbeteiligung aufgezeichnet.

3. Kollaborative Ökonomie: Hochwertige Mitwirkende erhalten Soulbound-Token ( nicht übertragbare Reputationsmarker ), die Premium-Rollen und Governance-Rechte freischalten. Token-Inhaber stimmen über Plattform-Upgrades und Mittelzuweisungen ab.

Datendienste-Plattform

Saharas Datendienste-Plattform, die im Dezember 2024 gestartet wurde, ermöglicht es jedem, Geld durch das Erstellen von Datensätzen für das KI-Training zu verdienen. Über 200.000 globale KI-Trainer und 35 Unternehmenskunden nutzen die Plattform, wobei mehr als 3 Millionen Datenannotationen verarbeitet wurden.

Dies adressiert eine grundlegende Asymmetrie in der KI-Entwicklung: Unternehmen wie OpenAI durchsuchen das Internet nach Trainingsdaten, aber die ursprünglichen Ersteller gehen leer aus. Sahara stellt sicher, dass Datenmitwirkende – ob sie nun Bilder beschriften, Code schreiben oder Texte annotieren – eine direkte Vergütung durch SAHARA-Token-Zahlungen erhalten.

Technische Architektur

Sahara Chain verwendet CometBFT ( ein Fork von Tendermint Core ) für den byzantinisch-fehlertoleranten Konsens. Das Design priorisiert Datenschutz, Provenienz und Leistung für KI-Anwendungen, die eine sichere Datenhandhabung erfordern.

Die Token-Ökonomie umfasst:

  • Zahlungen pro Inferenz in SAHARA
  • Proof-of-Stake-Validierung mit Staking-Belohnungen
  • Dezentrale Governance für Protokollentscheidungen
  • 10 Milliarden maximale Versorgungsmenge mit TGE im Juni 2025

Der Mainnet-Launch erfolgte im 3. Quartal 2025, wobei das Team 1,4 Millionen täglich aktive Konten im Testnet und Partnerschaften mit Microsoft, AWS und Google Cloud meldete.

Im direkten Vergleich: Die Visionen gegenübergestellt

DimensionBittensorSahara AI
HauptfokusQualität des KI-OutputsSouveränität des Dateneingangs
KonsensProof of Intelligence ( Yuma )Proof of Stake ( CometBFT )
Token-Angebot21 Mio. Hard Cap10 Mrd. Maximum
Mining-ModellKompetitiv ( beste Ergebnisse gewinnen )Kollaborativ ( alle Mitwirkenden werden bezahlt )
SchlüsselkennzahlIntelligenz pro TokenDatenprovenienz pro Transaktion
Marktkapitalisierung ( Jan. 2026 )~ 2,9 Mrd. $~ 71 Mio. $
Institutionelles SignalGrayscale ETF-AntragUnterstützung durch Binance / Pantera
HauptunterscheidungsmerkmalSubnet-VielfaltUrheberschutz

Unterschiedliche Probleme, unterschiedliche Lösungen

Bittensor fragt: Wie incentivieren wir die Produktion der besten KI-Ergebnisse? Die Antwort ist Marktwettbewerb – Miner kämpfen um Belohnungen, und Qualität wird entstehen.

Sahara AI fragt: Wie vergüten wir jeden fair, der zu KI beiträgt? Die Antwort ist Provenienz – jeder Beitrag wird On-Chain verfolgt, um sicherzustellen, dass die Ersteller bezahlt werden.

Dies sind keine widersprüchlichen Visionen; sie sind komplementäre Schichten eines potenziellen dezentralen KI-Stacks. Bittensor optimiert die Modellqualität durch Wettbewerb. Sahara optimiert die Datenqualität durch faire Vergütung.

Die Urheberrechtsfrage

Eines der umstrittensten Themen der KI sind die Rechte an Trainingsdaten. Große Klagen von Künstlern, Autoren und Verlagen argumentieren, dass das Scrapen von urheberrechtlich geschützten Inhalten für das Training eine Verletzung darstellt.

Sahara adressiert dies direkt mit On-Chain-Provenienz. Wenn ein Datensatz in das System gelangt, wird das Eigentum des Mitwirkenden kryptografisch aufgezeichnet. Wenn diese Daten zum Trainieren eines Modells verwendet werden, bleibt die Zuordnung bestehen – und Lizenzzahlungen können automatisch fließen.

Bittensor hingegen ist agnostisch gegenüber der Herkunft der Trainingsdaten der Miner. Das Netzwerk belohnt die Output-Qualität, nicht die Input-Provenienz. Dies macht es flexibler, aber auch anfälliger für dieselben Urheberrechtsprobleme, mit denen zentralisierte KI konfrontiert ist.

Skalierung und Adoptionsverlauf

Die Marktkapitalisierung von Bittensor in Höhe von 2,9 Milliarden stelltSaharas71Millionenstellt Saharas 71 Millionen in den Schatten, was einen mehrjährigen Vorsprung und das Narrativ des TAO-Halvings widerspiegelt. Mit 129 Subnets und dem ETF-Antrag von Grayscale hat Bittensor eine bedeutende institutionelle Validierung erreicht.

Sahara befindet sich in einem früheren Stadium seines Lebenszyklus, wächst aber schnell. Das 74 Millionen $ IDO zeigt die Nachfrage im Privatkundensektor, und Unternehmenspartnerschaften mit AWS und Google Cloud deuten auf ein Potenzial für eine reale Einführung hin. Der Mainnet-Launch im 3. Quartal 2025 bringt das Projekt auf Kurs für den vollen Produktionsbetrieb im Jahr 2026.

Der Ausblick für 2026: Zeigen Sie mir den ROI

Wie Venky Ganesan, Partner bei Menlo Ventures, feststellte: „2026 ist das Jahr der Wahrheit für KI ('Show me the money')“. Unternehmen verlangen echten ROI, und Länder benötigen Produktivitätssteigerungen, um Infrastrukturausgaben zu rechtfertigen.

Dezentrale KI muss beweisen, dass sie mit zentralisierten Alternativen konkurrieren kann – nicht nur philosophisch, sondern auch praktisch. Können Bittensor-Subnets Modelle produzieren, die mit GPT-5 konkurrieren? Kann der Datenmarktplatz von Sahara genügend Mitwirkende anziehen, um erstklassige Trainingssets aufzubauen?

Die gesamte Marktkapitalisierung von KI-Kryptowährungen liegt bei 24 bis 27 Milliarden ,wasimVergleichzurgeru¨chteweisenBewertungvonOpenAIinHo¨hevon150Milliarden, was im Vergleich zur gerüchteweisen Bewertung von OpenAI in Höhe von 150 Milliarden gering ist. Aber dezentrale Projekte bieten etwas, das zentralisierte Giganten nicht bieten können: erlaubnisfreie Teilnahme, transparente Ökonomie und Widerstandsfähigkeit gegen Single Points of Failure.

Was man im Auge behalten sollte

Für Bittensor:

  • Angebotsdynamik nach dem Halving und Preisbildung
  • Qualitätsmetriken der Subnetze im Vergleich zu Benchmarks zentralisierter Modelle
  • Zeitplan für die Genehmigung des Grayscale-ETFs

Für Sahara AI:

  • Mainnet-Stabilität und Transaktionsvolumen
  • Einführung in Unternehmen über Pilotprogramme hinaus
  • Regulatorische Akzeptanz der On-Chain-Urheberrechtsprovenienz

Die Konvergenz-These

Das wahrscheinlichste Ergebnis ist nicht, dass ein Projekt gewinnt, während das andere verliert. Die KI-Infrastruktur ist groß genug für mehrere Gewinner, die unterschiedliche Probleme lösen.

Bittensor zeichnet sich durch die Koordinierung der Produktion verteilter Intelligenz aus. Sahara überzeugt bei der Koordinierung einer fairen Datenvergütung. Ein reifes dezentrales KI-Ökosystem könnte beide nutzen: Sahara für die Beschaffung hochwertiger, ethisch einwandfreier Trainingsdaten und Bittensor für die wettbewerbsorientierte Verbesserung von Modellen, die auf diesen Daten trainiert wurden.

Der eigentliche Wettbewerb findet nicht zwischen Bittensor und Sahara statt — er findet zwischen dezentraler KI als Kategorie und den zentralisierten Giganten statt, die derzeit dominieren. Wenn dezentrale Netzwerke auch nur einen Bruchteil der Fähigkeiten von Frontier-Modellen erreichen und gleichzeitig eine überlegene Ökonomie für Mitwirkende bieten, werden sie einen enormen Wert abschöpfen, während sich die KI-Ausgaben beschleunigen.

Zwei Visionen. Zwei Architekturen. Eine Frage: Kann dezentrale KI Intelligenz ohne zentrale Kontrolle liefern?


Der Aufbau von KI-Anwendungen auf einer Blockchain-Infrastruktur erfordert zuverlässige, leistungsstarke RPC-Dienste. BlockEden.xyz bietet API-Zugang auf Unternehmensebene, um KI-Blockchain-Integrationen zu unterstützen. Erkunden Sie unseren API-Marktplatz, um auf Fundamenten aufzubauen, die für die Ära der dezentralen KI entwickelt wurden.

ERC-8004: Der Standard, der Ethereum zum Betriebssystem für KI-Agenten machen könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Acht unabhängige Implementierungen in 24 Stunden. Das ist es, was geschah, als die Ethereum Foundation im August 2025 ERC-8004 „ Trustless Agents “ veröffentlichte. Zum Vergleich: ERC-20 – der Standard, der den ICO-Boom ermöglichte – brauchte Monate, bis er seine ersten Implementierungen sah. ERC-721, das CryptoKitties antrieb, wartete sechs Monate auf eine breite Akzeptanz. ERC-8004 explodierte über Nacht.

Der Grund? KI-Agenten haben endlich eine Möglichkeit, einander zu vertrauen, ohne jemandem vertrauen zu müssen.

Das Problem: KI-Agenten können sich nicht koordinieren

Der Markt für KI-Agenten hat eine Token-Marktkapitalisierung von 7,7Milliardenu¨berschritten,wobeidasta¨glicheHandelsvolumenfast7,7 Milliarden überschritten, wobei das tägliche Handelsvolumen fast 1,7 Milliarden erreicht. Prognosen des Bitget-CEO Gracy Chen zufolge könnte dieser Sektor bis Ende 2025 die Marke von $ 60 Milliarden erreichen. Aber es gibt ein grundlegendes Problem: Diese Agenten operieren isoliert.

Wenn ein KI-Trading-Agent ein Code-Audit benötigt, wie findet er einen vertrauenswürdigen Auditing-Agenten? Wenn ein DeFi-Optimierer einen spezialisierten Yield-Strategen einstellen möchte, wie verifiziert er, dass dieser Stratege seine Gelder nicht stiehlt? Die Antwort war bisher: zentralisierte Intermediäre – was den gesamten Zweck dezentraler Systeme zunichtemacht.

Traditionelle Koordination erfordert jemanden in der Mitte: einen Marktplatzbetreiber, einen Reputationsaggregator oder einen Zahlungsabwickler. Jeder Intermediär bringt Gebühren, Zensurrisiken und Single Points of Failure mit sich. Für autonome Agenten, die 24 / 7 in globalen Märkten agieren, sind diese Reibungspunkte inakzeptabel.

ERC-8004 löst dies durch die Schaffung einer Trustless-Koordinationsschicht direkt auf Ethereum.

Die Architektur: Drei Register, eine Vertrauensebene

ERC-8004 führt drei leichtgewichtige On-Chain-Register ein, die als Rückgrat für die Interaktionen autonomer Agenten dienen. Der Standard wurde gemeinsam von Marco De Rossi von MetaMask, Davide Crapis von der Ethereum Foundation, Jordan Ellis von Google und Erik Reppel von Coinbase verfasst – eine Koalition, die Wallet-Infrastruktur, Protokollentwicklung, Cloud-Computing und Börsenbetrieb repräsentiert.

Das Identitätsregister verleiht jedem Agenten eine eindeutige On-Chain-Identität unter Verwendung des ERC-721-Standards. Jeder Agent erhält eine portable, zensurresistente Kennung, die seiner Domain und seiner Ethereum-Adresse zugeordnet ist. Dies schafft einen globalen Namensraum für autonome Agenten – man denke an DNS für die Maschinenökonomie.

Das Reputationsregister bietet eine Standardschnittstelle für das Veröffentlichen und Abrufen von Feedbacksignalen. Anstatt komplexe Reputationswerte On-Chain zu speichern (was teuer und unflexibel wäre), übernimmt das Register die Feedback-Autorisierung zwischen Agenten. Die Werte reichen von 0 - 100, mit optionalen Tags und Links zu detailliertem Off-Chain-Feedback. Das Protokoll unterstützt x402-Zahlungsnachweise, um zu verifizieren, dass nur zahlende Kunden Bewertungen hinterlassen können, was Spam und betrügerisches Feedback verhindert.

Das Validierungsregister bietet Hooks für die Anforderung und Aufzeichnung unabhängiger Validator-Prüfungen durch kryptoökonomische Staking-Mechanismen. Wenn ein Agent behauptet, er könne den Yield optimieren, können Validatoren Token staken, um diese Behauptung zu verifizieren – und Belohnungen für genaue Einschätzungen erhalten oder bei falschen Angaben ein Slashing riskieren.

Das Geniale an dieser Architektur ist, was sie Off-Chain belässt. Komplexe Agentenlogik, detaillierte Reputationshistorien und anspruchsvolle Validierungsalgorithmen befinden sich alle außerhalb der Blockchain. Nur die wesentlichen Vertrauensanker – Identitätsnachweise, Autorisierungsdatensätze und Validierungsverpflichtungen – berühren die Chain.

Wie Agenten dies tatsächlich nutzen werden

Stellen Sie sich dieses Szenario vor: Ein Portfolio-Management-Agent, der DeFi-Positionen im Wert von $ 10 Millionen hält, muss eine Rebalancierung über drei Protokolle hinweg durchführen. Er fragt das Identitätsregister nach spezialisierten Strategie-Agenten ab, filtert nach Reputationswerten aus dem Reputationsregister und wählt schließlich einen Agenten mit mehr als 500 positiven Feedback-Einträgen und einem Trust-Score von 94 / 100 aus.

Bevor Kapital delegiert wird, fordert der Portfolio-Agent eine unabhängige Validierung an. Drei Validator-Agenten, die jeweils $ 50.000 gestaked haben, führen die vorgeschlagene Strategie in einer Simulation erneut aus. Alle drei bestätigen die erwarteten Ergebnisse. Erst dann autorisiert der Portfolio-Agent die Transaktion.

Dieser gesamte Prozess – Entdeckung, Reputationsprüfung, Validierung und Autorisierung – geschieht in Sekunden, ohne menschliches Eingreifen und ohne zentralen Koordinator.

Die Anwendungsfälle reichen weit über den Handel hinaus:

  • Code-Auditing: Sicherheitsagenten können eine verifizierbare Erfolgsbilanz entdeckter Schwachstellen aufbauen, mit Validierung durch andere Auditoren, die auf ihre Ergebnisse staken.
  • DAO-Governance: Vorschlags-Agenten können eine Historie erfolgreicher Governance-Beteiligungen nachweisen, wobei die Reputation nach den Ergebnissen früherer Abstimmungen gewichtet wird.
  • KI im Gesundheitswesen: Medizinische Diagnose-Agenten können datenschutzfreundliche Qualifikationen pflegen, die von autorisierten Gesundheitseinrichtungen validiert wurden.
  • Dezentrale Marktplätze: Service-Agenten können plattformübergreifende Reputation sammeln, die ihnen folgt, unabhängig davon, auf welchem Marktplatz sie tätig sind.

Die KI-Wette der Ethereum Foundation

Die Ethereum Foundation überlässt den Erfolg von ERC-8004 nicht dem Zufall. Im August 2025 gründete sie das dAI-Team speziell zur Förderung des Standards und zum Aufbau der unterstützenden Infrastruktur. Das Team unter der Leitung des Kernentwicklers Davide Crapis verfolgt zwei Prioritäten: KI-Agenten die Zahlung und Koordination ohne Zwischenhändler zu ermöglichen und einen dezentralen KI-Stack aufzubauen, der die Abhängigkeit von einer kleinen Anzahl großer Unternehmen vermeidet.

Dies stellt eine strategische Wette darauf dar, dass Ethereum zur Koordinationsschicht für die Maschinenökonomie werden kann – nicht nur eine Abrechnungsschicht für menschliche Transaktionen. Innerhalb von 24 Stunden nach der Veröffentlichung von ERC-8004 verzeichneten die sozialen Medien über 10.000 spontane Erwähnungen.

Der Zeitpunkt ist bewusst gewählt. Das NEAR Protocol hat sich als „die Blockchain für KI“ positioniert und Frameworks wie Shade Agents entwickelt, die es autonomen Bots ermöglichen, kettenübergreifend zu agieren und dabei den Datenschutz zu wahren. Solana treibt die Agenten-Infrastruktur durch verschiedene DeFi-Integrationen voran. Der Wettbewerb um die Rolle als Basisschicht der KI-Ökonomie verschärft sich.

Ethereums Vorteil sind die Netzwerkeffekte: das größte Entwickler-Ökosystem, die tiefste Liquidität und die umfassendste Smart-Contract-Kompatibilität. ERC-8004 zielt darauf ab, diese Vorteile in eine Dominanz bei der Agenten-Koordination umzuwandeln.

Die x402-Verbindung: Wie Agenten einander bezahlen

ERC-8004 existiert nicht isoliert. Er ist für die Integration mit x402 konzipiert, dem HTTP-Zahlungsprotokoll, das Coinbase und Partner entwickelt haben, um Maschine-zu-Maschine-Mikrozahlungen zu ermöglichen. Die Kombination schafft einen vollständigen Stack für Agenten-Ökonomien.

x402 lässt den lange ungenutzten HTTP-Statuscode 402 „Payment Required“ wieder aufleben. Wenn ein Agent einen Dienst anfordert, kann der Anbieter mit Zahlungsbedingungen antworten. Der anfordernde Agent handelt die Zahlung automatisch aus und wickelt sie ab – in Stablecoins, ETH oder anderen Token – ohne menschliches Eingreifen.

Das Agent Payments Protocol (AP2) von Google, das in Zusammenarbeit mit Coinbase entwickelt wurde, erweitert dies zusätzlich. AP2 wurde in Absprache mit über 60 Unternehmen, darunter Salesforce, American Express und Etsy, angekündigt und bietet Sicherheits- und Vertrauensinfrastruktur für agentenbasierte Zahlungen. Die A2A-x402-Erweiterung zielt speziell auf produktionsreife Krypto-Zahlungen zwischen Agenten ab.

Das Open-Source-Projekt Agent-8004-x402 demonstriert, wie diese Standards kombiniert werden. Ein Handelsagent kann Gegenparteien über die Identity Registry von ERC-8004 finden, deren Ruf überprüfen, die Validierung ihrer Strategien anfordern und dann Geschäfte über x402 abwickeln – alles autonom.

Was schiefgehen könnte

Der Standard ist nicht ohne Risiken. Sicherheitslücken in den privaten Schlüsseln von Agenten oder in Smart Contracts könnten katastrophale Folgen haben. Ein Fehler in der Identity Registry könnte den Identitätsdiebstahl von Agenten ermöglichen. Ein Mangel in der Reputation Registry könnte Rufmanipulationen zulassen. Der Staking-Mechanismus der Validation Registry könnte von koordinierten Angreifern ausgenutzt werden.

Die regulatorische Unsicherheit wiegt schwer. Fragen zur Haftung, Verantwortlichkeit und Durchsetzbarkeit von durch Agenten ausgeführten Verträgen bleiben weitgehend ungeklärt. Wenn ein KI-Agent finanzielle Verluste verursacht, wer ist verantwortlich? Der Entwickler des Agenten? Der Benutzer, der ihn eingesetzt hat? Die Validatoren, die seine Strategie genehmigt haben?

Es besteht auch ein Konzentrationsrisiko. Wenn ERC-8004 erfolgreich ist, könnte eine kleine Anzahl von Agenten mit hohem Ruf das Ökosystem dominieren. Pioniere mit starken Feedback-Historien könnten Markteintrittsbarrieren für neue Agenten schaffen und potenziell die Zentralisierungsprobleme reproduzieren, die der Standard eigentlich lösen will.

Die Ethereum Foundation ist sich dieser Bedenken bewusst. Der Standard enthält Bestimmungen für den Reputationsverfall (damit inaktive Agenten keine künstlich hohen Scores behalten), die Rotation der Validatoren (damit keine einzelne Validatorengruppe dominiert) und Mechanismen zur Identitätswiederherstellung (damit Schlüsselkompromittierungen die Agentenidentität nicht dauerhaft zerstören).

Die 47-Milliarden-Dollar-Chance

Der globale Markt für KI-Agenten erreichte im Jahr 2024 ein Volumen von 5,1 Milliarden Dollar und soll bis 2030 voraussichtlich 47,1 Milliarden Dollar erreichen. Token Metrics prognostiziert, dass intelligente KI-Agenten bis Ende 2025 etwa 15 - 20 % des DeFi-Transaktionsvolumens erreichen könnten, was KI-integrierte Protokolle bis Ende 2026 in den Bereich von 200 - 300 Milliarden Dollar TVL bringen würde.

Der Gas-Verbrauch für Agentenidentitäts- und Ausführungsverträge wird voraussichtlich um 30 - 40 % pro Quartal steigen, sobald Standards wie ERC-8004 breite Anwendung finden. Dies schafft eine Feedback-Schleife: Mehr Agenten bedeuten mehr Koordination, mehr Koordination bedeutet mehr On-Chain-Aktivität, mehr Aktivität bedeutet höhere Netzwerkeinnahmen.

Für Ethereum stellt ERC-8004 sowohl eine Chance als auch eine Notwendigkeit dar. Wenn Agenten zu bedeutenden wirtschaftlichen Akteuren werden – und alle Anzeichen deuten darauf hin –, wird die Blockchain, die ihre Koordinationsschicht besetzt, einen überproportionalen Anteil an der Maschinenökonomie gewinnen.

Was als Nächstes kommt

ERC-8004 befindet sich noch in der Prüfung, aber die Bereitstellung findet bereits statt. Experimente laufen auf dem Ethereum-Mainnet und auf Layer-2-Netzwerken wie Taiko und Base. Im Januar 2026 begannen mehrere Krypto- und KI-Plattformen, ERC-8004 als zentralen Baustein für Agentenmärkte zu diskutieren.

Der Standard könnte in die Hard Forks von Ethereum im Jahr 2026 aufgenommen werden – potenziell Glamsterdam (Gloas-Amsterdam) oder Hegota (Heze-Bogota). Eine vollständige Integration würde native Unterstützung für Agentenidentität, Reputation und Validierung auf Protokollebene bedeuten.

Die acht Implementierungen innerhalb von 24 Stunden waren kein Zufall. Sie waren ein Signal, dass der Markt auf diese Infrastruktur gewartet hat. KI-Agenten existieren. Sie verfügen über Kapital. Sie müssen sich koordinieren. ERC-8004 gibt ihnen eine Möglichkeit, dies zu tun, ohne jemandem außer der Mathematik zu vertrauen.


Da KI-Agenten zu bedeutenden Teilnehmern in Blockchain-Ökosystemen werden, wird die sie unterstützende Infrastruktur entscheidend. BlockEden.xyz bietet API-Dienste der Enterprise-Klasse für über 20 Blockchains und stellt sicher, dass Entwickler, die agentenbasierte Anwendungen erstellen, die zuverlässige Infrastruktur haben, die sie benötigen. Erkunden Sie unseren API-Marktplatz, um die autonomen Systeme von morgen zu bauen.

Der Kampf um den Social Graph von Web3: Warum Farcaster und Lens unterschiedliche Kriege führen

· 11 Min. Lesezeit
Dora Noda
Software Engineer

Im Januar 2025 legte Farcaster-Mitbegründer Dan Romero ein überraschendes Geständnis ab: „Wir haben 4,5 Jahre lang versucht, Social First zu setzen, aber es hat nicht funktioniert.“ Die Plattform, die einst 80.000 täglich aktive Nutzer erreichte und 180 Millionen $ einsammelte, wandte sich vollständig von den sozialen Medien ab – hin zu Wallets.

Unterdessen hatte Lens Protocol gerade eine der größten Datenmigrationen in der Geschichte der Blockchain abgeschlossen und 650.000 Benutzerprofile sowie 125 GB an Social-Graph-Daten auf seine eigene Layer-2-Chain übertragen. Zwei Protokolle. Zwei radikal unterschiedliche Wetten auf die Zukunft des dezentralen Social Web. Und ein 10-Milliarden-$-Markt, der darauf wartet, wer es richtig macht.

Der SocialFi-Sektor wuchs laut Chainalysis im Jahresvergleich um 300 % und erreichte im Jahr 2025 ein Volumen von 5 Milliarden $. Doch hinter den Schlagzeilen verbirgt sich eine komplexere Geschichte über technische Kompromisse, Probleme bei der Nutzerbindung und die grundlegende Frage, ob dezentrale soziale Netzwerke jemals mit den Web2-Giganten konkurrieren können.

Farcaster vs. Lens Protocol: Der 2,4 Mrd. $ Kampf um den Web3 Social Graph

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Web3 versprach, dass Nutzer ihre Social Graphs selbst besitzen können. Fünf Jahre später wird dieses Versprechen von zwei Protokollen auf die Probe gestellt, die radikal unterschiedliche Ansätze für dasselbe Problem verfolgen: Farcaster mit einer Bewertung von 1 Milliarde und60.000ta¨glichaktivenNutzernsowiedasLensProtocol,dasgeradeaufseinereigenenZKgesteuertenChainmit31Millionenund 60.000 täglich aktiven Nutzern sowie das Lens Protocol, das gerade auf seiner eigenen ZK-gesteuerten Chain mit 31 Millionen an frischem Kapital gestartet ist.

Es steht viel auf dem Spiel. Der Markt für dezentrale soziale Netzwerke wird Prognosen zufolge von 18,5 Milliarden imJahr2025auf141,6Milliardenim Jahr 2025 auf 141,6 Milliarden bis 2035 explodieren. SocialFi-Token verfügen bereits über eine Marktkapitalisierung von 2,4 Milliarden $. Wer diesen Kampf gewinnt, erobert nicht nur die sozialen Medien – er erobert die Identitätsebene für das Web3 selbst.

Doch hier ist die unangenehme Wahrheit: Keines der Protokolle hat bisher den Durchbruch im Mainstream geschafft. Farcaster erreichte einen Spitzenwert von 80.000 monatlich aktiven Nutzern, bevor die Zahl bis Ende 2025 auf unter 20.000 sank. Lens verfügt über eine leistungsstarke Infrastruktur, kämpft jedoch darum, die Aufmerksamkeit der Konsumenten zu gewinnen, die seine Technologie verdient.

Dies ist die Geschichte zweier Protokolle, die darum wetteifern, die soziale Ebene des Web3 zu beherrschen – und die grundlegende Frage, ob dezentrale soziale Medien jemals mit den Giganten konkurrieren können, die sie zu ersetzen versuchen.

Nillions Blind-Computing-Revolution: Datenverarbeitung, ohne sie jemals zu sehen

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Sie KI-Inferenzen auf Ihren sensibelsten medizinischen Unterlagen durchführen könnten und die KI die verarbeiteten Daten niemals wirklich „sieht“? Das ist keine Science-Fiction – es ist das Kernversprechen des Blind Computing, und Nillion hat 50 Millionen $ von Investoren wie Hack VC, HashKey Capital und Distributed Global eingesammelt, um dies zum Standard für den Umgang des Internets mit sensiblen Informationen zu machen.

Es wird prognostiziert, dass der Markt für Privacy Computing von 5,6 Milliarden imJahr2025aufu¨ber46Milliardenim Jahr 2025 auf über 46 Milliarden bis 2035 explodieren wird. Doch im Gegensatz zu früheren Datenschutzlösungen, bei denen man jemandem seine Daten anvertrauen musste, beseitigt Blind Computing das Vertrauensproblem vollständig. Ihre Daten bleiben verschlüsselt – selbst während sie verarbeitet werden.

Meilenstein von 65 Millionen Frames bei Render Network: Wie Hollywoods GPU-Rückgrat zur Geheimwaffe für KI wurde

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die visuellen Effekte in Westworld kosteten HBO rund 10 Millionen proEpisode.EineinzigerMarvelFilmkann200Millionenpro Episode. Ein einziger Marvel - Film kann 200 Millionen für VFX - Arbeiten verschlingen. Und irgendwo in Los Angeles fand ein Startup namens OTOY heraus, wie man diese Kosten um 70 % senken kann – und ging noch weiter, indem es ein dezentrales GPU - Netzwerk aufbaute, das heute sowohl Hollywood - Blockbuster als auch die KI - Revolution unterstützt.

Render Network hat im Stillen über 65 Millionen Frames gerendert, allein im Jahr 2025 530.000 Token verbrannt (eine Steigerung von 279 % gegenüber 2024) und verarbeitet nun KI - Inferenzaufgaben, die 40 % seiner Rechenkapazität ausmachen. Was als Tool für 3D - Künstler begann, hat sich zu etwas viel Ehrgeizigerem entwickelt: einer dezentralen Alternative zu AWS und Google Cloud für das KI - Zeitalter.

Die 500-Milliarden-Dollar-Frage: Warum dezentrale KI-Infrastruktur der Geheimtipp für 2026 ist

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Präsident Trump im Januar 2025 das 500 Milliarden Dollar schwere Stargate-Projekt ankündigte – die größte Einzelinvestition in die KI-Infrastruktur in der Geschichte –, zuckten die meisten Krypto-Investoren nur mit den Schultern. Zentralisierte Rechenzentren. Partnerschaften mit Big Tech. Hier gibt es nichts zu sehen.

Sie haben den Kern der Sache völlig verpasst.

Stargate baut nicht nur KI-Infrastruktur auf. Es schafft die Nachfragekurve, die dezentrale KI-Rechenleistung nicht nur rentabel, sondern unverzichtbar machen wird. Während Hyperscaler damit kämpfen, bis 2029 eine Rechenkapazität von 10 Gigawatt bereitzustellen, ist ein paralleles Netzwerk von über 435.000 GPU-Containern bereits live und bietet die gleichen Dienste zu 86 % geringeren Kosten an.

Die Konvergenz von KI und Krypto ist kein bloßes Narrativ. Es ist ein 33 Milliarden Dollar schwerer Markt, der sich verdoppelt, während Sie dies lesen.

Walrus Protocol: Wie Suis 140-Millionen-Dollar-Speicher-Wette den Web3-Datenlayer neu gestalten könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Als Mysten Labs bekannt gab, dass sein Walrus-Protokoll im März 2025 140 Millionen vonStandardCrypto,a16zundFranklinTempletongesicherthat,sandtedieseineklareBotschaft:DieKriegeumdezentralenSpeichertretenineineneuePhaseein.DochwasmachtWalrusineinerLandschaft,diebereitsvonFilecoinsUnternehmensambitionenundArweavesVersprechenfu¨rpermanentenSpeicherbevo¨lkertist,soanders,dasseineBewertungvon2Milliardenvon Standard Crypto, a16z und Franklin Templeton gesichert hat, sandte dies eine klare Botschaft: Die Kriege um dezentralen Speicher treten in eine neue Phase ein. Doch was macht Walrus in einer Landschaft, die bereits von Filecoins Unternehmensambitionen und Arweaves Versprechen für permanenten Speicher bevölkert ist, so anders, dass eine Bewertung von 2 Milliarden vor dem ersten Betriebstag gerechtfertigt ist?

Die Antwort liegt in einer grundlegenden Neugestaltung der Funktionsweise von dezentralem Speicher.

Das Speicherproblem, das niemand gelöst hat

Dezentraler Speicher war das ständig ungelöste Problem von Web3. Benutzer wünschen sich die Zuverlässigkeit von AWS gepaart mit der Zensurresistenz der Blockchain, aber bestehende Lösungen haben schmerzhafte Kompromisse erzwungen.

Filecoin, der größte Akteur mit einer Marktkapitalisierung, die bis 2025 stark schwankte, erfordert, dass Benutzer Speicher-Deals mit Anbietern aushandeln. Wenn diese Verträge auslaufen, könnten Ihre Daten verschwinden. Die Netzwerkauslastung im dritten Quartal 2025 erreichte 36 % – eine Verbesserung gegenüber 32 % im Vorquartal –, lässt jedoch weiterhin Fragen zur Effizienz im großen Maßstab offen.

Arweave bietet permanenten Speicher mit seinem „Pay once, store forever“-Modell an, aber diese Permanenz hat ihren Preis. Das Speichern von Daten auf Arweave kann 20-mal teurer sein als auf Filecoin bei gleicher Kapazität. Für Anwendungen, die Terabytes an Benutzerdaten verarbeiten, geht die wirtschaftliche Rechnung einfach nicht auf.

IPFS wiederum ist eigentlich gar kein Speicher – es ist ein Protokoll. Ohne „Pinning“-Dienste, die Ihre Daten am Leben erhalten, verschwinden Inhalte, sobald Knoten sie aus ihrem Cache löschen. Es ist, als würde man ein Haus auf einem Fundament bauen, das jederzeit umziehen könnte.

In diese fragmentierte Landschaft tritt Walrus, und seine Geheimwaffe ist die Mathematik.

RedStuff: Der technische Durchbruch

Im Kern von Walrus steht RedStuff, ein zweidimensionales Erasure-Coding-Protokoll, das eine echte Innovation in der Entwicklung verteilter Systeme darstellt. Um zu verstehen, warum dies wichtig ist, muss man betrachten, wie herkömmlicher dezentraler Speicher mit Redundanz umgeht.

Vollständige Replikation – das Speichern mehrerer kompletter Kopien auf verschiedenen Knoten – ist einfach, aber ineffizient. Um sich gegen byzantinische Fehler zu schützen, bei denen bis zu ein Drittel der Knoten bösartig sein könnte, ist eine umfangreiche Duplizierung erforderlich, was die Kosten in die Höhe treibt.

Eindimensionales Erasure Coding, wie die Reed-Solomon-Kodierung, teilt Dateien in Fragmente mit Paritätsdaten zur Rekonstruktion auf. Das ist effizienter, hat aber eine kritische Schwäche: Die Wiederherstellung eines einzigen verlorenen Fragments erfordert das Herunterladen von Datenmengen, die der gesamten Originaldatei entsprechen. In dynamischen Netzwerken mit häufigem Knotenwechsel (Churn) führt dies zu Bandbreitenengpässen, welche die Leistung massiv beeinträchtigen.

RedStuff löst dies durch matrixbasierte Kodierung, die sowohl primäre als auch sekundäre „Slivers“ (Splitter) erzeugt. Wenn ein Knoten ausfällt, können die verbleibenden Knoten fehlende Daten rekonstruieren, indem sie nur das herunterladen, was tatsächlich verloren gegangen ist – nicht das gesamte Blob. Die Wiederherstellungsbandbreite skaliert mit O(|blob|/n) anstatt mit O(|blob|), ein Unterschied, der bei großen Datenmengen enorm ins Gewicht fällt.

Das Protokoll erreicht Sicherheit mit einer nur 4,5-fachen Replikation, verglichen mit der 10- bis 30-fachen Replikation, die bei simpleren Ansätzen erforderlich ist. Laut der eigenen Analyse des Walrus-Teams führt dies zu Speicherkosten, die etwa 80 % niedriger als bei Filecoin und bis zu 99 % niedriger als bei Arweave für eine gleichwertige Datenverfügbarkeit sind.

Vielleicht am wichtigsten ist, dass RedStuff das erste Protokoll ist, das Speicherherausforderungen (Storage Challenges) in asynchronen Netzwerken unterstützt. Dies verhindert, dass Angreifer Netzwerkverzögerungen ausnutzen, um Verifizierungen zu bestehen, ohne die Daten tatsächlich zu speichern – eine Sicherheitslücke, die frühere Systeme plagte.

Das 140-Millionen-$-Vertrauensvotum

Die Finanzierungsrunde, die im März 2025 abgeschlossen wurde, spricht für sich. Standard Crypto führte die Runde an, unter Beteiligung des Krypto-Arms von a16z, Electric Capital und Franklin Templeton Digital Assets. Besonders bemerkenswert ist das Engagement von Franklin Templeton – wenn einer der weltweit größten Vermögensverwalter Blockchain-Infrastruktur unterstützt, signalisiert dies eine institutionelle Überzeugung, die über typische Krypto-Venture-Deals hinausgeht.

Der Token-Verkauf bewertete den WAL-Token-Vorrat bei vollständiger Verwässerung mit 2 Milliarden $. Zum Vergleich: Filecoin – mit jahrelangem Betrieb und einem etablierten Ökosystem – handelt mit einer Marktkapitalisierung, die erhebliche Volatilität aufwies und im Oktober 2025 dramatisch einbrach, bevor sie sich erholte. Der Markt wettet darauf, dass sich die technischen Vorteile von Walrus in eine bedeutende Akzeptanz verwandeln werden.

Die WAL-Tokenomics spiegeln die Lehren aus früheren Projekten wider. Der Gesamtvorrat von 5 Milliarden Token umfasst eine Zuteilung von 10 % für Benutzeranreize, mit einem anfänglichen Airdrop von 4 % und weiteren 6 %, die für zukünftige Verteilungen reserviert sind. Deflationäre Mechanismen bestrafen kurzfristige Stake-Verschiebungen mit teilweisen Burns, während Slashing-Strafen für leistungsschwache Speicherknoten die Netzwerkintegrität schützen.

Die Token-Freischaltungen (Unlocks) sind strategisch gestaffelt: Die Zuteilungen für Investoren beginnen erst im März 2026 mit der Freischaltung, ein volles Jahr nach dem Mainnet-Start. Dies reduziert den Verkaufsdruck während der kritischen Phase der frühen Akzeptanz.

Reale Akzeptanz

Seit dem Start des Mainnets am 27. März 2025 hat Walrus über 120 Projekte angezogen und beherbergt 11 Websites, die vollständig auf dezentraler Infrastruktur laufen. Dies ist keine Vaporware – es ist der produktive Einsatz.

Decrypt, das bekannte Web3-Medienunternehmen, hat damit begonnen, Inhalte auf Walrus zu speichern. TradePort, der größte NFT-Marktplatz auf Sui, nutzt das Protokoll für dynamische NFT-Metadaten und ermöglicht so komponierbare, erweiterbare digitale Assets, die mit statischen Speicherlösungen nicht möglich waren.

Die Anwendungsfälle gehen über die einfache Dateispeicherung hinaus. Walrus kann als kostengünstiger Data Availability Layer für Rollups dienen, bei denen Sequenzer Transaktionen hochladen und Executoren diese nur vorübergehend zur Verarbeitung rekonstruieren müssen. Dies positioniert Walrus als Infrastruktur für das modulare Blockchain-Konzept, das die jüngste Entwicklung dominiert hat.

KI-Anwendungen stellen eine weitere Grenze dar. Saubere Trainingsdatensätze, Modellgewichte und Nachweise für korrektes Training können alle mit verifizierter Herkunft gespeichert werden – entscheidend für eine Branche, die sich mit Fragen der Datenauthentizität und Modellauditierung auseinandersetzt.

Die Landschaft der „Storage Wars“

Walrus tritt in einen Markt ein, der laut Fundamental Business Insights bis 2034 voraussichtlich 6,53 Milliarden $ erreichen wird, mit einem jährlichen Wachstum von über 21 %. Dieses Wachstum wird durch zunehmende Bedenken hinsichtlich des Datenschutzes, steigende Cyberbedrohungen und regulatorischen Druck getrieben, der Unternehmen zu Alternativen zum zentralisierten Cloud-Speicher drängt.

Die Wettbewerbspositionierung sieht günstig aus. Filecoin zielt mit seinem Deal-basierten Modell auf Enterprise-Workloads ab. Arweave besitzt den Bereich der permanenten Speicherung für Archive, rechtliche Dokumente und die Bewahrung von Kulturgut. Storj bietet S3-kompatiblen Objektspeicher mit Festpreisen an (0,004 $ pro GB monatlich, Stand Anfang 2025).

Walrus besetzt die Nische für hochverfügbaren, kosteneffizienten Speicher, der die On-Chain- und Off-Chain-Welten verbindet. Die Integration in Sui bietet einen natürlichen Entwicklerfluss, aber die Speicherschicht ist technisch chain-agnostisch – Anwendungen, die auf Ethereum, Solana oder anderswo aufgebaut sind, können für Off-Chain-Speicherung angedockt werden.

Der gesamte adressierbare Markt für dezentrale Speicherung bleibt ein Bruchteil der breiteren Cloud-Speicherindustrie, die im Jahr 2025 mit 255 Milliarden bewertetwurdeundbis2032voraussichtlich774Milliardenbewertet wurde und bis 2032 voraussichtlich 774 Milliarden erreichen wird. Selbst die Erfassung eines kleinen Prozentsatzes dieser Migration würde ein massives Wachstum bedeuten.

Technischer Deep Dive in die Architektur

Die Architektur von Walrus trennt Steuerung und Metadaten (die auf Sui laufen) von der eigentlichen Speicherschicht. Diese Aufteilung ermöglicht es dem Protokoll, die Fast Finality von Sui für die Koordination zu nutzen, während die Speicheragnostik gewahrt bleibt.

Wenn ein Benutzer einen Blob speichert, werden die Daten einer RedStuff-Kodierung unterzogen und in Slivers aufgeteilt, die über die Speicher-Nodes für diese Epoche verteilt werden. Jeder Node verpflichtet sich, die zugewiesenen Slivers zu speichern und bereitzustellen. Die wirtschaftlichen Anreize werden durch Staking abgestimmt – Nodes müssen Sicherheiten hinterlegen, die bei schlechter Leistung oder Datenunverfügbarkeit gekürzt (Slashing) werden können.

Die Datenresilienz ist außergewöhnlich: Walrus kann Informationen selbst dann wiederherstellen, wenn zwei Drittel der Speicher-Nodes ausfallen oder feindselig agieren. Diese byzantinische Fehlertoleranz übertrifft die Anforderungen der meisten Produktionssysteme.

Das Protokoll enthält authentifizierte Datenstrukturen zur Abwehr böswilliger Clients, die versuchen, das Netzwerk zu korrumpieren. In Kombination mit dem asynchronen Storage-Challenge-System entsteht ein Sicherheitsmodell, das robust gegen die Angriffsvektoren ist, die frühere dezentrale Speichersysteme gefährdet haben.

Was schiefgehen könnte

Keine Technologieanalyse ist vollständig ohne die Untersuchung von Risiken. Walrus steht vor mehreren Herausforderungen:

Konkurrenz durch etablierte Akteure: Filecoin verfügt über jahrelange Ökosystementwicklung und Geschäftsbeziehungen zu Unternehmen. Arweave besitzt Markenbekanntheit in der Nische der permanenten Speicherung. Die Verdrängung etablierter Akteure erfordert nicht nur bessere Technologie, sondern auch einen besseren Vertrieb.

Sui-Abhängigkeit: Obwohl die Speicherschicht technisch chain-agnostisch ist, bedeutet die enge Integration mit Sui, dass das Schicksal von Walrus teilweise an den Erfolg dieses Ökosystems gebunden ist. Wenn Sui keine Mainstream-Adoption erreicht, verliert Walrus seinen primären Entwickler-Funnel.

Tokenomics in der Praxis: Die deflationären Mechanismen und Staking-Strafen sehen auf dem Papier gut aus, aber das reale Verhalten weicht oft von theoretischen Modellen ab. Der Investor-Unlock im März 2026 wird der erste große Test für die Preisstabilität von WAL sein.

Regulatorische Unsicherheit: Dezentrale Speicherung befindet sich in verschiedenen Gerichtsbarkeiten in regulatorischen Grauzonen. Wie Behörden Data Availability Layer behandeln – insbesondere solche, die potenziell sensible Inhalte speichern – bleibt unklar.

Das Fazit

Walrus stellt eine echte technische Innovation in einem Bereich dar, der sie dringend nötig hatte. Die zweidimensionale Erasure-Coding-Technologie von RedStuff ist keine Marketing-Differenzierung – es ist ein bedeutender architektonischer Fortschritt, der durch veröffentlichte Forschungsergebnisse untermauert wird.

Die Finanzierung in Höhe von 140 Millionen $ durch glaubwürdige Investoren, die schnelle Akzeptanz im Ökosystem und die durchdachte Tokenomics deuten darauf hin, dass dieses Projekt über den typischen Krypto-Hype-Zyklus hinaus Bestand hat. Ob es bedeutende Marktanteile von etablierten Wettbewerbern gewinnen kann, bleibt abzuwarten, aber die Voraussetzungen für eine ernsthafte Herausforderung sind gegeben.

Für Entwickler, die Anwendungen erstellen, die eine zuverlässige, erschwingliche und dezentrale Datenspeicherung benötigen, verdient Walrus eine ernsthafte Evaluierung. Die „Storage Wars“ haben einen neuen Mitstreiter, und dieser ist mit besserer Mathematik bewaffnet.


Bauen Sie auf Sui oder erkunden Sie dezentrale Speicherlösungen für Ihre Web3-Anwendung? BlockEden.xyz bietet RPC-Infrastruktur der Enterprise-Klasse und API-Dienste an, die sich nahtlos in aufstrebende Ökosysteme integrieren lassen. Erkunden Sie unseren API-Marktplatz, um Ihr nächstes Projekt mit einer Infrastruktur voranzutreiben, die für die dezentrale Zukunft entwickelt wurde.