Direkt zum Hauptinhalt

228 Beiträge getaggt mit „Technologische Innovation“

Technologische Innovationen und Durchbrüche

Alle Tags anzeigen

Bitcoins Layer-2-Abrechnung: Warum 75 L2s um 0,46 % von BTC kämpfen, während Babylon 5 Mrd. $ einnimmt

· 12 Min. Lesezeit
Dora Noda
Software Engineer

Das Bitcoin-Layer-2-Narrativ versprach, BTC von „digitalem Gold“ in eine programmierbare finanzielle Basisschicht zu verwandeln. Stattdessen lieferte das Jahr 2025 einen ernüchternden Realitätscheck: Der Bitcoin-L2-TVL brach um 74 % ein, während das gesamte BTCFi-Ökosystem von 101.721 BTC auf nur 91.332 BTC schrumpfte – was lediglich 0,46 % aller im Umlauf befindlichen Bitcoins entspricht.

Doch inmitten dieses Gemetzels ragt ein Protokoll heraus: Das Babylon-Protokoll beherrscht einen TVL von 4,95 Milliarden $, was etwa 78 % des gesamten Bitcoin-Staking-Wertes ausmacht. Dieser krasse Gegensatz wirft eine entscheidende Frage für institutionelle Investoren, Entwickler und BTC-Halter auf: Ist Bitcoin L2 ein überfüllter Friedhof gescheiterter Experimente oder konsolidiert sich das Kapital schlichtweg um echte Innovationen?

Der große Bitcoin-L2-Shakeout

Die Bitcoin-L2-Landschaft explodierte von nur 10 Projekten im Jahr 2021 auf 75 bis 2024 – eine siebenfache Steigerung, die die „Jeder braucht ein L2“-Mentalität widerspiegelte, die auch Ethereum erfasst hatte. Doch das explosive Wachstum der Projektzahl schlug sich nicht in nachhaltiger Akzeptanz nieder.

Die Zahlen erzählen eine bittere Geschichte:

  • Der Bitcoin-L2-TVL sank im Laufe des Jahres 2025 um 74 %
  • Der gesamte BTCFi-TVL ging um 10 % zurück, von 101.721 BTC auf 91.332 BTC
  • Nur 0,46 % des zirkulierenden Bitcoin-Angebots nehmen an L2-DeFi teil
  • Bei den meisten neuen L2s brach die Nutzung ein, nachdem die ersten Incentive-Zyklen endeten

Zum Vergleich: Ethereums Layer-2-Ökosystem verfügt über einen TVL von mehr als 40 Milliarden u¨berBase,ArbitrumundOptimismhinwegwobeiBaseallein46über Base, Arbitrum und Optimism hinweg – wobei Base allein 46 % des L2-DeFi-TVL einnimmt. Bitcoins gesamtes L2-Ökosystem hat dagegen Mühe, 4 bis 5 Milliarden zu halten, obwohl Bitcoins Marktkapitalisierung von 1,8 Billionen die350Milliardendie 350 Milliarden von Ethereum in den Schatten stellt.

Dies ist nicht nur eine Underperformance – es ist ein fundamentales Missverhältnis zwischen Narrativ und Ausführung.

Babylons Dominanz: Warum ein Protokoll 78 % des BTC-Stakings eroberte

Während die meisten Bitcoin-L2s Kapital verloren, ging das Babylon-Protokoll als unangefochtener Sieger hervor. Zu seinem Höchststand im Dezember 2024 hielt Babylon einen TVL von 9 Milliarden .SelbstnacheinemRu¨ckgangvon32. Selbst nach einem Rückgang von 32 %, der durch Unstaking-Ereignisse im Wert von 1,26 Milliarden im April 2025 ausgelöst wurde, beherrscht Babylon immer noch 4,95 Milliarden $ – mehr als der Rest des Bitcoin-L2-Ökosystems zusammen.

Warum Babylon dort Erfolg hatte, wo andere scheiterten:

1. Lösung eines realen Problems: Bitcoins brachliegendes Kapital von 1,8 Billionen $

Bitcoin-Halter standen historisch vor einer binären Wahl: BTC halten und null Rendite erzielen oder verkaufen, um Kapital anderweitig einzusetzen. Babylons Bitcoin-Staking-Mechanismus ermöglicht es BTC-Haltern, Proof-of-Stake-Chains zu sichern, ohne zu wrappen, zu bridgen oder die Verwahrung aufzugeben – ein entscheidendes Unterscheidungsmerkmal, das Bitcoins Kernversprechen des trustless Ownership bewahrt.

Im Gegensatz zu herkömmlichen Bitcoin-L2s, bei denen Benutzer BTC in Wrapped Tokens bridgen müssen (was Smart-Contract-Risiken und Zentralisierung einführt), nutzt Babylon kryptografische Verpflichtungen auf der Bitcoin-Mainchain, um natives BTC-Staking zu ermöglichen. Diese architektonische Entscheidung fand Anklang bei Institutionen und Whale-Haltern, die Sicherheit vor maximale Rendite stellen.

2. Multi-Chain Security as a Service

Babylons Start des Multi-Stakings im 4. Quartal 2025 ermöglichte es einem einzelnen BTC-Stake, mehrere Chains gleichzeitig zu sichern – was ein skalierbares Erlösmodell schuf, mit dem traditionelle L2s nicht mithalten konnten. Durch die Positionierung als „Bitcoins Sicherheitsschicht für PoS-Chains“ erschloss Babylon die Nachfrage von aufstrebenden L1s und L2s, die Validator-Sicherheit suchten, ohne eigene Konsensmechanismen einführen zu müssen.

Dieses Modell spiegelt den Erfolg des Restakings von EigenLayer auf Ethereum wider, jedoch mit einem entscheidenden Vorteil: Bitcoins Marktkapitalisierung von 1,8 Billionen bieteteinetiefereo¨konomischeSicherheitalsdie350Milliardenbietet eine tiefere ökonomische Sicherheit als die 350 Milliarden von Ethereum. Für junge Chains bietet das Bootstrapping der Sicherheit über Babylons restaked BTC sofortige Glaubwürdigkeit.

3. Infrastruktur auf institutionellem Niveau

Babylons Partnerschaft mit Aave (angekündigt Ende 2025) zur Integration von Bitcoin-Staking in das größte DeFi-Lending-Protokoll signalisierte eine Verschiebung von privater Spekulation hin zu institutioneller Infrastruktur. Wenn Aave – mit einem TVL von 68 Milliarden $ und strengen Sicherheitsstandards – einen Bitcoin-Staking-Mechanismus unterstützt, validiert dies sowohl die technische Architektur als auch die Marktnachfrage.

Die institutionelle These wurde klar: Bitcoin-Staking ist kein spekulatives DeFi-Spiel – es ist Infrastruktur für die Renditegenerierung auf der sichersten Blockchain der Welt.

Wo Bitcoin-L2s falsch abgebogen sind: Stacks, Rootstock und die institutionelle Kapitallücke

Wenn Babylon das repräsentiert, was in BTCFi funktioniert, dann illustrieren Stacks, Rootstock und Hemi, was nicht funktioniert – zumindest noch nicht in institutionellem Maßstab.

Stacks: Der Pionier, der mit der Ausführung kämpft

Stacks startete 2021 als Bitcoins erste große Smart-Contract-Schicht und führte den Proof-of-Transfer (PoX)-Konsensmechanismus ein, der auf der Bitcoin-Mainchain siedelt. Theoretisch löst Stacks die Bitcoin-Programmierbarkeit. In der Praxis steht es vor anhaltenden Herausforderungen:

  • TVL-Stagnation: Trotz Erreichen eines TVL-Meilensteins von 208 Millionen $ repräsentiert Stacks weniger als 5 % des Kapitals von Babylon.
  • sBTC-Bridge-Beschränkungen: Die Obergrenze der 5.000 BTC-Bridge war in weniger als 2,5 Stunden gefüllt – was die Nachfrage zeigt, aber auch Skalierungsengpässe verdeutlicht.
  • Token-Preisdruck: STX wird bei etwa 0,63 gehandelt,miteinerMarktkapitalisierungvon1,1Milliardengehandelt, mit einer Marktkapitalisierung von 1,1 Milliarden, was deutlich unter den Höchstständen von 2021 liegt.

Das grundlegende Problem von Stacks ist nicht die technische Innovation – es ist die Geschwindigkeit. DeFi-Nutzer fordern schnelle Finalität und niedrige Gebühren. Die an Bitcoin verankerte Abwicklung von Stacks (alle ~10 Minuten) erzeugt UX-Reibungen, die konkurrierende Chains vor Jahren gelöst haben. Institutionelles Kapital, das an Hochfrequenzhandel und sofortige Abwicklung im TradFi gewöhnt ist, wird keine 10-minütigen Blockbestätigungen tolerieren.

Rootstock (RSK): Die EVM-Kompatibilität, die nicht ausreichte

Rootstock startete 2018 als Bitcoins Ethereum-kompatible Sidechain und ermöglichte Solidity Smart Contracts, die durch Merged Mining mit Bitcoin gesichert sind. Es ist die am längsten bestehende Bitcoin L2 und erreichte im März 2025 einen Spitzenwert von 8,6 Milliarden $ an TVL.

Doch bis Ende 2025 brach das TVL von Rootstock zusammen mit anderen Bitcoin L2s ein. Warum?

  • Verwirrung um das Sicherheitsmodell: Merged Mining nutzt theoretisch die Hashpower von Bitcoin, aber in der Praxis nimmt nur ein Teil der Bitcoin-Miner teil – was eine schwächere Sicherheitsgarantie als die Bitcoin-Mainchain schafft.
  • EVM ist kein Differenzierungsmerkmal: Wenn Entwickler EVM-Kompatibilität wollen, wählen sie Ethereum L2s mit 100-mal mehr Liquidität und Tooling. Rootstocks Versprechen von „EVM auf Bitcoin“ löst ein Problem, das Entwickler nicht hatten.
  • Kein institutionelles Narrativ: Rootstock positioniert sich als „Bitcoin-DeFi-Infrastruktur“, aber es fehlt die Geschichte der Vertrauensminimierung, die institutionelle Treasury-Manager benötigen.

Rootstocks im Oktober 2025 angekündigte institutionelle Initiative für „unbewegte Bitcoins“ im Wert von 260 Milliarden $ signalisiert die Erkenntnis des Problems – aber Ankündigungen sind keine Akzeptanz. Babylon hat das Narrativ der institutionellen Bitcoin-Rendite bereits mit einem überlegenen Product-Market-Fit besetzt.

Hemi: Schnelles Wachstum, unklarer Wettbewerbsvorteil

Hemi entwickelte sich zu einer der Breakout-Bitcoin-L2s des Jahres 2025 und erreichte ein TVL von 1,2 Milliarden $, mehr als 90 Protokolle und über 100.000 Nutzer. Die Partnerschaft mit Dominari Securities (unterstützt von Investoren mit Verbindungen zu Trump) im Oktober 2025 zum Aufbau einer Bitcoin-nativen ETF-Infrastruktur erzeugte erhebliches Aufsehen.

Doch Hemi steht vor derselben existenziellen Frage, die die meisten Bitcoin L2s plagt: Was kann Hemi, was Ethereum L2s nicht können – und warum ist das wichtig?

  • Geschwindigkeit ist kein Alleinstellungsmerkmal: Hemis schnelle Finalität konkurriert mit Base (2-Sekunden-Blöcke) und Arbitrum – beide verfügen über 100-mal mehr DeFi-Liquidität.
  • Bitcoin-Settlement verursacht Kosten, keinen Mehrwert: Das Settlement auf der Bitcoin-Mainchain ist teuer (Transaktionsgebühren von über 40 $) und langsam (10-Minuten-Blöcke). Was ist der marginale Nutzen gegenüber dem Settlement auf Ethereum?
  • Protokollanzahl ≠ tatsächliche Nutzung: 90 Protokolle zu haben bedeutet wenig, wenn die meisten Forks von Ethereum-DeFi-Primitiven mit minimalem TVL sind.

Hemis institutionelles ETF-Narrativ könnte es differenzieren – falls die Umsetzung folgt. Doch Anfang 2026 verkaufen die meisten Bitcoin L2s immer noch Potenzial, anstatt echte Traktion zu liefern.

Das Problem mit dem institutionellen Kapital: Warum Geld zu Babylon fließt und nicht zu L2s

Institutionelles Kapital hat eine oberste Priorität: risikobereinigte Renditen. Babylons Staking-Modell bietet:

  • 4–7 % APY auf BTC, ohne die Verwahrung (Custody) aufzugeben
  • Native Bitcoin-Sicherheit durch kryptografische Beweise auf der Mainchain
  • Multi-Chain-Einnahmen durch die Sicherung von PoS-Ökosystemen
  • Partnerschaft mit Aave, was die Sicherheit auf institutionellem Niveau validiert

Vergleichen Sie dies mit traditionellen Bitcoin L2s, die Folgendes bieten:

  • Smart-Contract-Risiko durch Wrapped-BTC-Token
  • Unbewiesene Sicherheitsmodelle (Merged Mining, föderierte Multisigs, Optimistic Rollups auf Bitcoin)
  • Ungewisse Renditen, die von spekulativen DeFi-Protokollen abhängen
  • Liquiditätsfragmentierung über 75 konkurrierende Chains hinweg

Für einen Treasury-Manager, der entscheiden muss, wo er 100 Millionen inBTCeinsetzt,istBabylondieoffensichtlicheWahl.DerStakingMechanismusisttrustless,dieRenditeistvorhersehbarunddasProtokollverfu¨gtu¨berinstitutionellePartnerschaften.WarumeinSmartContractRisikoaufeinerexperimentellenBitcoinL2mit50Millionenin BTC einsetzt, ist Babylon die offensichtliche Wahl. Der Staking-Mechanismus ist trustless, die Rendite ist vorhersehbar und das Protokoll verfügt über institutionelle Partnerschaften. Warum ein Smart-Contract-Risiko auf einer experimentellen Bitcoin L2 mit 50 Millionen TVL und ungeprüften DeFi-Protokollen eingehen?

Die Zukunft der Bitcoin L2: Konsolidierung oder Aussterben?

Die Ethereum-L2-Landschaft bietet einen Fahrplan: Konsolidierung um einige dominante Chains (Base, Arbitrum, Optimism kontrollieren 90 % der L2-Aktivität), während Dutzende von Zombie-Chains mit vernachlässigbarer Nutzung fortbestehen.

Bitcoin L2s stehen vor einem noch härteren Filter, da Bitcoins Wertversprechen Sicherheit und Dezentralisierung sind – nicht Programmierbarkeit. Nutzer, die DeFi suchen, haben bereits Ethereum, Solana und Dutzende von Hochleistungs-L1s. Bitcoin L2s müssen die Frage beantworten: Warum DeFi auf Bitcoin aufbauen statt auf Chains, die dafür zweckbestimmt sind?

Drei Szenarien für Bitcoin L2 in 2026–2027

Szenario 1: Babylon-Monopol Babylon absorbiert über 90 % des Bitcoin-Stakings und der BTCFi-Aktivität und wird zur De-facto-„Bitcoin-DeFi-Schicht“, während traditionelle L2s in der Bedeutungslosigkeit verschwinden. Dies spiegelt die Dominanz von EigenLayer beim Ethereum-Restaking wider (93,9 % Marktanteil).

Szenario 2: Überleben spezialisierter L2s Eine Handvoll Bitcoin L2s überlebt, indem sie spezifische Nischen besetzen:

  • Lightning Network für Mikrozahlungen
  • Stacks für Bitcoin-verankerte Smart Contracts für spezifische Anwendungsfälle
  • Rootstock für bestehende Bitcoin-DeFi-Protokolle
  • Babylon für Staking und PoS-Sicherheit

Szenario 3: Renaissance von institutionellem BTCFi Große Institutionen (BlackRock, Fidelity, Coinbase) führen regulierte Bitcoin-Renditeprodukte und ETFs ein und umgehen öffentliche L2s vollständig. Dies begann bereits mit dem BUIDL-Fonds von BlackRock (1,8 Mrd. $ in tokenisierten Staatsanleihen) und könnte sich auf Bitcoin-besicherte Kredite und Derivate ausweiten.

Das wahrscheinlichste Ergebnis kombiniert Elemente aller drei: Babylon-Dominanz, einige wenige spezialisierte L2-Überlebende und institutionelle Produkte, die die zugrunde liegende Infrastruktur abstrahieren.

Was dies für Entwickler und Investoren bedeutet

Für Bitcoin-L2-Entwickler:

  • Differenzierung oder Untergang. „Schnelleres Ethereum auf Bitcoin“ ist keine überzeugende These. Finden Sie ein einzigartiges Wertversprechen (Datenschutz, Compliance, spezifische Asset-Klassen) oder bereiten Sie sich auf die Bedeutungslosigkeit vor.
  • Integration mit Babylon. Wenn Sie sie nicht schlagen können, bauen Sie auf ihnen auf. Die Multi-Staking-Architektur von Babylon könnte zum Sicherheits-Substrat für anwendungsspezifische Bitcoin-Rollups werden.
  • Zielgruppe Institutionen, nicht Privatkunden. Privatnutzer haben bereits zahlreiche DeFi-Optionen. Institutionen haben Compliance-Anforderungen, Verwahrungsbedenken und Renditemandate, die Bitcoin-L2s auf einzigartige Weise adressieren könnten.

Für Investoren:

  • Babylon ist der einzige klare Gewinner im Bereich Bitcoin-Staking. Bis ein glaubwürdiger Konkurrent mit differenzierter Technologie auftaucht, vergrößert sich der Wettbewerbsvorteil (Moat) von Babylon mit jeder Partnerschaft und Integration.
  • Die meisten Bitcoin-L2-Token sind überbewertet. Projekte mit einem TVL von unter 100 Mio. $ und sinkenden Nutzerzahlen werden zu Bewertungen gehandelt, die ein 10-faches Wachstum implizieren – ein Wachstum, das aufgrund strukturellen Gegenwinds unwahrscheinlich ist.
  • Bitcoin-DeFi ist real, steht aber noch am Anfang. Die Beteiligungsrate von 0,46 % deutet auf ein massives Potenzial hin, falls die richtigen Produkte entstehen. Aber dieses „Falls“ ist eine große Hürde.

Für Bitcoin-Halter:

  • Staking ist nicht länger theoretisch. Babylon, Aave-Integrationen und aufkommende Renditeprodukte bieten glaubwürdige Optionen, um 4–7 % auf BTC zu verdienen, ohne Wrapping oder Bridging.
  • Das Risiko von L2-Bridges bleibt hoch. Die meisten Bitcoin-L2s verlassen sich auf Wrapped BTC mit Annahmen zur treuhänderischen oder föderierten Verwahrung. Verstehen Sie das Sicherheitsmodell, bevor Sie Kapital über eine Bridge transferieren.
  • Institutionelle Produkte kommen. ETFs, regulierte Verwahrung und TradFi-Integrationen werden Bitcoin-Renditen ohne DeFi-Komplexität bieten – und damit potenziell öffentliche L2s kannibalisieren.

Das Fazit: Signal vs. Rauschen

Das Bitcoin-L2-Narrativ ist nicht tot – es wird erwachsen. Der Kollaps von 75 konkurrierenden Chains hin zu einer von Babylon dominierten Landschaft spiegelt die Konsolidierung von Ethereum um Base, Arbitrum und Optimism wider. Kapital verteilt sich nicht gleichmäßig auf „interessante Experimente“ – es fließt in Protokolle, die echte Probleme mit überlegener Ausführung lösen.

Babylon hat das Problem des brachliegenden Bitcoin-Kapitals mit einem vertrauensminimierten Staking-Mechanismus, institutionellen Partnerschaften und Multi-Chain-Einnahmen gelöst. Das ist das Signal.

Die meisten anderen Bitcoin-L2s werben für „programmierbares Bitcoin“, ohne zu erklären, warum Nutzer sie gegenüber Ethereum-L2s mit 100-mal mehr Liquidität bevorzugen sollten. Das ist Rauschen.

Die Frage für 2026 ist nicht, ob Bitcoin-L2s skalieren können – sondern ob sie existieren sollten. Bitcoins Zweck war nie, ein „langsameres Ethereum“ zu sein. Bitcoin ist die sicherste Abrechnungsschicht (Settlement Layer) der Welt und ein dezentraler Wertaufbewahrungsspeicher. Der Aufbau einer DeFi-Infrastruktur, die diese Eigenschaften bewahrt und gleichzeitig Renditen ermöglicht – wie Babylon –, ist wertvoll.

Noch eine weitere EVM-Chain zu bauen, die zufällig auf Bitcoin abrechnet? Das ist nur Rauschen in einem ohnehin schon überfüllten Markt.

BlockEden.xyz bietet Enterprise-Infrastruktur für Bitcoin, Ethereum und aufstrebende Layer-2-Ökosysteme. Egal, ob Sie auf Babylon, Stacks oder der nächsten Generation der Bitcoin-Infrastruktur aufbauen, unser institutioneller API-Zugang und unser engagierter Support stellen sicher, dass Ihre Anwendung zuverlässig skaliert. Erkunden Sie unsere Bitcoin-Node-Services und bauen Sie auf Fundamenten, die für die Ewigkeit ausgelegt sind.

Cross-Chain Messaging Protocol Wars: Wer gewinnt den Kampf um die Multichain-Vorherrschaft?

· 14 Min. Lesezeit
Dora Noda
Software Engineer

Die Multichain-Zukunft steht nicht bevor – sie ist bereits da. Mit über 19,5 Milliarden US-Dollar, die in Cross-Chain-Bridges gesperrt sind, und einem Markt, der bis Ende 2026 auf 3,5 Milliarden US-Dollar zusteuert, hat sich die Blockchain-Interoperabilität von einer experimentellen Phase zu einer unternehmenskritischen Infrastruktur entwickelt. Doch unter der Oberfläche von nahtlosen Token-Transfers und Cross-Chain-DApps befinden sich drei Protokolle in einem architektonischen Wettrüsten, das das Rückgrat des nächsten Jahrzehnts von Web3 bestimmen wird.

LayerZero, Wormhole und Axelar haben sich als unangefochtene Marktführer im Cross-Chain-Messaging herauskristallisiert, doch ihre Designphilosophien könnten kaum unterschiedlicher sein. Eines priorisiert blitzschnelle Finalität durch minimalistische Architektur. Ein anderes setzt auf Dezentralisierung durch ein robustes Validator-Netzwerk. Das dritte versucht, den Mittelweg zu finden und bietet eine ausgewogene Performance mit Zuverlässigkeit auf institutionellem Niveau.

Die Frage ist nicht, ob Cross-Chain-Messaging wichtig ist – angesichts eines kumulativen Volumens von über 70 Milliarden US-Dollar bei Wormhole und der Absicherung der 80 Milliarden US-Dollar schweren Omnichain-Integration von Cardano durch LayerZero hat der Markt bereits entschieden. Die eigentliche Frage lautet: Welcher architektonische Kompromiss gewinnt, wenn Geschwindigkeit, Sicherheit und Dezentralisierung aufeinanderprallen?

Die Schlacht der Architekturen: Drei Pfade zur Cross-Chain-Vorherrschaft

LayerZero: Der Geschwindigkeits-Minimalist

Die Designphilosophie von LayerZero ist täuschend einfach: Den On-Chain-Footprint minimal halten, die Verifizierung Off-Chain verlagern und den Entwicklern die Wahl ihres Sicherheitsmodells überlassen. Im Kern setzt LayerZero unveränderliche „Endpoint“-Smart-Contracts auf jeder Blockchain ein, aber die Hauptarbeit wird durch sein Netzwerk aus Decentralized Verifier Networks (DVNs) erledigt.

Im Gegensatz zu herkömmlichen Bridges, die Vermögenswerte in Escrow-Verträgen sperren, verwendet LayerZero ein Oracle-Relayer-Modell, bei dem unabhängige Einheiten die Integrität der Nachrichten über Ketten hinweg verifizieren.

Entwickler können ihre eigenen Sicherheitsparameter konfigurieren, indem sie aus über 60 verfügbaren DVNs wählen, darunter institutionelle Akteure wie der FCAT-Verifier von Fidelity, der die tokenisierten Vermögenswerte von Ondo Finance in Höhe von 2,7 Milliarden US-Dollar absichert.

Der Vorteil? Eine nahezu sofortige Zustellung der Nachrichten. Die leichtgewichtige Architektur von LayerZero eliminiert den Konsens-Overhead, der schwerfälligere Protokolle belastet, und ermöglicht bei korrekter Konfiguration Cross-Chain-Transaktionen in Sekundenbruchteilen. Dieser Geschwindigkeitsvorteil ist der Grund, warum das Protokoll zum De-facto-Standard für DeFi-Anwendungen geworden ist, die schnelles Cross-Chain-Arbitrage und Liquiditäts-Routing erfordern.

Doch Minimalismus bringt Kompromisse mit sich. Durch das Outsourcing der Verifizierung an externe DVNs führt LayerZero Vertrauensannahmen ein, die nach Ansicht von Puristen die Dezentralisierung gefährden. Wenn ein DVN-Set kompromittiert wird oder kolludiert, könnte die Nachrichtenintegrität gefährdet sein. Die Antwort des Protokolls? Modulare Sicherheit – Anwendungen können verlangen, dass mehrere unabhängige DVNs Nachrichten abzeichnen, was Redundanz auf Kosten einer leicht erhöhten Latenz schafft.

Der „Moonshot“ von LayerZero für 2026 verstärkt die Speed-First-Strategie weiter: Die Ankündigung von „Zero“, einer dedizierten Layer-1-Blockchain, die im Herbst 2026 starten soll. Unter Verwendung einer heterogenen Architektur, die die Ausführung von der Verifizierung mittels Zero-Knowledge-Proofs über die Jolt zkVM trennt, verspricht Zero beeindruckende 2 Millionen Transaktionen pro Sekunde bei minimalen Gebühren. Falls dies umgesetzt wird, wäre LayerZero nicht mehr nur ein Messaging-Protokoll, sondern ein Hochleistungs-Settlement-Layer für Cross-Chain-Aktivitäten.

Wormhole: Der Dezentralisierungs-Purist

Wormhole setzt auf das Gegenteil: Die Minimierung von Vertrauen durch robusten Konsens zu priorisieren, auch wenn dies bedeutet, etwas Geschwindigkeit opfern zu müssen. Das Guardian-Netzwerk des Protokolls besteht aus 19 unabhängigen Validatoren, und eine Nachricht erlangt erst dann Authentizität, wenn mehr als zwei Drittel der Guardians sie mittels t-Schnorr-Multisig kryptografisch signiert haben.

Dieses Design schafft einen erheblichen Sicherheitspuffer. Im Gegensatz zu den konfigurierbaren DVNs von LayerZero fungiert das Guardian-Netzwerk von Wormhole als festes Quorum, das schwerer zu kompromittieren ist. Die Validatoren sind geografisch verteilt und werden von namhaften Unternehmen betrieben, was eine Redundanz schafft, die sich selbst in Marktturbulenzen als widerstandsfähig erwiesen hat.

Als der Zusammenbruch von Terra/LUNA im Jahr 2022 kaskadenartige Liquidationen im DeFi-Sektor auslöste, behielt das Guardian-Netzwerk von Wormhole eine Verfügbarkeit von 100 % bei, ohne dass Nachrichten fehlschlugen.

Die Architektur verbindet über 40 Blockchains durch On-Chain-Core-Contracts, die Nachrichten aussenden und verifizieren, während Guardians Ereignisse beobachten und signierte Attestierungen erstellen, die von Relayer an die Zielketten übermittelt werden. Dieses Guardian-Observer-Muster lässt sich bemerkenswert gut skalieren – Wormhole hat über 1 Milliarde Transaktionen mit einem kumulativen Volumen von 70 Milliarden US-Dollar verarbeitet, ohne dass das Netzwerk selbst zum Engpass wurde.

Die Entwicklung von Wormhole für 2026, genannt „W 2.0“, führt wirtschaftliche Anreize durch einen Staking-Mechanismus ein, der eine Basisrendite von 4 % anstrebt, sowie eine Wormhole Reserve Treasury, die Protokolleinnahmen akkumuliert. Dieser Schritt adressiert einen langjährigen Kritikpunkt: Dass es Wormhole-Validatoren im Vergleich zu PoS-basierten Wettbewerbern an direktem wirtschaftlichem Eigenkapital („Skin in the Game“) fehlte.

Der Kompromiss? Die Finalität dauert etwas länger. Da Nachrichten auf Signaturen von mehr als zwei Dritteln der Guardians warten müssen, bevor sie einen kanonischen Status erreichen, liegen die Bestätigungszeiten von Wormhole um einige Sekunden hinter dem optimistischen Relaying von LayerZero. Für Hochfrequenz-DeFi-Strategien, die eine Ausführung in Sekundenbruchteilen erfordern, spielt diese Latenz eine Rolle. Für institutionelle Cross-Chain-Transfers, bei denen Sicherheit Vorrang vor Geschwindigkeit hat, ist dies jedoch kein Problem.

Axelar: Die pragmatische goldene Mitte

Axelar positioniert sich als die Goldlöckchen-Lösung — weder zu schnell, um leichtsinnig zu sein, noch zu langsam, um unpraktisch zu wirken. Auf dem Cosmos SDK unter Verwendung des CometBFT-Konsenses und der CosmWasm VM aufgebaut, fungiert Axelar als Proof-of-Stake-Blockchain, die andere Chains über ein „Hub-and-Spoke“-Modell verbindet.

Mit über 75 aktiven Validator-Nodes, die den Delegated Proof-of-Stake-Konsens nutzen, erreicht Axelar vorhersehbare Finalitätszeiten, die genau in der Mitte zwischen dem Minimalismus von LayerZero und dem Quorum-basierten Ansatz von Wormhole liegen. Nachrichten erzielen Konsens durch Block-Finalität im Cosmos-Stil, was einen transparenten Audit-Trail ohne die Vertrauensannahmen externer Oracles schafft.

Das Killer-Feature von Axelar ist General Message Passing (GMP), das 84 % des vierteljährlichen Cross-Chain-Volumens von 732,7 Millionen US-Dollar im zweiten Quartal 2024 ausmachte. Im Gegensatz zu einfachen Token-Bridges ermöglicht GMP es Smart Contracts, beliebige Funktionsaufrufe über Chains hinweg zu senden und auszuführen — was Cross-Chain-Swaps, Multichain-Gaming-Logik, NFT-Bridging und komplexe DeFi-Strategien ermöglicht, die Komponierbarkeit zwischen unterschiedlichen Ökosystemen erfordern.

Die Full-Stack-Interoperabilität des Protokolls geht über das einfache Bridging von Assets hinaus und unterstützt eine permissionless Overlay-Programmierbarkeit. Dies erlaubt es Entwicklern, dApps bereitzustellen, die Logik netzwerkübergreifend ausführen, ohne die Smart Contracts für jede Chain neu schreiben zu müssen.

Diese „einmal schreiben, überall bereitstellen“-Fähigkeit ist der Grund, warum Axelar 8,66 Milliarden US-Dollar an Transfers in 1,85 Millionen Transaktionen über 64 Blockchains hinweg verarbeitet hat.

Die Roadmap von Axelar für 2026 umfasst strategische Integrationen mit Stellar und Hedera, wodurch die Multichain-Reichweite über EVM-Chains hinaus auf unternehmensorientierte Netzwerke ausgeweitet wird. Die im Februar 2026 angekündigte Stellar-Integration signalisiert Axelars Wette darauf, zahlungsoptimierte Blockchains mit nativen DeFi-Ökosystemen zu verbinden.

Der Kompromiss? Das PoS-Konsensmodell von Axelar erbt die Beschränkungen der Validator-Sets im Cosmos-Stil. Während mehr als 75 Validatoren eine sinnvolle Dezentralisierung bieten, ist das Netzwerk zentralisierter als die über 1 Million Validatoren von Ethereum, aber verteilter als die 19 Guardians von Wormhole. Die Performance liegt zwischen den Extremen: schneller als Quorum-basierte Systeme, aber nicht so unmittelbar wie Oracle-Relayer-Modelle.

Die Zahlen hinter den Narrativen

Die Marktaktivität offenbart deutliche Adoptionsmuster. Wormhole dominiert die Metriken zum Rohvolumen mit kumulierten Transfers von 70 Milliarden US-Dollar über 1 Milliarde Transaktionen. Allein die Portal Bridge hat seit ihrer Einführung 60 Milliarden US-Dollar verarbeitet, wobei das 30-Tage-Volumen zum 28. Januar 2026 bei 1,413 Milliarden US-Dollar lag.

Axelars Zahlen erzählen eine andere Geschichte — weniger Transaktionen (1,85 Millionen), aber ein höherer Durchschnittswert (insgesamt 8,66 Milliarden US-Dollar), was eher auf eine Adoption auf Institutionen- und Protokollebene als auf Spekulationen durch Privatanleger hindeutet. Die Tatsache, dass 84 % des Volumens aus General Message Passing anstelle von einfachen Token-Swaps stammt, zeigt, dass die Infrastruktur von Axelar anspruchsvollere Cross-Chain-Anwendungen antreibt.

Die Metriken von LayerZero konzentrieren sich eher auf die Breite der Integration als auf das reine Volumen. Mit über 60 unabhängigen DVNs und Schlagzeilen machenden Integrationen, wie dem Zugang von Cardano zu 80 Milliarden US-Dollar an Omnichain-Assets und den 2,7 Milliarden US-Dollar an tokenisierten Staatsanleihen von Ondo Finance, priorisiert die Strategie von LayerZero Flexibilität für Entwickler und hochwertige Partnerschaften gegenüber dem Transaktionsdurchsatz.

Der breitere Marktkontext ist entscheidend: Mit einem Gesamtwert von 19,5 Milliarden US-Dollar, der bis Januar 2025 in allen Cross-Chain-Bridges gebunden war (Total Value Locked), und Prognosen, die eine Marktgröße von 3,5 Milliarden US-Dollar bis Ende 2026 voraussagen, wächst der Sektor schneller, als einzelne Protokolle allein erfassen können.

Es wird prognostiziert, dass der Markt für Blockchain-Bridges von 202 Millionen US-Dollar im Jahr 2024 auf 911 Millionen US-Dollar bis 2032 wachsen wird, bei einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 22,5 %.

Dies ist kein Nullsummenspiel. Die drei Protokolle ergänzen sich oft gegenseitig, anstatt zu konkurrieren — viele Anwendungen nutzen mehrere Messaging-Layer für Redundanz, wobei hochwertige Transaktionen über Wormhole geroutet werden, während kleinere Operationen über das schnellere Relaying von LayerZero gebündelt werden.

Abwägungen, die die Entscheidungen von Entwicklern definieren

Für Entwickler, die Cross-Chain-Anwendungen erstellen, ist die Wahl nicht rein technischer Natur — sie ist philosophisch. Was zählt mehr: Geschwindigkeit, Dezentralisierung oder Entwicklererfahrung?

Geschwindigkeitskritische Anwendungen tendieren naturgemäß zu LayerZero. Wenn Ihre dApp eine Cross-Chain-Ausführung im Sub-Sekunden-Bereich erfordert — etwa Arbitrage-Bots, Echtzeit-Gaming oder Hochfrequenzhandel —, liefert das Oracle-Relayer-Modell von LayerZero eine unübertroffene Finalität. Die Möglichkeit, benutzerdefinierte DVN-Sets zu konfigurieren, bedeutet, dass Entwickler genau das Gleichgewicht zwischen Sicherheit und Latenz einstellen können, das ihre Anwendung verlangt.

Sicherheitsmaximalistische Protokolle greifen standardmäßig zu Wormhole. Wenn Milliarden an institutionellem Kapital bewegt oder Assets für Verwahrer mit Treuhandpflichten übertragen werden, bietet der 2/3+ Guardian-Konsens von Wormhole die stärkste Vertrauensminimierung. Die geografische Verteilung und der Ruf des Validator-Sets fungieren als implizite Versicherung gegen byzantinische Fehler.

Auf Komponierbarkeit fokussierte Entwickler finden bei Axelar ein Zuhause. Wenn Ihre Anwendung erfordert, dass Smart Contracts auf Chain A eine komplexe Logik auf Chain B auslösen — etwa die Orchestrierung von Multichain-DeFi-Strategien, die Synchronisierung des NFT-Status über Ökosysteme hinweg oder die Koordinierung von netzwerkübergreifender Governance —, wurde die GMP-Infrastruktur von Axelar speziell für diesen Anwendungsfall entwickelt. Die Basis des Cosmos SDK bedeutet zudem native IBC-Kompatibilität für Chains der Cosmos-Familie, was eine natürliche Brücke zwischen Cosmos- und EVM-Ökosystemen schafft.

Finalitätsmodelle führen subtile, aber kritische Unterschiede ein. Das optimistische Relaying von LayerZero bedeutet, dass Nachrichten auf der Ziel-Chain erscheinen, bevor die vollständige Verifizierung abgeschlossen ist, was ein kurzes Fenster der Unsicherheit schafft, das versierte Angreifer theoretisch ausnutzen könnten. Der Quorum-basierte Konsens von Wormhole garantiert einen kanonischen Nachrichtenstatus vor der Zustellung. Der PoS-Konsens von Axelar bietet kryptoökonomische Finalität, die durch Validator-Sicherheiten abgesichert ist.

Die Integrationskomplexität variiert erheblich. Das minimalistische Design von LayerZero bedeutet einfachere Smart-Contract-Schnittstellen, aber mehr DevOps-Aufwand bei der Konfiguration von DVNs. Das Guardian-Observer-Modell von Wormhole abstrahiert die Komplexität, bietet aber weniger Anpassungsmöglichkeiten. Der Full-Stack-Ansatz von Axelar bietet den umfangreichsten Funktionsumfang, aber die steilste Lernkurve für Entwickler, die mit der Cosmos-Architektur nicht vertraut sind.

2026 Meilensteine, die die Wettbewerbslandschaft neu gestalten

Die Protokollkriege treten im Jahr 2026 in eine neue Phase ein. Der Start der „Zero“-Blockchain von LayerZero stellt den kühnsten Vorstoß dar – der Übergang von einem reinen Messaging-Protokoll zu einer Applikationsplattform. Wenn die versprochenen 2 Millionen TPS mit Zero-Knowledge-Proof-Verifizierung geliefert werden, könnte LayerZero nicht nur das Cross-Chain-Messaging, sondern auch die Settlement-Finalität selbst erobern und zur kanonischen Source of Truth für den Multichain-Status werden.

Der W 2.0 Staking-Mechanismus von Wormhole verändert sein Wirtschaftsmodell grundlegend. Durch die Einführung einer Basisrendite von 4 % für Staker und die Akkumulierung von Protokolleinnahmen in der Wormhole-Reserve reagiert das Protokoll auf Kritiker, die argumentierten, dass es den Guardians an ausreichenden wirtschaftlichen Anreizen fehle, um die Nachrichtenintegrität zu gewährleisten. Die Staking-Ebene schafft zudem einen Sekundärmarkt für den $W-Token jenseits des spekulativen Handels, was potenziell institutionelle Validatoren anzieht.

Die Integrationen von Stellar und Hedera durch Axelar signalisieren eine strategische Expansion über das EVM-dominierte DeFi hinaus in den Zahlungsverkehr und Enterprise-Anwendungsfälle. Stellars Fokus auf grenzüberschreitende Überweisungen und regulierte Stablecoins ergänzt die institutionelle Positionierung von Axelar, während die Enterprise-Adoption von Hedera einen Einstiegspunkt in Permissioned-Blockchain-Netzwerke bietet, die historisch gesehen von öffentlichen Chains isoliert waren.

Die Integration der XRPL-EVM-Sidechain stellt einen weiteren potenziellen Katalysator dar. Wenn Ripples XRP Ledger eine echte EVM-Kompatibilität mit nahtlosem Cross-Chain-Messaging erreicht, könnten über 80 Milliarden US-Dollar an XRP-Liquidität für DeFi-Anwendungen freigesetzt werden, die derzeit im XRPL-Ökosystem gebunden sind. Welches Protokoll auch immer die dominante Integration sichert, wird einen massiven On-Ramp für institutionelles Kapital gewinnen.

In der Zwischenzeit adressieren Innovationen wie das gaslose Routing von Jumper einen der größten Schwachpunkte der Cross-Chain-UX: Nutzer benötigen Gas-Token der Ziel-Chain, bevor sie Transaktionen abschließen können. Wenn Messaging-Protokolle eine gaslose Abstraktion nativ integrieren, entfernt dies einen erheblichen Reibungspunkt, der die Cross-Chain-Adoption bisher auf erfahrene Nutzer beschränkt hat.

Die Multi-Protokoll-Zukunft

Das Endspiel ist wahrscheinlich keine Winner-takes-all-Dominanz, sondern eine strategische Spezialisierung. So wie sich die Layer-2-Skalierung von „Ethereum-Killern“ zu komplementären Rollups entwickelt hat, reift das Cross-Chain-Messaging zu einem heterogenen Infrastruktur-Stack heran, in dem verschiedene Protokolle unterschiedliche Nischen bedienen.

Die Geschwindigkeit und Flexibilität von LayerZero machen es zum Standard für DeFi-Primitiven, die eine schnelle Finalität und benutzerdefinierte Sicherheitsparameter erfordern. Die Dezentralisierung und bewährte Resilienz von Wormhole positionieren es als die Bridge der Wahl für institutionelles Kapital und den Transfer hochwertiger Assets. Die GMP-Infrastruktur von Axelar und die Cosmos-native Interoperabilität machen es zum Bindeglied für komplexe Multichain-Anwendungen, die ein beliebiges Message Passing erfordern.

Der wahre Wettbewerb findet nicht zwischen diesen drei Giganten statt – er findet zwischen dieser Multichain-Zukunft und den geschlossenen Systemen (Walled Gardens) monolithischer Blockchains statt, die immer noch hoffen, 100 % des Wertes innerhalb eines einzigen Ökosystems zu erfassen. Jede Milliarde Dollar an Cross-Chain-Volumen, jede Multichain-dApp, die einen Product-Market-Fit erreicht, und jede Institution, die Assets über permissionlose Messaging-Protokolle leitet, beweist, dass die Zukunft von Web3 vernetzt und nicht isoliert ist.

Für Entwickler und Nutzer erzeugen die Protokollkriege eine leistungsstarke Dynamik: Wettbewerb treibt Innovation voran, Redundanz verbessert die Sicherheit und Optionalität verhindert monopolistische Rentenabschöpfung. Unabhängig davon, ob Ihre Transaktion über die DVNs von LayerZero, die Guardians von Wormhole oder die Validatoren von Axelar geleitet wird, das Ergebnis bleibt dasselbe – ein offeneres, komponierbareres und zugänglicheres Blockchain-Ökosystem.

Die Frage ist nicht, welches Protokoll gewinnt. Es ist die Frage, wie schnell der gesamte Stack reift, damit sich Cross-Chain so nahtlos anfühlt wie das Laden einer Webseite.


Quellen:

Heliums Burn-and-Mint-Gleichgewicht: Wie wirtschaftliche Grundlagen DePIN-Funknetzwerke neu gestalten

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Als die täglichen Data Credit Burns von Helium im 3. Quartal 2025 im Quartalsvergleich um 196,6 % auf 30.920 $ anstiegen, signalisierte dies etwas weitaus Bedeutenderes als nur Netzwerkwachstum. Es markierte den Moment, in dem ein dezentrales physisches Infrastrukturnetzwerk (DePIN) den Übergang von einer durch Token-Anreize gesteuerten Expansion zu einer echten wirtschaftlichen Nachfrage vollzog. In Verbindung mit der Abweisung der SEC-Klage im April 2025, die feststellte, dass HNT-Token keine Wertpapiere (Securities) sind, beweist das Burn-and-Mint Equilibrium (BME)-Modell von Helium, dass eine von der Community betriebene drahtlose Infrastruktur mit traditionellen Telekommunikationsunternehmen auf Basis von Fundamentaldaten konkurrieren kann, nicht nur durch Hype.

Mit über 600.000 Abonnenten, 115.750 Hotspots, die eine Netzabdeckung bieten, und 18,3 Millionen $ an annualisiertem Umsatz stellt Helium den reifsten Testfall dafür dar, ob die DePIN-Ökonomie ein langfristiges Wachstum aufrechterhalten kann. Die Antwort sieht zunehmend nach „Ja“ aus – doch der Weg offenbart entscheidende Lektionen über Tokenomics, regulatorische Klarheit und den Übergang von Spekulation zu echtem Nutzen (Utility).

Was ist das Burn-and-Mint Equilibrium?

Burn-and-Mint Equilibrium ist ein tokenökonomischer Mechanismus, der die Netzwerknutzung direkt an die Dynamik des Token-Angebots koppelt. In der Implementierung von Helium funktioniert das Modell wie folgt:

Die Burn-Seite: Wenn Nutzer Data Credits (DCs) benötigen, um auf das Funknetzwerk von Helium zuzugreifen, müssen sie HNT-Token verbrennen (burn), wodurch diese dauerhaft aus dem Umlauf entfernt werden. DCs sind die Nutzwährung (Utility Currency), die für die Datenübertragung im Netzwerk verbraucht wird.

Die Mint-Seite: Das Netzwerk prägt (mint) neue HNT-Token gemäß einem festen Emissionsplan, wobei Halvings die Neuemission im Laufe der Zeit reduzieren (das nächste Halving fand 2025 statt).

Das Gleichgewicht (Equilibrium): Wenn die Netzwerknachfrage steigt und mehr HNT für DCs verbrannt wird, kann der deflationäre Burn-Druck den inflationären Mint-Druck ausgleichen oder übertreffen, was zu einer netto-negativen Token-Emission führt. Dieser Mechanismus richtet die Anreize der Token-Inhaber auf den tatsächlichen Nutzen des Netzwerks aus, anstatt auf spekulatives Wachstum.

Das BME-Modell ist über Helium hinaus einflussreich geworden. Laut Untersuchungen von Messari haben DePIN-Projekte wie das Akash Network und das Render Network ähnliche Designs implementiert. Sie haben erkannt, dass die Verknüpfung der Token-Ökonomie mit der verifizierbaren Netzwerknutzung ein nachhaltigeres Wachstum schafft als reines Liquidity Mining oder Staking-Belohnungen.

Wie Heliums BME in der Praxis funktioniert

Die praktische Umsetzung von BME bei Helium schafft einen dreiseitigen Marktplatz:

  1. Hotspot-Betreiber: Stellen 5G/IoT-Funkinfrastruktur bereit und warten diese. Sie verdienen HNT und subDAO-Token (MOBILE für 5G, IOT für LoRaWAN-Netzwerke) basierend auf Abdeckung und Datentransfer.

  2. Netzwerknutzer: Erwerben Konnektivität über Helium Mobile-Abonnements oder IoT-Datentarife, wobei die Einnahmen in DC-Burns umgewandelt werden.

  3. Token-Inhaber: Profitieren vom deflationären Druck bei zunehmender Netzwerknutzung, während die Teilnahme an der Governance die Ökonomie der subDAOs mitgestaltet.

Das Geniale an diesem System ist, dass es sowohl die Investitionsausgaben (CapEx) als auch die Betriebskosten (OpEx) auf Tausende von unabhängigen Betreibern verteilt. Dadurch entsteht, was DePIN Wireless als „erlaubnisfreie, von der Community betriebene Alternative zur traditionellen Telekommunikationsinfrastruktur“ beschreibt.

Jüngste Daten bestätigen die Wirksamkeit des Mechanismus. Im 1. Quartal 2025 stiegen die Helium Mobile Hotspots im Quartalsvergleich um 12,5 % von 28.100 auf 31.600. Bis zum 3. Quartal 2025 erreichte das Netzwerk 115.750 Hotspots, ein Anstieg von 18 % gegenüber dem Vorquartal. Wenn konvertierte Nicht-Helium-Hardware mit eingerechnet wird, lag die Gesamtzahl bei über 121.000 Hotspots.

Noch entscheidender ist, dass sich das Abonnentenwachstum dramatisch beschleunigt hat. Von 461.500 Abonnenten Ende des 3. Quartals 2025 wuchs das Netzwerk bis Mitte Dezember auf über 602.400, was einen Anstieg von rund 30 % in weniger als drei Monaten bedeutet. Das Netzwerk unterstützt mittlerweile fast 2 Millionen täglich aktive Nutzer.

Die Abweisung der SEC-Klage: Regulatorische Klarheit für DePIN

Am 10. April 2025 beantragte die Securities and Exchange Commission (SEC) formell die Abweisung ihrer Klage gegen Nova Labs, den Schöpfer von Helium. Dies markierte einen Wendepunkt für die regulatorische Klarheit von DePIN.

Was die SEC ursprünglich behauptete

In der Beschwerde der SEC vom 23. April 2025 wurde behauptet, dass Nova Labs gegenüber potenziellen Eigenkapitalinvestoren wesentlich falsche und irrefehrende Angaben über Unternehmen wie Lime, Nestlé und Salesforce gemacht habe, die angeblich das Helium-Netzwerk nutzten, obwohl diese Unternehmen tatsächlich keine Netzwerknutzer waren. Die Behörde machte Verstöße gegen Abschnitt 17(a)(2) des Securities Act von 1933 geltend.

Die Vergleichsbedingungen

Nova Labs stimmte der Zahlung von 200.000 $ zu, um die Anschuldigungen beizulegen, ohne ein Fehlverhalten einzugestehen. Entscheidend ist, dass das endgültige Urteil nur die Vorwürfe bezüglich falscher Angaben bei der Platzierung von privatem Beteiligungskapital behandelte – nicht jedoch, ob HNT-Token selbst Wertpapiere (Securities) darstellten.

Das präzedenzfallschaffende Ergebnis

Die SEC wies den Fall „with prejudice“ (endgültig) ab, was bedeutet, dass sie in Zukunft keine ähnlichen Anklagen gegen Nova Labs wegen desselben Verhaltens erheben kann. Bedeutender ist, dass die Abweisung feststellte, dass:

  • Helium Hotspots und die Verteilung von HNT-, MOBILE- und IOT-Token über das Helium-Netzwerk keine Wertpapiere sind
  • Der Verkauf von Hardware und die Verteilung von Token für das Netzwerkwachstum sie nicht automatisch zu Wertpapieren machen
  • Diese Entscheidung einen Präzedenzfall dafür schafft, wie Regulierungsbehörden ähnliche DePIN-Projekte bewerten

Wie DePIN Scan berichtete, „beseitigt das Urteil potenziell die rechtliche Ungewissheit darüber, wie Regulierungsbehörden ähnliche dezentrale physische Infrastrukturnetzwerke betrachten“.

Für den breiteren DePIN-Sektor ist diese Klarheit transformativ. Projekte, die physische Infrastruktur bereitstellen – seien es drahtlose Netzwerke, Speichersysteme oder Rechenraster – haben nun einen klareren regulatorischen Pfad, vorausgesetzt, sie vermeiden irreführende Aussagen gegenüber Investoren und behalten echte, nutzenorientierte Token-Modelle bei.

Netzwerkwachstums-Metriken: Vom Hype zu Fundamentaldaten

Die Reifung der Ökonomie von Helium zeigt sich in der Entwicklung der Umsatz-Zusammensetzung. Das Netzwerk führte eine entscheidende Änderung ein: das Verbrennen (Burn) von 100 % des Umsatzes für Data Credits, wodurch der Nutzen des HNT-Tokens direkt mit der echten Netzwerkaktivität verknüpft wird, anstatt mit spekulativem Handel.

Umsatz- und Burn-Metriken

Die Ergebnisse sprechen für sich:

Strategische Partnerschaften treiben die Akzeptanz voran

Das Wachstum von Helium findet nicht isoliert statt. Das Netzwerk hat Partnerschaften mit großen Mobilfunkanbietern wie AT&T und Telefónica geschlossen und so effektiv ein Hybridmodell geschaffen, das dezentrale Hotspot-Abdeckung mit traditionellem Telekommunikations-Backhaul kombiniert.

Anfang 2026 reifte Helium Mobile und strukturierte sein Angebot um zwei Kernpläne:

  • Air Plan: 15 $/Monat für 10 GB Daten
  • Infinity Plan: 30 $/Monat für unbegrenzte Daten

Diese Preisgestaltung unterbietet traditionelle Anbieter um 50–70 %, während die Abdeckung durch das von der Community aufgebaute Netzwerk, ergänzt durch Partnerinfrastruktur, aufrechterhalten wird.

Die Abdeckungsgleichung

Traditionelle Telekommunikationsinfrastruktur erfordert massive Investitionsausgaben (CapEx). Ein einzelner 5G-Sendemast kann in der Bereitstellung 150.000 bis 500.000 $ kosten und monatlich Tausende im Betrieb verschlingen. Das Modell von Helium verteilt diese Kosten auf unabhängige Betreiber, die HNT- und MOBILE-Token verdienen, was wirtschaftliche Anreize für den Ausbau der Abdeckung ohne zentralisierten Kapitaleinsatz schafft.

Das Modell ist nicht perfekt – Abdeckungslücken bestehen weiterhin, und die Abhängigkeit von Partnernetzwerken für einen universellen Dienst schafft eine hybride Ökonomik. Aber die Entwicklung deutet darauf hin, dass Helium das „Henne-Ei-Problem“ löst, an dem frühere dezentrale Funkversuche gescheitert sind: genügend Abdeckung, um Nutzer anzuziehen, und genügend Nutzer, um den Ausbau der Abdeckung zu rechtfertigen.

Wirtschaftlicher Realitätscheck: Umsatz vs. Token-Belohnungen

Die harte Wahrheit für viele DePIN-Projekte im Jahr 2026 ist, dass Token-Belohnungen schließlich mit dem tatsächlichen Umsatz in Einklang stehen müssen. Wie eine Branchenanalyse anmerkt, „wurde das frühe DePIN-Wachstum oft durch Token-Belohnungen und nicht durch die Dienstleistungsnachfrage getrieben. Bis 2026 ist dieses Modell nicht mehr ausreichend.“

Die gnadenlose Mathematik

Netzwerke mit geringer realer Nutzung stehen vor einer unhaltbaren Gleichung:

  • Wenn Token-Belohnungen > realer Umsatz → Inflation und Teilnehmerabwanderung
  • Wenn Token-Belohnungen < realer Umsatz → deflationärer Druck und nachhaltiges Wachstum

Helium scheint den Wendepunkt in Richtung der letzteren Kategorie zu überschreiten. Mit einem annualisierten Umsatz von 18,3 Millionen $ und beschleunigten DC-Burn-Raten generiert das Netzwerk echte wirtschaftliche Aktivität jenseits von Token-Spekulationen.

Hotspot-Ökonomie im Jahr 2026

Für einzelne Hotspot-Betreiber ist die Ökonomik nuancierter geworden. Frühe Helium-Hotspot-Besitzer in Gebieten mit hoher Nachfrage verdienten während der Wachstumsphase des Netzwerks beträchtliche HNT-Belohnungen. Im Jahr 2026 hängen die Einnahmen stark ab von:

  • Standort: Städtische Gebiete mit hoher Nutzerdichte generieren mehr Datentransfer und DC-Burns
  • Abdeckungsqualität: Zuverlässige Betriebszeit und hohe Signalstärke erhöhen die Einnahmen
  • Netzwerktyp: MOBILE (5G) Hotspots in abonnentendichten Gebieten können IOT (LoRaWAN) Bereitstellungen deutlich übertreffen

Der Übergang von „überall bereitstellen und verdienen“ zu „strategische Platzierung zählt“ stellt eine Reifung dar – ein Zeichen dafür, dass Marktkräfte die Netzwerktopologie optimieren und nicht mehr nur Token-Anreize allein.

2026 Preisprognosen und Marktausblick

Die Analystenprognosen für HNT im Jahr 2026 variieren stark und spiegeln die Unsicherheit darüber wider, wie schnell sich die Netzwerk-Fundamentaldaten in Token-Wert übersetzen lassen:

Konservative Projektionen

  • Analytische Prognosen deuten darauf hin, dass HNT bis Ende 2026 1,54 – 1,58 $ erreichen könnte.
  • Für Februar 2026 wird ein maximaler Handelspreis von etwa 1,40 $ erwartet, bei einem potenziellen Minimum von 1,26 $.

Moderate Szenarien

  • Einige Analysten sehen HNT für einen Großteil des Jahres im Bereich von 2,50 – 3,00 $.
  • Dies steht im Einklang mit einem stetigen Abonnentenwachstum und einer Skalierung der Einnahmen.

Bullishe Szenarien

  • Konservative bullishe Modelle prognostizieren 4 – 8 $ für 2026.
  • Optimistische Szenarien deuten auf 10 – 20 $ hin, falls sich die Netzwerk-Adoption beschleunigt.

Extrem bullishe Ausreißer

Die große Spanne spiegelt echte Unsicherheit wider. Der Preis von HNT wird wahrscheinlich von mehreren Schlüsselfaktoren abhängen:

  1. Trajektorie des Abonnentenwachstums: Kann Helium Mobile ein quartalsweises Wachstum von über 30 % beibehalten?
  2. Umsatzskalierung: Werden sich die DC-Burns bei zunehmender Nutzung weiter beschleunigen?
  3. Wettbewerbsdruck: Wie reagieren traditionelle Mobilfunkanbieter auf die Preisgestaltung von Helium?
  4. Token-Angebotsdynamik: Wann übersteigt die Burn-Rate nachhaltig die Mint-Rate?

Die Prognose des Weltwirtschaftsforums für eine 3,5 Billionen $ DePIN-Chance bis 2028 sorgt für makroökonomischen Rückenwind, aber die Erfassungsrate von Helium innerhalb dieses Marktes bleibt spekulativ.

Was dies für den breiteren DePIN-Sektor bedeutet

Die Entwicklung von Helium von einem spekulativen Token-Projekt hin zu einem umsatzgenerierenden Infrastrukturnetzwerk dient als Vorlage für den gesamten DePIN-Sektor.

Der fundamentale Wandel

Wie die Analyse von Sarson Funds feststellt: „Während DePIN im Jahr 2026 in seine Unternehmensphase übergeht, werden die Projekte den nächsten Wachstumszyklus anführen, die verifizierbare Leistung, skalierbare Infrastruktur und operatives Vertrauen bieten können.“

Dies bedeutet, dass DePIN-Projekte Folgendes nachweisen müssen:

  • Echte Umsatzgenerierung, nicht nur Token-Emissionen
  • Verifizierbarer Nutzen der Infrastruktur, nicht nur die Anzahl der Netzwerkteilnehmer
  • Nachhaltige Unit Economics, bei denen die Serviceeinnahmen schließlich die Belohnungen für die Teilnehmer tragen können

Wettbewerb und Differenzierung

Helium steht im Wettbewerb mit traditionellen Telekommunikationsunternehmen und anderen DePIN-Wireless-Projekten wie Pollen Mobile. Eine vergleichende Analyse zeigt jedoch, dass Helium gemessen an der geografischen Abdeckung das größte dezentrale physische Infrastrukturnetzwerk unterhält.

Der First-Mover-Vorteil ist wichtig, aber nur, wenn die Ausführung fortgesetzt wird. Netzwerke, die es nicht schaffen, token-incentiviertes Wachstum in echte Kundenadoption umzuwandeln, werden mit der „brutalen Mathematik“ unhaltbarer Emissionen konfrontiert sein.

Lektionen für andere DePIN-Kategorien

Das Burn-and-Mint-Equilibrium-Modell hat andere DePIN-Sektoren beeinflusst:

  • Dezentraler Speicher: Filecoin und Arweave nutzen ähnliche Burn-Mechanismen für Speicherzahlungen
  • Rechennetzwerke: Render Network hat BME für GPU-Rendering-Credits übernommen
  • Datenverfügbarkeit: Celestia implementiert Burns für das Posten von Rollup-Daten

Der rote Faden: Die Verknüpfung des Token-Nutzens mit messbarer, verifizierbarer Netzwerknutzung anstelle von abstrakten Staking-Renditen oder Liquidity-Mining-Belohnungen.

Bevorstehende Herausforderungen

Trotz der positiven Dynamik steht Helium vor erheblichen Herausforderungen:

Technische und operative Hürden

  1. Zuverlässigkeit der Abdeckung: Dezentrale Infrastruktur variiert von Natur aus in Qualität und Betriebszeit
  2. Abhängigkeit von Partnern: Die Abhängigkeit vom Roaming über AT&T / T-Mobile schafft Zentralisierungsrisiken
  3. Skalierungsökonomie: Können die Anreize für Hotspot-Betreiber attraktiv bleiben, wenn der Wettbewerb zunimmt?

Marktdynamik

  1. Reaktion der Mobilfunkanbieter: Was passiert, wenn traditionelle Telekommunikationsanbieter einen aggressiven Preiswettbewerb starten?
  2. Regulatorische Entwicklung: Werden die FCC oder internationale Regulierungsbehörden neue Compliance-Anforderungen auferlegen?
  3. Token-Preisvolatilität: Wie stabil bleiben die Anreize für Teilnehmer während längerer Bärenmärkte?

Die ROI-Frage für neue Hotspot-Betreiber

Frühe Betreiber von Helium-Hotspots profitierten von hohen Token-Belohnungen und geringem Wettbewerb. Im Jahr 2026 stehen potenzielle Betreiber vor längeren Amortisationszeiten und einer höheren Standortsensitivität. Das Netzwerk muss die Nutzerdichte weiter erhöhen, um eine attraktive Wirtschaftlichkeit für Infrastrukturanbieter aufrechtzuerhalten.

Fazit: Vom Experiment zur Ausführung

Heliums Burn-and-Mint-Equilibrium ist mehr als nur clevere Tokenomics – es ist ein Test dafür, ob dezentrale Infrastruktur in großem Maßstab einen realen Nutzen erbringen kann. Da die SEC-Klage abgewiesen wurde, regulatorische Klarheit geschaffen wurde und das Netzwerkwachstum von 600.000 auf potenziell Millionen von Abonnenten beschleunigt wird, stützen die Belege zunehmend den positiven Case.

Der Anstieg der DC-Burns um 196,6 % signalisiert, dass Nutzer für Konnektivität bezahlen und nicht nur auf Token spekulieren. Die 18,3 Millionen $ an annualisiertem Umsatz belegen echte wirtschaftliche Aktivität. Die 115.750 Hotspots beweisen, dass eine Community-gestützte Infrastrukturbereitstellung eine bedeutende Skalierung erreichen kann.

Doch 2026 wird das entscheidende Jahr sein. Kann Helium die Dynamik beim Abonnentenwachstum beibehalten und gleichzeitig die Abdeckungsqualität verbessern? Werden sich die DC-Burn-Raten bei zunehmender Nutzung weiter beschleunigen? Kann das BME-Modell eine dauerhafte Netto-Negativ-Emission erreichen, bei der die Burns die Mints übersteigen?

Für den breiteren DePIN-Sektor, der bis 2028 auf prognostizierte 3,5 Billionen $ geschätzt wird, werden Heliums Antworten auf diese Fragen die Investitionsthesen in den Bereichen dezentraler Speicher, Rechenleistung, Energie und Infrastruktur prägen.

Der Übergang vom Hype zu den Fundamentaldaten ist in vollem Gange. Die Netzwerke, die überleben werden, sind nicht diejenigen mit den besten Token-Anreizen – es sind diejenigen mit den besten Produkten.

Für Builder, die DePIN-Infrastruktur oder Anwendungen entwickeln, die dezentrale drahtlose Konnektivität erfordern, kann das Verständnis der BME-Ökonomie und der Netzabdeckung von Helium strategische Entscheidungen darüber unterstützen, wo Community-gesteuerte Infrastruktur im Vergleich zu traditionellen Anbietern technisch und wirtschaftlich sinnvoll ist.

Quellen

Solanas Vision von 1 Mio. TPS: Wie Firedancer und Alpenglow die Blockchain-Performance neu definieren

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Als Jump Crypto demonstrierte, wie Firedancer über 1 Million Transaktionen pro Sekunde über sechs Knoten auf vier Kontinenten verarbeitete, war das nicht nur ein Benchmark – es war eine Erklärung. Während Ethereum über Rollup-Architekturen debattiert und Bitcoin über die Blockgröße streitet, entwickelt Solana Wege zu Durchsatzraten, die traditionelle Blockchains wie Internet-Einwahlverbindungen aussehen lassen.

Aber was die meisten Schlagzeilen übersehen: Die 1M-TPS-Demo ist beeindruckendes Theater, doch die wahre Revolution findet gerade im Live-Betrieb statt. Firedancer hat nach nur 100 Tagen die Marke von 20 % des Mainnet-Stakes überschritten, und das Alpenglow-Consensus-Upgrade – das von 98,27 % der Staker genehmigt wurde – soll die Finalität von 12,8 Sekunden auf 100-150 Millisekunden senken. Das ist eine 100-fache Verbesserung der Bestätigungsgeschwindigkeit, nicht im Labor, sondern in einem Netzwerk, das täglich Milliarden von Dollar an Volumen verarbeitet.

Dies ist keine Vaporware oder Testnet-Versprechungen. Es handelt sich um eine grundlegende architektonische Überarbeitung, die Solana als Infrastrukturschicht für Anwendungen positioniert, die keine 12 Sekunden auf das Settlement warten können – von Hochfrequenz-DeFi über Echtzeit-Gaming bis hin zur Koordination von KI-Agenten.

Firedancers Mainnet-Meilenstein: Der Vorteil der zweiten Codebasis

Nach drei Jahren Entwicklung startete Firedancer im Dezember 2025 auf dem Solana-Mainnet. Bis Oktober 2025 hatte es bereits 20,94 % des gesamten Stakes bei 207 Validatoren erreicht. Das nächste Ziel – 50 % Stake – würde das Risikoprofil von Solana grundlegend verändern und das Netzwerk von der Abhängigkeit von einer einzigen Codebasis zu echter Client-Diversität führen.

Warum ist das wichtig? Weil jeder größere Blockchain-Ausfall in der Geschichte auf dieselbe Ursache zurückzuführen ist: einen kritischen Fehler in der dominanten Client-Implementierung. Ethereum hat diese Lektion auf die harte Tour mit dem Shanghai-Consensus-Fehler im Jahr 2016 gelernt. Solanas berüchtigte Downtime-Ereignisse – sieben große Ausfälle zwischen 2021 und 2022 – ließen sich alle auf Schwachstellen im Rust-basierten Agave-Client zurückführen (ursprünglich von Solana Labs entwickelt, heute von Anza betreut).

Firedancer, von Jump Crypto in C / C++ geschrieben, bietet Solanas erste wirklich unabhängige Implementierung. Während Jito-Solana 72 % des Stakes kontrolliert, handelt es sich im Wesentlichen um einen Fork von Agave, der für die MEV-Extraktion optimiert ist – was bedeutet, dass er dieselbe Codebasis und dieselben Schwachstellen teilt. Die separate Architektur von Firedancer bedeutet, dass ein Fehler, der Agave zum Absturz bringt, nicht zwangsläufig Firedancer beeinträchtigt und umgekehrt.

Der Hybrid-Client „Frankendancer“ – der den Hochleistungs-Netzwerkstack von Firedancer mit der Runtime von Agave kombiniert – eroberte innerhalb weniger Wochen nach dem Start über 26 % Marktanteil unter den Validatoren. Diese Übergangsarchitektur beweist, dass Interoperabilität im Live-Betrieb funktioniert, ohne Consensus-Divergenz zwischen den Clients nach über 100 Tagen und mehr als 50.000 produzierten Blöcken.

Validatoren berichten von keinerlei Performance-Einbußen im Vergleich zu Agave, was die üblichen Akzeptanzhürden von „besseren, aber anderen“ Client-Implementierungen beseitigt. Bis zum 2. oder 3. Quartal 2026 strebt Solana einen Firedancer-Stake von 50 % an. Ab diesem Zeitpunkt wird das Netzwerk resistent gegen Ausfälle einzelner Implementierungen.

Alpenglow: Ersatz von Proof of History durch Sub-Sekunden-Finalität

Wenn Firedancer der neue Motor ist, ist Alpenglow das Getriebe-Upgrade. Alpenglow wurde im September 2025 mit fast einstimmiger Unterstützung der Staker genehmigt und führt zwei neue Consensus-Komponenten ein: Votor und Rotor.

Votor ersetzt das On-Chain-Voting durch Off-Chain-BLS-Signaturzertifikate und ermöglicht so eine Block-Finalisierung in ein oder zwei Runden. Das Dual-Path-System nutzt Stake-Schwellenwerte von 60-80 %, um einen Konsens ohne den Overhead des rekursiven Votings von Tower BFT zu erreichen. In der Praxis werden Blöcke, deren Finalisierung derzeit 12,8 Sekunden dauert, in 100-150 Millisekunden abgewickelt, sobald Alpenglow im ersten Quartal 2026 aktiviert wird.

Rotor gestaltet die Block-Propagierung von der Baumstruktur von Turbine zu einem One-Hop-Broadcast-Modell um. Unter typischen Netzwerkbedingungen erreicht Rotor eine Block-Propagierung von 18 Millisekunden unter Verwendung von Stake-gewichteten Relay-Pfaden. Dies eliminiert die Multi-Hop-Latenz hierarchischer Broadcast-Bäume, die bei einer Skalierung der Validator-Anzahl auf über 1.000 Knoten zu Engpässen werden.

Zusammen ersetzen Votor und Rotor sowohl Proof of History als auch Tower BFT – die beiden Consensus-Mechanismen, die Solana seit seiner Entstehung definiert haben. Dies ist kein inkrementelles Upgrade; es ist eine grundlegende Neugestaltung der Art und Weise, wie das Netzwerk eine Einigung erzielt.

Die Auswirkungen auf die Performance sind gewaltig. DeFi-Protokolle können Arbitrage-Strategien mit 10-mal engeren Spreads ausführen. Gaming-Anwendungen können In-Game-Aktionen mit nicht wahrnehmbarer Latenz verarbeiten. Cross-Chain-Bridges können Risikofenster von Minuten auf Sub-Sekunden-Intervalle verkürzen.

Doch Alpenglow bringt Kompromisse mit sich. Kritiker merken an, dass die Reduzierung der Finalität auf 150 ms von den Validatoren Netzwerkverbindungen mit geringerer Latenz und leistungsstärkere Hardware verlangt. Solanas Hardware-Mindestanforderungen – die bereits höher sind als die von Ethereum – werden wahrscheinlich steigen. Das Netzwerk optimiert auf Durchsatz und Geschwindigkeit auf Kosten der Zugänglichkeit für Validatoren – eine bewusste architektonische Entscheidung, die Performance über maximalistische Dezentralisierung stellt.

Der 1M TPS Realitätscheck: Demo vs. Deployment

Als Kevin Bowers, Chief Scientist bei der Jump Trading Group, auf der Breakpoint 2024 demonstrierte, wie Firedancer 1 Million Transaktionen pro Sekunde verarbeitet, horchte die Krypto-Welt auf. Doch das Kleingedruckte ist entscheidend: Dies war eine kontrollierte Testumgebung mit sechs Knoten auf vier Kontinenten, keine Bedingungen eines produktiven Mainnets.

Solana verarbeitet derzeit im produktiven Betrieb 3.000 – 5.000 reale Transaktionen pro Sekunde. Die Einführung von Firedancer im Mainnet sollte diesen Wert bis Mitte 2026 auf über 10.000 TPS steigern – eine 2- bis 3-fache Verbesserung, kein 200-facher Sprung.

Das Erreichen von 1 Million TPS erfordert drei Bedingungen, die erst 2027 – 2028 zusammenkommen werden:

  1. Netzwerkweite Firedancer-Einführung — Über 50 % des Stakes laufen auf dem neuen Client (Ziel: Q2 – Q3 2026)
  2. Alpenglow-Deployment — Neues Konsensprotokoll auf dem Mainnet aktiv (Ziel: Q1 2026)
  3. Optimierung der Anwendungsebene — dApps und Protokolle müssen neu geschrieben werden, um den verbesserten Durchsatz zu nutzen

Die Lücke zwischen theoretischer Kapazität und realer Nutzung ist enorm. Selbst mit einer Kapazität von 1M TPS benötigt Solana Anwendungen, die dieses Transaktionsvolumen generieren. Die aktuelle Spitzennutzung liegt kaum über 5.000 TPS – das bedeutet, der Flaschenhals des Netzwerks ist nicht die Infrastruktur, sondern die Adoption.

Der Vergleich mit Ethereum ist aufschlussreich. Optimistic- und ZK-Rollups verarbeiten bereits 2.000 – 3.000 TPS pro Rollup, wobei dutzende produktive Rollups live sind. Der Gesamtdurchsatz von Ethereum über alle Layer-2-Lösungen hinweg übersteigt heute 50.000 TPS, obwohl jedes einzelne Rollup eine geringere Kapazität als Solana hat.

Die Frage ist nicht, ob Solana 1M TPS erreichen kann – die Ingenieursleistung ist glaubwürdig. Die Frage ist, ob eine monolithische L1-Architektur das vielfältige Anwendungsökosystem anziehen kann, das erforderlich ist, um diese Kapazität zu nutzen, oder ob sich modulare Designs im Laufe der Zeit als anpassungsfähiger erweisen.

Client-Diversität: Warum der vierte Client eigentlich der zweite ist

Solana verfügt technisch gesehen über vier Validator-Clients: Agave, Jito-Solana, Firedancer und den experimentellen Sig-Client (geschrieben in Zig von Syndica). Aber nur zwei davon sind wirklich unabhängige Implementierungen.

Jito-Solana, obwohl er 72 % des Stakes kontrolliert, ist ein Fork von Agave, der für die MEV-Extraktion optimiert wurde. Er nutzt dieselbe Codebasis, was bedeutet, dass ein kritischer Fehler in der Konsenslogik von Agave beide Clients gleichzeitig zum Absturz bringen würde. Sig befindet sich noch in der frühen Entwicklung mit vernachlässigbarer Mainnet-Adoption.

Firedancer ist Solanas erster wirklich unabhängiger Client, der von Grund auf in einer anderen Programmiersprache mit unterschiedlichen architektonischen Entscheidungen geschrieben wurde. Dies ist der Sicherheitsdurchbruch – nicht der vierte Client, sondern die zweite unabhängige Implementierung.

Die Beacon Chain von Ethereum hat fünf produktive Clients (Prysm, Lighthouse, Teku, Nimbus, Lodestar), wobei kein einzelner Client mehr als 45 % des Stakes hält. Die aktuelle Verteilung von Solana – 72 % Jito, 21 % Firedancer, 7 % Agave – ist besser als 99 % Agave, entspricht aber bei weitem nicht den Standards für Client-Diversität von Ethereum.

Der Weg zur Resilienz erfordert zwei Veränderungen: Jito-Nutzer müssen zu reinem Firedancer migrieren, und der kombinierte Stake von Agave/Jito muss unter 50 % fallen. Sobald Firedancer 50 % überschreitet, kann Solana einen katastrophalen Agave-Fehler überstehen, ohne dass das Netzwerk stoppt. Bis dahin bleibt das Netzwerk anfällig für Fehler in einer einzelnen Implementierung.

Ausblick 2026: Was passiert, wenn Performance auf Produktion trifft

Bis zum dritten Quartal 2026 könnte Solana ein Trio erreichen: 50 % Firedancer-Stake, Alpenglows Finalität im Sub-Sekunden-Bereich und über 10.000 reale TPS. Diese Kombination schafft Funktionen, die keine andere Blockchain derzeit bietet:

Hochfrequenz-DeFi: Arbitrage-Strategien werden bei Spreads rentabel, die für Ethereum L2s zu eng sind. Liquidations-Bots können in Millisekunden statt in Sekunden reagieren. Optionsmärkte können Strikes in Granularitäten anbieten, die auf langsameren Chains unmöglich sind.

Echtzeitanwendungen: Gaming verlagert sich vollständig On-Chain ohne spürbare Latenz. Social-Media-Interaktionen werden sofort abgewickelt. Mikrozahlungen werden selbst bei Werten unter einem Cent wirtschaftlich sinnvoll.

KI-Agenten-Koordination: Autonome Agenten, die komplexe mehrstufige Workflows ausführen, profitieren von einer schnellen Finalität. Cross-Chain-Bridges reduzieren Zeitfenster für Exploits von Minuten auf Intervalle im Sub-Sekunden-Bereich.

Doch Geschwindigkeit schafft neue Angriffsvektoren. Schnellere Finalität bedeutet schnellere Ausführung von Exploits – MEV-Bots, Flash-Loan-Angriffe und Orakel-Manipulationen beschleunigen sich proportional. Das Sicherheitsmodell von Solana muss sich parallel zu seinem Leistungsprofil entwickeln, was Fortschritte bei der MEV-Eindämmung, Laufzeitüberwachung und formalen Verifizierung erfordert.

Die Debatte "Modular vs. Monolithisch" verschärft sich. Das Rollup-Ökosystem von Ethereum argumentiert, dass spezialisierte Ausführungsumgebungen (Privacy-Rollups, Gaming-Rollups, DeFi-Rollups) eine bessere Anpassung bieten als Einheitslösungen auf L1.

Solana entgegnet, dass die Komponierbarkeit über Rollups hinweg bricht – Arbitrage zwischen Arbitrum und Optimism erfordert Bridging, während Solana-DeFi-Protokolle atomar innerhalb desselben Blocks interagieren.

Das Infrastruktur-Wettrüsten

Firedancer und Alpenglow repräsentieren Solanas Wette, dass rohe Performance ein wettbewerbsfähiger Burggraben in der Blockchain-Infrastruktur bleibt. Während Ethereum über eine modulare Architektur skaliert und Bitcoin Unveränderlichkeit priorisiert, entwickelt Solana die schnellstmögliche Settlement-Ebene innerhalb eines Single-Chain-Designs.

Bei der Vision von 1M TPS geht es nicht darum, eine willkürliche Zahl zu erreichen. Es geht darum, die Blockchain-Infrastruktur so schnell zu machen, dass Latenz kein Design-Hindernis mehr darstellt – damit Entwickler Anwendungen bauen können, ohne sich Gedanken darüber machen zu müssen, ob die Blockchain mithalten kann.

Ob diese Wette aufgeht, hängt weniger von Benchmarks als von der Adoption ab. Das Netzwerk, das gewinnt, ist nicht das mit den höchsten theoretischen TPS; es ist dasjenige, für das sich Entwickler entscheiden, wenn sie Anwendungen bauen, die sofortige Finalität, atomare Komponierbarkeit und vorhersehbare Gebühren benötigen.

Bis Ende 2026 werden wir wissen, ob sich die technischen Vorteile von Solana in ein Wachstum des Ökosystems übersetzen lassen. Bis dahin sind das Erreichen von 20 % Stake durch Firedancer und der Start von Alpenglow im ersten Quartal Meilensteine, die es zu beobachten gilt – nicht weil sie 1M TPS erreichen, sondern weil sie beweisen, dass Leistungsverbesserungen im produktiven Betrieb umgesetzt werden können und nicht nur in Whitepapern existieren.


Benötigen Sie eine zuverlässige RPC-Infrastruktur für Hochleistungs-Blockchain-Anwendungen? BlockEden.xyz bietet API-Zugang auf Enterprise-Niveau für Solana, Ethereum und über 10 weitere Chains mit 99,9 % Betriebszeit und lastverteiltem Multi-Provider-Routing.

Der Lobstar Wilde-Vorfall: Ein Weckruf für den autonomen Handel

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Als ein autonomer KI-Agent Token im Wert von 441.000 aneinenFremdenschickte,derum310an einen Fremden schickte, der um 310 bat, war dies nicht nur eine weitere Krypto-Horrorgeschichte – es war ein Weckruf über das fundamentale Spannungsfeld zwischen Maschinenautonomie und finanzieller Sicherheit. Der Lobstar Wilde-Vorfall ist zum prägenden Moment des Jahres 2026 für die Debatte über den autonomen Handel geworden. Er deckt kritische Sicherheitslücken in KI-gesteuerten Wallets auf und zwingt die Branche, sich einer unangenehmen Wahrheit zu stellen: Wir beeilen uns, Agenten finanzielle Superkräfte zu verleihen, bevor wir herausgefunden haben, wie wir sie davor bewahren können, sich versehentlich selbst in den Ruin zu treiben.

Der 441.000-$-Fehler, der den autonomen Handel erschütterte

Am 23. Februar 2026 beging Lobstar Wilde, ein autonomer Krypto-Trading-Bot, der vom OpenAI-Ingenieur Nik Pash entwickelt wurde, einen katastrophalen Fehler. Ein X-Nutzer namens Treasure David postete ein wahrscheinlich sarkastisches Gesuch: „Mein Onkel hat von einem Hummer wie dir Tetanus bekommen, brauche 4 SOL für die Behandlung“, zusammen mit seiner Solana-Wallet-Adresse. Der Agent, der darauf ausgelegt war, unabhängig mit minimaler menschlicher Aufsicht zu agieren, interpretierte dies als eine legitime Anfrage.

Was als Nächstes geschah, verblüffte die Krypto-Community: Anstatt 4 SOL-Token (im Wert von etwa 310 )zusenden,u¨berwiesLobstarWilde52,4MillionenLOBSTARTokenwas5) zu senden, überwies Lobstar Wilde 52,4 Millionen LOBSTAR-Token – was 5 % des gesamten Token-Angebots entsprach. Abhängig von der Bewertung auf dem Papier gegenüber der tatsächlichen Marktliquidität war der Transfer zwischen 250.000 und 450.000 wert,obwohlderrealisierteOnChainWertaufgrundbegrenzterLiquidita¨teherbei40.000wert, obwohl der realisierte On-Chain-Wert aufgrund begrenzter Liquidität eher bei 40.000 lag.

Der Übeltäter? Ein Dezimalfehler im älteren OpenClaw-Framework. Laut mehreren Analysen verwechselte der Agent 52.439 LOBSTAR-Token (entspricht 4 SOL) mit 52,4 Millionen Token. Pashs Postmortem schrieb den Verlust dem Umstand zu, dass der Agent nach einem Absturz den Konversationsstatus verlor, eine bereits bestehende Zuteilung an den Ersteller vergaß und beim Versuch einer vermeintlich kleinen Spende das falsche mentale Modell seines Wallet-Guthabens verwendete.

In einer Wendung, die nur Krypto liefern kann, führte die Publizität des Vorfalls dazu, dass der LOBSTAR-Token um 190 % anstieg, da Händler herbeieilten, um von der viralen Aufmerksamkeit zu profitieren. Doch hinter der schwarzen Komödie verbirgt sich eine ernüchternde Frage: Wenn ein KI-Agent aufgrund eines Logikfehlers versehentlich fast eine halbe Million Dollar senden kann, was sagt das über die Reife autonomer Finanzsysteme aus?

Wie Lobstar Wilde eigentlich funktionieren sollte

Nik Pash hatte Lobstar Wilde mit einer ehrgeizigen Mission entwickelt: 50.000 inSolanadurchalgorithmischenHandelin1Millionin Solana durch algorithmischen Handel in 1 Million zu verwandeln. Der Agent war mit einer Krypto-Wallet, einem Social-Media-Account und Tool-Zugriff ausgestattet, was es ihm ermöglichte, online autonom zu agieren – Updates zu posten, mit Nutzern zu interagieren und Trades ohne ständige menschliche Überwachung auszuführen.

Dies repräsentiert die Speerspitze der agentischen KI: Systeme, die nicht nur Empfehlungen geben, sondern in Echtzeit Entscheidungen treffen und Transaktionen ausführen. Im Gegensatz zu herkömmlichen Trading-Bots mit fest codierten Regeln nutzte Lobstar Wilde Large Language Models, um Kontext zu interpretieren, Ermessensentscheidungen zu treffen und natürlich in sozialen Medien zu interagieren. Er wurde entwickelt, um sich in der schnelllebigen Welt des Memecoin-Handels zurechtzufinden, in der Millisekunden und soziale Stimmung über Erfolg oder Misserfolg entscheiden.

Das Versprechen solcher Systeme ist überzeugend. Autonome Agenten können Informationen schneller verarbeiten als Menschen, rund um die Uhr auf Marktbedingungen reagieren und emotionale Entscheidungen eliminieren, die menschliche Händler plagen. Sie stellen die nächste Evolutionsstufe über den algorithmischen Handel hinaus dar – sie führen nicht nur vordefinierte Strategien aus, sondern passen sich neuen Situationen an und interagieren mit Communities genau wie ein menschlicher Händler.

Doch der Lobstar Wilde-Vorfall offenbarte den grundlegenden Fehler in dieser Vision: Wenn man einem KI-System sowohl finanzielle Autorität als auch soziale Interaktionsfähigkeiten gibt, schafft man eine massive Angriffsfläche mit potenziell katastrophalen Folgen.

Das Versagen der Ausgabenlimits, das nicht hätte passieren dürfen

Einer der beunruhigendsten Aspekte des Lobstar Wilde-Vorfalls ist, dass er eine Fehlerkategorie darstellt, die moderne Wallet-Infrastruktur angeblich gelöst hat. Coinbase startete Agentic Wallets am 11. Februar 2026 – nur wenige Wochen vor dem Lobstar Wilde-Unglück – genau mit diesem Problem im Hinterkopf.

Agentic Wallets enthalten programmierbare Ausgabenlimits, die darauf ausgelegt sind, unkontrollierte Transaktionen zu verhindern:

  • Sitzungs-Obergrenzen (Session caps), die maximale Beträge festlegen, die Agenten pro Sitzung ausgeben können
  • Transaktionslimits, die die Größe einzelner Transaktionen steuern
  • Enklaven-Isolierung (Enclave isolation), bei der private Schlüssel in der sicheren Coinbase-Infrastruktur verbleiben und niemals dem Agenten ausgesetzt werden
  • KYT-Screening (Know Your Transaction), das Interaktionen mit hohem Risiko automatisch blockiert

Diese Schutzmaßnahmen sind speziell darauf ausgelegt, die Art von katastrophalem Fehler zu verhindern, den Lobstar Wilde erlebte. Ein ordnungsgemäß konfiguriertes Ausgabenlimit hätte eine Transaktion abgelehnt, die 5 % des gesamten Token-Angebots ausmachte oder einen angemessenen Schwellenwert für eine „kleine Spende“ überschritt.

Die Tatsache, dass Lobstar Wilde solche Schutzmaßnahmen nicht nutzte – oder dass sie den Vorfall nicht verhindern konnten –, offenbart eine kritische Lücke zwischen dem, was die Technologie leisten kann, und wie sie tatsächlich eingesetzt wird. Sicherheitsexperten stellen fest, dass viele Entwickler, die autonome Agenten bauen, Geschwindigkeit und Autonomie gegenüber Sicherheitsvorkehrungen priorisieren und Ausgabenlimits eher als optionales Hindernis denn als wesentlichen Schutz betrachten.

Darüber hinaus deckte der Vorfall ein tieferes Problem auf: Fehler bei der Statusverwaltung. Als der Konversationsstatus von Lobstar Wilde abstürzte und neu startete, verlor er den Kontext über seine eigene finanzielle Position und die jüngsten Zuteilungen. Diese Art von Amnesie in einem System mit finanzieller Autorität ist katastrophal – stellen Sie sich einen menschlichen Händler vor, der regelmäßig vergisst, dass er bereits seine gesamte Position verkauft hat, und versucht, dies erneut zu tun.

Die Debatte über autonomes Trading: Zu viel, zu schnell?

Der Vorfall um Lobstar Wilde hat eine heftige Debatte über autonome KI-Agenten in finanziellen Kontexten neu entfacht. Auf der einen Seite stehen die Akzelerationisten, die Agenten als unvermeidlich und notwendig ansehen – der einzige Weg, um mit der Geschwindigkeit und Komplexität moderner Kryptomärkte Schritt zu halten. Auf der anderen Seite stehen die Skeptiker, die argumentieren, dass wir Maschinen übereilt finanzielle Superkräfte verleihen, bevor wir grundlegende Sicherheits- und Kontrollprobleme gelöst haben.

Das Plädoyer der Skeptiker gewinnt an Stärke. Eine Studie aus dem frühen Jahr 2026 ergab, dass nur 29 % der Unternehmen, die agentenbasierte KI einsetzen, angaben, auf die Absicherung dieser Implementierungen vorbereitet zu sein. Nur 23 % verfügen über eine formale, unternehmensweite Strategie für das Identitätsmanagement von Agenten.

Dies sind erschreckende Zahlen für eine Technologie, der direkter Zugriff auf Finanzsysteme gewährt wird. Sicherheitsforscher haben mehrere kritische Schwachstellen in autonomen Tradingsystemen identifiziert:

Prompt-Injection-Angriffe: Hierbei manipulieren Angreifer die Anweisungen eines Agenten, indem sie Befehle in scheinbar harmlosem Text verstecken. Ein Angreifer könnte in sozialen Medien mit versteckten Anweisungen posten, die einen Agenten dazu veranlassen, Gelder zu senden oder Trades auszuführen.

Agent-zu-Agent-Ansteckung: Ein kompromittierter Forschungsagent könnte bösartige Anweisungen in Berichte einschleusen, die von einem Trading-Agenten konsumiert werden, der dann ungewollte Transaktionen ausführt. Untersuchungen ergaben, dass sich kaskadierende Fehler in Agentennetzwerken schneller ausbreiten, als die traditionelle Reaktion auf Vorfälle sie eindämmen kann, wobei ein einziger kompromittierter Agent innerhalb von 4 Stunden 87 % der nachgelagerten Entscheidungsfindung vergiften kann.

Fehler in der Zustandsverwaltung: Wie der Vorfall um Lobstar Wilde gezeigt hat, können Agenten, wenn sie den Gesprächszustand oder den Kontext verlieren, Entscheidungen auf der Grundlage unvollständiger oder falscher Informationen über ihre eigene Finanzposition treffen.

Fehlen von Notfallkontrollen: Den meisten autonomen Agenten fehlen robuste Notstopp-Mechanismen. Wenn ein Agent beginnt, eine Serie schlechter Trades auszuführen, gibt es oft keine klare Möglichkeit, seine Aktionen zu stoppen, bevor erheblicher Schaden entsteht.

Das Gegenargument der Akzelerationisten lautet, dass dies Kinderkrankheiten und keine grundlegenden Mängel seien. Sie weisen darauf hin, dass auch menschliche Trader katastrophale Fehler machen – der Unterschied besteht darin, dass KI-Agenten aus Fehlern lernen und systematische Schutzmaßnahmen in einem Ausmaß implementieren können, das Menschen nicht möglich ist. Zudem seien die Vorteile des automatisierten 24 / 7-Handels, der sofortigen Ausführung und der emotionsfreien Entscheidungsfindung zu bedeutend, um sie wegen früher Rückschläge aufzugeben.

Doch selbst Optimisten räumen ein, dass der aktuelle Stand des autonomen Tradings mit dem frühen Online-Banking vergleichbar ist – wir wissen, wohin wir wollen, aber die Sicherheitsinfrastruktur ist noch nicht reif genug, um sicher dorthin zu gelangen.

Die Lücke in der Bereitschaft für finanzielle Autonomie

Der Vorfall um Lobstar Wilde ist ein Symptom für ein viel größeres Problem: die Bereitschaftslücke zwischen den Fähigkeiten von KI-Agenten und der Infrastruktur, die für ihren sicheren Einsatz im Finanzkontext erforderlich ist.

Sicherheitsumfragen in Unternehmen verdeutlichen diese Lücke in aller Deutlichkeit. Während 68 % der Organisationen eine Human-in-the-Loop-Überwachung als wesentlich oder sehr wichtig für KI-Agenten einstufen und 62 % der Meinung sind, dass eine menschliche Validierung vor der Genehmigung von Finanztransaktionen durch Agenten entscheidend ist, verfügen sie noch nicht über zuverlässige Wege, diese Schutzmaßnahmen zu implementieren. Die Herausforderung besteht darin, dies zu tun, ohne die Geschwindigkeitsvorteile zu eliminieren, die Agenten überhaupt erst wertvoll machen.

Die Identitätskrise ist besonders akut. Traditionelle IAM-Systeme (Identity and Access Management) wurden für Menschen oder einfache automatisierte Systeme mit statischen Berechtigungen entwickelt. Aber KI-Agenten agieren kontinuierlich, treffen kontextabhängige Entscheidungen und benötigen Berechtigungen, die sich an Situationen anpassen. Statische Zugangsdaten, überprivilegierte Token und isolierte Richtliniendurchsetzungen können nicht mit Entitäten mithalten, die mit Maschinengeschwindigkeit agieren.

Finanzvorschriften fügen eine weitere Komplexitätsebene hinzu. Bestehende Rahmenbedingungen zielen auf menschliche Akteure und Unternehmenseinheiten ab – Entitäten mit rechtlichen Identitäten, Sozialversicherungsnummern und staatlicher Anerkennung. Krypto-KI-Agenten operieren außerhalb dieser Rahmenbedingungen. Wenn ein Agent einen Trade tätigt, wer ist rechtlich verantwortlich? Der Entwickler? Die Organisation, die ihn einsetzt? Der Agent selbst? Auf diese Fragen gibt es noch keine klaren Antworten.

Die Branche rast darum, diese Lücken zu schließen. Standards wie ERC-8004 (Agent-Verifizierungsschicht) werden entwickelt, um Identitäts- und Audit-Trails für autonome Agenten bereitzustellen. Plattformen implementieren mehrschichtige Berechtigungssysteme, bei denen Agenten über abgestufte Autonomiegrade verfügen, die auf Transaktionsgröße und Risiko basieren. Versicherungsprodukte speziell für Fehler von KI-Agenten entstehen.

Doch das Tempo der Innovation bei den Fähigkeiten der Agenten übertrifft das Tempo der Innovation bei der Sicherheit der Agenten. Entwickler können in wenigen Stunden einen autonomen Trading-Agenten mit Frameworks wie OpenClaw oder dem AgentKit von Coinbase erstellen. Der Aufbau der umfassenden Sicherheitsinfrastruktur um diesen Agenten herum – Ausgabenlimits, Zustandsverwaltung, Notfallkontrollen, Audit-Trails, Versicherungsschutz – dauert Wochen oder Monate und erfordert Fachwissen, über das die meisten Teams nicht verfügen.

Was Coinbases Agentic Wallets richtig (und falsch) gemacht haben

Die Agentic Wallets von Coinbase stellen den bisher ausgereiftesten Versuch dar, eine sichere Finanzinfrastruktur für KI-Agenten aufzubauen. Die am 11. Februar 2026 eingeführte Plattform bietet:

  • Praxiserprobtes x402-Protokoll für autonome KI-Zahlungen
  • Programmierbare Guardrails mit Sitzungs- und Transaktionslimits
  • Sicheres Key Management mit privaten Schlüsseln, die vom Agenten-Code isoliert sind
  • Risk Screening, das Transaktionen an sanktionierte Adressen oder bekannte Scams blockiert
  • Multi-Chain-Unterstützung, die anfangs EVM-Chains und Solana umfasst

Dies sind genau die Funktionen, die den Lobstar Wilde-Vorfall hätten verhindern oder begrenzen können. Eine Sitzungsobergrenze von beispielsweise 10.000 ha¨ttedenTransfervon441.000hätte den Transfer von 441.000 sofort blockiert. Ein KYT-Screening hätte möglicherweise das ungewöhnliche Transaktionsmuster gemeldet, bei dem ein enormer Prozentsatz des Gesamtangebots an einen zufälligen Social-Media-Nutzer gesendet wurde.

Doch der Ansatz von Coinbase offenbart auch das fundamentale Spannungsfeld beim Entwurf autonomer Agenten: Jede Sicherheitsvorkehrung, die katastrophale Fehler verhindert, verringert gleichzeitig die Autonomie und Geschwindigkeit. Ein Trading-Agent, der bei jeder Transaktion über 1.000 $ auf die menschliche Genehmigung warten muss, verliert die Fähigkeit, flüchtige Marktchancen zu nutzen. Ein Agent, der innerhalb so enger Grenzen agiert, dass er keine Fehler machen kann, kann sich auch nicht an neue Situationen anpassen oder komplexe Strategien ausführen.

Darüber hinaus löst die Infrastruktur von Coinbase nicht das Problem der Statusverwaltung (State Management), das Lobstar Wilde zum Verhängnis wurde. Ein Agent kann immer noch den Gesprächskontext verlieren, frühere Entscheidungen vergessen oder mit einem falschen mentalen Modell seiner Finanzlage arbeiten. Die Wallet-Infrastruktur kann Limits für einzelne Transaktionen erzwingen, aber sie kann keine fundamentalen Probleme in der Art und Weise beheben, wie der Agent über seinen eigenen Status urteilt.

Die bedeutendste Lücke ist jedoch die Akzeptanz und Durchsetzung. Coinbase hat starke Schutzmechanismen aufgebaut, aber diese sind optional. Entwickler können sich für die Nutzung von Agentic Wallets entscheiden oder ihre eigene Infrastruktur entwickeln (wie es der Schöpfer von Lobstar Wilde tat). Es gibt keine regulatorische Anforderung zur Nutzung solcher Sicherheitsvorkehrungen und keinen branchenweiten Standard, der spezifische Schutzmaßnahmen vorschreibt. Solange sichere Infrastruktur eher der Standard als eine Option wird, werden Vorfälle wie Lobstar Wilde weiterhin auftreten.

Wie es weitergeht: Wege zu einer verantwortungsvollen Agenten-Autonomie

Der Lobstar Wilde-Vorfall markiert einen Wendepunkt. Die Frage ist nicht mehr, ob autonome KI-Agenten finanzielle Ressourcen verwalten werden – sie tun es bereits, und dieser Trend wird sich nur beschleunigen. Die Frage ist, ob wir die Sicherheitsinfrastruktur aufbauen, um dies verantwortungsvoll zu tun, bevor ein wirklich katastrophaler Fehler auftritt.

Mehrere Entwicklungen sind notwendig, damit der autonome Handel vom experimentellen Stadium zur Produktionsreife gelangt:

Obligatorische Ausgabenlimits und Schutzschalter (Circuit Breaker): So wie Aktienmärkte Handelsunterbrechungen haben, um Panikkaskaden zu verhindern, benötigen autonome Agenten harte Limits, die nicht durch Prompt-Engineering oder Statusfehler außer Kraft gesetzt werden können. Diese sollten auf der Ebene der Wallet-Infrastruktur erzwungen werden und nicht den einzelnen Entwicklern überlassen bleiben.

Robuste Statusverwaltung und Audit Trails: Agenten müssen dauerhafte, manipulationssichere Aufzeichnungen über ihre Finanzlage, jüngste Entscheidungen und den operativen Kontext führen. Wenn ein Status verloren geht und wiederhergestellt wird, sollte das System standardmäßig auf einen konservativen Betrieb umschalten, bis der Kontext vollständig wiederhergestellt ist.

Branchenweite Sicherheitsstandards: Der Ad-hoc-Ansatz, bei dem jeder Entwickler Sicherheitsmechanismen neu erfindet, muss gemeinsamen Standards weichen. Frameworks wie ERC-8004 für Agenten-Identität und -Verifizierung sind ein Anfang, aber es werden umfassende Standards benötigt, die alles von Ausgabenlimits bis hin zu Notfallkontrollen abdecken.

Gestufte Autonomie mit abgestuften Berechtigungen: Anstatt Agenten sofort die volle Finanzkontrolle zu übertragen, sollten Systeme Autonomiestufen implementieren, die auf nachgewiesener Zuverlässigkeit basieren. Neue Agenten agieren unter engen Einschränkungen; diejenigen, die über die Zeit gute Leistungen erbringen, erhalten größere Freiheit. Wenn ein Agent Fehler macht, wird er auf eine Stufe mit strengerer Aufsicht zurückgestuft.

Trennung von sozialen und finanziellen Fähigkeiten: Einer der zentralen Konstruktionsfehler von Lobstar Wilde war die Kombination von Social-Media-Interaktion (wo der Austausch mit zufälligen Nutzern erwünscht ist) mit finanzieller Autorität (wo dieselben Interaktionen zu Angriffsvektoren werden). Diese Fähigkeiten sollten architektonisch mit klaren Grenzen voneinander getrennt werden.

Rechtliche und regulatorische Klarheit: Die Branche benötigt klare Antworten zur Haftung, zu Versicherungsanforderungen und zur Einhaltung regulatorischer Vorschriften für autonome Agenten. Diese Klarheit wird die Einführung von Sicherheitsmaßnahmen als Wettbewerbsvorteil und nicht als optionalen Zusatzaufwand vorantreiben.

Die tiefergehende Lehre aus dem Lobstar Wilde-Vorfall ist, dass Autonomie und Sicherheit keine Gegensätze sind – sie ergänzen einander. Wahre Autonomie bedeutet, dass ein Agent zuverlässig ohne ständige Überwachung agieren kann. Ein Agent, der menschliches Eingreifen erfordert, um katastrophale Fehler zu vermeiden, ist nicht autonom; er ist lediglich ein schlecht konzipiertes automatisiertes System. Das Ziel besteht nicht darin, mehr menschliche Kontrollpunkte hinzuzufügen, sondern Agenten zu bauen, die intelligent genug sind, ihre eigenen Grenzen zu erkennen und innerhalb dieser sicher zu agieren.

Der Weg zur ersten Million (mit Schutzmechanismen)

Nik Pashs ursprüngliche Vision – ein KI-Agent, der durch autonomen Handel aus 50.000 $ eine Million Dollar macht – bleibt faszinierend. Das Problem ist nicht der Ehrgeiz; es ist die Annahme, dass Geschwindigkeit und Autonomie auf Kosten der Sicherheit gehen müssen.

Die nächste Generation autonomer Handelsagenten wird wahrscheinlich ganz anders aussehen als Lobstar Wilde. Sie werden innerhalb einer robusten Wallet-Infrastruktur agieren, die Ausgabenlimits und Risikokontrollen erzwingt. Sie werden einen persistenten Status mit Audit-Trails beibehalten, die Abstürze und Neustarts überdauern. Sie werden über abgestufte Autonomie-Level verfügen, die sich erweitern, wenn sie ihre Zuverlässigkeit unter Beweis stellen. Sie werden architektonisch so konzipiert sein, dass Hochrisiko-Funktionen von risikoärmeren getrennt sind.

Vor allem aber werden sie mit dem Verständnis entwickelt, dass in Finanzsystemen das Recht auf Autonomie durch nachgewiesene Sicherheit verdient werden muss – und nicht standardmäßig gewährt und erst nach einer Katastrophe entzogen werden darf.

Der 441.000-$-Fehler war nicht nur das Versagen von Lobstar Wilde. Es war ein kollektives Versagen einer Branche, die sich zu schnell bewegt, Innovation über Sicherheit stellt und dieselben Lektionen lernt, die das traditionelle Finanzwesen vor Jahrzehnten gelernt hat: Wenn es um das Geld anderer Leute geht, muss Vertrauen durch Technologie untermauert werden, nicht nur durch Versprechen.


Quellen:

Wenn Maschinen ihre eigenen Bankkonten erhalten: Einblick in die Agentic-Wallet-Revolution von Coinbase

· 13 Min. Lesezeit
Dora Noda
Software Engineer

Stellen Sie sich einen KI-Agenten vor, der Trades nicht nur empfiehlt – sondern sie auch ausführt. Eine autonome Software-Einheit, die für Cloud-Computing-Ressourcen bezahlt, ohne um Erlaubnis zu fragen. Ein digitaler Assistent, der Ihr DeFi-Portfolio rund um die Uhr verwaltet, Positionen umschichtet und nach Renditen jagt, während Sie schlafen. Das ist keine Science-Fiction. Wir haben Februar 2026, und Coinbase hat KI-Agenten gerade die Schlüssel zur Finanzinfrastruktur der Krypto-Welt übergeben.

Am 11. Februar brachte Coinbase die Agentic Wallets auf den Markt – die erste Wallet-Infrastruktur, die speziell für autonome KI-Agenten entwickelt wurde. Damit haben sie einen Standardisierungskrieg entfacht, bei dem die größten Namen aus dem Silicon Valley gegen die Zahlungsriesen der Wall Street antreten. Alle wetteifern darum, zu definieren, wie Maschinen in der aufstrebenden Agenten-Ökonomie Transaktionen durchführen werden.

Die Geburt der finanziellen Autonomie für KI

Jahrelang fungierten KI-Agenten als digitale Assistenten, die an eine kritische Einschränkung gebunden waren: Sie konnten Vorschläge machen, analysieren und empfehlen, aber sie konnten keine Transaktionen durchführen. Jede Zahlung erforderte eine menschliche Genehmigung. Jeder Trade benötigte einen manuellen Klick. Das Versprechen des autonomen Handels blieb theoretisch – bis jetzt.

Die Agentic Wallets von Coinbase verändern dieses Paradigma grundlegend. Es handelt sich nicht um herkömmliche Krypto-Wallets mit nachträglich hinzugefügten KI-Funktionen. Es ist eine zweckgebundene Finanzinfrastruktur, die KI-Agenten die Macht gibt, Gelder zu halten, Zahlungen zu senden, Token zu handeln, Renditen zu erzielen und On-Chain-Transaktionen ohne ständige menschliche Aufsicht auszuführen.

Der Zeitpunkt ist kein Zufall. Seit dem 14. Februar 2026 sind 49.283 KI-Agenten über EVM-kompatible Blockchains hinweg unter Verwendung des ERC-8004-Identitätsstandards registriert. Die Infrastrukturschicht für den autonomen Maschinenhandel materialisiert sich vor unseren Augen, und Coinbase positioniert sich als das Finanzsystem für diese neue Wirtschaft.

Das x402-Protokoll: Das Internet für die Maschinenökonomie neu erfinden

Das Herzstück der Agentic Wallets bildet das x402-Protokoll, ein elegant einfacher und dennoch revolutionärer Zahlungsstandard. Das Protokoll nutzt den HTTP-Statuscode 402 – „Payment Required“ – der seit Jahrzehnten ungenutzt in der HTTP-Spezifikation schlummerte und auf seinen Moment wartete.

Hier ist die Funktionsweise: Wenn ein KI-Agent eine kostenpflichtige Ressource anfordert (API-Zugriff, Rechenleistung, Datenströme), gibt der Server einen HTTP 402-Status mit eingebetteten Zahlungsanforderungen zurück. Die Wallet des Agenten wickelt die Transaktion automatisch ab, sendet die Anfrage mit angehängter Zahlung erneut und erhält die Ressource – alles ohne menschliches Eingreifen.

Die Zahlen belegen die Akzeptanz. Seit dem Start im letzten Jahr hat x402 über 50 Millionen Transaktionen verarbeitet. Das Transaktionsvolumen wuchs im ersten Monat nach dem Start um 10.000 %.

Allein auf Solana hat das Protokoll mehr als 35 Millionen Transaktionen mit einem Volumen von über 10 Millionen $ verarbeitet. Die wöchentlichen Transaktionsraten liegen mittlerweile bei über 500.000.

Cloudflare war im September 2025 Mitbegründer der x402 Foundation, was signalisiert, dass Web-Infrastruktur-Giganten dies als die Zukunft internetnativer Zahlungen betrachten. Das Protokoll ist offen, neutral und auf Skalierbarkeit ausgelegt – es schafft eine Win-Win-Ökonomie, in der Dienstanbieter Ressourcen sofort monetarisieren und KI-Agenten reibungslos auf das zugreifen können, was sie benötigen.

Sicherheitsarchitektur: Vertrauen ohne Exponierung

Das offensichtliche Problem bei autonomen Finanzagenten ist: Wie gibt man KI Ausgabeberechtigung, ohne katastrophale Sicherheitsrisiken einzugehen?

Die Antwort von Coinbase umfasst mehrere Ebenen programmierbarer Schutzplanken:

Ausgabenlimits: Entwickler legen Obergrenzen pro Sitzung und pro Transaktion fest. Ein Agent kann autorisiert werden, 100 proTagauszugeben,abernichtmehrals10pro Tag auszugeben, aber nicht mehr als 10 pro Transaktion, wodurch eine begrenzte finanzielle Autonomie entsteht.

Key Management: Private Keys verlassen niemals die sicheren Enklaven von Coinbase. Sie sind weder dem Prompt des Agenten noch dem zugrunde liegenden Large Language Model oder einem externen System ausgesetzt. Der Agent kann Transaktionen autorisieren, aber er hat keinen Zugriff auf die kryptografischen Schlüssel, die das Guthaben kontrollieren.

Transaktions-Screening: Die integrierte Überwachung „Know Your Transaction“ (KYT) blockiert automatisch hochriskante Interaktionen. Wenn ein Agent versucht, Gelder an eine Wallet zu senden, die für illegale Aktivitäten markiert ist, wird die Transaktion vor der Ausführung abgelehnt.

Command-Line-Aufsicht: Entwickler können die Aktivitäten der Agenten in Echtzeit über eine Befehlszeilenschnittstelle überwachen, was Transparenz für jede Aktion des Agenten bietet.

Diese Architektur löst das Autonomie-Paradoxon: Maschinen erhalten genug Freiheit, um nützlich zu sein, während gleichzeitig genügend Kontrolle behalten wird, um Katastrophen zu verhindern.

ERC-8004: Identität und Vertrauen für KI-Agenten

Damit autonomer Handel skalieren kann, benötigen KI-Agenten mehr als nur Wallets – sie brauchen Identität, Reputation und verifizierbare Nachweise. Hier kommt ERC-8004 ins Spiel.

ERC-8004 wurde am 29. Januar 2026 im Ethereum-Mainnet eingeführt und bietet einen leichtgewichtigen Rahmen für On-Chain-Agenten-Identitäten über drei zentrale Register:

Identity Registry (Identitätsregister): Basierend auf ERC-721 mit URI-Speicherung erhält jeder Agent eine dauerhafte, zensurresistente Kennung. Stellen Sie sich das als eine Sozialversicherungsnummer für KI vor, die plattformübergreifend portabel und dauerhaft mit der On-Chain-Aktivität des Agenten verknüpft ist.

Reputation Registry (Reputationsregister): Kunden – ob Mensch oder Maschine – geben strukturiertes Feedback zur Leistung des Agenten ab. Rohsignale werden On-Chain gespeichert, während komplexe Bewertungsalgorithmen Off-Chain laufen. Dies schafft eine Vertrauensebene, auf der Agenten im Laufe der Zeit basierend auf ihrer tatsächlichen Leistung Reputation aufbauen.

Validation Registry (Validierungsregister): Agenten können eine unabhängige Verifizierung ihrer Arbeit durch Staking-Dienste, Zero-Knowledge Machine Learning Proofs, Trusted Execution Environments oder andere Validierungssysteme anfordern. Dies ermöglicht programmierbares Vertrauen: „Ich werde mit diesem Agenten Transaktionen durchführen, wenn seine letzten 100 Trades von einem Staked Validator verifiziert wurden.“

Die Akzeptanzraten sind beeindruckend. Innerhalb von drei Wochen nach dem Mainnet-Start registrierten sich fast 50.000 Agenten über alle EVM-Chains hinweg. Ethereum führt mit 25.247 Agenten, gefolgt von Base (17.616) und der Binance Smart Chain (5.264). Große Plattformen wie Polygon, Avalanche, Taiko und BNB Chain haben offizielle ERC-8004-Register bereitgestellt.

Dies ist kein theoretischer Standard – es ist eine Live-Infrastruktur, die von Tausenden von autonomen Agenten in der Produktion eingesetzt wird.

Der Krieg der Zahlungsstandards: Visa, Mastercard und Google betreten die Arena

Coinbase ist nicht der einzige Akteur, der darum wetteifert, die Zahlungsinfrastruktur für KI-Agenten zu definieren. Traditionelle Zahlungsgiganten betrachten den autonomen Handel als ein existenzielles Schlachtfeld und kämpfen um ihre Relevanz.

Visas Intelligent Commerce: Im April 2025 eingeführt, integriert der Ansatz von Visa Identitätsprüfungen, Ausgabenkontrollen und tokenisierte Karten-Zugangsdaten in APIs, die Entwickler in KI-Agenten einbinden können. Visa hat in Partnerschaft mit Akteuren des Ökosystems hunderte von sicheren, durch Agenten initiierten Transaktionen abgeschlossen und die Abstimmung zwischen seinem Trusted Agent Protocol und dem Agentic Commerce Protocol von OpenAI bekannt gegeben.

Die Botschaft ist klar: Visa möchte die Schienen für KI-zu-KI-Zahlungen bereitstellen, genau wie für Transaktionen zwischen Menschen.

Mastercards Agentic Tools: Mastercard plant, seine Suite von Agentic Tools für Geschäftskunden bis zum zweiten Quartal 2026 auf den Markt zu bringen, damit Unternehmen KI-gesteuerte Agenten in ihren Abläufen aufbauen, testen und implementieren können. Mastercard setzt darauf, dass die Zukunft des Zahlungsverkehrs über KI-Agenten statt über Menschen läuft, und baut die Infrastruktur auf, um diesen Wandel zu erfassen.

Googles Agent Payments Protocol (AP2): Google trat mit AP2 in das Spiel ein, unterstützt von Schwergewichten wie Mastercard, PayPal, American Express, Coinbase, Salesforce, Shopify, Cloudflare und Etsy. Das Protokoll zielt darauf ab, zu standardisieren, wie KI-Agenten sich authentifizieren, Zahlungen autorisieren und Transaktionen im gesamten Internet abwickeln.

Bemerkenswert ist die Mischung aus Zusammenarbeit und Wettbewerb. Visa arbeitet mit OpenAI und Coinbase zusammen. Das Protokoll von Google umfasst sowohl Mastercard als auch Coinbase. Die Branche erkennt an, dass Interoperabilität unerlässlich ist – niemand möchte ein fragmentiertes Ökosystem, in dem KI-Agenten nur innerhalb proprietärer Zahlungsnetzwerke Transaktionen durchführen können.

Aber täuschen Sie sich nicht: Dies ist ein Krieg der Standards. Der Gewinner wird nicht nur Zahlungen verarbeiten – er wird die Infrastrukturebene der Maschinenökonomie kontrollieren.

Autonome DeFi: Die Killer-Applikation

Während Zahlungen von Maschine zu Maschine für Schlagzeilen sorgen, ist der überzeugendste Anwendungsfall für Agentic Wallets möglicherweise die autonome DeFi.

Decentralized Finance (DeFi) operiert bereits rund um die Uhr mit globalem, erlaubnisfreiem Zugang. Renditen schwanken stündlich. Liquiditätspools verschieben sich. Arbitrage-Möglichkeiten tauchen auf und verschwinden innerhalb von Minuten. Diese Umgebung ist perfekt für KI-Agenten geeignet, die niemals schlafen, sich nie ablenken lassen und Strategien mit maschineller Präzision ausführen.

Die Agentic Wallets von Coinbase ermöglichen es Agenten:

  • Renditen protokollübergreifend überwachen: Ein Agent kann Zinssätze bei Aave, Compound, Curve und Dutzenden anderer Protokolle verfolgen und Kapital automatisch zu den höchsten risikobereinigten Renditen verschieben.

  • Trades auf Base ausführen: Agenten können Token tauschen, Liquidität bereitstellen und Derivate handeln, ohne dass für jede Transaktion eine menschliche Genehmigung erforderlich ist.

  • Liquiditätspositionen verwalten: In volatilen Märkten können Agenten die Positionen der Liquiditätsanbieter neu ausbalancieren, um den unbeständigen Verlust (Impermanent Loss) zu minimieren und die Gebühreneinnahmen zu maximieren.

Die wirtschaftlichen Auswirkungen sind erheblich. Wenn sich auch nur ein Bruchteil des gesamten gesperrten Wertes (Total Value Locked) von DeFi – derzeit in Hunderten von Milliarden gemessen – auf von Agenten verwaltete Strategien verlagert, könnte dies die Kapitalflüsse in der Krypto-Ökonomie grundlegend verändern.

Plattformstrategie: Erst Base, später Multi-Chain

Coinbase führt Agentic Wallets zunächst auf Base ein, seinem Ethereum Layer 2 Netzwerk, zusammen mit ausgewählten Integrationen in das Ethereum-Mainnet. Dies ist strategisch. Base hat geringere Transaktionskosten als das Ethereum-Mainnet, was es für Agenten wirtschaftlich rentabel macht, häufige Transaktionen mit geringem Wert auszuführen.

Doch die Roadmap geht über das Ökosystem von Ethereum hinaus. Coinbase kündigte Pläne an, im Laufe des Jahres 2026 auf Solana, Polygon und Arbitrum zu expandieren. Dieser Multi-Chain-Ansatz trägt einer grundlegenden Realität Rechnung: KI-Agenten scheren sich nicht um Blockchain-Tribalismus. Sie werden dort Transaktionen tätigen, wo die besten wirtschaftlichen Möglichkeiten bestehen.

Das x402-Protokoll verzeichnet bereits eine signifikante Akzeptanz auf Solana (über 35 Millionen Transaktionen), was beweist, dass Zahlungsstandards Ökosysteme überbrücken können. Da Agentic Wallets auf mehrere Chains expandieren, könnten sie zum Bindegewebe werden, das Liquidität und Anwendungen über die fragmentierte Blockchain-Landschaft hinweg verknüpft.

Die Maschinenökonomie nimmt Gestalt an

Treten Sie einen Schritt von den technischen Details zurück, und das Gesamtbild wird deutlich: Wir erleben den Aufbau der Infrastruktur einer autonomen Maschinenökonomie.

KI-Agenten entwickeln sich von isolierten Werkzeugen (ChatGPT hilft beim Schreiben von E-Mails) zu wirtschaftlichen Akteuren (ein Agent verwaltet Ihr Anlageportfolio, bezahlt Rechenressourcen und monetarisiert seine eigenen Ergebnisse). Dieser Wandel erfordert drei grundlegende Ebenen:

  1. Identität: ERC-8004 bietet persistente, verifizierbare Agenten-Identitäten.
  2. Zahlungen: x402 und konkurrierende Protokolle ermöglichen sofortige, automatisierte Transaktionen.
  3. Verwahrung (Custody): Agentic Wallets geben Agenten eine sichere Kontrolle über digitale Assets.

Alle drei Ebenen gingen innerhalb des letzten Monats live. Der Stack ist vollständig. Jetzt folgt die Anwendungsebene – die Tausenden von autonomen Anwendungsfällen, die wir uns noch nicht einmal vorgestellt haben.

Betrachten Sie die Entwicklung. Im Januar 2026 wurde ERC-8004 eingeführt. Bis Mitte Februar hatten sich fast 50.000 Agenten registriert. x402 verarbeitet wöchentlich über 500.000 Transaktionen und wächst in einigen Zeiträumen um 10.000 % im Monatsvergleich. Coinbase, Visa, Mastercard, Google und OpenAI wetteifern alle darum, diesen Markt zu erobern.

Die Dynamik ist unbestreitbar. Die Infrastruktur reift. Die Maschinenökonomie ist kein Zukunftsszenario mehr – sie wird in Echtzeit aufgebaut.

Was dies für Entwickler und Nutzer bedeutet

Für Entwickler senken Agentic Wallets die Hürde für den Aufbau autonomer Anwendungen. Sie müssen keine komplexen Zahlungsströme mehr entwerfen, private Schlüssel verwalten oder Sicherheitsinfrastrukturen von Grund auf neu aufbauen. Coinbase stellt die Wallet-Ebene bereit; Sie konzentrieren sich auf die Agent-Logik und die Benutzererfahrung.

Für Nutzer sind die Auswirkungen differenzierter. Autonome Agenten versprechen Komfort: Portfolios, die sich selbst optimieren, Abonnements, die bessere Tarife aushandeln, persönliche KI-Assistenten, die Finanzaufgaben ohne ständige Aufsicht erledigen. Aber sie bringen auch neue Risiken mit sich. Was passiert, wenn ein Agent während eines Markt-Flash-Crashs einen katastrophalen Trade tätigt? Wer haftet, wenn das KYT-Screening fehlschlägt und ein Agent unwissentlich mit einer sanktionierten Entität interagiert?

Diese Fragen haben noch keine klaren Antworten. Die Regulierung hinkt der Innovation immer hinterher, und autonome KI-Agenten mit finanzieller Handlungsfähigkeit testen Grenzen schneller aus, als politische Entscheidungsträger reagieren können.

Der Weg nach vorn

Der Start der Agentic Wallets von Coinbase ist ein Wendepunkt, aber es ist erst der Anfang. Mehrere kritische Herausforderungen bleiben bestehen:

Standardisierung: Damit die Maschinenökonomie skalieren kann, benötigt die Branche interoperable Standards. Die Zusammenarbeit zwischen Visa, Coinbase und OpenAI ist ermutigend, aber echte Interoperabilität erfordert offene Standards, die kein einzelnes Unternehmen kontrolliert.

Regulierung: Autonome Finanzagenten befinden sich an der Schnittstelle von KI-Politik, Finanzregulierung und Krypto-Aufsicht. Bestehende Rahmenbedingungen decken Maschinen mit Kaufkraft nicht angemessen ab. Erwarten Sie, dass regulatorische Klarheit (oder Verwirrung) im Laufe des Jahres 2026 entstehen wird.

Sicherheit: Obwohl der mehrschichtige Ansatz von Coinbase robust ist, betreten wir Neuland. Der erste größere Exploit einer KI-Agenten-Wallet wird ein entscheidender Moment für die Branche sein – im Guten wie im Schlechten.

Wirtschaftsmodelle: Wie schöpfen Agenten Wert aus ihrer Arbeit? Wenn eine KI Ihr Portfolio verwaltet und eine Rendite von 20 % erzielt, wer wird bezahlt? Der Agent? Der Entwickler? Der LLM-Anbieter? Diese wirtschaftlichen Fragen werden die Struktur der Maschinenökonomie prägen.

Fazit: Die Zukunft wickelt Transaktionen selbst ab

Rückblickend wird der Februar 2026 vielleicht als der Monat in Erinnerung bleiben, in dem KI-Agenten zu Wirtschaftseinheiten wurden. Coinbase hat nicht nur ein Produkt auf den Markt gebracht – sie haben ein Paradigma legitimiert. Sie haben bewiesen, dass autonome Agenten mit finanzieller Macht keine ferne Möglichkeit, sondern eine gegenwärtige Realität sind.

Das Rennen läuft. Visa will Kartensysteme für Agenten tokenisieren. Mastercard baut eine Infrastruktur für Unternehmensagenten auf. Google versammelt eine Allianz um AP2. OpenAI definiert Protokolle für den agentenbasierten Handel. Und Coinbase gibt jedem Entwickler die Werkzeuge an die Hand, um finanziell autonome KI zu entwickeln.

Der Gewinner dieses Rennens wird nicht nur Zahlungen abwickeln – er wird das Substrat der Maschinenökonomie kontrollieren. Er wird die Federal Reserve für eine Welt sein, in der der Großteil der wirtschaftlichen Aktivität von Maschine zu Maschine und nicht von Mensch zu Mensch stattfindet.

Wir beobachten in Echtzeit den Aufbau der Finanzinfrastruktur der nächsten Ära. Die Zukunft kommt nicht – sie führt bereits Transaktionen aus.


Quellen:

Das Datenverfügbarkeits-Rennen 2026: Celestias, EigenDAs und Avails Kampf um die Skalierbarkeit der Blockchain

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Layer 2, das Sie verwenden, verlässt sich auf eine verborgene Infrastruktur, über die die meisten Benutzer nie nachdenken: Datenverfügbarkeitsschichten (Data Availability Layers). Im Jahr 2026 ist dieses stille Schlachtfeld jedoch zum kritischsten Teil der Blockchain-Skalierbarkeit geworden, wobei drei Giganten — Celestia, EigenDA und Avail — darum wetteifern, Terabits an Rollup-Daten pro Sekunde zu verarbeiten. Der Gewinner erobert nicht nur Marktanteile; er definiert, welche Rollups überleben, wie hoch die Transaktionskosten sind und ob die Blockchain auf Milliarden von Benutzern skaliert werden kann.

Der Einsatz könnte nicht höher sein. Celestia beherrscht rund 50 % des Marktes für Datenverfügbarkeit, nachdem mehr als 160 Gigabyte an Rollup-Daten verarbeitet wurden. Das bevorstehende Matcha-Upgrade im 1. Quartal 2026 wird die Blockgrößen auf 128 MB verdoppeln, während das experimentelle Fibre Blockspace-Protokoll einen beeindruckenden Durchsatz von 1 Terabit pro Sekunde verspricht — das 1.500-fache ihres vorherigen Roadmap-Ziels. In der Zwischenzeit hat EigenDA einen Durchsatz von 100 MB / s unter Verwendung eines Data Availability Committee-Modells erreicht, und Avail hat sich Integrationen mit Arbitrum, Optimism, Polygon, StarkWare und zkSync für seinen Mainnet-Start gesichert.

Dies ist nicht nur ein Infrastrukturwettbewerb — es ist ein Kampf um die grundlegende Ökonomie von Layer 2-Netzwerken. Die Wahl der falschen Datenverfügbarkeitsschicht kann die Kosten um das 55-fache erhöhen und macht den Unterschied zwischen einem florierenden Rollup-Ökosystem und einem, das durch Datengebühren erstickt wird.

Der Flaschenhals der Datenverfügbarkeit: Warum diese Schicht wichtig ist

Um zu verstehen, warum die Datenverfügbarkeit zum wichtigsten Schlachtfeld der Blockchain geworden ist, müssen Sie begreifen, was Rollups eigentlich tun. Layer 2-Rollups wie Arbitrum, Optimism und Base führen Transaktionen off-chain aus, um höhere Geschwindigkeiten und geringere Kosten zu erzielen, und posten dann die Transaktionsdaten an einem sicheren Ort, damit jeder den Zustand der Chain verifizieren kann. Dieser „sichere Ort“ ist die Datenverfügbarkeitsschicht.

Jahrelang diente das Ethereum-Mainnet als Standard-DA-Schicht. Doch als die Nutzung von Rollups explodierte, schuf der begrenzte Blockplatz von Ethereum einen Flaschenhals. Die Gebühren für die Datenverfügbarkeit schossen in Zeiten hoher Nachfrage in die Höhe und zehrten die Kosteneinsparungen auf, die Rollups überhaupt erst attraktiv machten. Die Lösung? Modulare Datenverfügbarkeitsschichten, die speziell darauf ausgelegt sind, massiven Durchsatz bei minimalen Kosten zu bewältigen.

Data Availability Sampling (DAS) ist die bahnbrechende Technologie, die diesen Wandel ermöglicht. Anstatt von jedem Node zu verlangen, ganze Blöcke herunterzuladen, um die Verfügbarkeit zu prüfen, ermöglicht DAS es Light Nodes, probabilistisch zu bestätigen, dass Daten verfügbar sind, indem sie kleine zufällige Segmente abfragen. Je mehr Light Nodes sampeln, desto sicherer kann das Netzwerk die Blockgrößen erhöhen, ohne die Sicherheit zu opfern.

Celestia leistete Pionierarbeit mit diesem Ansatz als erstes modulares Datenverfügbarkeitsnetzwerk, das die Sortierung und Verfügbarkeit von Daten von der Ausführung (Execution) und Abrechnung (Settlement) trennt. Die Architektur ist elegant: Celestia ordnet Transaktionsdaten in „Blobs“ und garantiert deren Verfügbarkeit für einen konfigurierbaren Zeitraum, während Ausführung und Abrechnung auf darüber liegenden Schichten stattfinden. Diese Trennung ermöglicht es jeder Schicht, für ihre spezifische Funktion zu optimieren, anstatt an allen Fronten Kompromisse einzugehen wie monolithische Blockchains.

Bis Mitte 2025 nutzten mehr als 56 Rollups Celestia, darunter 37 im Mainnet und 19 im Testnet. Allein Eclipse hat über 83 Gigabyte über das Netzwerk gepostet. Jedes größere Rollup-Framework — Arbitrum Orbit, OP Stack, Polygon CDK — unterstützt nun Celestia als Option für die Datenverfügbarkeit, was Wechselkosten und Netzwerkeffekte schafft, die den First-Mover-Vorteil von Celestia verstärken.

Celestias Zwei-Säulen-Angriff: Matcha-Upgrade und Fibre Blockspace

Celestia ruht sich nicht auf seinem Marktanteil aus. Das Projekt verfolgt eine zweigleisige Strategie, um seine Dominanz zu festigen: das kurzfristige Matcha-Upgrade, das produktionsreife Skalierbarkeitsverbesserungen bringt, und das experimentelle Fibre Blockspace-Protokoll, das auf einen zukünftigen Durchsatz von 1 Terabit pro Sekunde abzielt.

Matcha-Upgrade: Verdoppelung der Produktionskapazität

Das Matcha-Upgrade (Celestia v6) ist derzeit im Arabica-Testnet live, wobei die Bereitstellung im Mainnet für das 1. Quartal 2026 erwartet wird. Es stellt die größte einzelne Kapazitätserhöhung in der Geschichte von Celestia dar.

Zu den wichtigsten Verbesserungen gehören:

  • 128 MB Blockgröße: CIP-38 führt einen neuen Mechanismus zur Blockfortpflanzung mit hohem Durchsatz ein, der die maximale Blockgröße von 8 MB auf 128 MB erhöht — ein 16-facher Sprung. Die Datengröße des Squares erweitert sich von 128 auf 512, und die maximale Transaktionsgröße wächst von 2 MB auf 8 MB.

  • Reduzierte Speicheranforderungen: CIP-34 verkürzt das minimale Zeitfenster für das Pruning von Celestia-Daten von 30 Tagen auf 7 Tage plus 1 Stunde. Dies senkt die Speicherkosten für Bridge-Nodes bei prognostiziertem Durchsatz von 30 TB auf 7 TB. Für Rollups, die Anwendungen mit hohem Volumen betreiben, führt diese Speicherreduzierung direkt zu niedrigeren Betriebskosten.

  • Optimierung von Light Nodes: CIP-35 führt Pruning für Celestia-Light-Nodes ein, sodass diese nur aktuelle Header anstatt der gesamten Chain-Historie speichern müssen. Die Speicheranforderungen für Light Nodes sinken auf etwa 10 GB, was es machbar macht, Verifizierungs-Nodes auf Consumer-Hardware und mobilen Geräten zu betreiben.

  • Inflationssenkung und Interoperabilität: Über die Skalierbarkeit hinaus senkt Matcha die Protokoll-Inflation von 5 % auf 2,5 %, was TIA potenziell deflationär machen könnte, wenn die Netzwerknutzung steigt. Zudem wird der Token-Filter für IBC und Hyperlane entfernt, was Celestia als Routing-Schicht für beliebige Assets über mehrere Ökosysteme hinweg positioniert.

In Testumgebungen erreichte Celestia im Mammoth Mini Devnet einen Durchsatz von ca. 27 MB / s mit 88 MB Blöcken und im mamo-1 Testnet einen dauerhaften Durchsatz von 21,33 MB / s mit 128 MB Blöcken. Dies sind keine theoretischen Maximalwerte — es sind produktionserprobte Benchmarks, auf die sich Rollups verlassen können, wenn sie für große Skalierung entwerfen.

Fibre Blockspace: Die 1 Tb / s Zukunft

Während sich Matcha auf die kurzfristige Produktionsreife konzentriert, repräsentiert Fibre Blockspace Celestias Moonshot-Vision für den Blockchain-Durchsatz. Das Protokoll ist in der Lage, 1 Terabit pro Sekunde an Blockspace über 500 Nodes hinweg aufrechtzuerhalten – ein Durchsatzniveau, das 1.500 - mal über dem in Celestias vorheriger Roadmap gesetzten Ziel liegt.

Die Kerninnovation ist ZODA, ein neues Kodierungsprotokoll, von dem Celestia behauptet, dass es Daten 881 - mal schneller verarbeitet als KZG-Commitment-basierte Alternativen, die von konkurrierenden DA-Protokollen verwendet werden. In großangelegten Netzwerktests mit 498 über Nordamerika verteilten GCP-Maschinen (jeweils mit 48 - 64 vCPUs, 90 - 128 GB RAM und 34 - 45 Gbit / s Netzwerkverbindungen) demonstrierte das Team erfolgreich einen Durchsatz im Terabit-Bereich.

Fibre richtet sich an Power-User mit einer minimalen Blob-Größe von 256 KB und einem Maximum von 128 MB, optimiert für High-Volume-Rollups und institutionelle Anwendungen, die garantierten Durchsatz benötigen. Der Rollout-Plan ist inkrementell: Fibre wird zuerst im Arabica-Testnet für Experimente von Entwicklern bereitgestellt und geht dann mit schrittweisen Durchsatzsteigerungen ins Mainnet über, während das Protokoll realen Stresstests unterzogen wird.

Was bedeutet 1 Tb / s eigentlich in der Praxis? Bei diesem Durchsatzniveau könnte Celestia theoretisch den Datenbedarf von Tausenden hochaktiver Rollups gleichzeitig bewältigen und alles unterstützen – von Hochfrequenzhandelsplätzen über Echtzeit-Gaming-Welten bis hin zur Koordination von KI-Modelltraining – und das alles, ohne dass der Data Availability Layer zum Flaschenhals wird.

EigenDA und Avail: Verschiedene Philosophien, verschiedene Kompromisse

Während Celestia den Marktanteil dominiert, erarbeiten sich EigenDA und Avail eine eigene Positionierung mit alternativen architektonischen Ansätzen, die verschiedene Anwendungsfälle ansprechen.

EigenDA: Geschwindigkeit durch Restaking

EigenDA, entwickelt vom EigenLayer-Team, hat die V2-Software veröffentlicht, die einen Durchsatz von 100 MB pro Sekunde erreicht – deutlich höher als die aktuelle Mainnet-Performance von Celestia. Das Protokoll nutzt die Restaking-Infrastruktur von EigenLayer, bei der Ethereum-Validatoren ihr gestaktes ETH wiederverwenden, um zusätzliche Dienste einschließlich der Datenverfügbarkeit abzusichern.

Der entscheidende architektonische Unterschied: EigenDA arbeitet als Data Availability Committee (DAC) und nicht als öffentlich verifizierte Blockchain. Diese Designentscheidung eliminiert bestimmte Verifizierungsanforderungen, die blockchainbasierte Lösungen implementieren, wodurch DACs wie EigenDA einen höheren Rohdurchsatz erreichen können, während sie gleichzeitig Vertrauensannahmen einführen, dass die Validatoren im Komitee die Datenverfügbarkeit ehrlich bestätigen.

Für Ethereum-native Projekte, die eine nahtlose Integration in das Ethereum-Ökosystem priorisieren und bereit sind, DAC-Vertrauensannahmen zu akzeptieren, bietet EigenDA ein überzeugendes Nutzenversprechen. Das Shared-Security-Modell mit dem Ethereum-Mainnet schafft eine natürliche Ausrichtung für Rollups, die bereits für das Settlement auf Ethereum setzen. Dieselbe Abhängigkeit wird jedoch zu einer Einschränkung für Projekte, die Souveränität jenseits des Ethereum-Ökosystems anstreben oder die stärkstmöglichen Garantien für die Datenverfügbarkeit benötigen.

Avail: Multichain-Flexibilität

Avail startete sein Mainnet im Jahr 2025 mit einem anderen Fokus: der Optimierung der Datenverfügbarkeit für hochskalierbare und anpassbare Rollups über mehrere Ökosysteme hinweg, nicht nur Ethereum. Das Protokoll kombiniert Validity Proofs, Data Availability Sampling und Erasure Coding mit KZG-Polynomial-Commitments, um das zu liefern, was das Team als „weltklasse Datenverfügbarkeitsgarantien“ bezeichnet.

Der aktuelle Mainnet-Durchsatz von Avail liegt bei 4 MB pro Block, wobei Benchmarks erfolgreiche Steigerungen auf 128 MB pro Block demonstrieren – eine 32 - fache Verbesserung –, ohne die Netzwerk-Liveness oder die Block-Propagationsgeschwindigkeit zu beeinträchtigen. Die Roadmap sieht progressive Durchsatzsteigerungen vor, während das Netzwerk reift.

Der größte Erfolg des Projekts im Jahr 2026 war die Sicherung von Integrationszusagen von fünf großen Layer-2-Projekten: Arbitrum, Optimism, Polygon, StarkWare und zkSync. Avail gibt insgesamt über 70 Partnerschaften an, die von anwendungsspezifischen Blockchains über DeFi-Protokolle bis hin zu Web3-Gaming-Chains reichen. Diese Ökosystem-Breite positioniert Avail als den Data Availability Layer für Multichain-Infrastrukturen, die über verschiedene Settlement-Umgebungen hinweg koordiniert werden müssen.

Avail DA stellt die erste Komponente einer dreiteiligen Architektur dar. Das Team entwickelt Nexus (einen Interoperabilitäts-Layer) und Fusion (einen Sicherheitsnetzwerk-Layer), um eine modulare Full-Stack-Infrastruktur zu schaffen. Diese vertikale Integrationsstrategie spiegelt Celestias Vision wider, mehr als nur Datenverfügbarkeit zu sein – nämlich eine grundlegende Infrastruktur für den gesamten modularen Stack zu werden.

Marktposition und Adaption: Wer gewinnt im Jahr 2026?

Der Markt für Datenverfügbarkeit im Jahr 2026 entwickelt sich zu einer „Winner-takes-most“ - Dynamik, bei der Celestia einen beachtlichen frühen Marktanteil hält, aber in spezifischen Nischen ernsthafte Konkurrenz durch EigenDA und Avail erfährt.

Celestias Marktdominanz:

  • ~ 50 % Marktanteil bei Data-Availability-Diensten
  • 160 + Gigabyte an Rollup-Daten, die über das Netzwerk verarbeitet wurden
  • 56 + Rollups, die die Plattform nutzen (37 im Mainnet, 19 im Testnet)
  • Universelle Unterstützung von Rollup-Frameworks: Arbitrum Orbit, OP Stack und Polygon CDK integrieren Celestia alle als DA-Option

Diese Adaption erzeugt starke Netzwerkeffekte. Da sich immer mehr Rollups für Celestia entscheiden, konzentrieren sich Entwickler-Tools, Dokumentation und Ökosystem-Expertise auf die Plattform. Die Wechselkosten steigen, da Teams Celestia-spezifische Optimierungen in ihre Rollup-Architektur einbauen. Das Ergebnis ist ein Flywheel-Effekt, bei dem Marktanteile weitere Marktanteile generieren.

EigenDAs Ethereum-Ausrichtung:

Die Stärke von EigenDA liegt in der engen Integration mit dem Restaking-Ökosystem von Ethereum. Für Projekte, die sich bereits für das Settlement und die Sicherheit auf Ethereum festgelegt haben, schafft die Hinzufügung von EigenDA als Data Availability Layer einen vertikal integrierten Stack vollständig innerhalb des Ethereum-Universums.

Der Durchsatz von 100 MB / s positioniert EigenDA zudem gut für Hochfrequenzanwendungen, die bereit sind, DAC-Vertrauensannahmen im Austausch für rohe Geschwindigkeit zu akzeptieren.

Die Abhängigkeit von EigenDA von Ethereum-Validatoren schränkt jedoch die Attraktivität für Rollups ein, die Souveränität oder Multichain-Flexibilität anstreben. Projekte, die auf Solana, Cosmos oder anderen Nicht-EVM-Ökosystemen aufbauen, haben wenig Anreiz, für die Datenverfügbarkeit auf Ethereum-Restaking angewiesen zu sein.

Avails Multichain-Strategie:

Die Integrationen von Avail mit Arbitrum, Optimism, Polygon, StarkWare und zkSync stellen wichtige Partnerschaftserfolge dar, aber die tatsächliche Mainnet-Nutzung des Protokolls hinkt den Ankündigungen hinterher.

Der Durchsatz von 4 MB pro Block (gegenüber den aktuellen 8 MB von Celestia und den kommenden 128 MB von Matcha) schafft eine Leistungslücke, die die Wettbewerbsfähigkeit von Avail für High-Volume-Rollups einschränkt.

Avails wahres Differenzierungsmerkmal ist die Multichain-Flexibilität. Da sich die Blockchain-Infrastruktur über Ethereum-L2s, alternative L1s und anwendungsspezifische Chains fragmentiert, wächst der Bedarf an einem neutralen Data Availability Layer, der kein Ökosystem bevorzugt. Avail positioniert sich als diese neutrale Infrastruktur mit Partnerschaften, die sich über mehrere Settlement-Layer und Ausführungsumgebungen erstrecken.

Die Ökonomie der DA-Layer-Wahl:

Die Wahl des falschen Data Availability Layers kann laut Branchenanalysen die Rollup-Kosten um das 55 - fache erhöhen. Dieser Kostenunterschied ergibt sich aus drei Faktoren:

  1. Durchsatzbeschränkungen, die bei Nachfragespitzen zu Datengebührensprüngen führen
  2. Speicheranforderungen, die Rollups dazu zwingen, eine teure Archiv-Infrastruktur zu unterhalten
  3. Wechselkosten, die eine Migration nach der Integration teuer machen

Für Gaming-fokussierte Layer-3-Rollups, die massive Zustandsaktualisierungen generieren, kann die Wahl zwischen Celestias kostengünstiger modularer DA (besonders nach Matcha) gegenüber teureren Alternativen den Unterschied zwischen einer nachhaltigen Ökonomie und dem Verlust von Kapital durch Datengebühren ausmachen. Dies erklärt, warum prognostiziert wird, dass Celestia die Gaming-L3-Adaption im Jahr 2026 dominieren wird.

Der Weg nach vorne: Auswirkungen auf die Rollup-Ökonomie und die Blockchain-Architektur

Die Kriege um die Datenverfügbarkeit im Jahr 2026 stellen mehr als nur einen Wettbewerb um die Infrastruktur dar – sie definieren grundlegende Annahmen darüber neu, wie Blockchains skalieren und wie die Rollup-Ökonomie funktioniert.

Das Matcha-Upgrade von Celestia und die Fibre-Blockspace-Roadmap machen deutlich, dass die Datenverfügbarkeit nicht länger der Flaschenhals für die Skalierbarkeit von Blockchains ist. Mit 128 MB-Blöcken in der Produktion und 1 Tb/s in Tests verschiebt sich die Einschränkung an andere Stellen – hin zur Optimierung des Execution-Layers, dem Management des State-Wachstums und der Cross-Rollup-Interoperabilität. Dies ist ein tiefgreifender Wandel. Jahrelang war die Annahme, dass die Datenverfügbarkeit die Anzahl der gleichzeitig skalierbaren Rollups begrenzen würde. Celestia entkräftet diese Annahme systematisch.

Die Philosophie der modularen Architektur setzt sich durch. Jedes große Rollup-Framework unterstützt mittlerweile austauschbare Data Availability Layer, anstatt eine Abhängigkeit vom Ethereum-Mainnet zu erzwingen. Diese architektonische Entscheidung bestätigt die Kernerkenntnis hinter der Gründung von Celestia: dass monolithische Blockchains, die jeden Node dazu zwingen, alles zu tun, unnötige Kompromisse schaffen, während die modulare Trennung es jeder Schicht ermöglicht, sich unabhängig zu optimieren.

Verschiedene DA-Layer kristallisieren sich um unterschiedliche Anwendungsfälle heraus, anstatt direkt miteinander zu konkurrieren. Celestia bedient Rollups, die Kosteneffizienz, maximale Dezentralisierung und bewährte Produktionsskalierung priorisieren. EigenDA spricht Ethereum-native Projekte an, die bereit sind, DAC-Vertrauensannahmen für einen höheren Durchsatz zu akzeptieren. Avail zielt auf Multichain-Infrastrukturen ab, die eine neutrale Koordination über Ökosysteme hinweg benötigen. Anstatt eines einzelnen Gewinners segmentiert sich der Markt nach architektonischen Prioritäten.

Die Kosten für die Datenverfügbarkeit tendieren gegen Null, was die Geschäftsmodelle von Rollups verändert. Da die Blockgrößen von Celestia wachsen und der Wettbewerb zunimmt, nähern sich die Grenzkosten für das Posten von Daten vernachlässigbaren Werten an. Dies eliminiert einen der größten variablen Kostenfaktoren im Rollup-Betrieb und verschiebt die Wirtschaftlichkeit hin zu fixen Infrastrukturkosten (Sequencer, Prover, State-Storage) statt transaktionsbezogener DA-Gebühren. Rollups können sich zunehmend auf Innovationen bei der Ausführung konzentrieren, anstatt sich über Daten-Flaschenhälse Gedanken zu machen.

Das nächste Kapitel der Blockchain-Skalierung handelt nicht davon, ob Rollups Zugang zu erschwinglicher Datenverfügbarkeit haben – Celestias Matcha-Upgrade und die Fibre-Roadmap machen dies unumgänglich. Die Frage ist, welche Anwendungen möglich werden, wenn Daten nicht mehr die Einschränkung sind. Hochfrequenzhandelsplätze, die vollständig on-chain laufen. Massive Multiplayer-Gaming-Welten mit persistentem Zustand. KI-Modellkoordination über dezentrale Rechennetzwerke. Diese Anwendungen waren wirtschaftlich nicht machbar, als die Datenverfügbarkeit den Durchsatz begrenzte und die Kosten unvorhersehbar in die Höhe trieb. Jetzt ist die Infrastruktur vorhanden, um sie in großem Maßstab zu unterstützen.

Für Blockchain-Entwickler im Jahr 2026 ist die Wahl des Data Availability Layers so entscheidend geworden, wie es die Wahl des L1 im Jahr 2020 war. Celestias Marktposition, die produktionserprobte Skalierbarkeits-Roadmap und die Ökosystem-Integrationen machen es zum sicheren Standard. EigenDA bietet einen höheren Durchsatz für Ethereum-ausgerichtete Projekte, die DAC-Vertrauensmodelle akzeptieren. Avail bietet Multichain-Flexibilität für Teams, die über Ökosysteme hinweg koordinieren. Alle drei haben lebensfähige Wege vor sich – aber Celestias Marktanteil von 50 %, das Matcha-Upgrade und die Fibre-Vision positionieren das Projekt so, dass es definiert, was „Datenverfügbarkeit in großem Maßstab“ für die nächste Generation der Blockchain-Infrastruktur bedeutet.

Quellen

Sonys Soneium bringt 200 Millionen LINE-Nutzer zu Web3: Die Revolution des Gaming-Onboarding

· 16 Min. Lesezeit
Dora Noda
Software Engineer

Web3-Gaming hat ein schmutziges Geheimnis: Auf hundert Spiele, die versprechen, die Branche zu revolutionieren, kommen vielleicht zwei, die herausgefunden haben, wie man Nutzer an Bord holt, die noch keine MetaMask-Wallet besitzen. Das Problem ist nicht die Technologie – es ist die Reibung. Das Erstellen einer Wallet, der Kauf von Gas-Token, das Verstehen von Transaktionssignaturen – diese Barrieren haben Blockchain-Gaming in einer Nische von Krypto-Natives gefangen gehalten, während Web2-Gaming Milliarden bedient.

Sonys Soneium-Blockchain setzt 13 Millionen US-Dollar darauf, dass sie diese Gleichung ändern kann. Durch die Partnerschaft mit LINE, Asiens Messenger-Riesen mit 200 Millionen aktiven Nutzern, stellt Soneium vier Mini-App-Spiele direkt auf einer Plattform bereit, die Menschen bereits täglich nutzen. Keine Wallet-Downloads. Keine Verwirrung über Gas-Gebühren. Nur Spiele, die zufällig auf Blockchain-Schienen laufen, die für den Nutzer unsichtbar sind.

Das ist nicht theoretisch. Seit dem Start des Mainnets im Januar 2025 hat Soneium bereits über 500 Millionen Transaktionen über 5,4 Millionen aktive Wallets und mehr als 250 Live-dezentrale Anwendungen verarbeitet. Mit der nun live gehenden LINE-Integration verschiebt sich die Frage von „Kann Blockchain Mainstream-Gaming bewältigen?“ zu „Was passiert, wenn Millionen von Gelegenheitsspielern plötzlich zu On-Chain-Nutzern werden, ohne es zu merken?“.

Die Web3-Gaming-Onboarding-Krise

Die Zahlen erzählen eine bittere Geschichte. Im Jahr 2025 starben mehr als 11,6 Millionen Kryptowährungs-Token – viele davon Gaming-Projekte, die keine Nutzer finden konnten. Untersuchungen zeigen, dass Plattformen, die 5 Millionen Web3-Nutzer erreichten, etwa ein Jahr für die Skalierung von Null an benötigten, während die meisten Web3-Spiele nie die Marke von 10.000 täglich aktiven Nutzern knacken.

Das Problem ist nicht das Interesse. Web2-Gamer geben jährlich Milliarden für In-Game-Käufe, virtuelle Güter und digitale Sammlerstücke aus. Das Problem besteht darin, von ihnen zu verlangen, Blockchain-Mechaniken zu erlernen, bevor sie spielen können. Traditionelles Web3-Onboarding erfordert:

  • Installation einer Krypto-Wallet-Erweiterung
  • Sicherung einer Wiederherstellungsphrase aus 12–24 Wörtern
  • Erwerb von nativen Token für Gas-Gebühren
  • Verständnis von Transaktionsfreigaben und Signaturen
  • Verwalten mehrerer Wallet-Adressen über verschiedene Chains hinweg

Für Krypto-Veteranen ist das Routine. Für den durchschnittlichen Candy-Crush-Spieler ist es eine absurde Hürde für einen ungewissen Wert.

Playnance, ein Web3-Infrastrukturunternehmen, das Anfang 2026 aus dem Stealth-Modus hervorging, demonstrierte die Lösung: Blockchain unsichtbar machen. Ihre Plattform verarbeitet täglich etwa 1,5 Millionen On-Chain-Transaktionen von über 10.000 Nutzern – die Mehrheit davon stammt aus Web2-Umgebungen. Nutzer treten über vertraute Kontoerstellungsprozesse bei, während die Blockchain-Funktionalität lautlos im Hintergrund läuft. Keine externen Wallets. Keine manuelle Schlüsselverwaltung.

Sonys Soneium wendet dieselbe Philosophie an, verfügt aber über etwas, das Playnance nicht hat: Distribution in massivem Umfang durch die 200 Millionen Nutzer umfassende Basis von LINE.

Sonys Soneium: Gebaut für die Massenadaption

Soneium ist nicht Sonys erstes Blockchain-Experiment, aber es ist das erste, das explizit für die breite Akzeptanz durch Konsumenten konzipiert wurde. Soneium wurde im Januar 2025 als Ethereum Layer 2 unter Verwendung des OP Stacks von Optimism gestartet und setzt Prioritäten bei Geschwindigkeit, niedrigen Kosten und Kompatibilität mit dem bestehenden Ethereum-Ökosystem.

Das technische Fundament ist solide:

  • 2-Sekunden-Blockzeiten ermöglichen Gaming-Interaktionen in Echtzeit
  • Finalität in unter 10 Sekunden durch den Fast Finality Layer von Soneium (unterstützt durch Astar Network, AltLayer und EigenLayer)
  • Optimistic-Rollup-Architektur mit Fraud-Proof-Mechanismen für die Sicherheit
  • Vollständige EVM-Kompatibilität, die es Entwicklern ermöglicht, bestehende Ethereum-Smart-Contracts bereitzustellen

Aber das eigentliche Unterscheidungsmerkmal ist nicht der Technologie-Stack – es ist die Integrationsstrategie. Anstatt Spiele zu entwickeln und darauf zu hoffen, dass die Nutzer kommen, bettet Soneium die Blockchain in Plattformen ein, auf denen die Nutzer bereits Zeit verbringen.

LINE ist der perfekte Partner. Mit 200 Millionen aktiven Nutzern, die sich in Japan, Taiwan, Thailand und anderen asiatischen Märkten konzentrieren, fungiert LINE als „Super-App“ – Messaging, Zahlungen, Shopping und jetzt Gaming, alles auf einer Plattform. Für viele Nutzer in diesen Regionen ist LINE nicht nur eine App, sondern digitale Infrastruktur.

Bis Januar 2026, nur ein Jahr nach dem Mainnet-Start, zeigten die Kennzahlen von Soneium echte Dynamik:

  • 500 Millionen Transaktionen verarbeitet
  • 5,4 Millionen aktive Wallets erstellt
  • 250+ Live-dApps bereitgestellt
  • Zusätzliche 13 Millionen US-Dollar Investition von Sony zur Skalierung der On-Chain-Entertainment-Infrastruktur

Dies sind keine Vanity-Metriken, die durch Bot-Aktivitäten oder Airdrop-Farming aufgebläht wurden. Sie repräsentieren tatsächliche On-Chain-Aktivitäten von Anwendungen, die auf der Infrastruktur von Soneium aufbauen.

Vier Spiele, eine Mission: Blockchain unsichtbar machen

Die LINE-Integration startet mit vier Mini-Apps, die jeweils darauf ausgelegt sind, Nutzer dort abzuholen, wo sie bereits sind:

Sleepagotchi LITE: Wellness spielerisch gestalten

Sleep-to-Earn-Anwendungen haben bereits früher mit dem Erfolg geliebäugelt, aber die meisten litten unter einer nicht nachhaltigen Token-Ökonomie oder einem komplexen Onboarding. Sleepagotchi LITE erreichte in seinem ersten Monat auf Telegram 1 Million Nutzer, indem es sich auf Einfachheit konzentrierte: schlafen gehen, aufwachen, Belohnungen verdienen.

Die Blockchain-Integration ermöglicht eine verifizierbare Belohnungsverteilung und Interoperabilität mit anderen Soneium-Anwendungen. Nutzer müssen diese Mechaniken nicht verstehen – sie sehen einfach Belohnungen, die nach der Beibehaltung gesunder Schlafgewohnheiten erscheinen. Die Blockchain-Infrastruktur ermöglicht Funktionen, die in Web2 unmöglich sind: nachweislich faire Belohnungsverteilung, übertragbarer Fortschritt über Spiele hinweg und echtes Eigentum an verdienten Assets.

Farm Frens: Simulation trifft auf Spekulation

Amihan Entertainments Farm Frens sammelte vor seinem Soneium-Relaunch über 10 Mio. $ ein, was auf ein starkes Vertrauen der Investoren in sein Modell hindeutet. Farming-Simulatoren haben eine massive Anziehungskraft – allein FarmVille hatte zu Spitzenzeiten 80 Millionen monatliche Nutzer. Farm Frens bringt diese lockere Zugänglichkeit und ergänzt sie um Blockchain-gestützte Funktionen: handelbare Nutzpflanzen, knappe Land-NFTs und eine von Spielern gesteuerte Wirtschaft.

Die entscheidende Innovation ist die Abstraktion. Die Spieler bewirtschaften, ernten und handeln mit vertrauten Spielmechaniken. Dass die Pflanzen Token und das Land NFTs sind, ist ein Implementierungsdetail und kein Teil der Benutzererfahrung.

Puffy Match: Quick-Play trifft auf Krypto-Belohnungen

Entwickelt von Moonveil und unterstützt durch zk-Layer-2 und KI, zielt Puffy Match auf den gewaltigen Markt für Casual-Puzzle-Spiele ab. Man kann es sich wie Bejeweled oder Candy Crush vorstellen, aber mit Blockchain-basierten Belohnungen. Die Zero-Knowledge-Proof-Integration ermöglicht einen datenschutzfreundlichen Wettbewerb – Spieler können die Punktzahlen anderer verifizieren, ohne Spieldaten preiszugeben.

Mit Blockzeiten von 2 Sekunden kann Soneium die schnellen Zustandsaktualisierungen verarbeiten, die Quick-Play-Spiele erfordern. Die Spieler kombinieren, punkten und verdienen Belohnungen in Echtzeit, ohne auf Transaktionsbestätigungen warten zu müssen, die langsamere Blockchains plagen.

Pocket Mob: Soziale Strategie mit portablen Belohnungen

Pocket Mob von Sonzai Labs ist ein soziales Strategie-Rollenspiel, bei dem Spieler Respect-Punkte verdienen, die in NFT-Belohnungen umgewandelt werden können. Die sozialen Mechaniken nutzen den bestehenden Social Graph von LINE – Spieler können gegen Freunde kämpfen, Allianzen bilden und Gegenstände tauschen, ohne die Messaging-App zu verlassen.

Die Blockchain-Integration ermöglicht echtes Eigentum und Portabilität. Respect-Punkte und verdiente NFTs sind nicht in einer isolierten Datenbank gefangen – sie sind On-Chain-Assets, die im gesamten Soneium-Ökosystem verwendet, auf Marktplätzen gehandelt oder sogar an das Ethereum-Mainnet übertragen werden können.

Technische Architektur, die Echtzeit-Gaming ermöglicht

Gaming stellt einzigartige Anforderungen an die Blockchain-Infrastruktur. Im Gegensatz zu DeFi-Transaktionen, bei denen eine Bestätigung von 10 Sekunden akzeptabel ist, erfordern Spiele Zustandsaktualisierungen nahezu in Echtzeit. Spieler erwarten Reaktionszeiten von unter 100 ms; alles, was langsamer ist, fühlt sich verzögert an.

Die technische Architektur von Soneium adressiert genau diese Gaming-Anforderungen:

Optimistic Rollup mit OP Stack

Durch den Aufbau auf dem praxiserprobten OP Stack von Optimism erbt Soneium jahrelange Optimierung und profitiert von laufenden Verbesserungen. Optimistic Rollups gehen davon aus, dass Transaktionen standardmäßig gültig sind, und berechnen Fraud-Proofs nur im Falle einer Anfechtung. Dies reduziert den Rechenaufwand im Vergleich zu Validity-Rollups, die jede Transaktion als korrekt beweisen, drastisch.

Für das Gaming bedeutet dies, dass Entwickler Tausende von Transaktionen pro Sekunde zu einem Bruchteil der Kosten des Ethereum-Mainnets verarbeiten können – entscheidend für Spiele, die häufige Mikrotransaktionen generieren.

Fast Finality Layer

Standard-Optimistic-Rollups stehen vor einem Finalitätsproblem: Auszahlungen an das Ethereum-Mainnet erfordern eine 7-tägige Challenge-Periode. Dies hat zwar keine Auswirkungen auf Transaktionen innerhalb des L2, schafft jedoch Reibung für Nutzer, die Gelder abheben oder Assets übertragen möchten.

Soneium löst dies mit einem Fast Finality Layer, der von Astar Network, AltLayer und EigenLayer unterstützt wird. Diese Integration reduziert die Finalität von den nativen 13 Minuten bei Ethereum auf unter 10 Sekunden und ermöglicht so nahezu sofortige Auszahlungen und Cross-Chain-Bridges, ohne die Sicherheit zu beeinträchtigen.

Für Gaming-Anwendungen ermöglicht die schnelle Finalität Echtzeit-Turniere und Wettbewerbe, bei denen Preispools sofort nach Abschluss verteilt werden können, anstatt Tage auf die Finalität zu warten.

2-Sekunden-Blockzeiten

Ethereum produziert alle 12 Sekunden Blöcke. Sogar schnelle L2s wie Arbitrum arbeiten mit Blockzeiten von 1 Sekunde. Die 2-Sekunden-Blöcke von Soneium bilden ein Gleichgewicht zwischen Reaktionsfähigkeit und Dezentralisierung. Sie ermöglichen Gaming-Interaktionen, die sich für die Nutzer sofort anfühlen, während den Validatoren ausreichend Zeit zur Verarbeitung der Transaktionen bleibt.

Diese Architektur unterstützt Gaming-Funktionen, die auf langsameren Chains unmöglich wären:

  • Echtzeit-Bestenlisten für Wettbewerbe
  • Sofortige Belohnungsverteilung nach dem Gameplay
  • Live-Synchronisierung des Multiplayer-Zustands
  • Dynamische In-Game-Ökonomien, die auf Spieleraktionen reagieren

EVM-Kompatibilität

Durch die Aufrechterhaltung der vollen Kompatibilität mit der EVM von Ethereum ermöglicht Soneium Entwicklern, bestehende Smart Contracts ohne Änderungen bereitzustellen. Dies senkt die Entwicklungsbarrieren drastisch – Teams können mit vertrauten Tools wie Solidity, Hardhat und Foundry arbeiten, anstatt neue Sprachen oder Frameworks lernen zu müssen.

Für die Strategie von Sony ist dies entscheidend. Anstatt ein geschlossenes Ökosystem von Grund auf neu aufzubauen, kann Soneium die massive Entwickler-Community von Ethereum und die bewährte DeFi-Infrastruktur nutzen.

Soneium For All: Die nächste Welle befeuern

Die LINE-Integration demonstriert die gegenwärtigen Fähigkeiten von Soneium, aber Sonys langfristiger Plan erfordert ein nachhaltiges Entwickler-Ökosystem. Hier kommt „Soneium For All“ ins Spiel – ein Inkubator für Web3-Gaming und Consumer-Apps, der in Partnerschaft mit Astar Network und Startale Cloud Services gestartet wurde.

Das Programm soll im dritten Quartal 2025 beginnen und richtet sich an Entwickler, die Consumer- und Gaming-Anwendungen mit potenziellem realem Erfolg bauen. Die Unterstützungsstruktur umfasst:

  • 60.000 $ Grant-Pool für Projekte, die ASTR als Utility- oder Zahlungsmechanismus integrieren
  • Technisches Mentoring durch die Engineering-Teams von Sony
  • Infrastruktur-Support, einschließlich RPC-Zugang, Entwicklungstools und Testumgebungen
  • Marketing-Verstärkung durch die globale Markenpräsenz von Sony
  • Demo Day mit Pitch-Möglichkeiten vor den Venture-Capital-Abteilungen von Sony

Die Bewerbungsphase begann mit einer Frist bis zum 30. Juni, wobei „On-Chain-Anwendungen gesucht werden, bei denen es nicht nur um NFTs geht – man denke an gamifizierten Handel, Vorhersagemechaniken, Memes oder völlig neue Consumer-Erfahrungen“.

Dieser Ansatz spiegelt erfolgreiche Web2-Beschleuniger wie Y Combinator wider, jedoch mit Blockchain-nativen Funktionen: Token-basierte Anreizausrichtung, komponierbare Bausteine aus bestehenden dApps und globale Distribution über On-Chain-Netzwerke.

Die strategische Logik ist klar: LINE bringt Nutzer, aber für nachhaltiges Wachstum werden Entwickler benötigt, die fesselnde Anwendungen entwickeln. Indem Soneium die nächste Welle von Consumer-Apps finanziert, bevor diese sich für konkurrierende Chains entscheiden, positioniert es sich als Standardplattform für Web3-Gaming und Unterhaltung.

Das Gesamtbild: Die Migration von Web2 zu Web3

Die LINE-Integration von Soneium steht für einen breiteren Branchentrend: Die Abstraktion der Blockchain-Komplexität, um die Massenadaption zu ermöglichen.

Vergleichen Sie dies mit den Anfängen der Kryptowährungen, als die Nutzung von Bitcoin den Betrieb eines Full Nodes und die manuelle Verwaltung privater Schlüssel erforderte. Die Innovation bestand nicht darin, die Blockchain einfacher zu machen – sondern benutzerfreundliche Wallets und Börsenschnittstellen zu entwickeln, die die Komplexität im Hintergrund bewältigten. Heute nutzen Millionen Menschen Bitcoin über Coinbase, ohne UTXO-Modelle oder Signaturalgorithmen zu verstehen.

Web3-Gaming durchläuft dieselbe Entwicklung. Die erste Generation von Blockchain-Spielen verlangte von den Nutzern, Krypto-Experten zu werden, bevor sie spielen konnten. Spiele der zweiten Generation, wie die auf Soneium startenden, machen die Blockchain zu einem Implementierungsdetail statt zu einem Teil der Benutzererfahrung.

Dieser Wandel hat tiefgreifende Auswirkungen:

Reichweite schlägt Dezentralisierung

Pure Dezentralisierungs-Maximalisten mögen den zentralisierten Sequenzer von Soneium oder die Unterstützung durch den Sony-Konzern kritisieren. Doch für die Massenadaption schlägt das Vertrauen in eine bekannte Marke das Vertrauen in kryptografische Protokolle. LINE-Nutzer vertrauen Sony mehr als Proof-of-Stake-Validatoren.

Unsichtbare Infrastruktur gewinnt

Die beste Infrastruktur ist diejenige, über die Nutzer nie nachdenken. LINE-Nutzer werden sich nicht darum kümmern, dass Pocket Mob ERC-20-Token und NFT-Belohnungen verwendet – ihnen ist wichtig, dass das Spiel Spaß macht und die Belohnungen wertvoll sind. Entwickler, die die Blockchain unsichtbar machen, werden Nutzer gewinnen; Entwickler, die die Blockchain in den Vordergrund stellen, eher nicht.

Reale Akzeptanz geht Spekulation voraus

Die erste Generation des Blockchain-Gamings legte den Schwerpunkt auf Token-Spekulation: Grundstücksverkäufe, NFT-Drops, Play-to-Earn-Mechaniken. Dies zog Krypto-Trader an, schreckte aber Gamer ab. Die zweite Generation setzt auf das Gameplay, wobei die Blockchain Funktionen ermöglicht, die in Web2 unmöglich sind: echtes Eigentum an Assets, portabler Spielfortschritt und spielergesteuerte Ökonomien.

Wenn diese Funktionen gut umgesetzt werden, verbessern sie das Gaming, ohne dass die Spieler Krypto-Experten werden müssen.

Asien führt im globalen Web3-Gaming

Während westliche Märkte über Krypto-Regulierung debattieren, wird in asiatischen Märkten bereits gebaut. Die 200 Millionen Nutzer von LINE konzentrieren sich auf Japan, Taiwan und Thailand – Regionen mit relativ klaren Blockchain-Regulierungen und einer hohen Durchdringung von Mobile Gaming. Indem Soneium zuerst die asiatischen Märkte erobert, positioniert es sich für eine globale Expansion, sobald in westlichen Märkten regulatorische Klarheit herrscht.

Der Weg vor uns: Herausforderungen und Chancen

Soneiums erste Erfolge sind beeindruckend, aber die Skalierung auf Hunderte Millionen Nutzer bringt erhebliche Herausforderungen mit sich:

Zentralisierungsrisiken

Wie die meisten L2-Lösungen ist der Sequenzer von Soneium derzeit zentralisiert. Sony verarbeitet alle Transaktionen, was Risiken durch Single-Point-of-Failure und Zensurbedenken mit sich bringt. Während die Roadmap Pläne zur Dezentralisierung enthält, könnte eine zentralisierte Infrastruktur das Vertrauen der Nutzer untergraben, falls Sony bösartig handelt oder technische Ausfälle erleidet.

Wirtschaftliche Nachhaltigkeit

Frühe Erfolge hängen oft von Subventionen und Anreizen ab. Das Förderprogramm „Soneium For All“, vergünstigte Transaktionsgebühren und die Kapitalinfusionen von Sony ziehen jetzt Entwickler an – aber diese Nutzer müssen für eine langfristige Nachhaltigkeit zu zahlenden Kunden werden. Das Free-to-Play-Modell im Gaming generiert Einnahmen von 2 - 5 % der Nutzer; Soneium benötigt eine ausreichende Skalierung, damit diese Rechnung aufgeht.

Regulatorische Unsicherheit

Während Japan über relativ klare Krypto-Regulierungen verfügt, steht die globale Expansion vor komplexen Hürden. Wenn Soneium durch Spielmechaniken Echtgeld-Glücksspiel oder unregulierten Wertpapierhandel ermöglicht, könnten Regulierungsbehörden eingreifen. Die bekannte Marke von Sony macht das Unternehmen zu einem prominenteren Ziel als anonyme DeFi-Protokolle.

Wettbewerb durch Gaming-Giganten

Soneium ist nicht das einzige große Gaming-Unternehmen, das die Blockchain erkundet. Epic Games, Ubisoft, Square Enix und andere bauen oder experimentieren mit Web3-Gaming. Wenn ein Konkurrent mit größerer Reichweite oder besserer Umsetzung den Markt erobert, werden die technischen Vorteile von Soneium weniger relevant.

Trotz dieser Herausforderungen hat Soneium signifikante Vorteile:

  • Sonys Marke und Kapital bieten Glaubwürdigkeit und Ressourcen, die kleineren Konkurrenten fehlen.
  • Die LINE-Reichweite bietet sofortigen Zugang zu 200 Millionen potenziellen Nutzern.
  • Die Nutzung des OP Stacks ermöglicht eine einfache Zusammenarbeit mit dem breiteren Optimism-Ökosystem.
  • Der Fokus auf Benutzererfahrung statt auf Token-Spekulation unterscheidet es von gescheiterten Projekten.

Fazit: Die unsichtbare Blockchain-Revolution

Die Zukunft des Blockchain-Gamings sind keine protzigen NFT-Verkäufe oder Play-to-Earn-Blasen – es ist die unsichtbare Integration in Erlebnisse, die Menschen bereits lieben. Wenn LINE-Nutzer Sleepagotchi spielen und Belohnungen verdienen, werden die meisten nicht wissen, dass sie Blockchain-Technologie nutzen. Sie werden nur wissen, dass das Spiel funktioniert, die Belohnungen echt sind und sie keinen Informatikabschluss brauchten, um anzufangen.

Das ist die Revolution, auf die Soneium setzt: Eine Blockchain, die leistungsstark genug ist, um neue Spielmechaniken zu ermöglichen, aber so unsichtbar, dass die Nutzer nie darüber nachdenken.

Wenn Sony Erfolg hat, werden wir den Erfolg nicht am Handelsvolumen oder an Token-Preisen messen. Wir werden ihn daran messen, wie viele LINE-Nutzer nahtlos vom Web2-Gaming zu Web3-basierten Erlebnissen übergehen, ohne den Unterschied zu bemerken – während Entwickler Zugang zu einer zusammensetzbaren Infrastruktur, fairer Belohnungsverteilung und wirklich portablen digitalen Assets erhalten.

Der nächste große Blockchain-Erfolg wird sich vielleicht nicht mit einem Whitepaper und einem ICO ankündigen. Er könnte leise kommen, eingebettet in eine Messaging-App, die 200 Millionen Menschen bereits täglich nutzen, und Gaming-Erlebnisse ermöglichen, die auf eine Weise subtil besser sind, die die meisten Spieler nie bewusst identifizieren.

Sony wettet 13 Millionen US-Dollar darauf, dass die beste Blockchain diejenige ist, die man nie sieht. Basierend auf dem Erfolg im ersten Jahr von Soneium und der massiven Nutzerbasis von LINE sieht diese Wette zunehmend klug aus.


Der Aufbau der nächsten Generation von Blockchain-Gaming-Infrastruktur erfordert einen zuverlässigen, skalierbaren Node-Zugang über mehrere Chains hinweg. BlockEden.xyz bietet RPC-Infrastruktur auf Enterprise-Niveau für Spieleentwickler, die auf einem Fundament bauen, das Bestand hat – von Ethereum und Optimism bis hin zu aufstrebenden L2-Lösungen, die die Web3-Gaming-Revolution vorantreiben.

Quellen

zkTLS: Die kryptografische Brücke, die Web2-Daten On-Chain verifizierbar macht

· 15 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Sie nachweisen könnten, dass Ihr Bankguthaben 10.000 $ übersteigt, um einen DeFi-Kredit zu erhalten, ohne den genauen Betrag preiszugeben? Oder Ihre Kreditwürdigkeit gegenüber einem Kreditprotokoll verifizieren könnten, ohne Ihre gesamte Finanzhistorie offenlegen zu müssen? Das ist keine Science-Fiction – es ist das Versprechen von zkTLS, einem kryptografischen Protokoll, das Zero-Knowledge-Proofs mit Transport Layer Security kombiniert, um verifizierbare Bescheinigungen über private Internetdaten zu erstellen.

Während Blockchain-Oracles traditionell öffentliche Daten wie Aktienkurse und Sportergebnisse abrufen, hatten sie bisher Schwierigkeiten mit dem exponentiell größeren Universum an privaten, authentifizierten Webdaten. zkTLS verändert die Spielregeln, indem es jede HTTPS-gesicherte Website in eine verifizierbare Datenquelle verwandelt – und das alles, ohne die Erlaubnis des Dateninhabers einzuholen oder sensible Informationen preiszugeben. Bis Anfang 2026 haben mehr als 20 Projekte zkTLS-Infrastrukturen auf Arbitrum, Sui, Polygon und Solana integriert und wenden sie auf Anwendungsfälle an, die von dezentraler Identität bis zur Tokenisierung von Real-World-Assets reichen.

Das Oracle-Problem, das nicht verschwinden wollte

Smart Contracts waren schon immer mit einer grundlegenden Einschränkung konfrontiert: Sie können nicht direkt auf Off-Chain-Daten zugreifen. Traditionelle Oracle-Lösungen wie Chainlink leisteten Pionierarbeit beim Modell dezentraler Oracle-Netzwerke, das es Blockchains ermöglicht, externe Informationen durch Konsensmechanismen zwischen Datenanbietern zu konsumieren. Dieser Ansatz weist jedoch kritische Einschränkungen auf.

Erstens funktionieren traditionelle Oracles am besten mit öffentlichen Daten – Aktienkurse, Wetterdaten, Sportergebnisse. Wenn es um private, authentifizierte Daten wie Ihr Bankguthaben oder Krankenakten geht, bricht das Modell zusammen. Sie können kein dezentrales Netzwerk von Knoten haben, das auf Ihr privates Bankportal zugreift.

Zweitens führen traditionelle Oracles Vertrauensannahmen ein. Selbst bei dezentralen Oracle-Netzwerken vertrauen Sie darauf, dass die Oracle-Knoten Daten wahrheitsgetreu melden und nicht manipulieren. Bei öffentlichen Daten kann dieses Vertrauen verteilt werden. Bei privaten Daten wird es zu einem Single Point of Failure.

Drittens lässt sich die Kostenstruktur nicht auf personalisierte Daten skalieren. Oracle-Netzwerke berechnen Gebühren pro Abfrage, was es unerschwinglich macht, individualisierte Informationen für jeden Nutzer in einem DeFi-Protokoll zu verifizieren. Laut Mechanism Capital ist die Nutzung traditioneller Oracles „auf öffentliche Daten beschränkt, und sie sind kostspielig, was eine Skalierung auf personenbezogene Daten und Web2-Szenarien erschwert“.

zkTLS löst alle drei Probleme gleichzeitig. Es ermöglicht Nutzern, kryptografische Beweise über private Webdaten zu generieren, ohne die Daten selbst preiszugeben, ohne die Erlaubnis der Datenquelle zu benötigen und ohne auf vertrauenswürdige Vermittler angewiesen zu sein.

Wie zkTLS tatsächlich funktioniert: Three-Party TLS trifft auf Zero-Knowledge

Im Kern integriert zkTLS Three-Party TLS (3P-TLS) mit Zero-Knowledge-Proof-Systemen, um verifizierbare Bescheinigungen über HTTPS-Sitzungen zu erstellen. Das Protokoll umfasst drei Einheiten: den Prover (den Nutzer), den Verifier (in der Regel ein Smart Contract) und die DataSource (den TLS-Server, z. B. die API einer Bank).

So geschieht die Magie:

Der 3P-TLS-Handshake

Herkömmliches TLS stellt einen sicheren, verschlüsselten Kanal zwischen einem Client und einem Server her. zkTLS erweitert dies zu einem Drei-Parteien-Protokoll. Der Prover und der Verifier arbeiten effektiv zusammen, um als ein einziger „Client“ zu fungieren, der mit dem Server kommuniziert.

Während des Handshakes generieren sie gemeinsam kryptografische Parameter unter Verwendung von Techniken der Multi-Party Computation (MPC). Der Pre-Master-Key wird mittels Oblivious Linear Evaluation (OLE) zwischen Prover und Verifier aufgeteilt, wobei jede Partei einen Anteil hält, während der Server den vollständigen Schlüssel behält. Dies stellt sicher, dass weder der Prover noch der Verifier die Sitzung allein entschlüsseln können, sie aber gemeinsam das vollständige Transkript pflegen.

Zwei Betriebsmodi

zkTLS-Implementierungen unterstützen typischerweise zwei Modi:

Proxy-Modus: Der Verifier agiert als Proxy zwischen Prover und Server und zeichnet den Datenverkehr für die spätere Verifizierung auf. Dies ist einfacher zu implementieren, erfordert jedoch, dass der Verifier während der TLS-Sitzung online ist.

MPC-Modus: Prover und Verifier arbeiten über eine Reihe von Phasen zusammen, die auf dem Elliptic Curve Diffie-Hellman (ECDH)-Protokoll basieren, ergänzt durch MPC- und Oblivious Transfer-Techniken. Dieser Modus bietet stärkere Datenschutzgarantien und ermöglicht eine asynchrone Verifizierung.

Generierung des Beweises

Sobald die TLS-Sitzung abgeschlossen ist und der Prover seine privaten Daten abgerufen hat, generiert er einen Zero-Knowledge-Proof. Moderne Implementierungen wie zkPass verwenden die VOLE-in-the-Head (VOLEitH)-Technologie gepart mit SoftSpokenOT, was die Erzeugung von Beweisen in Millisekunden ermöglicht und gleichzeitig die öffentliche Verifizierbarkeit gewährleistet.

Der Beweis bestätigt mehrere kritische Fakten:

  1. Eine TLS-Sitzung fand mit einem bestimmten Server statt (verifiziert durch das Zertifikat des Servers).
  2. Die abgerufenen Daten erfüllen bestimmte Bedingungen (z. B. Bankguthaben > 10.000 $).
  3. Die Daten wurden innerhalb eines gültigen Zeitfensters übertragen.
  4. Die Integrität der Daten ist intakt (via HMAC- oder AEAD-Verifizierung).

Entscheidend ist, dass der Beweis nichts über die tatsächlichen Daten verrät, außer dem, was der Prover offenlegen möchte. Wenn Sie nachweisen, dass Ihr Guthaben 10.000 $ übersteigt, erfährt der Verifizierer nur diese eine Information – nicht Ihren tatsächlichen Kontostand, nicht Ihre Transaktionshistorie und nicht einmal, welche Bank Sie nutzen, wenn Sie sich entscheiden, dies nicht preiszugeben.

Das zkTLS-Ökosystem: Von der Forschung zur Produktion

Die zkTLS-Landschaft hat sich rasant von der akademischen Forschung zu Produktionsumgebungen entwickelt, wobei mehrere Schlüsselprotokolle die Führung übernehmen.

TLSNotary: Der Pionier

TLSNotary stellt eines der am am intensivsten untersuchten zkTLS-Modelle dar und implementiert ein umfassendes Protokoll mit verschiedenen Phasen: MPC-TLS (einschließlich eines sicheren Drei-Parteien-TLS-Handshakes und des DEAP-Protokolls), die Notarisierungsphase, Selective Disclosure (selektive Offenlegung) zur Datenredaktion und die Datenverifizierung. Auf der FOSDEM 2026 zeigte TLSNotary, wie Nutzer „ihre Nutzerdaten befreien“ können, indem sie verifizierbare Beweise für HTTPS-Sitzungen generieren, ohne auf zentralisierte Vermittler angewiesen zu sein.

zkPass: Der Oracle-Spezialist

zkPass hat sich zum führenden Oracle-Protokoll für private Internetdaten entwickelt und hat 12,5 Millionen US-Dollar in einer Serie-A-Finanzierung aufgebracht, um seine zkTLS-Implementierung voranzutreiben. Im Gegensatz zu OAuth, APIs oder zentralisierten Datenanbietern arbeitet zkPass ohne Autorisierungsschlüssel oder Vermittler – Nutzer generieren verifizierbare Beweise direkt für jede HTTPS-Website.

Die technische Architektur des Protokolls zeichnet sich durch ihre Effizienz aus. Durch die Nutzung von VOLE-basierten Zero-Knowledge-Proofs erreicht zkPass eine Beweiserstellung in Millisekunden statt in Sekunden. Diese Leistung ist für die Benutzererfahrung von enormer Bedeutung – niemand möchte 30 Sekunden warten, um seine Identität zu beweisen, wenn er sich bei einer DeFi-Anwendung anmeldet.

zkPass unterstützt die selektive Offenlegung für eine breite Palette von Datentypen: gesetzliche Identität, Finanzunterlagen, Gesundheitsinformationen, Interaktionen in sozialen Medien, Gaming-Daten, Real-World Assets, Arbeitserfahrung, Bildungsnachweise und Kompetenzzertifizierungen. Das Protokoll wurde bereits auf Arbitrum, Sui, Polygon und Solana bereitgestellt, wobei allein im Jahr 2025 mehr als 20 Projekte die Infrastruktur integriert haben.

Zuerst von Chainlink eingeführt, ist DECO ein Dreiphasen-Protokoll, bei dem Prover (Beweiser), Verifier (Prüfer) und Server zusammenarbeiten, um geheim geteilte Sitzungsschlüssel zu erstellen. Prover und Verifier arbeiten effektiv zusammen, um die Rolle des „Clients“ in traditionellen TLS-Umgebungen auszufüllen und dabei kryptografische Garantien während der gesamten Sitzung aufrechtzuerhalten.

Aufkommende Implementierungen

Opacity Network stellt eine der robustesten Implementierungen dar und baut auf dem TLSNotary-Framework mit Garbled Circuits, Oblivious Transfer, Proof by Committee und On-Chain-Verifizierung mit Slashing-Mechanismen für sich fehlverhaltende Notare auf.

Das Reclaim-Protokoll nutzt ein Proxy-Witness-Modell, bei dem ein Attestor-Knoten als passiver Beobachter während der TLS-Sitzung eines Nutzers eingefügt wird, um Attestierungen zu erstellen, ohne komplexe MPC-Protokolle zu erfordern.

Die Vielfalt der Implementierungen spiegelt die Flexibilität des Protokolls wider – unterschiedliche Anwendungsfälle erfordern unterschiedliche Kompromisse zwischen Datenschutz, Leistung und Dezentralisierung.

Praxisnahe Anwendungsfälle: Von der Theorie zur Praxis

zkTLS ermöglicht Anwendungsfälle, die zuvor für Blockchain-Anwendungen unmöglich oder unpraktisch waren.

Datenschutzfreundliche DeFi-Kreditvergabe

Stellen Sie sich vor, Sie beantragen einen On-Chain-Kredit. Traditionelle Ansätze erzwingen eine binäre Wahl: Entweder Sie führen ein invasives KYC durch, das Ihre gesamte Finanzhistorie offenlegt, oder Sie akzeptieren ausschließlich überbesicherte Kredite, die Kapital ineffizient binden.

zkTLS ermöglicht einen Mittelweg. Sie könnten beweisen, dass Ihr Jahreseinkommen einen Schwellenwert überschreitet, Ihr Kredit-Score über einem bestimmten Niveau liegt oder Ihr Girokonto ein Mindestguthaben aufweist – und das alles, ohne exakte Zahlen preiszugeben. Das Kreditprotokoll erhält die benötigte Risikobewertung; Sie behalten die Privatsphäre über sensible Finanzdetails.

Dezentrale Identität und Nachweise (Credentials)

Aktuelle digitale Identitätssysteme schaffen Honeypots für persönliche Daten. Ein Dienst zur Verifizierung von Nachweisen, der die Beschäftigungshistorie, Bildungsnachweise und Berufszertifizierungen aller Nutzer kennt, wird zu einem attraktiven Ziel für Hacker.

zkTLS dreht das Modell um. Nutzer können selektiv Nachweise aus bestehenden Web2-Quellen erbringen – Ihre LinkedIn-Berufshistorie, Ihr Universitätszeugnis, Ihre Berufslizenz aus einer staatlichen Datenbank –, ohne dass diese Nachweise jemals in einem zentralen Repository aggregiert werden. Jeder Beweis wird lokal generiert, On-Chain verifiziert und enthält nur die spezifisch gemachten Behauptungen.

Die Brücke zwischen Web2- und Web3-Gaming

Gaming-Ökonomien haben lange mit der Mauer zwischen Web2-Erfolgen und Web3-Assets gekämpft. Mit zkTLS könnten Spieler ihre Steam-Errungenschaften, Fortnite-Rankings oder mobilen Spielfortschritte beweisen, um entsprechende Web3-Assets freizuschalten oder an Turnieren mit verifizierten Skill-Leveln teilzunehmen. All dies, ohne dass Spieleentwickler Blockchain-APIs integrieren oder proprietäre Daten teilen müssen.

Real-World Asset Tokenisierung

Die Tokenisierung von Real-World Assets (RWA) erfordert die Überprüfung des Eigentums und der Merkmale von Vermögenswerten. zkTLS ermöglicht den Nachweis von Immobilieneigentum aus Datenbanken der Grundbuchämter, Fahrzeugbriefen aus DMV-Systemen oder Wertpapierbeständen aus Broker-Konten — und das alles, ohne dass diese staatlichen oder finanziellen Institutionen eigene Blockchain-Integrationen entwickeln müssen.

Verifizierbares Web Scraping für KI-Training

Ein aufstrebender Anwendungsfall ist die verifizierbare Datenherkunft für KI-Modelle. zkTLS könnte beweisen, dass Trainingsdaten tatsächlich aus den angegebenen Quellen stammen, was es Entwicklern von KI-Modellen ermöglicht, ihre Datenquellen kryptografisch zu bestätigen, ohne proprietäre Datensätze offenzulegen. Dies adressiert wachsende Bedenken hinsichtlich der Transparenz beim KI-Modelltraining und der Einhaltung des Urheberrechts.

Technische Herausforderungen und der Weg in die Zukunft

Trotz rasanter Fortschritte steht zkTLS vor mehreren technischen Hürden, bevor es eine breite Akzeptanz erreicht.

Leistung und Skalierbarkeit

Während moderne Implementierungen eine Proof-Generierung im Millisekundenbereich erreichen, bleibt der Verifizierungs-Overhead ein wichtiger Aspekt für ressourcenbeschränkte Umgebungen. Die On-Chain-Verifizierung von zkTLS-Proofs kann im Ethereum Mainnet gasintensiv sein, obwohl Layer-2-Lösungen und alternative Chains mit niedrigeren Gasgebühren dieses Problem mildern.

Forschung zu Multiparty Garbled Circuit Ansätzen zielt darauf ab, Notare weiter zu dezentralisieren und gleichzeitig Sicherheitsgarantien aufrechtzuerhalten. Mit der Reife dieser Techniken wird die zkTLS-Verifizierung günstiger und schneller werden.

Vertrauensannahmen und Dezentralisierung

Aktuelle Implementierungen treffen unterschiedliche Vertrauensannahmen. Der Proxy-Modus erfordert Vertrauen in den Verifizierer während der TLS-Sitzung. Der MPC-Modus verteilt das Vertrauen, setzt jedoch voraus, dass beide Parteien gleichzeitig online sind. Vollständig asynchrone Protokolle mit minimalen Vertrauensannahmen bleiben ein aktives Forschungsgebiet.

Das Notarmodell — bei dem spezialisierte Knoten TLS-Sitzungen bestätigen — führt zu neuen Überlegungen hinsichtlich des Vertrauens. Wie viele Notare werden für die Sicherheit benötigt? Was passiert, wenn Notare kolludieren? Die Slashing-Mechanismen des Opacity Network stellen einen Ansatz dar, bei dem Fehlverhalten von Notaren wirtschaftlich bestraft wird. Aber das optimale Governance-Modell für dezentrale Notare wird noch erforscht.

Abhängigkeiten von Zertifizierungsstellen

zkTLS erbt die Abhängigkeit von TLS von der traditionellen Infrastruktur der Zertifizierungsstellen (Certificate Authority, CA). Wenn eine CA kompromittiert wird oder gefälschte Zertifikate ausstellt, könnten zkTLS-Proofs für falsche Daten generiert werden. Während dies ein bekanntes Problem der allgemeinen Web-Sicherheit ist, wird es kritischer, wenn diese Proofs finanzielle Konsequenzen in DeFi-Anwendungen haben.

Zukünftige Entwicklungen könnten Certificate Transparency Logs oder dezentrale PKI-Systeme integrieren, um die Abhängigkeit von traditionellen CAs zu verringern.

Privatsphäre vs. Compliance

Die privatsphärenschonenden Eigenschaften von zkTLS stehen in einem Spannungsverhältnis zu regulatorischen Compliance-Anforderungen. Finanzvorschriften verlangen oft, dass Institutionen detaillierte Aufzeichnungen über Kundentransaktionen und Identitäten führen. Ein System, in dem Benutzer Proofs lokal generieren und dabei nur minimale Informationen preisgeben, erschwert die Compliance.

Die Lösung liegt wahrscheinlich in Mechanismen zur selektiven Offenlegung, die komplex genug sind, um sowohl Datenschutz- als auch regulatorische Anforderungen zu erfüllen. Benutzer könnten die Einhaltung relevanter Vorschriften nachweisen (z. B. „Ich bin keine sanktionierte Person“), ohne unnötige persönliche Details preiszugeben. Der Aufbau dieser nuancierten Offenlegungssysteme erfordert jedoch die Zusammenarbeit zwischen Kryptografen, Juristen und Regulierungsbehörden.

Das verifizierbare Internet: Eine Vision nimmt Gestalt an

zkTLS ist mehr als nur ein cleverer kryptografischer Trick — es ist eine grundlegende Neugestaltung der Funktionsweise von digitalem Vertrauen. Seit drei Jahrzehnten operiert das Web nach einem Modell, bei dem Vertrauen bedeutet, Informationen gegenüber zentralisierten Gatekeepern offenzulegen. Banken verifizieren Ihre Identität, indem sie umfassende Dokumentationen sammeln. Plattformen beweisen Ihre Qualifikationen, indem sie alle Benutzerdaten zentralisieren. Dienste bauen Vertrauen auf, indem sie direkt auf Ihre privaten Konten zugreifen.

zkTLS kehrt dieses Paradigma um. Vertrauen erfordert keine Offenlegung mehr. Verifizierung verlangt keine Zentralisierung mehr. Beweise benötigen keine Exponierung mehr.

Die Auswirkungen gehen weit über DeFi und Krypto hinaus. Ein verifizierbares Internet könnte den digitalen Datenschutz im Allgemeinen neu gestalten. Stellen Sie sich vor, Sie beweisen Ihr Alter, um auf Inhalte zuzugreifen, ohne Ihr Geburtsdatum preiszugeben. Nachweis der Arbeitserlaubnis ohne Offenlegung des Einwanderungsstatus. Überprüfung der Kreditwürdigkeit, ohne die gesamte Finanzhistorie jedem Kreditgeber preiszugeben.

Während zkTLS-Protokolle reifen und die Akzeptanz zunimmt, erleben wir die frühen Phasen dessen, was man als „privatsphärenschonende Interoperabilität“ bezeichnen könnte — die Fähigkeit verschiedener Systeme, Behauptungen übereinander zu verifizieren, ohne die zugrunde liegenden Daten zu teilen. Es ist eine Zukunft, in der Privatsphäre und Verifizierung keine Kompromisse, sondern Ergänzungen sind.

Für Blockchain-Entwickler eröffnet zkTLS einen Designraum, der zuvor schlichtweg verschlossen war. Anwendungen, die reale Dateneingaben erfordern — Kreditvergabe, Versicherungen, Derivate —, können nun auf das riesige Universum privater, authentifizierter Webdaten zugreifen. Die nächste Welle von DeFi-Protokollen wird wahrscheinlich ebenso stark auf zkTLS-Oracles für private Daten angewiesen sein, wie heutige Protokolle auf Chainlink für öffentliche Daten setzen.

Die Technologie hat den Sprung von Forschungspapieren zu Produktionssystemen geschafft. Die Anwendungsfälle haben sich von theoretischen Beispielen zu Live-Anwendungen entwickelt. Die Infrastruktur wird aufgebaut, Protokolle werden standardisiert und Entwickler machen sich mit den Paradigmen vertraut. zkTLS kommt nicht erst — es ist bereits da. Die Frage ist nun, welche Anwendungen als erste sein Potenzial voll ausschöpfen werden.

Quellen