Direkt zum Hauptinhalt

584 Beiträge getaggt mit „Blockchain“

Allgemeine Blockchain-Technologie und Innovation

Alle Tags anzeigen

Prognosemärkte: Die nächste Welle nach den Memecoins

· 40 Min. Lesezeit
Dora Noda
Software Engineer

John Wang erklärte mutig, dass Prognosemärkte „10x größer als Memecoins“ sein werden – und die Daten deuten darauf hin, dass er recht haben könnte. Der 23-jährige Head of Crypto bei Kalshi ist zum Gesicht einer grundlegenden Verschiebung in der Krypto-Kapitalallokation geworden: weg von reiner Spekulation mit wertlosen Token hin zu nutzenorientierten Märkten, die in realen Ereignissen verankert sind. Während Memecoins von ihrem Höchststand von 125 Milliarden US-Dollar im Dezember 2024 um 56 % einbrachen, stiegen Prognosemärkte auf ein kumuliertes Volumen von über 13 Milliarden US-Dollar, sicherten sich eine Investition von 2 Milliarden US-Dollar vom Mutterkonzern der New Yorker Börse (NYSE) und übertrafen am 29. September 2025 zum ersten Mal das tägliche Volumen von Solana-Memecoins. Dies ist nicht nur ein weiteres Krypto-Narrativ – es repräsentiert die Reifung der Blockchain-Technologie vom Casino zur Finanzinfrastruktur.

Dieser Übergang markiert die Entwicklung von Krypto von der Frage „Wird das Entwicklerteam einen Rug Pull machen?“ hin zu „Wird dieses Ereignis tatsächlich eintreten?“ – ein psychologisches Upgrade, das Wang als Kernunterschied identifiziert. Prognosemärkte bieten ähnliche Vermögenseffekte und Dopaminschübe wie Memecoin-Spekulationen, jedoch mit transparenten Mechanismen, überprüfbaren Ergebnissen und echtem Informationswert. Während bei Memecoins 99 % der neuen Token auf Null fielen und die Zahl der eindeutigen Händler um über 90 % einbrach, erzielten Prognosemärkte regulatorische Durchbrüche, institutionelle Validierung und bewiesen eine überlegene Genauigkeit bei der Vorhersage der US-Präsidentschaftswahlen 2024. Dennoch bleiben erhebliche Herausforderungen bestehen: Liquiditätsengpässe, regulatorische Unsicherheit, Risiken der Marktmanipulation und grundlegende Fragen zur Nachhaltigkeit über Wahlzyklen hinaus.

John Wangs Vision und Kalshis Krypto-Strategie

Während der Wahlsaison 2024 stand John Wang am Times Square und beobachtete, wie riesige Kalshi-Werbetafeln die Quoten für Trump gegenüber Kamala in Echtzeit über der Finanzhauptstadt der Welt anzeigten. „Es war surreal, fast überlebensgroß, zu sehen, wie Überzeugungen über die Zukunft in Zahlen verwandelt wurden“, schrieb er auf seiner persönlichen Website, als er im August 2025 seine Rolle als Head of Crypto bei Kalshi ankündigte. Dieser Moment kristallisierte seine These heraus: Prognosemärkte werden dazu werden, wie die Gesellschaft Wahrheit verarbeitet – nicht durch voreingenommene Kommentatoren, sondern durch Märkte, die Überzeugungen in etwas Greifbares verwandeln.

Wang bringt einen unkonventionellen Hintergrund in seine Rolle ein. Mit 23 Jahren brach der australische Unternehmer 2024 sein Studium an der University of Pennsylvania ab, um sich vollzeit Krypto zu widmen, nachdem er als Präsident von Penn Blockchain fungiert hatte. Er war Mitbegründer von Armor Labs, einem Unternehmen für Blockchain-Sicherheit, das später übernommen wurde, und baute auf Twitter / X eine Fangemeinde von über 54.000 Followern mit Inhalten zu Krypto und Finanzen auf. Kalshi-CEO Tarek Mansour entdeckte Wang durch seine Social-Media-Kommentare, und nur wenige Minuten nach dem Lesen einiger Beiträge befanden sich die beiden in einem Zoom-Call – ein Einstellungsweg vom „Influencer zum Executive“, der die Social-Media-native Kultur der Prognosemärkte widerspiegelt.

Die 10x-These und unterstützende Daten

Am 18. August 2025, eine Woche vor seinem offiziellen Eintritt bei Kalshi, postete Wang seine zentrale Prognose: „Merkt euch meine Worte: Prognosemärkte werden 10x größer sein als Memecoins.“ Die Daten, die er anschließend veröffentlichte, zeigten, dass der Trend bereits im Gange war. Prognosemärkte hatten 38 % des gesamten Handelsvolumens von Solana-Memecoins erreicht, und nachdem Wang zu Kalshi kam, verdreifachte sich das Handelsvolumen der Plattform in weniger als einem Monat. Unterdessen sank die Zahl der eindeutigen Adressen für Memecoins auf weniger als 10 % ihres Höchststands vom Dezember 2024 – ein katastrophaler Einbruch der Beteiligung.

Wangs Analyse identifizierte mehrere strukturelle Vorteile von Prognosemärkten gegenüber Memecoins. Transparenz und Fairness stehen an erster Stelle: Die Ergebnisse hängen von objektiven realen Ereignissen ab und nicht von Entscheidungen des Projektteams, wodurch das Risiko eines Rug Pulls eliminiert wird. Das Worst-Case-Szenario ändert sich vom Betrug zum einfachen Verlieren einer fairen Wette. Zweitens bieten Prognosemärkte einen psychologischen Wandel, den Wang als Transformation der Denkweise beschreibt: von „Wird sich das Entwicklungsteam mit den Geldern aus dem Staub machen?“ zu „Wird das Ereignis selbst eintreten?“ – was ein Upgrade der spekulativen Verhaltensmuster darstellt. Drittens bieten sie ähnliches Dopamin mit besseren Mechanismen: vergleichbare Vermögenseffekte und Aufregung, aber mit einer transparenten Abwicklung, die an realen Ergebnissen verankert ist und eine, wie Wang es nennt, „fundamentale Basis an Authentizität“ besitzt.

Vielleicht liegt Wangs philosophischste Erkenntnis im Bereich des Generationen-Engagements. „Meine Generation ist mit Doomscrolling aufgewachsen und hat Ereignisse passiv mit Distanz und Hoffnungslosigkeit verfolgt. Prognosemärkte kehren dieses Skript um“, erklärte er in seiner LinkedIn-Ankündigung. Selbst ein kleiner Einsatz führt dazu, dass man genauer aufpasst, Ereignisse mit Freunden diskutiert und sich in die Ergebnisse investiert fühlt. Diese Transformation vom passiven Konsum zur aktiven Teilnahme erstreckt sich über politische, finanzielle und kulturelle Bereiche – jemand, der normalerweise die Oscars überspringt, recherchiert plötzlich jeden Nominierten; jemand, der Politik mied, verfolgt Debatten aufmerksam für „Mentions-Market“-Alpha.

Token2049 Singapur und das Konzept des Trojanischen Pferdes

Auf der Token2049 in Singapur im September / Oktober 2025 skizzierte Wang gegenüber The Block in einem Interview, das seinen strategischen Ansatz definieren sollte, Kalshis aggressive Expansionsvision. „Die US-regulierte Prognosemarkt-Plattform Kalshi wird innerhalb der nächsten 12 Monate auf ‚jeder großen Krypto-Anwendung und -Börse‘ präsent sein“, erklärte er. Diese nächste Phase, in der ein Ökosystem aus neuen Finanz-Primitiven und Handels-Frontends auf Kalshi aufgebaut wird, stellt das dar, was Wang als „einen 10x-Unlock für uns“ bezeichnet. „Und Krypto ist der Kern dieser Mission.“

Wangs Erfolgsmetrik ist eindeutig: „Ich denke, in 12 Monaten hätte ich meinen Job verfehlt, wenn wir der Krypto-Community nicht in die Augen schauen und sagen könnten: ‚Wir haben hier wirklich einen positiven Einfluss erzielt, wir haben neue Zielgruppen zu Krypto gebracht.‘“

Seine denkwürdigste Formulierung aus dieser Zeit führte das Konzept des „Trojanischen Pferdes“ ein: „Ich denke, Prognosemärkte ähneln [Krypto-]Optionen, die in der zugänglichsten Form verpackt sind. Daher denke ich, dass Prognosemärkte wie das Trojanische Pferd für [Menschen] sind, um in den Krypto-Bereich einzusteigen.“ Die Begründung liegt in der Zugänglichkeit – Krypto-Optionen haben trotz umfassender Diskussionen keine nennenswerte Akzeptanz im Mainstream gefunden, aber Prognosemärkte verpacken ähnliche Finanz-Primitive in einem Format, das bei einem breiteren Publikum Anklang findet. Sie bieten Derivate-Exposition, ohne dass Benutzer komplexe krypto-spezifische Konzepte verstehen müssen.

Kalshis Krypto-Strategie unter Wangs Führung

Wangs Amtszeit löste sofort mehrere strategische Initiativen aus. Im September 2025 startete Kalshi den KalshiEco Hub in Partnerschaft mit Solana und Base (Coinbases Layer 2) und schuf damit ein Blockchain-basiertes Prognosemarkt-Ökosystem, das Zuschüsse, technische Unterstützung und Marketinghilfe für Entwickler, Händler und Content-Ersteller bietet. Die Plattform erweiterte die Unterstützung von Kryptowährungen auf Bitcoin (hinzugefügt im April 2025), USDC, Solana mit Einzahlungslimits von bis zu 500.000 US-Dollar (hinzugefügt im Mai 2025) und Worldcoin – alles ermöglicht durch die Partnerschaft mit Zero Hash zur Einhaltung regulatorischer Vorschrifte n.

Wang formulierte seine Vision für die Krypto-Community so: „Die Krypto-Community ist die Definition von Power-Usern, Menschen, die neue Finanzmärkte und Grenztechnologien leben und atmen. Wir begrüßen eine riesige Entwicklerbasis, die darauf brennt, Tools für diese Power-User zu bauen.“ Die entwickelte Infrastruktur umfasst Echtzeit-Ereignisdaten, die auf Blockchains übertragen werden, hochentwickelte Daten-Dashboards, KI-Agenten für Prognosemärkte und neue Orte für Informationsarbitrage.

Strategische Partnerschaften vervielfachten sich rasant: Robinhood integrierte Prognosemärkte für die NFL und College-Football, Webull bot kurzfristige Krypto-Preisspekulationen (stündliche Bitcoin-Bewegungen) an, World App startete eine Mini-App für Prognosemärkte, die mit WLD finanziert wird, und xAI (Elon Musks KI-Unternehmen) lieferte KI-generierte Erkenntnisse für Ereigniswetten. Die Partnerschaften mit Solana und Base konzentrierten sich auf die Entwicklung des Blockchain-Ökosystems, weitere Blockchain-Partnerschaften sind in Planung. Wang gab an, dass sein Team die Märkte für Krypto-Ereignisverträge „massiv“ ausbaut und derzeit über 50 krypto-spezifische Märkte anbietet, die Bitcoin-Preisbewegungen, legislative Entwicklungen und Meilensteine der Krypto-Adoption abdecken.

Kalshis explosives Wachstum und Marktdominanz

Die Ergebnisse waren dramatisch. Kalshis Marktanteil stieg von 3,3 % im Jahr 2024 auf 66 % bis Ende September 2025 und kontrolliert damit etwa 70 % des weltweiten Volumens an Prognosemärkten, obwohl das Unternehmen nur in einem Land (den USA) tätig ist. Im September 2025 wurde ein monatliches Volumen von 875 Millionen US-Dollar erreicht, wodurch die Lücke zu Polymarkets 1 Milliarde US-Dollar verkleinert wurde. Nach Wangs Eintritt verdreifachte sich das Handelsvolumen in weniger als einem Monat. Das Umsatzwachstum erreichte im Jahr 2024 1.220 %.

Die Serie-C-Finanzierungsrunde im Juni 2025 brachte 185 Millionen US-Dollar ein, angeführt von Paradigm bei einer Bewertung von 2 Milliarden US-Dollar, mit Investoren wie Sequoia Capital und Multicoin Capital. Kyle Samani, geschäftsführender Partner bei Multicoin Capital (einem Kalshi-Investor), bestätigte Wangs unkonventionelle Einstellung: „Nachdem ich einige von Wangs Beiträgen gelesen hatte, meldete er sich, und innerhalb weniger Minuten waren wir in einem Zoom-Call.“

Kalshis regulatorischer Vorteil erwies sich als entscheidend. Als erste von der CFTC regulierte Prognosemarkt-Plattform in den USA gewann Kalshi 2024 einen wegweisenden Rechtsstreit gegen die CFTC, als Gerichte entschieden, dass die Plattform Verträge für politische Ereignisse anbieten darf. Die CFTC ließ ihre Berufung im Mai 2025 unter der Trump-Regierung fallen. Donald Trump Jr. fungiert als strategischer Berater, und Vorstandsmitglied Brian Quintenz wurde nominiert, die CFTC zu leiten – was Kalshi im regulatorischen Umfeld günstig positioniert.

Wangs Perspektive auf Regulierung spiegelt seine umfassendere These „Krypto frisst das Finanzwesen“ wider: „Wir sehen diesen Unterschied zwischen einem Krypto-Unternehmen und einem Nicht-Krypto-Unternehmen nicht wirklich. Im Laufe der Zeit wird jeder, der im Grunde Geld bewegt oder im Finanzdienstleistungssektor tätig ist, auf die eine oder andere Weise ein Krypto-Unternehmen sein.“

Wangs Vision für die Mainstream-Adoption

Wangs erklärte Mission konzentriert sich darauf, „Prognosemärkte als vertrauenswürdige Finanzinfrastruktur im Mainstream zu etablieren.“ Er positioniert Prognosemärkte und Ereignisverträge als eine neue Anlageklasse, die nun auf der gleichen Ebene wie normale Derivate und Aktien steht. Seine Vision des sozialen Wandels sieht Prognosemärkte als Mechanismus für die Gesellschaft, um die Wahrheit zu verarbeiten, das Engagement zu steigern und passiven Konsum in aktive Teilnahme über politische, finanzielle und kulturelle Bereiche hinweg zu verwandeln.

Zur Krypto-Integration erklärt Wang ausdrücklich: „Krypto wird für den Erfolg von Kalshi ebenso existenziell sein wie für Robinhood, Stripe und Coinbase.“ Zu seinen Zielen für die nächsten 12 Monate gehören die Integration von Kalshi in jede große Krypto-Börse und -Anwendung, der Aufbau eines Ökosystems aus neuen Finanz-Primitiven und Handels-Frontends, das Onboarding von krypto-nativen Power-Usern und die Erzielung eines „positiven Einflusses“, indem neue Zielgruppen zu Krypto gebracht werden.

Die Validierung durch die Branche kam von Thomas Peterffy, dem Gründer von Interactive Brokers, der im November 2024 öffentlich voraussagte, dass Prognosemärkte innerhalb von 15 Jahren den Aktienmarkt an Größe übertreffen könnten, da sie in einzigartiger Weise verschiedene öffentliche Erwartungen einpreisen – eine Prognose, die mit Wangs 10x-These übereinstimmt.

Zuvor, im Juni 2025, sammelte Kalshi 185 Mio. beieinerBewertungvon2Mrd.bei einer Bewertung von 2 Mrd. ein, angeführt von Paradigm und Sequoia. Polymarket hatte Anfang 2025 200 Mio. unterderLeitungvonPeterThielsFoundersFundaufgenommen.DonaldTrumpJr.s1789CapitalinvestiertezweistelligeMillionenbetra¨ge.TraditionelleInvestorenwieCharlesSchwab,HenryKravis(KKR)undPengZhaobeteiligtensichanFinanzierungsrunden.ImOktober2025tauchtenBerichteauf,wonachCitadel,deru¨ber60Mrd.unter der Leitung von Peter Thiels Founders Fund aufgenommen. Donald Trump Jr.s 1789 Capital investierte zweistellige Millionenbeträge. Traditionelle Investoren wie Charles Schwab, Henry Kravis (KKR) und Peng Zhao beteiligten sich an Finanzierungsrunden. Im Oktober 2025 tauchten Berichte auf, wonach Citadel, der über 60 Mrd. schwere Hedgefonds, der etwa 40 % des US-Einzelhandelsvolumens bei Aktien abwickelt, den Start einer eigenen Prognoseplattform oder eine entsprechende Investition prüfte.

Die Gesamtfinanzierung des Sektors erreichte 385 Mio. $, wobei sich die institutionelle Adoption beschleunigte. Die Susquehanna International Group wurde im April 2024 Kalshis erster dedizierter institutioneller Market Maker und stellte professionelle Liquidität bereit. Die Kombination aus Kapitalzuflüssen, institutionellen Partnerschaften und regulatorischen Siegen markierte den Übergang der Prognosemärkte von einem Krypto-Nischenexperiment zu einer legitimen Finanzinfrastruktur.

Die Performance von Polymarket im Jahr 2024 war außergewöhnlich: **9 Milliarden kumuliertesHandelsvolumenmiteinemmonatlichenSpitzenvolumenvon2,63Milliardenkumuliertes Handelsvolumen** mit einem monatlichen Spitzenvolumen von 2,63 Milliarden im November 2024, angetrieben durch die US-Präsidentschaftswahl. Allein auf das Präsidentschaftsrennen wurden über 3,3 Milliarden gesetzt,was46gesetzt, was 46 % des bisherigen Jahresvolumens entspricht. Die Plattform erreichte im Dezember 2024 einen Höchststand von 314.500 monatlich aktiven Händlern, wobei das Open Interest im November 510 Millionen erreichte. Von Januar bis November 2024 stieg das Volumen um das 48-fache – von 54 Millionen auf2,6Milliardenauf 2,6 Milliarden monatlich.

Bis September 2025 verarbeitete Polymarket im laufenden Jahr über 7,74 Milliarden ,davonallein1,16Milliarden, davon allein 1,16 Milliarden im Juni. Die Plattform hostet fast 30.000 Märkte zu verschiedenen Themen und hält einen Marktanteil von über 99 % bei dezentralen Prognosemärkten. Zu den Hauptmerkmalen gehören die Einfachheit binärer Ja/Nein-Märkte, die Integration mit MoonPay für Fiat-Onramps (PayPal, Apple Pay, Google Pay, Kredit-/Debitkarten) und ein Liquidity Rewards Program für Market Maker. Bemerkenswert ist, dass Polymarket derzeit keine Plattformgebühren erhebt, wobei eine Monetarisierung für die Zukunft geplant ist.

Der regulatorische Weg der Plattform prägte ihre Entwicklung. Nach einer Geldstrafe der CFTC in Höhe von 1,4 Millionen imJanuar2022wurdeesPolymarketuntersagt,USNutzernVertra¨geohneCFTCRegistrierunganzubieten,woraufhinderBetriebinsAuslandverlegtwurde.NacheinerFBIRazziaimHausvonCEOCoplanimNovember2024beendetendasDOJunddieCFTCdieUntersuchungenimJuli2025formell,ohneAnklagezuerheben.Am21.Juli2025erwarbPolymarketQCEX,einevonderCFTClizenzierteDerivatebo¨rseundClearingstelle,fu¨r112Millionenim Januar 2022 wurde es Polymarket untersagt, US-Nutzern Verträge ohne CFTC-Registrierung anzubieten, woraufhin der Betrieb ins Ausland verlegt wurde. Nach einer FBI-Razzia im Haus von CEO Coplan im November 2024 beendeten das DOJ und die CFTC die Untersuchungen im Juli 2025 formell, ohne Anklage zu erheben. **Am 21. Juli 2025 erwarb Polymarket QCEX, eine von der CFTC lizenzierte Derivatebörse und Clearingstelle, für 112 Millionen**, was den regulierten Wiedereintritt in den US-Markt ermöglichte. Bis Oktober 2025 erhielt Polymarket die aufsichtsrechtliche Genehmigung für den Inlandsbetrieb.

Kalshis regulierter Ansatz gewinnt Marktanteile

Kalshi, 2018 von Tarek Mansour und Luana Lopes Lara mitbegründet, war der erste CFTC-regulierte Prognosemarkt in den USA. Dieser Status bietet vollständige regulatorische Compliance und ermöglicht Wetten bis zu 100 Millionen $ auf zugelassenen Märkten. Die Plattform agiert als voll regulierte Börse mit konservativer Marktprüfung, Regeln für Teilauszahlungen bei umstrittenen Ergebnissen und einem Fokus auf Finanz-, Politik- und Sportmärkte.

Die Leistungskennzahlen für 2024–2025 zeigen ein explosives Wachstum. March Madness 2024 generierte über 500 Millionen anSportwettenvolumen.NachdemUrteildesBundesberufungsgerichtsvom2.Oktober2024,dasWahlma¨rktezuließ,wurdeninnerhalbwenigerTageu¨ber3Millionenan Sportwettenvolumen. Nach dem Urteil des Bundesberufungsgerichts vom 2. Oktober 2024, das Wahlmärkte zuließ, wurden innerhalb weniger Tage über 3 Millionen in Wahlverträgen gehandelt. Bis September 2025 erreichte das wöchentliche Handelsvolumen über 500 Millionen beieinemdurchschnittlichenOpenInterestvon189Millionenbei einem durchschnittlichen Open Interest von 189 Millionen. Kalshis Marktanteil stieg von 3,1 % im September 2024 auf 62,2 % im September 2025 – und übernahm damit die Mehrheitskontrolle über die weltweiten Aktivitäten auf Prognosemärkten.

Sportwetten dominieren das Volumen von Kalshi und machten im ersten Halbjahr 2025 über 75 % der Aktivitäten aus. Die Plattform verarbeitete in diesem Zeitraum 2 Milliarden anSportvolumen,wobeidieNFLWoche2imSeptember2025mit588.520TradesaneinemeinzigenTagdieAktivita¨tenderWahl2024u¨bertraf.IndenvierWochenvom1.bis28.September2025wurdenallein1,13Milliardenan Sportvolumen, wobei die NFL-Woche 2 im September 2025 mit 588.520 Trades an einem einzigen Tag die Aktivitäten der Wahl 2024 übertraf. In den vier Wochen vom 1. bis 28. September 2025 wurden allein 1,13 Milliarden NFL-Handelsvolumen generiert, was 42 % des gesamten Plattformvolumens entspricht. March Madness 2025 trug 513 Millionen bei,dieNBAPlayoffs453Millionenbei, die NBA-Playoffs 453 Millionen.

Strategische Partnerschaften erweiterten den Vertrieb. Robinhood startete im März 2025 einen von Kalshi betriebenen Prognosemarkt-Hub, der Prognosemärkte für über 24 Millionen Privatanleger zugänglich machte und einen "großen Teil" des Handelsvolumens von Kalshi generierte. Interactive Brokers bietet seiner institutionellen Kundenbasis bestimmte Kalshi-Verträge an. Die täglichen Einsätze liegen im Durchschnitt bei 19 Millionen $, wobei die Plattform etwa 1 % Provision auf Kundenwetten erhebt.

Andere Plattformen besetzen spezialisierte Nischen

Augur leistete Pionierarbeit bei vollständig dezentralen Prognosemärkten und startete im Juli 2018, gefolgt von Version 2 im Juli 2020. Augur läuft auf Ethereum, nutzt den REP-Token (Reputation) zur Streitbeilegung und ermöglicht den Handel in ETH oder dem Stablecoin DAI. Die Plattform bietet drei Markttypen: binär, kategorisch (bis zu 7 Optionen) und skalar (numerische Bereiche). REP-Token-Inhaber staken ihre Token, um Ergebnisse zu melden, und verdienen Abrechnungsgebühren durch ein progressives Reputation-Bonding-System. Version 2 verkürzte die Ergebnisauflösung von 7 Tagen auf 24 Stunden und integrierte das 0x-Protokoll für eine verbesserte Liquidität.

Augur sah sich jedoch mit Herausforderungen konfrontiert, darunter hohe Ethereum-Gas-Gebühren, langsame Transaktionen und ein Rückgang der Nutzerakzeptanz. Die Plattform kündigte für 2025 einen "Reboot" mit Oracle-Technologie der nächsten Generation an, behält aber ihre historische Bedeutung als erster dezentraler Prognosemarkt bei, der das Modell maßgeblich geprägt hat.

Azuro startete 2021 als Infrastruktur- und Liquiditätsschicht für Prognose- und Wett-DApps und konzentriert sich auf die beständige Marktnachfrage nach Sportwetten. Azuro läuft auf Polygon und anderen EVM-kompatiblen Chains und nutzt einen Peer-to-Pool-Mechanismus, bei dem Nutzer Liquidität für Pools bereitstellen und eine APY verdienen. Die Kennzahlen für August 2024 zeigten ein Handelsvolumen von 11 Millionen ,einenTVLvon6,5Millionen, einen TVL von 6,5 Millionen in Liquiditätspools mit 19,5 % APY und eine Rückkehrerquote von 44 %. Die Plattform hostet über 30 sportorientierte DApps und erreichte im Juni 2024 den Status des umsatzstärksten Protokolls auf Polygon. Zu den wichtigsten Innovationen gehören Live-Wettfunktionen, die im April 2024 eingeführt wurden, und eine KI-Partnerschaft mit Olas zur Vorhersage von Sportergebnissen.

Drift BET startete am 19. August 2024 auf Solana als Teil der Perpetual Futures DEX des Drift-Protokolls. Die Plattform generierte innerhalb der ersten 24 Stunden eine Orderbuch-Liquidität von 3,5 Millionen undu¨bertrafPolymarketimta¨glichenVolumenam29.August2024.Vom18.bis31.August2024verarbeitetesieinsgesamt24Millionenund übertraf Polymarket im täglichen Volumen am 29. August 2024. Vom 18. bis 31. August 2024 verarbeitete sie insgesamt 24 Millionen an Wetten in 4 Märkten. Die einzigartigen Merkmale der Plattform konzentrieren sich auf Kapitaleffizienz: Aufbauend auf Drifts Liquiditätsbasis von über 500 Millionen $, Unterstützung von über 30 Token-Arten als Sicherheiten (nicht beschränkt auf USDC), automatisches Verdienen von Renditen auf Sicherheiten während des Wettens und strukturierte Positionen, die Prognosemarktwetten mit Derivate-Hedging kombinieren.

Technologische Innovationen, die Prognosemärkte ermöglichen

Oracles dienen als entscheidende Brücke zwischen Blockchain-Smart-Contracts und realen Daten, was für die Abrechnung von Prognosemarktergebnissen unerlässlich ist. Das dezentrale Oracle-Netzwerk von Chainlink bezieht Daten aus mehreren Quellen, um das Risiko eines Single-Point-of-Failure zu reduzieren, und liefert manipulationssichere Eingaben, die von Polymarket für Instant-Bitcoin-Prognosemärkte verwendet werden. Das optimistische Oracle-System von UMA nutzt eine gemeinschaftsbasierte Streitbeilegung, bei der Token-Inhaber über Ergebnisse durch progressives Bonding abstimmen, obwohl Polymarket das UMA-Oracle bei einem Vorfall mit einer Wette auf den $DJT-Memecoin bemerkenswerterweise überstimmte.

Smart Contracts werden automatisch ausgeführt, wenn Bedingungen erfüllt sind, wodurch Vermittler eliminiert und eine transparente, unveränderliche Abrechnung auf der Blockchain gewährleistet wird. Diese Automatisierung reduziert Kosten und erhöht gleichzeitig die Zuverlässigkeit. Automated Market Makers (AMMs) bieten algorithmische Liquidität ohne traditionelle Orderbücher und werden von Plattformen wie Polkamarkets und Azuro eingesetzt. Ähnlich wie beim Modell von Uniswap passen AMMs die Preise basierend auf Angebot und Nachfrage an, wobei Liquiditätsanbieter jedoch dem Risiko eines Impermanent Loss ausgesetzt sind.

Layer 2 Skalierungslösungen reduzieren die Kosten drastisch und erhöhen den Durchsatz. Polygon dient als primäre Chain für Polymarket und Azuro und bietet niedrigere Gebühren als das Ethereum-Mainnet. Solana bietet Hochgeschwindigkeits- und kostengünstige Alternativen für Plattformen wie Drift BET. Diese Skalierungsverbesserungen machen kleinere Wetten für Privatanleger wirtschaftlich tragfähig.

Stablecoin-Infrastruktur reduziert das Risiko der Krypto-Volatilität. USDC dominiert als Primärwährung auf den meisten Plattformen und bietet eine 1:1-USD-Anbindung für vorhersehbare Ergebnisse und ein einfacheres Onboarding für Nutzer aus dem traditionellen Finanzwesen. Augur v2 verwendet DAI als dezentrale Stablecoin-Alternative.

Die von Drift BET eingeführten Cross-Collateral-Funktionen ermöglichen es Nutzern, über 30 verschiedene Token als Sicherheiten zu hinterlegen, was den Margenhandel auf Prognosepositionen und einheitliche Plattformen für Hedging-Strategien ermöglicht, während gleichzeitig Renditen auf ungenutzte Sicherheiten erzielt werden. Die hybride Architektur kombiniert Off-Chain-Order-Matching (für Geschwindigkeit und Effizienz) mit On-Chain-Abrechnung (für Transparenz und Sicherheit) – ein Modell, das von Polymarket pionierhaft eingesetzt wurde, um die Vorteile sowohl zentralisierter als auch dezentralisierter Ansätze zu nutzen.

Anwendungsfälle jenseits des traditionellen Wettens

Prognosemärkte beweisen ihren Wert weit über das Glücksspiel hinaus durch Informationsaggregation und Vorhersage. Märkte bündeln verstreutes Wissen von Tausenden von Teilnehmern mit finanziellen Anreizen, die eine ehrliche Prognose gewährleisten. Der Effekt der "Schwarmintelligenz" bedeutet, dass das kombinierte Wissen oft das von Einzelexperten übertrifft. Die US-Wahl 2024 hat dies bewiesen: Prognosemärkte sagten den Sieg von Trump genauer voraus als die meisten Umfragen, mit Echtzeit-Updates gegenüber periodischen Umfragen und Selbstkorrektur durch kontinuierlichen Handel.

Anwendungen in der akademischen Forschung umfassen die Vorhersage der Ausbreitung von Infektionskrankheiten – Iowa-Influenza-Prognosemärkte erreichten eine Genauigkeit von 2–4 Wochen im Voraus. Ergebnisse zum Klimawandel, Wirtschaftsindikatoren und wissenschaftliche Forschungsergebnisse profitieren alle von marktbasierter Prognostik.

Unternehmensentscheidungen stellen eine wachsende Anwendung dar. Best Buy nutzte erfolgreich interne Prognosemärkte der Mitarbeiter, um Verzögerungen bei der Eröffnung von Filialen in Shanghai vorherzusagen und so finanzielle Verluste zu vermeiden. Hewlett-Packard prognostizierte vierteljährliche Druckerumsätze mithilfe interner Märkte. Google betreibt interne Märkte mit Sachpreisen für Vorhersagen zu Produkteinführungen und Feature-Adoptionen. Zu den Vorteilen gehören die Nutzung des Mitarbeiterwissens über Organisationen hinweg, dezentrale Informationssammlung, anonyme Teilnahme, die ehrliche Beiträge fördert, und die Reduzierung von Gruppendenken gegenüber traditionellen Konsensmethoden.

Finanzielles Hedging ermöglicht das Risikomanagement gegen ungünstige Zinsbewegungen, Wahlergebnisse, Wetterereignisse mit Auswirkungen auf die Landwirtschaft und Unterbrechungen der Lieferkette. Die strukturierten Positionen von Drift BET kombinieren Prognosemarktpositionen mit Derivaten – zum Beispiel Long-Positionen auf ein Wahlergebnis bei gleichzeitigem Shorting von Bitcoin über einheitliche Plattformen, die marktübergreifende Korrelationsstrategien ermöglichen.

Wirtschafts- und Politikprognosen werden institutionell genutzt. Hedgefonds nutzen Prognosemärkte als alternative Datenquellen. Portfoliomanager integrieren Prognosemarktwahrscheinlichkeiten in ihre Modelle. Vorhersagen zu Zinssenkungen der Federal Reserve, Inflationsprognosen, Rohstoffpreise, BIP-Wachstumserwartungen und die Dauer von Regierungsstillständen ziehen alle ein erhebliches Handelsvolumen an – der jüngste Markt für die Dauer des Government Shutdowns verzeichnete Einsätze von über 4 Millionen $.

Governance und DAO-Entscheidungsfindung implementieren "Futarchie": Stimmen Sie über Werte ab, wetten Sie auf Überzeugungen. DAOs nutzen Prognosemärkte, um Governance-Entscheidungen zu steuern, wobei Marktergebnisse die politischen Entscheidungen beeinflussen. Vitalik Buterin hat diesen Anwendungsfall seit 2014 als Methode zur Reduzierung politischer Voreingenommenheit in organisatorischen Entscheidungen propagiert.

Das Benennungsverfahren erlaubt es DCMs, neue Kontrakte durch Selbstzertifizierung (Einreichung bei der CFTC) oder durch Beantragung einer Genehmigung der Kommission zu listen. Die CFTC hat 90 Tage Zeit, um selbstzertifizierte Kontrakte gemäß der Verordnung 40.11 zu prüfen. Zu den Anforderungen gehören Standards für die Marktintegrität, Transparenz, Schutzmaßnahmen gegen Manipulation, verifizierte Quelldaten und Lösungsmechanismen, umfassende Überwachungssysteme, vollständige Besicherung der Kontrakte (in der Regel kein Hebel/Margin) sowie KYC/AML-Compliance.

Die CFTC-Verordnung 40.11 verbietet Ereigniskontrakte auf Terrorismus, Krieg, Attentate und "Gaming" (Glücksspiel) – wobei die Definition von Gaming Gegenstand umfangreicher Rechtsstreitigkeiten war. Nach dem Dodd-Frank Act (2010) wurde der Test des wirtschaftlichen Zwecks aufgehoben, wodurch sich der Fokus der Genehmigung auf die Einhaltung regulatorischer Kernprinzipien verschob, anstatt Themenbereiche basierend auf dem Nachweis des Nutzens einzuschränken.

Wegweisende Gerichtsurteile verändern die Landschaft

Kalshi gegen die CFTC stellt den entscheidenden Wendepunkt dar. Am 12. Juni 2023 zertifizierte Kalshi selbst Kontrakte zur Kontrolle des Kongresses. Im August 2023 lehnte die CFTC die Kontrakte ab mit der Behauptung, sie beinhalteten "Gaming" und stünden im "Gegensatz zum öffentlichen Interesse". Am 12. September 2024 entschied das U.S. District Court (D.C.) zugunsten von Kalshi und befand die Entscheidung der CFTC als "willkürlich und kapriziös". Als die CFTC einen Notaufschub beantragte, lehnte der D.C. Circuit Court den Antrag am 2. Oktober 2024 ab. Kalshi begann im Oktober 2024 sofort mit dem Angebot von Wahlprognosekontrakten.

Das Urteil stellte fest, dass Wahlkontrakte KEIN "Gaming" im Sinne des CEA darstellen, was den Weg für CFTC-regulierte Wahlprognosemärkte ebnete und einen Präzedenzfall schuf, der die Befugnis der CFTC einschränkt, Ereigniskontrakte aus thematischen Gründen zu verbieten. Kalshi-CEO Tarek Mansour erklärte: "Wahlmärkte sind gekommen, um zu bleiben."

Regulatorischer Wandel unter der Trump-Administration

Am 5. Februar 2025 kündigte die CFTC unter der kommissarischen Vorsitzenden Caroline D. Pham einen Runden Tisch zu Prognosemärkten an, was eine dramatische Kehrtwende in der Politik markierte. Pham erklärte: "Leider haben die unangemessene Verzögerung und die innovationsfeindliche Politik der letzten Jahre die Fähigkeit der CFTC stark eingeschränkt, zu einer vernunftbasierten Regulierung von Prognosemärkten überzugehen. Prognosemärkte sind eine wichtige neue Grenze, um die Macht der Märkte zur Einschätzung der Stimmung zu nutzen und Wahrscheinlichkeiten zu bestimmen, die im Informationszeitalter Wahrheit bringen können."

Die CFTC identifizierte zentrale Hindernisse, darunter bestehende Kommissionsanordnungen unter Verordnung 40.11, Bundesgerichtsurteile zur Definition von "Gaming", die bisherigen rechtlichen Argumente und Positionen der CFTC, Interpretationen und Praktiken der Mitarbeiter sowie regulatorische Konflikte auf Bundesstaatsebene. Zu den Reformthemen gehörten Überarbeitungen von Teil 38 und Teil 40 der CFTC-Vorschriften, Kundenschutz vor Betrug mit binären Optionen, sportbezogene Ereigniskontrakte und die Erleichterung von Innovationen.

Am 5. September 2025 gaben der SEC-Vorsitzende Paul Atkins und die kommissarische CFTC-Vorsitzende Caroline Pham eine gemeinsame Erklärung zur regulatorischen Harmonisierung ab. Sie verpflichteten sich, Klarheit für Innovatoren zu schaffen, die Ereigniskontrakte auf Prognosemärkten verantwortungsbewusst listen, einschließlich solcher auf Wertpapierbasis. Die Behörden sagten zu, Möglichkeiten der Zusammenarbeit ungeachtet von Zuständigkeitsgrenzen zu prüfen, Produktdefinitionen zu harmonisieren, Berichtsstandards zu rationalisieren und koordinierte Innovationsausnahmen zu schaffen. Ein gemeinsamer SEC-CFTC-Runder Tisch kam am 29. September 2025 zusammen – die erste koordinierte Anstrengung zur Schaffung eines einheitlichen Regulierungsrahmens über Wertpapier- und Rohstoffgerichtsbarkeiten hinweg.

Regulatorische Herausforderungen auf Bundesstaatsebene bleiben bestehen

Trotz der Fortschritte auf Bundesebene sind Konflikte auf Ebene der Bundesstaaten entstanden. Bis 2025 wurden Unterlassungsanordnungen gegen Kalshi von Illinois, Maryland, Montana, Nevada, New Jersey und Ohio (6 Staaten) erlassen; gegen Robinhood für Prognosemärkte von Illinois, Maryland, New Jersey und Ohio (4 Staaten); und gegen Crypto.com von Illinois, Maryland und Ohio (3 Staaten).

Die Staaten behaupten, dass Prognosemärkte Sportwetten oder Glücksspiel darstellen, die staatliche Glücksspiellizenzen erfordern. Kalshi argumentiert mit dem Vorrang des Bundesrechts (Federal Preemption) unter dem CEA. In Massachusetts reichte Generalstaatsanwältin Andrea Campbell 2025 eine Klage ein, in der sie behauptet, Kalshi agiere illegal als Sportwettenanbieter. Sie verwies darauf, dass im ersten Halbjahr 2025 über $ 1 Milliarde auf Sportereignisse gesetzt wurde, wobei Sportmärkte über 75 % der Plattformaktivität ausmachten. In der Beschwerde wird behauptet, Kalshi nutze "Mechanismen im Casino-Stil" und Verhaltensdesign, um exzessives Wetten zu fördern.

Zwei Bundesgerichte haben jedoch einstweilige Verfügungen gegen die Versuche der Bundesstaaten erlassen, Kalshi zu schließen. Sie urteilten, dass die Plattformen mit ihren Argumenten, dass Bundesrecht die staatliche Regulierung verdrängt, "wahrscheinlich obsiegen" werden. Dies führt zu einem anhaltenden Rechtsstreit um den Vorrang des Bundesrechts, an dem mehrere Gerichtsbarkeiten beteiligt sind.

Handelsvolumen und Adoptionsstatistiken

Aggregierte Sektorstatistiken zeigen ein kombiniertes kumulatives Volumen von über 13Milliardenu¨berallePlattformenhinwegindenJahren20242025.DerdurchschnittlicheUmsatzproHandelsereignisaufgroßenPlattformenerreicht13 Milliarden über alle Plattformen hinweg in den Jahren 2024 - 2025. Der durchschnittliche Umsatz pro Handelsereignis auf großen Plattformen erreicht 13 Millionen. Das Spitzenvolumen für ein einzelnes Ereignis lag bei über $ 3,3 Milliarden bei der Präsidentschaftswahl 2024 über Polymarket. Die monatlichen Wachstumsraten des Volumens hielten sich das gesamte Jahr 2024 über bei 60 - 70 %.

Das tägliche Volumen im September 2025 verdeutlicht die Marktverteilung: Kalshi verarbeitete 110Millionen(80110 Millionen (80 % Sport), Polymarket 44 Millionen, Crypto.com 13Millionen(9813 Millionen (98 % Sport) und ForecastEx 95.000 – insgesamt ca. $ 170 Millionen tägliches Volumen im gesamten Sektor.

Polymarkets Nutzerwachstum zeigt eine dramatische Expansion: von 4.000 aktiven Händlern im Januar 2024 auf 314.500 im Dezember 2024, was einem durchschnittlichen monatlichen Wachstum von 74 % im Jahr 2024 entspricht. Das Nutzerwachstum hielt auch nach der Wahl trotz sinkender Volumina an, was auf eine zunehmende Nutzerbindung (Stickiness) der Plattform hindeutet.

Kalshis Transformation des Marktanteils stellt die dramatischste wettbewerbliche Verschiebung dar: Der Transaktionsanteil wuchs von 12,9 % im September 2024 auf 63,9 % im September 2025, während der Marktanteil im gleichen Zeitraum von 3,1 % auf 62,2 % hochschnellte. Die NFL-Woche 2 im September 2025 übertraf die Aktivitäten der Wahl 2024 im Transaktionsvolumen.

Institutionelle versus private Beteiligung

Indikatoren für die institutionelle Adoption zeigen signifikante Fortschritte. Die Susquehanna International Group wurde im April 2024 Kalshis erster dedizierter institutioneller Market Maker, was für konsistente professionelle Liquidität sorgte und den Übergang von einer rein privaten zu einer institutionellen Infrastruktur markierte.

Strategische Investitionen validieren den Sektor. Die Investition der ICE im Oktober 2025 in Höhe von 2MilliardeninPolymarketbeieinerBewertungvon2 Milliarden in Polymarket bei einer Bewertung von 8 Milliarden stellt die entscheidende institutionelle Unterstützung dar. NYSE-Präsidentin Lynn Martin erklärte, die Partnerschaft werde "Prognosemärkte in den finanziellen Mainstream bringen", mit Plänen, Polymarket-Daten an Tausende von Finanzinstituten weltweit zu verteilen. Kalshis Series (Q3) im Juni 2025 brachte 185Millionenein,angefu¨hrtvonParadigmundSequoia.TheClearingCompanysammelteineinerSeedRunde185 Millionen ein, angeführt von Paradigm und Sequoia. The Clearing Company sammelte in einer Seed-Runde 15 Millionen unter der Leitung von Union Square Ventures mit Beteiligung von Coinbase Ventures und Haun Ventures ein, wobei der Fokus auf dem Aufbau einer CFTC-konformen Blockchain-Infrastruktur für institutionelle Investoren liegt.

Vertriebspartnerschaften bringen institutionelle Glaubwürdigkeit. Die Partnerschaft zwischen Robinhood und Kalshi bietet den über 24 Millionen Kleinanlegern von Robinhood direkten Zugang zu Kalshi-Kontrakten, wobei ein "großer Teil" des Handelsvolumens von Kalshi nun von Robinhood-Nutzern stammt. Die Integration von Interactive Brokers und ForecastEx bietet IBKR-Kunden Zugang zu Forecast-Kontrakten über professionelle Handelsplattformen. Im Juni 2025 kündigte Elon Musks X (Twitter) an, die "Kräfte zu bündeln" mit Polymarket für eine potenzielle Integration von Prognosemärkten in soziale Medien.

Die Beteiligung von Kleinanlegern bleibt der primäre Treiber für Volumen und Transaktionszahlen. Die Demografie tendiert zu jüngeren Nutzern (Altersgruppe 18 - 35), insbesondere auf krypto-basierten Plattformen. Das Handelsverhalten zeigt kleinere Positionsgrößen (typischerweise 5050 - 5.000 für Privatnutzer), eine höhere Handelsfrequenz auf Sportmärkten und längerfristige Positionen auf politischen Märkten. Privatnutzer machen nach Anzahl etwa 90 - 95 % der Teilnehmer aus, repräsentieren aber wahrscheinlich 50 - 60 % des Volumens, während institutionelle Market Maker 30 - 40 % durch Liquiditätsbereitstellung beisteuern. Durchschnittliche Privatpositionen liegen im Bereich von 500500 - 2.000, während institutionelle Positionen für Market-Making-Aktivitäten 50.00050.000 - 1.000.000+ umfassen.

Bedenken hinsichtlich Spielsucht sind aufgekommen. Die Klage in Massachusetts hebt "Mechanismen im Casino-Stil" und Bedenken hinsichtlich des Verhaltensdesigns hervor. Sportwetten werden aufgrund der Zugänglichkeit und der schnellen Abwicklungszyklen als "Einstiegstor" zu Glücksspielproblemen angesehen. Die Dynamik nach der Wahl zeigte, dass viele Nutzer ausschließlich für Wahlwetten 2024 beitraten und danach abwanderten, obwohl Sportmärkte traditionelle Sportwetten-Nutzer anziehen und für ereignisgesteuerte Beteiligungsspitzen bei großen Nachrichtenereignissen sorgen.

Plattformbewertungen und Finanzierung

Polymarkets Bewertungsverlauf verdeutlicht das Sektorwachstum: von 1MilliardeimJuni2024nacheinerFinanzierungsrundeu¨ber1 Milliarde im Juni 2024 nach einer Finanzierungsrunde über 200 Millionen unter der Leitung von Founders Fund auf 810MilliardenimOktober2025mitder8 - 10 Milliarden im Oktober 2025 mit der 2-Milliarden-Investition der ICE – eine 8-fache Steigerung in 16 Monaten. Die Gesamtsumme der eingeworbenen Mittel übersteigt $ 70 Millionen in früheren Runden mit Investoren wie Vitalik Buterin.

Kalshis Bewertung erreichte im Juni 2024 2MilliardenmiteinerSeriesCu¨ber2 Milliarden mit einer Series C über 185 Millionen von Sequoia und Paradigm, gegenüber einer Post-Money-Bewertung von 787MillionenimOktober2024eine2,5facheSteigerungin8Monaten.Fru¨hereFinanzierungenumfassteneineSeedRundevon787 Millionen im Oktober 2024 – eine 2,5-fache Steigerung in 8 Monaten. Frühere Finanzierungen umfassten eine Seed-Runde von 4 Millionen von Polychain Capital und eine Series A/B über $ 70 Millionen im Mai 2023.

Die Gesamtbewertung des Sektors übersteigt $ 10 Milliarden bei anhaltendem institutionellem Interesse. Berichte deuten darauf hin, dass Citadel den Einstieg in den Prognosemarkt oder eine Investition prüft, was bedeutende Market-Making-Expertise und Kapital in den Bereich bringen würde.

Zukunftsaussichten und kritische Analyse

Prognosemärkte stehen an einem Wendepunkt zwischen einem Nischenexperiment und einer Mainstream-Finanzinfrastruktur. Wachstumsprognosen, institutionelle Investitionen und regulatorische Durchbrüche deuten auf eine echte Eigendynamik hin, aber grundlegende Herausforderungen in den Bereichen Liquidität, Saisonalität und Nutzen bleiben ungelöst.

Wachstumsprognosen zeigen explosives Potenzial

Marktgrößenprognosen sehen ein Wachstum von 1,5 Milliarden imJahr2024aufpotenziell95Milliardenim Jahr 2024 auf potenziell 95 Milliarden bis 2035 voraus – was einer 63-fachen Expansion entspricht. Alternative Projektionen, die auf dem aktuellen monatlichen Volumen von 1 Milliarde basieren,deutendaraufhin,dassderSektorbis2030einGesamtvolumenvon1Billionbasieren, deuten darauf hin, dass der Sektor bis 2030 ein Gesamtvolumen von 1 Billion erreichen könnte, wenn die Dynamik anhält. Prognosen von Grand View Research für DeFi-Prognosemärkte schätzen die Marktgröße im Jahr 2024 auf 20,48 Milliarden undeinWachstumauf231,19Milliardenund ein Wachstum auf 231,19 Milliarden bis 2030, was einer durchschnittlichen jährlichen Wachstumsrate (CAGR) von 53,7 % entspricht (Mordor Intelligence bietet eine konservativere CAGR von 27,23 %).

Zu den Wachstumstreibern gehören die Integration tokenisierter Real-World Assets, Verbesserungen bei der Cross-Chain-Interoperabilität, Verwahrungslösungen auf institutionellem Niveau, regulatorische Klarheit und Compliance-Rahmenwerke sowie die Integration des traditionellen Finanzwesens durch Partnerschaften mit ICE, Robinhood und ähnlichen Akteuren. Die aktuellen Volumentrends zeigen Kalshi mit 956 Millionen wo¨chentlichundPolymarketmit464Millionenwöchentlich und Polymarket mit 464 Millionen wöchentlich (Stand Oktober 2025), was einem kombinierten wöchentlichen Volumen von über 1,4 Milliarden $ entspricht.

Große institutionelle Investitionen bestätigen diese Prognosen. Neben der 2-Milliarden-InvestitionvonICEinPolymarketbeteiligtensichPeterThielsFoundersFundundVitalikButerinaneiner200Millionen-Investition von ICE in Polymarket beteiligten sich Peter Thiels Founders Fund und Vitalik Buterin an einer 200-Millionen--Finanzierung. 1789 Capital von Donald Trump Jr. investierte zweistellige Millionenbeträge. Traditionelle Investoren wie Charles Schwab, Henry Kravis (KKR) und Peng Zhao nahmen an Finanzierungsrunden teil. Der berichtete Einstieg von Citadel in die Prognosemärkte würde die Market-Making-Expertise des über 60 Milliarden $ schweren Hedgefonds (der rund 40 % des US-Einzelhandelsaktienvolumens abwickelt) in diesen Bereich bringen.

Kritische Herausforderungen bedrohen die Nachhaltigkeit

Die Liquiditätskrise stellt das grundlegendste Hindernis dar. Presto Research identifiziert dies als „das größte Problem, vor dem Prognosemärkte heute stehen“, und merkt an, dass „selbst auf ihrem Höhepunkt die Aufmerksamkeit meist kurzlebig und auf bestimmte Zeiträume wie Wahlen beschränkt ist, wobei nur die obersten 3 bis 5 Märkte genug Volumen haben, damit Leute in großem Stil handeln können.“

Eine Yale-Studie aus dem Jahr 2024, die das Senatsrennen in Montana untersuchte, ergab ein historisches Gesamthandelsvolumen von nur etwa 75.000 $ auf Kalshi – „Taschengeld für einen wohlhabenden Spender“. Die Autoren der Studie waren „schockiert darüber, wie wenige Händler tatsächlich auf diesen Plattformen wetten“, und fanden dünne Orderbücher mit null Verkäufern in bestimmten Märkten sowie Spreads von bis zu 50 %. Kleine Einsätze von nur wenigen tausend Dollar können Märkte um mehrere Prozentpunkte bewegen. Long-Tail-Ereignisse haben Schwierigkeiten, Teilnehmer anzuziehen, was zu dauerhaft dünnen Orderbüchern führt. Liquiditätsanbieter sind mit dem Risiko des Impermanent Loss konfrontiert, wenn Ereignisergebnisse sicher werden und die Token-Preise gegen null oder eins konvergieren.

Probleme beim Marktdesign verschärfen die Liquiditätsprobleme. Alles-oder-Nichts-Auszahlungen eignen sich eher für Glücksspieler als für traditionelle Investoren. Die Top-10-Märkte von Polymarket weisen oft weit in der Zukunft liegende Abrechnungsdaten auf, die Kapital binden. Im Vergleich zum traditionellen Finanzwesen mangelt es Prognosemärkten aufgrund des höheren Risikos eines Totalverlusts an Attraktivität für seriöse Investoren. Im Vergleich zu Sportwetten bieten sie langsamere Abrechnungen und einen geringeren Unterhaltungswert. Im Vergleich zu Meme-Coins bieten sie geringere potenzielle Renditen (2-fache gegenüber 10-facher Rendite in Minuten). Der Großteil des Volumens konzentriert sich auf Politik (Wahlzyklen), Krypto und Sport, wobei es kaum Anreize gibt, Prognosemärkte zu nutzen, wenn Kryptobörsen und Sportwettseiten eine bessere Liquidität und Benutzererfahrung bieten.

Bedenken hinsichtlich Marktmanipulation und Genauigkeit untergraben die Glaubwürdigkeit. Die Yale-Studie kam zu dem Schluss, dass Manipulation angesichts des geringen Handelsvolumens „extrem einfach“ sei, und merkte an: „Für nur ein paar Zehntausend Dollar ... könnte man diesen Markt leicht beherrschen.“ Kapitalstarke Teilnehmer beeinflussen die Preise in illiquiden Märkten mühelos. „Dumb Money“ wird benötigt, damit „Smart Money“ die Vig (Buchmachermarge) überwinden kann, aber eine unzureichende Beteiligung von Kleinanlegern schafft strukturelle Probleme. Es bestehen Bedenken wegen Insiderhandels ohne klaren Durchsetzungsmechanismus. Das Trittbrettfahrer-Problem bedeutet, dass Prognosen von Prognosemärkten öffentliche Güter sind, die nicht effektiv monetarisiert werden können.

Der Council on Foreign Relations stellt fest: „Liquiditätsbeschränkungen begrenzen ihre Zuverlässigkeit, und Prognosemärkte sollten Fachwissen nicht ersetzen.“ Das Works in Progress Magazine argumentiert, dass „Prognosemärkte in ihrer jetzigen Form im besten Fall wahrscheinlich ähnlich genau sind wie andere hochwertige Quellen“ wie Metaculus und 538. Bei den US-Zwischenwahlen 2022 sagten Metaculus, 538 und Manifold alle besser voraus als Polymarket und PredictIt. Historische Fehlprognosen gab es unter anderem beim Brexit, Trump 2016, Massenvernichtungswaffen im Irak (2003) und der Nominierung von John Roberts.

Methodisch gesehen konvergieren Prognosemärkte erst kurz vor dem Ereignis zu genauen Wahrscheinlichkeiten – „zu spät, um noch von Bedeutung zu sein“. Sie bleiben anfällig für Herdenverhalten, Übermäßigkeits-Bias, den Ankereffekt und tribales Verhalten. Die meisten Fragen erfordern Fachwissen, das den meisten Teilnehmern jedoch fehlt. Die Nullsummennatur bedeutet, dass jeder Gewinner einen entsprechenden Verlierer benötigt, was produktive Investitionen unmöglich macht.

Wege zur Mainstream-Adoption existieren, erfordern jedoch Umsetzung

Regulatorische Compliance und Klarheit bieten den klarsten Weg nach vorne. Kalshis CFTC-reguliertes Börsenmodell und die Übernahme von QCEX für die US-Compliance demonstrieren eine Compliance-orientierte Infrastruktur als Wettbewerbsvorteil. Erforderliche Entwicklungen umfassen klare Rahmenwerke, die Innovation mit Verbraucherschutz in Einklang bringen, die Klärung der Debatte über die Einstufung als Glücksspiel oder Derivat sowie eine Koordination auf staatlicher Ebene, um fragmentierte Vorschriften zu verhindern.

Distribution und Integration können Zugangsbarrieren überwinden. Die Partnerschaft zwischen Robinhood und Kalshi bringt Prognosemärkte zu Millionen von Privatanlegern. Die MetaMask-Integration im Jahr 2025 fügte Polymarket direkt in Wallet-Apps hinzu. Die Partnerschaft von ICE ermöglicht den weltweiten Vertrieb von ereignisgesteuerten Daten an institutionelle Kunden. Die Integration in soziale Medien über Plattformen wie Farcaster und Solanas Blink ermöglicht virales Teilen. Der Start des 24/7-Kryptohandels durch die CME Group Anfang 2026 signalisiert Wege für die institutionelle Adoption.

Produktinnovation könnte grundlegende Designbeschränkungen adressieren. Gehebelte Produkte würden Kapitaleffizienz für langfristige Märkte ermöglichen. Kombiwetten, die mehrere Vorhersagen kombinieren, bieten höhere Belohnungen. Peer-to-Pool-Liquiditätsmodelle wie Azuro bündeln Kapital, um als einzige Gegenpartei zu fungieren. Renditetragende Stablecoins adressieren die Opportunitätskosten der Kapitalbindung. Die erlaubnisfreie Markterstellung über Plattformen wie Swaye ermöglicht nutzergenerierte Märkte mit Memecoins, die an Ergebnisse gekoppelt sind.

KI-Integration könnte sich als transformativ erweisen. Die Grok-Kalshi-Partnerschaft bietet KI-gestützte Wahrscheinlichkeitsbewertungen in Echtzeit. KI kann Trends analysieren, um zeitnahe Marktthemen vorzuschlagen, das Liquiditätsmanagement durch Market-Making unterstützen und als Trading-Bots teilnehmen, um die Markttiefe zu erhöhen. Vitalik Buterins Vision konzentriert sich darauf, dass KI qualitativ hochwertige Informationen selbst auf Märkten mit einem Volumen von 10 $ ermöglicht: „Eine Technologie, die Info-Finance im nächsten Jahrzehnt massiv vorantreiben wird, ist KI.“

Marktdiversifizierung über Wahlen hinaus adressiert die Saisonalität. Kalshis Sportwetten-Volumen von 92 % zeigt eine starke Nachfrage außerhalb der Politik. Unternehmensereignisse wie Gewinnprognosen, Produkteinführungen und M&A-Ergebnisse bieten kontinuierliche Handelsmöglichkeiten. Makroereignisse wie Fed-Entscheidungen, VPI-Veröffentlichungen und Wirtschaftsindikatoren ziehen institutionelle Absicherungen an. Wissenschafts- und Technologieprognosen (Zeitpunkt der Veröffentlichung von ChatGPT-5, Durchbruchsprognosen) und Popkulturmärkte (Preisverleihungen, Unterhaltungsergebnisse) verbreitern die Attraktivität.

Integration in das traditionelle Finanzwesen zeigt Potenzial und Grenzen

Aktuelle Integrationsbeispiele belegen die Tragfähigkeit. Die 2-Milliarden-$-Investition von ICE in Polymarket bringt die Vertriebskraft der NYSE-Muttergesellschaft und die Zusammenarbeit bei der Blockchain-Tokenisierung ein. ICE wird Polymarket-Daten weltweit an institutionelle Kunden syndizieren und an Tokenisierungsprojekten arbeiten. Lynn Martin (Präsidentin der NYSE) erklärte, die Partnerschaft werde „Prognosemärkte in den finanziellen Mainstream bringen“.

Die Integration der NFL- und College-Football-Märkte von Kalshi durch Robinhood positioniert Robinhood im Wettbewerb mit DraftKings und FanDuel und normalisiert gleichzeitig Prognosemärkte als legitime Finanzinstrumente. Der Einstieg von Citadel würde die Market-Making-Expertise eines über 60 Milliarden $ schweren Hedgefonds in die Prognosemärkte bringen.

Die Infrastrukturentwicklung schreitet voran, wobei Kalshis Betrieb als CFTC-regulierte Börse beweist, dass das Modell funktioniert, und die Übernahme von QCEX eine Infrastruktur für Clearing und Settlement von Derivaten bietet. Die Akzeptanz von Stablecoins (USDC) schafft Brücken zwischen Krypto und traditionellem Finanzwesen. Quoten von Prognosemärkten werden zu Stimmungsindikatoren für Hedgefonds, wobei Echtzeit-Wahrscheinlichkeitsdaten für institutionelle Entscheidungen und die Integration in Bloomberg-Terminals und Finanznachrichtenplattformen genutzt werden.

Ereigniskontrakte repräsentieren eine neue Assetklasse zur Portfoliodiversifizierung, Risikomanagement-Tools für geopolitische, regulatorische und makroökonomische Ereignisrisiken sowie ergänzende Instrumente zu traditionellen Derivaten, wo konventionelle Produkte nicht existieren.

Das Works in Progress Magazine identifiziert jedoch eine grundlegende Einschränkung: „Wo ein konventioneller Prognosemarkt für die Absicherung nützlich sein könnte, hat das traditionelle Finanzwesen in der Regel ein besseres Produkt geschaffen.“ Seit den 1980er Jahren wurden Derivate für den Leitzins, den VPI, Dividenden und das Ausfallrisiko entwickelt. Prognosemärkten fehlt die Liquidität und Raffinesse etablierter Derivatemärkte. Das traditionelle Finanzwesen hat bereits für die meisten Absicherungsbedürfnisse ausgefeilte Produkte geschaffen, was darauf hindeutet, dass Prognosemärkte nur schmale Nischen füllen könnten, in denen konventionelle Instrumente fehlen.

Expertenperspektiven: Echte Innovation oder überhypter Narrativ?

Vitalik Buterin vertritt die Vision von „Info-Finance“ am ehrgeizigsten. Er erklärt: „Eine der Ethereum-Anwendungen, die mich schon immer am meisten begeistert haben, sind Prognosemärkte ... Prognosemärkte sind der Beginn von etwas weitaus Bedeutenderem: ‚Info-Finance‘ ... die Schnittstelle von KI und Krypto, insbesondere in Prognosemärkten, könnte der ‚heilige Gral der epistemischen Technologie‘ sein.“

Buterin stellt sich Prognosemärkte als dreiseitige Märkte vor, auf denen Wetter Vorhersagen treffen, Leser Prognosen konsumieren und das System öffentliche Vorhersagen als öffentliche Güter generiert. Die Anwendungen gehen über Wahlen hinaus und könnten soziale Medien (Beschleunigung von Community Notes), das wissenschaftliche Peer-Review, die Nachrichtenverifizierung und die DAO-Governance transformieren. Seine These: KI wird „Info-Finance im nächsten Jahrzehnt massiv vorantreiben“ und Entscheidungsmärkte für den Vergleich von Geschäftsstrategien, die Finanzierung öffentlicher Güter und die Talententdeckung ermöglichen.

Institutionelle Bullen liefern die Bestätigung. ICE-CEO Jeffrey Sprecher: „Unsere Investition kombiniert die Marktinfrastruktur von ICE mit einem zukunftsorientierten Unternehmen, das die Schnittstelle von Daten und Ereignissen prägt.“ Polymarket-CEO Shayne Coplan: „Ein wichtiger Schritt, um Prognosemärkte in den finanziellen Mainstream zu bringen ... wir erweitern die Art und Weise, wie Einzelpersonen und Institutionen Wahrscheinlichkeiten nutzen, um die Zukunft zu verstehen und zu bepreisen.“ Der Ökonom Michael Jones von der University of Cincinnati argumentiert, dass Kryptowährungen einen „Anwendungsfall aus der realen Welt zeigen, der Wert und Nutzen über die reine Investition hinaus bietet“, und positioniert Prognosemärkte als „überhaupt keine Wetten oder Glücksspiel ... sondern ein Informationswerkzeug.“

Kritische akademische Forschung stellt dieses Narrativ energisch in Frage. Die Studie der Yale School of Management aus dem Jahr 2024 von Jeffrey Sonnenfeld, Steven Tian und Anthony Scaramucci kam zu dem Schluss: „Schockiert darüber, wie wenige Händler tatsächlich auf diesen Plattformen wetten ... es werden mehr Geschichten über Prognosemärkte geschrieben als es Menschen gibt, die sie tatsächlich nutzen.“ Ihre Ergebnisse zeigen, dass „dünnes Handelsvolumen und mangelnde Liquidität es extrem schwierig machen, Wetten zu platzieren“, wobei der „sogenannte Preis, der von Medien zitiert wird ... lediglich eine Phantomzahl ist und nicht die Realität widerspiegelt.“ Eine einzige kleine Wette von ein paar tausend Dollar kann Märkte um mehrere Prozentpunkte bewegen. Fazit: „Diese Prognosemärkte sollten von den Medien nicht als glaubwürdige, zuverlässige Indikatoren zitiert werden.“

Das Works in Progress Magazine argumentiert: „Prognosemärkte in ihrer jetzigen Form sind im besten Fall wahrscheinlich ähnlich genau wie andere hochwertige Quellen“ wie Metaculus und 538. Der Artikel identifiziert ein grundlegendes strukturelles Problem: Prognosemärkte benötigen sowohl „Smart Money“ ALS AUCH „Dumb Money“, aber eine unzureichende Beteiligung von Kleinanlegern untergräbt das Modell. Die Nullsummennatur schreckt institutionelle Anleger ab, da „jeder Gewinner einen entsprechenden und entgegengesetzten Verlierer erfordert.“ Die meisten potenziellen Prognosemärkte, die rechtlich existieren könnten, existieren nicht – was darauf hindeutet, dass nicht die Regulierung das Haupthindernis ist, sondern der Mangel an echter Nachfrage.

Der Statistical Modeling Blog der Columbia University merkt an: „Prognosemärkte sind nicht sehr nützlich, bis sie konvergiert sind, und das passiert erst kurz vor dem Ereignis ... bis dahin ist es meist zu spät, als dass die Ergebnisse noch eine Rolle spielen würden.“ Wetter hätten keine besseren Informationen als alle anderen, „nur Geld, das sie herumwerfen können.“ Die Kritik stellt in Frage, ob implizierte Wahrscheinlichkeiten angesichts fragwürdiger Annahmen über die Rationalität und Motivation der Wetter gültig sind.

Ausgewogene Bewertung: Nebenfluss statt Flutwelle

Prognosemärkte zeigen, was sie gut können: verteilte Informationen effektiv aggregieren, wenn sie ordnungsgemäß funktionieren, wobei sie Umfragen bei längeren Prognosehorizonten (über 100 Tage im Voraus) oft übertreffen, Echtzeit-Updates gegenüber langsamen Umfragemethoden bieten und bei den US-Wahlen 2024 eine nachgewiesene Genauigkeit zeigten (Trump 60/40-Wahrscheinlichkeit gegenüber Umfragen, die 50/50 zeigten).

Sie kämpfen mit illiquiden Märkten, die anfällig für Manipulationen sind, einem saisonalen und ereignisgesteuerten Engagement statt dauerhaftem Nutzen, besseren Alternativen für die meisten Anwendungsfälle (Sportwetten, Kryptohandel, traditionelle Derivate), einer Genauigkeit, die Expertenprognosen oder Aggregatoren wie Metaculus nicht überlegen ist, und der Anfälligkeit für Biases, Manipulation und Insiderhandel ohne klare Durchsetzung.

Ob Prognosemärkte die „nächste Welle“ im Kryptobereich darstellen, hängt von der Definition ab. Das bullische Szenario: Realwelt-Nutzen über Spekulation hinaus, beschleunigte institutionelle Adoption (Interesse von ICE, Citadel), entstehende regulatorische Klarheit, KI-Integration, die neue Möglichkeiten eröffnet, und Vitalik Buterins Vision von „Info-Finance“, die über das reine Wetten hinausgeht. Das bärische Szenario: Nischenanwendung ohne Massenmarkt-Attraktivität, traditionelles Finanzwesen, das Absicherungsbedürfnisse bereits besser erfüllt, eine potenziell fundamentale und unlösbare Liquiditätskrise, verbleibende regulatorische Risiken (Glücksspielkonflikte auf staatlicher Ebene) und mehr Hype als Substanz mit einer Medienberichterstattung, die die tatsächliche Nutzung übersteigt.

Wahrscheinlichstes Ergebnis: Prognosemärkte werden erheblich wachsen, aber eher spezialisierte Werkzeuge als eine transformative „nächste Welle“ bleiben. Die institutionelle Adoption für spezifische Anwendungsfälle (Stimmungsindikatoren, Absicherung von Ereignissen) wird sich fortsetzen. Ein Wachstum bei Wahl- und Sportwetten unter regulatorischer Duldung scheint sicher. Sie werden eine Nischenposition im breiteren Krypto-Ökosystem neben DeFi, NFTs und Gaming einnehmen, anstatt diese Kategorien zu verdrängen. Ein Erfolg als ergänzende Datenquelle anstatt als Ersatz für traditionelle Prognosen erscheint realistisch. Der letztendliche Erfolg hängt von der Lösung der Liquiditätsprobleme und dem Nachweis einzigartiger Wertversprechen ab, wo traditionelle Alternativen fehlen.

Der Übergang von Memecoins zu Prognosemärkten stellt eine Reifung des Kryptomarktes dar – weg von der reinen Spekulation auf wertlose Token hin zu nutzenorientierten Anwendungen mit nachweisbarem Realwelt-Wert. John Wangs 10x-These könnte sich in dem Sinne als richtig erweisen, dass Prognosemärkte im Vergleich zu Memecoins die 10-fache Legitimität, institutionelle Adoption und nachhaltige Geschäftsmodelle erreichen. Ob sie das 10-fache Handelsvolumen oder die 10-fache Marktkapitalisierung erreichen, bleibt ungewiss und hängt von der Bewältigung der identifizierten grundlegenden Herausforderungen ab.

Zukunftsweisende Szenarien lassen drei Pfade vermuten. Das optimistische Szenario (30 % Wahrscheinlichkeit) sieht regulatorische Klarheit in den USA und Europa bis 2026, eine erfolgreiche institutionelle Adoption durch die ICE-Partnerschaft, die Lösung von Liquiditäts- und Markterstellungsproblemen durch KI-Integration, Prognosemärkte als Standarddatenquellen für Finanzinstitute und eine Marktgröße von über 50 Milliarden $ bis 2030, eingebettet in Bloomberg-Terminals und Handelsplattformen.

Das Basisszenario (50 % Wahrscheinlichkeit) prognostiziert ein Wachstum auf 10 bis 20 Milliarden $ bis 2030, wobei der Sektor eine Nische bleibt, eine starke Position bei Wahlwetten, Sport und einigen Makroereignissen beibehält, neben traditionellen Prognosen als ergänzendes Werkzeug koexistiert, eine begrenzte institutionelle Adoption für spezifische Anwendungsfälle erfährt, fragmentierte Märkte durch regulatorischen Flickenteppich entstehen und anhaltende Liquiditätsprobleme für Long-Tail-Märkte bestehen bleiben.

Das pessimistische Szenario (20 % Wahrscheinlichkeit) sieht ein hartes regulatorisches Vorgehen nach Manipulationsskandalen, eine sich verschlechternde Liquiditätskrise bei schwindendem Interesse der Privatanleger nach den Wahlen, eine anhaltende Dominanz traditioneller Finanzalternativen, einen Bewertungseinbruch bei enttäuschendem Wachstum, eine Marktkonsolidierung auf 1 bis 2 Plattformen, die eine schrumpfende Nutzerbasis bedienen, und ein Verblassen des „Prognosemarkt-Moments“, während das nächste Krypto-Narrativ entsteht.

Fazit: Evolution statt Revolution

Prognosemärkte erreichten in den Jahren 2024–2025 echte Durchbrüche: wegweisende Gerichtssiege zur Etablierung regulatorischer Rahmenbedingungen, Investitionen in Höhe von 2 Milliarden US-Dollar durch die Muttergesellschaft der NYSE, eine nachgewiesene überlegene Genauigkeit bei der Vorhersage der Präsidentschaftswahl 2024, ein kumuliertes Handelsvolumen von über 13 Milliarden US-Dollar und der Übergang von einem Randphänomen der Krypto-Experimente zu einer Infrastruktur, die institutionelle Validierung erfährt. John Wangs These, dass Prognosemärkte Memecoins in Bezug auf Legitimität, Nachhaltigkeit und Nutzen übertreffen würden, hat sich als richtig erwiesen – die grundlegenden Unterschiede zwischen transparenten, ergebnisbasierten Märkten und reiner Spekulation sind real und bedeutsam.

Dennoch steht der Sektor vor Herausforderungen bei der Umsetzung, die darüber entscheiden werden, ob er eine breite Akzeptanz im Mainstream erreicht oder eine spezialisierte Nische bleibt. Liquiditätsengpässe ermöglichen Manipulationen in fast allen außer den größten Märkten. Die Nachhaltigkeit des Volumens nach den Wahlen ist noch nicht bewiesen. Das traditionelle Finanzwesen bietet überlegene Alternativen für die meisten Hedging- und Prognosebedarfe. Regulatorische Konflikte auf staatlicher Ebene führen zu fragmentierten Compliance-Anforderungen. Die Kluft zwischen dem Medienhype und der tatsächlichen Nutzerbeteiligung besteht weiterhin.

Das Narrativ „Prognosemärkte als die nächste Welle nach den Memecoins“ ist im Kern zutreffend als Aussage über die Reifung des Kryptomarktes und die Reallokation von Kapital von reiner Spekulation hin zum Nutzen. John Wangs Vision von Prognosemärkten als „Trojanisches Pferd“ der Krypto-Welt – zugängliche Einstiegspunkte für Mainstream-Nutzer – zeigt vielversprechende Ansätze durch die Integration von Robinhood und Partnerschaften im traditionellen Finanzwesen. Vitalik Buterins „Info-Finance“-Framework bietet überzeugendes langfristiges Potenzial, sofern die Herausforderungen der KI-Integration und Liquidität gelöst werden können.

Doch Prognosemärkte sind eher als ein Nebenfluss denn als eine Flutwelle zu verstehen – eine bedeutende Innovation, die in spezifischen Anwendungen legitimen Wert schafft und gleichzeitig eine spezialisierte Position innerhalb des breiteren Finanzökosystems einnimmt. Sie stehen für eine Evolution des Nutzens und der Reifung von Krypto, nicht für eine Revolution in der Art und Weise, wie Menschen Informationen vorhersagen und aggregieren. Die kommenden 12–24 Monate werden zeigen, ob Prognosemärkte die kühnen Prognosen erfüllen oder sich in einer wertvollen, aber letztlich bescheidenen Rolle als ein Werkzeug unter vielen im Informationszeitalter einfinden.

Was sind Prognosemärkte? Mechanismen, Auswirkungen und Chancen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Prognosemärkte (der in Forschungs- und Unternehmenskontexten bevorzugte Begriff) und Wettmärkte (die gängigere Verbraucherbezeichnung) sind zwei Seiten derselben Medaille. Beide ermöglichen es den Teilnehmern, Kontrakte zu handeln, deren Endwert durch das Ergebnis eines zukünftigen Ereignisses bestimmt wird. Im US-amerikanischen Regulierungsrahmen werden diese allgemein als Ereigniskontrakte bezeichnet – Finanzderivate mit einer Auszahlung, die an ein spezifisches, beobachtbares Ereignis oder einen Wert gebunden ist, wie z. B. einen Inflationsbericht, die Intensität eines Sturms oder ein Wahlergebnis.

Das gebräuchlichste Format ist der binäre Kontrakt. Bei dieser Struktur wird ein „Ja“-Anteil auf \$1 abgerechnet, wenn das Ereignis eintritt, und auf \$0, wenn es nicht eintritt. Der Marktpreis dieses „Ja“-Anteils kann als die geschätzte Wahrscheinlichkeit des Kollektivs für das Eintreten des Ereignisses interpretiert werden. Wenn beispielsweise ein „Ja“-Anteil bei \$0.63 gehandelt wird, signalisiert der Markt eine ungefähre 63%ige Chance, dass das Ereignis eintreten wird.

Arten von Kontrakten

  • Binär: Eine einfache Ja/Nein-Frage zu einem einzelnen Ergebnis. Beispiel: „Wird das BLS den Kern-VPI im Jahresvergleich für Dezember 2025 mit ≥ 3,0% ausweisen?“
  • Kategorisch: Ein Markt mit mehreren, sich gegenseitig ausschließenden Ergebnissen, bei dem nur eines der Gewinner sein kann. Beispiel: „Wer wird die Wahl zum Bürgermeister von New York City gewinnen?“ mit Optionen für jeden Kandidaten.
  • Skalar: Ein Markt, bei dem das Ergebnis auf einem kontinuierlichen Spektrum liegt, oft mit Auszahlungen, die in Bereiche unterteilt oder durch eine lineare Formel bestimmt werden. Beispiel: „Wie viele Zinssenkungen wird die Federal Reserve im Jahr 2026 ankündigen?“

Preise lesen

Wenn ein „Ja“-Anteil eines binären Kontrakts, der \$1 auszahlt, zum Preis pp gehandelt wird, dann beträgt die implizite Wahrscheinlichkeit ungefähr pp, und die Quoten sind p/(1p)p / (1-p). In einem kategorischen Markt mit mehreren Ergebnissen sollten die Preise aller Anteile zusammen ungefähr \$1 ergeben (Abweichungen sind normalerweise auf Handelsgebühren oder Liquiditätsspannen zurückzuführen).

Warum sind diese Märkte wichtig?

Über die bloße Spekulation hinaus erfüllen gut konzipierte Prognosemärkte wertvolle Funktionen:

  • Informationsaggregation: Märkte können große Mengen verstreuten Wissens zu einem einzigen, Echtzeit-Preissignal synthetisieren. Studien haben gezeigt, dass sie einfache Benchmarks und manchmal sogar traditionelle Umfragen übertreffen, wenn die Fragen gut spezifiziert sind und der Markt über ausreichende Liquidität verfügt.
  • Operativer Wert: Unternehmen haben interne Prognosemärkte erfolgreich eingesetzt, um Produkteinführungsdaten vorherzusagen, die Nachfrage zu prognostizieren und das Risiko der Erreichung vierteljährlicher Ziele (OKRs) zu bewerten. Die akademische Literatur hebt sowohl ihre Stärken als auch das Potenzial für Verhaltensverzerrungen hervor, wie z. B. Optimismus in „Hausmärkten“.
  • Öffentliche Prognosen: Langjährige akademische und politische Programme, wie die Iowa Electronic Markets (IEM) und die Nicht-Markt-Prognoseplattform Good Judgment, zeigen, dass sorgfältiges Fragedesign und angemessene Anreize hoch nützliche Daten zur Entscheidungsunterstützung liefern können.

Marktdesign: Drei Kernmechanismen

Die Engine eines Prognosemarktes kann auf verschiedene Weisen aufgebaut werden, jede mit unterschiedlichen Eigenschaften.

1) Zentrale Limit-Orderbücher (CLOB)

  • Funktionsweise: Dies ist das klassische Börsenmodell, bei dem Händler „Limit“-Orders zum Kauf oder Verkauf zu bestimmten Preisen platzieren. Eine Engine gleicht Kauf- und Verkaufsorders ab und erzeugt so einen Marktpreis und eine sichtbare Orderbuchtiefe. Frühe On-Chain-Systeme wie Augur nutzten Orderbücher.
  • Vorteile: Vertraute Preisfindung für erfahrene Händler.
  • Nachteile: Kann unter geringer Liquidität leiden, wenn keine engagierten Market Maker ständig Geld- und Briefkurse stellen.

2) LMSR (Logarithmic Market Scoring Rule)

  • Idee: Von dem Ökonomen Robin Hanson entwickelt, ist die LMSR ein kostenfunktionsbasierter automatischer Market Maker, der stets Preise für alle Ergebnisse notiert. Ein Parameter, bb, steuert die Markttiefe oder Liquidität. Die Preise werden aus dem Gradienten der Kostenfunktion abgeleitet: C(mathbfq)=blnsum_ieq_i/bC(\\mathbf{q})=b\\ln\\sum\_i e^{q\_i/b}.
  • Warum es verwendet wird: Es bietet elegante mathematische Eigenschaften, einen begrenzten Verlust für den Market Maker und unterstützt Märkte mit vielen Ergebnissen auf elegante Weise.
  • Nachteile: Kann rechenintensiv und daher gasintensiv sein, um direkt On-Chain implementiert zu werden.

3) FPMM/CPMM (Fixed/Constant Product AMM)

  • Idee: Dieses Modell adaptiert die beliebte Konstante-Produkt-Formel (xtimesy=kx \\times y = k) von DEXs wie Uniswap für Prognosemärkte. Ein Pool wird mit Tokens erstellt, die jedes Ergebnis repräsentieren (z. B. JA-Tokens und NEIN-Tokens), und der AMM liefert kontinuierliche Preisnotierungen.
  • Wo verwendet: Die Omen-Plattform von Gnosis war Vorreiter bei der Verwendung des FPMM für bedingte Tokens. Es ist praktisch, relativ gas-effizient und für Entwickler einfach zu integrieren.

Beispiele und die aktuelle US-Landschaft (Stand August 2025)

  • Kalshi (U.S. DCM): Eine bundesstaatlich regulierte Börse (Designated Contract Market), die eine Vielzahl von Ereigniskontrakten listet. Nach günstigen Urteilen von Bezirks- und Berufungsgerichten im Jahr 2024 und der anschließenden Entscheidung der CFTC, ihren Einspruch im Jahr 2025 fallen zu lassen, konnte Kalshi bestimmte politische und andere Ereigniskontrakte listen, obwohl der Bereich weiterhin Gegenstand laufender politischer Debatten und einiger Herausforderungen auf Landesebene ist.
  • QCX LLC d/b/a Polymarket US (U.S. DCM): Am 9. Juli 2025 hat die CFTC die QCX LLC als Designated Contract Market benannt. Einreichungen deuten darauf hin, dass das Unternehmen unter dem angenommenen Namen „Polymarket US“ firmieren wird. Dies schafft einen regulierten Weg für US-Benutzer, auf Ereigniskontrakte zuzugreifen, und ergänzt die globale On-Chain-Plattform von Polymarket.
  • Polymarket (Global, On-chain): Eine führende dezentrale Plattform, die das Gnosis Conditional Token Framework (CTF) verwendet, um binäre Ergebnis-Tokens (ERC-1155) zu erstellen. Historisch gesehen blockierte sie US-Benutzer nach einer Einigung mit der CFTC im Jahr 2022, bewegt sich aber nun über QCX auf eine regulierte US-Präsenz zu.
  • Omen (Gnosis/CTF): Eine vollständig On-Chain-Prognosemarkt-Plattform, die auf dem Gnosis-Stack basiert und einen FPMM-Mechanismus mit bedingten Tokens verwendet. Sie stützt sich auf Community-Governance und dezentrale Schlichtungsdienste wie Kleros zur Auflösung.
  • Iowa Electronic Markets (IEM): Ein langjähriger, universitätsbetriebener Markt für akademische Forschung und Lehre, der mit kleinen Einsätzen arbeitet. Er dient als wertvolle akademische Basislinie für die Marktgenauigkeit.
  • Manifold: Eine beliebte soziale Prognosemarkt-Website mit „Spielgeld“. Sie ist eine ausgezeichnete Umgebung, um mit dem Fragedesign zu experimentieren, Benutzererfahrungsmuster zu beobachten und das Community-Engagement ohne finanzielles Risiko zu fördern.

Hinweis zur Regulierung: Die Landschaft entwickelt sich weiter. Im Mai 2024 erließ die CFTC eine vorgeschlagene Regelung, die darauf abzielte, bestimmte Ereigniskontrakte (im Zusammenhang mit Wahlen, Sport und Auszeichnungen) kategorisch von der Listung an CFTC-registrierten Veranstaltungsorten zu verbieten. Dieser Vorschlag löste eine aktive Debatte aus, die sich mit dem Kalshi-Rechtsstreit und den nachfolgenden Maßnahmen der Behörde überschnitt. Entwickler und Benutzer sollten stets die aktuellen Regeln überprüfen.

Unter der Haube: Von der Frage zur Abrechnung

Der Aufbau eines Prognosemarktes umfasst mehrere wichtige Schritte:

  1. Fragedesign: Die Grundlage jedes guten Marktes ist eine gut formulierte Frage. Es muss eine klare, überprüfbare Aufforderung mit einem eindeutigen Auflösungsdatum, einer Uhrzeit und einer Datenquelle sein. Zum Beispiel: „Wird das Bureau of Labor Statistics den Kern-VPI im Jahresvergleich für Dezember 2025 in seiner ersten offiziellen Veröffentlichung mit ≥ 3,0% ausweisen?“ Vermeiden Sie zusammengesetzte Fragen und subjektive Ergebnisse.
  2. Auflösung: Wie wird die Wahrheit ermittelt?
  • Zentraler Resolver: Der Plattformbetreiber erklärt das Ergebnis basierend auf der vorher festgelegten Quelle. Dies ist schnell, erfordert aber Vertrauen.
  • On-Chain-Orakel/Streitfall: Das Ergebnis wird von einem dezentralen Orakel bestimmt, mit einem Streitbeilegungsprozess (wie Community-Schlichtung oder Token-Inhaber-Abstimmungsspielen) als Absicherung. Dies bietet glaubwürdige Neutralität.
  1. Mechanismus: Welche Engine wird den Markt antreiben?
  • Orderbuch: Am besten, wenn Sie engagierte Market-Making-Partner haben, die enge Spreads gewährleisten können.
  • AMM (FPMM/CPMM): Ideal für „Always-on“-Liquidität und einfachere On-Chain-Integration.
  • LMSR: Eine gute Wahl für Märkte mit mehreren Ergebnissen, erfordert jedoch die Verwaltung von Gas-/Rechenkosten (oft über Off-Chain-Berechnungen oder ein L2).
  1. Sicherheiten & Tokens: On-Chain-Designs verwenden oft das Gnosis Conditional Token Framework, das jedes potenzielle Ergebnis (z. B. JA und NEIN) als separate ERC-1155-Assets tokenisiert. Dies macht die Abrechnung, das Portfoliomanagement und die Kompatibilität mit anderen DeFi-Protokollen unkompliziert.

Wie genau sind diese Märkte wirklich?

Eine große Menge an Beweisen in vielen Bereichen zeigt, dass marktgenerierte Prognosen typischerweise recht genau sind und oft moderate Benchmarks übertreffen. Auch Unternehmens-Prognosemärkte haben sich als wertsteigernd erwiesen, obwohl sie manchmal hausspezifische Verzerrungen aufweisen können.

Es ist auch wichtig zu beachten, dass Prognoseplattformen ohne Finanzmärkte, wie Metaculus, ebenfalls hochpräzise Ergebnisse liefern können, wenn Anreize und Aggregationsmethoden gut konzipiert sind. Sie sind eine nützliche Ergänzung zu Märkten, insbesondere für Fragen mit langem Horizont oder Themen, die schwer sauber zu lösen sind.

Risiken und Fehlermodi

  • Auflösungsrisiko: Das Marktergebnis kann durch mehrdeutige Fragestellungen, unerwartete Datenrevisionen einer Quelle oder ein umstrittenes Ergebnis beeinträchtigt werden.
  • Liquidität & Manipulation: Dünn gehandelte Märkte sind fragil, und ihre Preise können durch große Trades leicht bewegt werden.
  • Überinterpretation: Preise spiegeln Wahrscheinlichkeiten wider, keine Gewissheiten. Berücksichtigen Sie immer Handelsgebühren, Geld-Brief-Spannen und die Liquiditätstiefe, bevor Sie starke Schlussfolgerungen ziehen.
  • Compliance-Risiko: Dies ist ein stark regulierter Bereich. In den USA dürfen nur CFTC-regulierte Veranstaltungsorte Ereigniskontrakte legal US-Personen anbieten. Plattformen, die ohne ordnungsgemäße Registrierung betrieben werden, wurden mit Durchsetzungsmaßnahmen konfrontiert. Überprüfen Sie immer die lokalen Gesetze.

Für Entwickler: Eine praktische Checkliste

  1. Beginnen Sie mit der Frage: Es muss eine einzelne, falsifizierbare Behauptung sein. Geben Sie an, wer, was, wann und die genaue Auflösungsquelle.
  2. Wählen Sie einen Mechanismus: Orderbuch (wenn Sie Market Maker haben), FPMM/CPMM (für „Set-and-Forget“-Liquidität) oder LMSR (für Klarheit bei mehreren Ergebnissen, unter Berücksichtigung der Rechenkosten).
  3. Definieren Sie die Auflösung: Wird es ein schneller zentralisierter Resolver oder ein glaubwürdig neutrales On-Chain-Orakel mit einem Streitbeilegungsprozess sein?
  4. Liquidität aufbauen: Versorgen Sie den Markt mit anfänglicher Tiefe. Erwägen Sie, Anreize, Gebührenrückerstattungen anzubieten oder mit gezielten Market Makern zusammenzuarbeiten.
  5. Instrumentieren Sie die UX: Zeigen Sie die implizite Wahrscheinlichkeit deutlich an. Zeigen Sie die Geld-Brief-Spanne und die Liquiditätstiefe an und warnen Sie Benutzer vor Märkten mit geringer Liquidität.
  6. Planen Sie die Governance: Definieren Sie ein Einspruchsfenster, verlangen Sie Streitbürgschaften und legen Sie Notfallverfahren für den Umgang mit fehlerhaften Daten oder unvorhergesehenen Ereignissen fest.
  7. Sauber integrieren: Für On-Chain-Builds ist die Kombination Gnosis Conditional Tokens + FPMM ein bewährter Weg. Für Off-Chain-Anwendungen verwenden Sie die API eines regulierten Anbieters, wo dies zulässig ist.
  8. Compliance beachten: Behalten Sie die sich entwickelnde Regelsetzung der CFTC zu Ereigniskontrakten und alle relevanten Vorschriften auf Landesebene genau im Auge.

Glossar

  • Ereigniskontrakt (US-Begriff): Ein Derivat, dessen Auszahlung vom Ergebnis eines bestimmten Ereignisses abhängt; oft binär (Ja/Nein).
  • LMSR: Logarithmic Market Scoring Rule, eine Art von AMM, bekannt für ihre Eigenschaften des begrenzten Verlusts.
  • FPMM/CPMM: Fixed/Constant Product Market Maker, ein AMM-Modell, das von DEXs für den Handel mit Ergebnis-Tokens adaptiert wurde.
  • Bedingte Tokens (CTF): Ein von Gnosis entwickeltes Framework zur Ausgabe von ERC-1155-Tokens, die Positionen in einem Ergebnis repräsentieren und eine zusammensetzbare Abrechnung ermöglichen.

Verantwortungsvolle Nutzung & Haftungsausschluss

Nichts in diesem Artikel stellt eine Rechts-, Steuer- oder Anlageberatung dar. In vielen Gerichtsbarkeiten sind Ereigniskontrakte streng reguliert und können als eine Form des Glücksspiels behandelt werden. In den USA ist es entscheidend, die CFTC-Regeln und alle Positionen auf Landesebene zu überprüfen und registrierte Veranstaltungsorte zu nutzen, wo dies erforderlich ist.

Weiterführende Literatur (Auswahl)

Hyperliquid im Jahr 2025: Eine Hochleistungs-DEX, die die Zukunft der On-Chain-Finanzwelt gestaltet

· 44 Min. Lesezeit
Dora Noda
Software Engineer

Dezentrale Börsen (DEXs) haben sich zu zentralen Säulen des Krypto-Handels entwickelt und machen heute etwa 20 % des gesamten Marktvolumens aus. Innerhalb dieses Bereichs hat sich Hyperliquid als unangefochtener Marktführer bei On-Chain-Derivaten etabliert. Im Jahr 2022 mit dem ehrgeizigen Ziel gestartet, die Performance zentralisierter Börsen (CEX) On-Chain zu erreichen, verarbeitet Hyperliquid heute Milliarden im täglichen Handel und kontrolliert etwa 70–75 % des DEX Perpetual Futures-Marktes. Dies wird durch die Kombination von CEX-ähnlicher Geschwindigkeit und tiefer Liquidität mit DeFis Transparenz und Selbstverwahrung erreicht. Das Ergebnis ist eine vertikal integrierte Layer-1-Blockchain und Börse, die viele heute als „die Blockchain, die alle Finanzen beherbergen wird“ bezeichnen. Dieser Bericht befasst sich mit Hyperliquids technischer Architektur, Tokenomics, Wachstumskennzahlen für 2025, Vergleichen mit anderen DEX-Führern, Ökosystementwicklungen und seiner Vision für die Zukunft der On-Chain-Finanzwelt.

Technische Architektur: Eine vertikal integrierte Hochleistungskette

Hyperliquid ist nicht nur eine DEX-Anwendung – es ist eine komplette Layer-1-Blockchain, die für Handelsperformance entwickelt wurde. Ihre Architektur besteht aus drei eng gekoppelten Komponenten, die in einem einheitlichen Zustand arbeiten:

  • HyperBFT (Konsens): Ein benutzerdefinierter, Byzantinisch fehlertoleranter Konsensmechanismus, optimiert für Geschwindigkeit und Durchsatz. Inspiriert von modernen Protokollen wie HotStuff bietet HyperBFT Sub-Sekunden-Finalität und hohe Konsistenz, um sicherzustellen, dass alle Nodes sich über die Reihenfolge der Transaktionen einig sind. Dieser Proof-of-Stake-Konsens ist darauf ausgelegt, die intensive Last einer Handelsplattform zu bewältigen und in der Praxis in der Größenordnung von 100.000–200.000 Operationen pro Sekunde zu unterstützen. Anfang 2025 verfügte Hyperliquid über rund 27 unabhängige Validatoren, die das Netzwerk sicherten, eine Zahl, die stetig wächst, um den Konsens zu dezentralisieren.
  • HyperCore (Ausführungs-Engine): Eine spezialisierte On-Chain-Engine für Finanzanwendungen. Anstatt generische Smart Contracts für kritische Börsenlogik zu verwenden, implementiert HyperCore integrierte zentrale Limit-Orderbücher (CLOBs) für Perpetual Futures- und Spotmärkte, sowie weitere Module für Kreditvergabe, Auktionen, Orakel und mehr. Jede Orderplatzierung, Stornierung, Handelsübereinstimmung und Liquidation wird On-Chain mit Ein-Block-Finalität verarbeitet, was Ausführungsgeschwindigkeiten liefert, die mit traditionellen Börsen vergleichbar sind. Durch das Vermeiden von AMMs und die Abwicklung der Orderübereinstimmung innerhalb des Protokolls erreicht Hyperliquid tiefe Liquidität und geringe Latenz – es hat eine <1s Handelsfinalität und einen Durchsatz gezeigt, der mit zentralisierten Handelsplätzen konkurriert. Diese benutzerdefinierte Ausführungsschicht (in Rust geschrieben) kann nach jüngsten Optimierungen Berichten zufolge bis zu 200.000 Orders pro Sekunde verarbeiten, wodurch die Engpässe beseitigt werden, die On-Chain-Orderbücher zuvor unmöglich machten.
  • HyperEVM (Smart Contracts): Eine allgemeine Ethereum-kompatible Ausführungsschicht, die im Februar 2025 eingeführt wurde. HyperEVM ermöglicht es Entwicklern, Solidity Smart Contracts und dApps auf Hyperliquid mit voller EVM-Kompatibilität bereitzustellen, ähnlich wie beim Bau auf Ethereum. Entscheidend ist, dass HyperEVM kein separater Shard oder Rollup ist – es teilt den gleichen vereinheitlichten Zustand mit HyperCore. Das bedeutet, dass dApps auf HyperEVM nativ mit den Orderbüchern und der Liquidität der Börse interoperieren können. Zum Beispiel kann ein Kreditprotokoll auf HyperEVM Live-Preise aus HyperCores Orderbuch lesen oder sogar Liquidationsorders direkt über Systemaufrufe in das Orderbuch einstellen. Diese Komponierbarkeit zwischen Smart Contracts und der Hochgeschwindigkeits-Börsenschicht ist ein einzigartiges Design: keine Bridges oder Off-Chain-Orakel sind erforderlich, damit dApps Hyperliquids Handelsinfrastruktur nutzen können.

Abbildung: Hyperliquids vertikal integrierte Architektur, die den vereinheitlichten Zustand zwischen Konsens (HyperBFT), Ausführungs-Engine (HyperCore), Smart Contracts (HyperEVM) und Asset Bridging (HyperUnit) zeigt.

Integration mit On-Chain-Infrastruktur: Durch den Aufbau einer eigenen Chain integriert Hyperliquid normalerweise isolierte Funktionen fest in eine Plattform. HyperUnit ist zum Beispiel Hyperliquids dezentralisiertes Bridging- und Asset-Tokenisierungsmodul, das direkte Einzahlungen externer Assets wie BTC, ETH und SOL ohne Custodial Wrappers ermöglicht. Benutzer können native BTC oder ETH sperren und äquivalente Tokens (z. B. uBTC, uETH) auf Hyperliquid als Handels-Collateral erhalten, ohne sich auf zentralisierte Verwahrer verlassen zu müssen. Dieses Design bietet „echte Sicherheitenmobilität“ und ein regulatorisch bewussteres Framework, um reale Assets On-Chain zu bringen. Dank HyperUnit (und Circles USDC-Integration, die später besprochen wird) können Trader auf Hyperliquid Liquidität nahtlos von anderen Netzwerken in Hyperliquids schnelle Handelsumgebung verschieben.

Performance und Latenz: Alle Teile des Stacks sind auf minimale Latenz und maximalen Durchsatz optimiert. HyperBFT finalisiert Blöcke innerhalb einer Sekunde, und HyperCore verarbeitet Trades in Echtzeit, sodass Benutzer eine nahezu sofortige Orderausführung erleben. Es gibt praktisch keine Gasgebühren für Handelsaktionen – HyperCore-Transaktionen sind gebührenfrei, was eine Hochfrequenz-Orderplatzierung und -stornierung ohne Kosten für die Benutzer ermöglicht. (Normale EVM-Vertragsaufrufe auf HyperEVM verursachen eine geringe Gasgebühr, aber die Operationen der Börse laufen gasfrei auf der nativen Engine.) Dieses gasfreie, latenzarme Design macht erweiterte Handelsfunktionen On-Chain praktikabel. Tatsächlich unterstützt Hyperliquid die gleichen erweiterten Orderarten und Risikokontrollen wie Top-CEXs, wie Limit- und Stop-Orders, Cross-Margining und bis zu 50× Hebelwirkung auf wichtigen Märkten. Zusammenfassend eliminiert Hyperliquids benutzerdefinierte L1-Chain den traditionellen Kompromiss zwischen Geschwindigkeit und Dezentralisierung. Jede Operation ist On-Chain und transparent, doch die Benutzererfahrung – in Bezug auf Ausführungsgeschwindigkeit und Benutzeroberfläche – gleicht der einer professionellen zentralisierten Börse.

Evolution und Skalierbarkeit: Hyperliquids Architektur entstand aus First-Principles-Engineering. Das Projekt startete 2022 still und leise als geschlossene Alpha-Perpetuals-DEX auf einer benutzerdefinierten Tendermint-basierten Chain, die das CLOB-Konzept mit ~20 Assets und 50× Hebelwirkung bewies. Bis 2023 entwickelte es sich zu einer vollständig souveränen L1 mit dem neuen HyperBFT-Konsens, erreichte über 100.000 Orders pro Sekunde und führte gasfreien Handel sowie Community-Liquiditätspools ein. Die Hinzufügung von HyperEVM Anfang 2025 öffnete die Schleusen für Entwickler und markierte Hyperliquids Entwicklung von einer Einzelzweckbörse zu einer vollständigen DeFi-Plattform. Bemerkenswert ist, dass all diese Verbesserungen das System stabil gehalten haben – Hyperliquid meldet historisch 99,99 % Betriebszeit [25]. Diese Erfolgsbilanz und vertikale Integration verleihen Hyperliquid einen erheblichen technischen Graben: Es kontrolliert den gesamten Stack (Konsens, Ausführung, Anwendung), was eine kontinuierliche Optimierung ermöglicht. Mit steigender Nachfrage verfeinert das Team die Node-Software weiter für noch höheren Durchsatz, um die Skalierbarkeit für die nächste Welle von Benutzern und komplexere On-Chain-Märkte zu gewährleisten.

Tokenomics von $HYPE: Governance, Staking und Wertsteigerung

Hyperliquids wirtschaftliches Design konzentriert sich auf seinen nativen Token $HYPE, der Ende 2024 eingeführt wurde, um die Eigentümerschaft und Governance der Plattform zu dezentralisieren. Der Start und die Verteilung des Tokens waren bemerkenswert Community-zentriert: Im November 2024 führte Hyperliquid ein Airdrop Token Generation Event (TGE) durch und wies 31 % des festen Angebots von 1 Milliarde an frühe Benutzer als Belohnung für ihre Teilnahme zu. Ein noch größerer Teil (≈38,8 %) wurde für zukünftige Community-Anreize wie Liquiditäts-Mining oder Ökosystementwicklung reserviert. Wichtig ist, dass $HYPE keine Zuweisungen an VCs oder private Investoren hatte, was eine Philosophie widerspiegelt, die Community-Eigentümerschaft priorisiert. Diese transparente Verteilung zielte darauf ab, die hohe Insider-Eigentümerschaft, die in vielen Projekten zu sehen ist, zu vermeiden und stattdessen die tatsächlichen Trader und Builder auf Hyperliquid zu stärken.

Der $HYPE-Token erfüllt mehrere Rollen im Hyperliquid-Ökosystem:

  • Governance: $HYPE ist ein Governance-Token, der es Inhabern ermöglicht, über Hyperliquid Improvement Proposals (HIPs) abzustimmen und die Entwicklung des Protokolls zu gestalten. Bereits kritische Upgrades wie HIP-1, HIP-2 und HIP-3 wurden verabschiedet, die erlaubnislose Listing-Standards für Spot-Tokens und Perpetual-Märkte etablierten. Zum Beispiel eröffnete HIP-3 Community-Mitgliedern die Möglichkeit, erlaubnislos neue Perp-Märkte bereitzustellen, ähnlich wie Uniswap es für den Spot-Handel tat, wodurch Long-Tail-Assets (einschließlich traditioneller Markt-Perps) auf Hyperliquid freigeschaltet wurden. Die Governance wird zunehmend über Listings, Parameteranpassungen und die Verwendung von Community-Anreizfonds entscheiden.
  • Staking & Netzwerksicherheit: Hyperliquid ist eine Proof-of-Stake-Chain, daher sichert das Staking von $HYPE an Validatoren das HyperBFT-Netzwerk. Staker delegieren an Validatoren und verdienen einen Teil der Block-Belohnungen und Gebühren. Kurz nach dem Start ermöglichte Hyperliquid das Staking mit einer jährlichen Rendite von ~2–2,5 %, um die Teilnahme am Konsens zu incentivieren. Wenn mehr Benutzer staken, verbessern sich die Sicherheit und Dezentralisierung der Chain. Gestaktes $HYPE (oder derivative Formen wie das kommende beHYPE Liquid Staking) kann auch bei Governance-Abstimmungen verwendet werden, wodurch Sicherheitsteilnehmer mit der Entscheidungsfindung in Einklang gebracht werden.
  • Börsen-Utility (Gebührenrabatte): Das Halten oder Staking von $HYPE gewährt Handelsgebührenrabatte an Hyperliquids Börse. Ähnlich wie Binances BNB oder dYdX's DYDX-Token reduzierte Gebühren bieten, werden aktive Trader incentiviert, $HYPE zu halten, um ihre Kosten zu minimieren. Dies schafft eine natürliche Nachfrage nach dem Token unter der Benutzerbasis der Börse, insbesondere bei Hochvolumen-Tradern.
  • Wertsteigerung durch Rückkäufe: Der auffälligste Aspekt von Hyperliquids Tokenomics ist sein aggressiver Gebühren-zu-Wert-Mechanismus. Hyperliquid verwendet die überwiegende Mehrheit seiner Handelsgebühreneinnahmen, um $HYPE auf dem offenen Markt zurückzukaufen und zu verbrennen, wodurch der Wert direkt an die Token-Inhaber zurückgegeben wird. Tatsächlich werden 97 % aller Protokoll-Handelsgebühren für den Rückkauf von $HYPE verwendet (und der Rest für einen Versicherungsfonds und Liquiditätsanbieter). Dies ist eine der höchsten Gebührenrücklaufquoten in der Branche. Mitte 2025 generierte Hyperliquid über 65 Millionen Dollar an Protokolleinnahmen pro Monat aus Handelsgebühren – und praktisch alles davon floss in $HYPE-Rückkäufe, was einen konstanten Kaufdruck erzeugte. Dieses deflationäre Token-Modell, kombiniert mit einem festen Angebot von 1 Milliarde, bedeutet, dass die Tokenomics von $HYPE auf eine langfristige Wertsteigerung für loyale Stakeholder ausgerichtet sind. Es signalisiert auch, dass Hyperliquids Team auf kurzfristige Gewinne verzichtet (keine Gebühreneinnahmen werden als Gewinn entnommen oder an Insider verteilt; selbst das Kernteam profitiert vermutlich nur als Token-Inhaber), stattdessen werden die Einnahmen an die Community-Schatzkammer und den Token-Wert geleitet.
  • Liquiditätsanbieter-Belohnungen: Ein kleiner Teil der Gebühren (≈3–8 %) wird verwendet, um Liquiditätsanbieter in Hyperliquids einzigartigem HyperLiquidity Pool (HLP) zu belohnen. HLP ist ein On-Chain-USDC-Liquiditätspool, der Market-Making und automatische Abwicklung für die Orderbücher ermöglicht, analog zu einem „LP-Vault“. Benutzer, die USDC an HLP bereitstellen, erhalten im Gegenzug einen Anteil an den Handelsgebühren. Anfang 2025 bot HLP Einlegern eine ~11 % annualisierte Rendite aus den angefallenen Handelsgebühren. Dieser Mechanismus ermöglicht es Community-Mitgliedern, am Erfolg der Börse teilzuhaben, indem sie Kapital zur Absicherung der Liquidität beisteuern (ähnlich im Geist dem GLP-Pool von GMX, aber für ein Orderbuchsystem). Bemerkenswert ist, dass Hyperliquids Versicherungs-Assistance Fund (in $HYPE denominiert) auch einen Teil der Einnahmen verwendet, um HLP-Verluste oder ungewöhnliche Ereignisse abzudecken – zum Beispiel führte ein „Jelly“-Exploit im ersten Quartal 2025 zu einem Fehlbetrag von 12 Millionen Dollar im HLP, der den Pool-Benutzern vollständig erstattet wurde. Das Gebührenrückkaufmodell war so robust, dass trotz dieses Rückschlags die $HYPE-Rückkäufe ungehindert fortgesetzt wurden und HLP profitabel blieb, was eine starke Übereinstimmung zwischen dem Protokoll und seinen Community-Liquiditätsanbietern demonstriert.

Zusammenfassend betonen Hyperliquids Tokenomics Community-Eigentümerschaft, Sicherheit und langfristige Nachhaltigkeit. Das Fehlen von VC-Zuweisungen und die hohe Rückkaufquote waren Entscheidungen, die Vertrauen in organisches Wachstum signalisierten. Die frühen Ergebnisse waren positiv – seit seinem TGE stieg der Preis von $HYPE (Mitte 2025) um das Vierfache, gestützt durch echte Adoption und Einnahmen. Noch wichtiger ist, dass die Benutzer nach dem Airdrop engagiert blieben; die Handelsaktivität beschleunigte sich nach dem Token-Launch tatsächlich, anstatt den typischen Rückgang nach Anreizen zu erleiden. Dies deutet darauf hin, dass das Token-Modell die Benutzeranreize erfolgreich mit dem Wachstum der Plattform in Einklang bringt und einen positiven Kreislauf für Hyperliquids Ökosystem schafft.

Handelsvolumen, Adoption und Liquidität im Jahr 2025

Hyperliquid in Zahlen: Im Jahr 2025 zeichnet sich Hyperliquid nicht nur durch seine Technologie aus, sondern auch durch das schiere Ausmaß seiner On-Chain-Aktivität. Es hat sich schnell und mit großem Abstand zur größten dezentralen Derivatebörse entwickelt und setzt neue Maßstäbe für DeFi. Wichtige Kennzahlen, die Hyperliquids Zugkraft verdeutlichen, sind:

  • Marktbeherrschung: Hyperliquid wickelt im Jahr 2025 etwa 70–77 % des gesamten DEX Perpetual Futures-Volumens ab – einen 8-mal größeren Anteil als der nächste Wettbewerber. Mit anderen Worten, Hyperliquid allein macht weit über drei Viertel des dezentralen Perp-Handels weltweit aus und ist damit der klare Marktführer in seiner Kategorie. (Zum Vergleich: Im ersten Quartal 2025 entsprach dies etwa 56–73 % des dezentralen Perp-Volumens, gegenüber ~4,5 % Anfang 2024 – ein atemberaubender Anstieg in einem Jahr.)
  • Handelsvolumen: Das kumulierte Handelsvolumen auf Hyperliquid überschritt 1,5 Billionen Dollar Mitte 2025, was verdeutlicht, wie viel Liquidität durch seine Märkte geflossen ist. Ende 2024 verzeichnete die Börse bereits tägliche Volumina von etwa 10–14 Milliarden Dollar, und das Volumen stieg mit neuen Benutzerzuflüssen im Jahr 2025 weiter an. Tatsächlich erreichte Hyperliquids wöchentliches Handelsvolumen während Spitzenmarktaktivitäten (z. B. ein Memecoin-Rausch im Mai 2025) bis zu 780 Milliarden Dollar in einer Woche – im Durchschnitt weit über 100 Milliarden Dollar pro Tag – und konkurrierte oder übertraf viele mittelgroße zentralisierte Börsen. Selbst unter stabilen Bedingungen lag Hyperliquid im ersten Halbjahr 2025 bei durchschnittlich 470 Milliarden Dollar wöchentlichem Volumen. Dieses Ausmaß ist für eine DeFi-Plattform beispiellos; Mitte 2025 wickelte Hyperliquid etwa 6 % des *gesamten* Krypto-Handelsvolumens weltweit (einschließlich CEXs) ab und verringerte den Abstand zwischen DeFi und CeFi.
  • Open Interest und Liquidität: Die Tiefe der Hyperliquid-Märkte zeigt sich auch in ihrem Open Interest (OI) – dem Gesamtwert der aktiven Positionen. Das OI wuchs von ~3,3 Milliarden Dollar Ende 2024 auf rund 15 Milliarden Dollar Mitte 2025. Zum Vergleich: Dieses OI entspricht etwa 60–120 % der Niveaus auf großen CEXs wie Bybit, OKX oder Bitget, was darauf hindeutet, dass professionelle Trader große Positionen auf Hyperliquid genauso bequem einsetzen wie auf etablierten zentralisierten Handelsplätzen. Die Orderbuchtiefe auf Hyperliquid für wichtige Paare wie BTC oder ETH soll mit Top-CEXs vergleichbar sein, mit engen Bid-Ask-Spreads. Bei bestimmten Token-Starts (z. B. dem beliebten PUMP Memecoin) erreichte Hyperliquid sogar die tiefste Liquidität und das höchste Volumen aller Handelsplätze und übertraf CEXs für dieses Asset. Dies zeigt, wie ein On-Chain-Orderbuch, wenn es gut konzipiert ist, die CEX-Liquidität erreichen kann – ein Meilenstein in der DEX-Evolution.
  • Benutzer und Adoption: Die Benutzerbasis der Plattform hat sich in den Jahren 2024–2025 dramatisch erweitert. Hyperliquid überschritt Mitte 2025 500.000 einzigartige Benutzeradressen. Allein im ersten Halbjahr 2025 verdoppelte sich die Anzahl der aktiven Adressen nahezu (von ~291.000 auf 518.000). Dieses 78 %ige Wachstum in sechs Monaten wurde durch Mundpropaganda, ein erfolgreiches Empfehlungs- und Punkteprogramm und den Hype um den $HYPE-Airdrop angeheizt (der interessanterweise Benutzer hielt, anstatt nur Söldner anzuziehen – es gab keinen Rückgang der Nutzung nach dem Airdrop, und die Aktivität stieg weiter an). Ein solches Wachstum deutet nicht nur auf einmalige Neugier hin, sondern auf eine echte Adoption durch Trader. Ein erheblicher Teil dieser Benutzer sollen „Wale“ und professionelle Trader sein, die von CEXs migriert sind, angezogen von Hyperliquids Liquidität und niedrigeren Gebühren. Tatsächlich haben Institutionen und Hochvolumen-Handelsfirmen begonnen, Hyperliquid als primären Handelsplatz für Perpetual-Trading zu nutzen, was die Attraktivität von DeFi bestätigt, wenn Performanceprobleme gelöst sind.
  • Einnahmen und Gebühren: Hyperliquids robuste Volumina führen zu erheblichen Protokolleinnahmen (die, wie erwähnt, größtenteils den $HYPE-Rückkäufen zugutekommen). In den letzten 30 Tagen (Stand Mitte 2025) generierte Hyperliquid etwa 65,45 Millionen Dollar an Protokollgebühren. Auf täglicher Basis sind das etwa 2,0–2,5 Millionen Dollar an Gebühren, die aus der Handelsaktivität erzielt werden. Auf Jahresbasis ist die Plattform auf dem besten Weg, über 800 Millionen Dollar an Einnahmen zu erzielen – eine erstaunliche Zahl, die sich den Einnahmen einiger großer zentralisierter Börsen nähert und weit über den typischen DeFi-Protokollen liegt. Dies unterstreicht, wie Hyperliquids hohes Volumen und seine Gebührenstruktur (geringe Gebühren pro Trade, die sich im großen Maßstab summieren) ein florierendes Einnahmemodell zur Unterstützung seiner Token-Ökonomie erzeugen.
  • Total Value Locked (TVL) und Assets: Hyperliquids Ökosystem-TVL – das Assets umfasst, die in seine Chain überbrückt wurden, und Liquidität in seinen DeFi-Protokollen – ist parallel zur Handelsaktivität schnell gestiegen. Anfang des vierten Quartals 2024 (vor dem Token) lag Hyperliquids Chain-TVL bei etwa 0,5 Milliarden Dollar, aber nach dem Token-Launch und der HyperEVM-Erweiterung stieg der TVL Anfang 2025 auf über 2 Milliarden Dollar. Mitte 2025 erreichte er etwa 3,5 Milliarden Dollar (30. Juni 2025) und stieg weiter an. Die Einführung von nativem USDC (über Circle) und anderen Assets erhöhte das On-Chain-Kapital auf geschätzte 5,5 Milliarden Dollar AUM bis Juli 2025. Dies umfasst Assets im HLP-Pool, DeFi-Kreditpools, AMMs und die Sicherheiten-Salden der Benutzer. Hyperliquids HyperLiquidity Pool (HLP) selbst hielt im ersten Halbjahr 2025 einen TVL von etwa 370–500 Millionen Dollar und stellte eine tiefe USDC-Liquiditätsreserve für die Börse bereit. Zusätzlich übertraf der HyperEVM DeFi TVL (ohne die Kernbörse) 1 Milliarde Dollar innerhalb weniger Monate nach dem Start, was ein schnelles Wachstum neuer dApps auf der Chain widerspiegelt. Diese Zahlen positionieren Hyperliquid trotz seiner Spezialisierung fest unter den größten Blockchain-Ökosystemen nach TVL.

Zusammenfassend hat Hyperliquid im Jahr 2025 CEX-ähnliche Volumina und Liquidität erreicht. Es rangiert konstant als Top-DEX nach Volumen und macht sogar einen erheblichen Anteil des gesamten Krypto-Handels aus. Die Fähigkeit, eine halbe Billion Dollar wöchentliches Volumen On-Chain mit einer halben Million Benutzern aufrechtzuerhalten, zeigt, dass das lang gehegte Versprechen von Hochleistungs-DeFi eingelöst wird. Hyperliquids Erfolg erweitert die Grenzen dessen, was On-Chain-Märkte leisten können: Zum Beispiel wurde es zum bevorzugten Ort für schnelle Listings neuer Coins (es ist oft das erste, das Perps für trendige Assets listet, was enorme Aktivität anzieht) und hat bewiesen, dass On-Chain-Orderbücher Blue-Chip-Handel in großem Maßstab bewältigen können (seine BTC- und ETH-Märkte haben eine Liquidität, die mit führenden CEXs vergleichbar ist). Diese Errungenschaften untermauern Hyperliquids Anspruch als potenzielle Grundlage für alle On-Chain-Finanzen in der Zukunft.

Vergleich mit anderen führenden DEXs (dYdX, GMX, UniswapX, etc.)

Der Aufstieg von Hyperliquid lädt zu Vergleichen mit anderen prominenten dezentralen Börsen ein. Jedes der großen DEX-Modelle – von Orderbuch-basierten Derivaten wie dYdX über Liquiditätspool-basierte Perps wie GMX bis hin zu Spot-DEX-Aggregatoren wie UniswapX – verfolgt einen anderen Ansatz, um Performance, Dezentralisierung und Benutzererfahrung auszugleichen. Im Folgenden analysieren wir, wie Hyperliquid im Vergleich zu diesen Plattformen abschneidet:

  • Hyperliquid vs. dYdX: dYdX war der frühe Marktführer bei dezentralen Perps, aber sein ursprüngliches Design (v3) basierte auf einem hybriden Ansatz: ein Off-Chain-Orderbuch und eine Matching-Engine, kombiniert mit einer L2-Abwicklung auf StarkWare. Dies verlieh dYdX eine ordentliche Performance, ging aber auf Kosten der Dezentralisierung und Komponierbarkeit – das Orderbuch wurde von einem zentralen Server betrieben, und das System war nicht offen für allgemeine Smart Contracts. Ende 2023 startete dYdX v4 als Cosmos-App-Chain mit dem Ziel, das Orderbuch innerhalb einer dedizierten PoS-Chain vollständig zu dezentralisieren. Dies ist philosophisch Hyperliquids Ansatz ähnlich (beide bauten benutzerdefinierte Chains für On-Chain-Order-Matching). Hyperliquids entscheidender Vorteil war seine vereinheitlichte Architektur und sein Vorsprung bei der Leistungsoptimierung. Durch die gemeinsame Entwicklung von HyperCore und HyperEVM erreichte Hyperliquid CEX-ähnliche Geschwindigkeit vollständig On-Chain, bevor dYdX's Cosmos-Chain an Zugkraft gewann. Tatsächlich übertraf Hyperliquids Performance dYdX – es kann weitaus mehr Durchsatz (Hunderttausende von Transaktionen/Sekunde) bewältigen und bietet eine Cross-Contract-Komponierbarkeit, die dYdX (eine App-spezifische Chain ohne EVM-Umgebung) derzeit fehlt. Artemis Research stellt fest: Frühere Protokolle machten entweder Kompromisse bei der Performance (wie GMX) oder bei der Dezentralisierung (wie dYdX), aber Hyperliquid lieferte beides und löste die tiefere Herausforderung. Dies spiegelt sich im Marktanteil wider: Bis 2025 kontrolliert Hyperliquid ~75 % des Perp-DEX-Marktes, während dYdX's Anteil auf einstellige Zahlen geschrumpft ist. Praktisch finden Trader Hyperliquids UI und Geschwindigkeit vergleichbar mit dYdX (beide bieten professionelle Börsen-Interfaces, erweiterte Orders usw.), aber Hyperliquid bietet eine größere Asset-Vielfalt und On-Chain-Integration. Ein weiterer Unterschied sind Gebühren- und Token-Modelle: dYdX's Token ist hauptsächlich ein Governance-Token mit indirekten Gebührenrabatten, während Hyperliquids $HYPE direkt Börsenwert (über Rückkäufe) akkumuliert und Staking-Rechte bietet. Zuletzt, in Bezug auf die Dezentralisierung, sind beide PoS-Chains – dYdX hatte beim Start ~20 Validatoren gegenüber Hyperliquids ~27 Anfang 2025 – aber Hyperliquids offenes Builder-Ökosystem (HyperEVM) macht es argumentativ dezentraler in Bezug auf Entwicklung und Nutzung. Insgesamt kann Hyperliquid als der geistige Nachfolger von dYdX angesehen werden: Es nahm das Orderbuch-DEX-Konzept und machte es mit größerer Performance vollständig On-Chain, was sich darin zeigt, dass Hyperliquid erhebliches Volumen sogar von zentralisierten Börsen abzieht (etwas, womit dYdX v3 zu kämpfen hatte).
  • Hyperliquid vs. GMX: GMX repräsentiert das AMM/Pool-basierte Modell für Perpetuals. Es wurde 2022 auf Arbitrum populär, indem es Benutzern ermöglichte, Perps gegen eine gepoolte Liquidität (GLP) mit Orakel-basierter Preisgestaltung zu handeln. GMX's Ansatz priorisierte Einfachheit und null Preisauswirkungen für kleine Trades, aber er opfert etwas Performance und Kapitaleffizienz. Da GMX auf Preis-Orakel und einen einzigen Liquiditätspool angewiesen ist, können große oder häufige Trades eine Herausforderung darstellen – der Pool kann Verluste erleiden, wenn Trader gewinnen (GLP-Inhaber nehmen die Gegenseite der Trades ein), und die Orakel-Preis-Latenz kann ausgenutzt werden. Hyperliquids Orderbuchmodell vermeidet diese Probleme, indem es Trader Peer-to-Peer zu marktgetriebenen Preisen abgleicht, wobei professionelle Market Maker tiefe Liquidität bereitstellen. Dies führt zu weitaus engeren Spreads und besserer Ausführung für große Trades im Vergleich zu GMX's Modell. Im Wesentlichen kompromittiert GMX's Design die Hochfrequenz-Performance (Trades werden nur aktualisiert, wenn Orakel Preise pushen, und es gibt keine schnelle Orderplatzierung/-stornierung), während Hyperliquids Design darin hervorragend ist. Die Zahlen spiegeln dies wider: GMX's Volumina und OI sind um eine Größenordnung kleiner, und sein Marktanteil wurde durch den Aufstieg von Hyperliquid in den Schatten gestellt. Zum Beispiel unterstützte GMX typischerweise weniger als 20 Märkte (meist Large Caps), während Hyperliquid über 100 Märkte einschließlich vieler Long-Tail-Assets anbietet – letzteres ist möglich, weil die Pflege vieler Orderbücher auf Hyperliquids Chain machbar ist, während bei GMX das Hinzufügen neuer Asset-Pools langsamer und riskanter ist. Aus Benutzererfahrungssicht bietet GMX eine einfache Swap-ähnliche Benutzeroberfläche (gut für DeFi-Neulinge), während Hyperliquid ein vollständiges Börsen-Dashboard mit Charts und Orderbüchern für fortgeschrittene Trader bereitstellt. Gebühren: GMX erhebt eine Gebühr von ~0,1 % auf Trades (die an GLP und GMX-Staker geht) und hat keinen Token-Rückkauf; Hyperliquid erhebt sehr niedrige Maker/Taker-Gebühren (in der Größenordnung von 0,01–0,02 %) und verwendet Gebühren, um $HYPE für Inhaber zurückzukaufen. Dezentralisierung: GMX läuft auf Ethereum L2s (Arbitrum, Avalanche) und erbt eine starke Basissicherheit, aber seine Abhängigkeit von einem zentralisierten Preis-Orakel (Chainlink) und einem einzigen Liquiditätspool birgt unterschiedliche zentralisierte Risiken. Hyperliquid betreibt seine eigene Chain, die neuer/weniger kampferprobt ist als Ethereum, aber seine Mechanismen (Orderbuch + viele Maker) vermeiden eine zentralisierte Orakel-Abhängigkeit. Zusammenfassend bietet Hyperliquid im Vergleich zu GMX überlegene Performance und institutionelle Liquidität, auf Kosten einer komplexeren Infrastruktur. GMX bewies, dass es eine Nachfrage nach On-Chain-Perps gibt, aber Hyperliquids Orderbücher haben sich als weitaus skalierbarer für den Hochvolumen-Handel erwiesen.
  • Hyperliquid vs. UniswapX (und Spot-DEXs): UniswapX ist ein kürzlich eingeführter Handelsaggregator für Spot-Swaps (entwickelt von Uniswap Labs), der den besten Preis über AMMs und andere Liquiditätsquellen findet. Obwohl kein direkter Konkurrent bei Perpetuals, repräsentiert UniswapX den neuesten Stand der Spot-DEX-Benutzererfahrung. Es ermöglicht gasfreie, aggregationsoptimierte Token-Swaps, indem es Off-Chain-„Füllern“ erlaubt, Trades für Benutzer auszuführen. Im Gegensatz dazu verwendet Hyperliquids Spot-Handel seine eigenen On-Chain-Orderbücher (und hat auch einen nativen AMM namens HyperSwap in seinem Ökosystem). Wie schneiden sie für einen Benutzer ab, der Spot-Tokens handeln möchte? Performance: Hyperliquids Spot-Orderbücher bieten sofortige Ausführung mit geringer Latenz, ähnlich einer zentralisierten Börse, und dank der fehlenden Gasgebühren auf HyperCore ist die Ausführung einer Order günstig und schnell. UniswapX zielt darauf ab, Benutzern Gas auf Ethereum zu sparen, indem es die Ausführung abstrahiert, aber letztendlich erfolgt die Handelsabwicklung immer noch auf Ethereum (oder anderen zugrunde liegenden Chains) und kann Latenz verursachen (Warten auf Füller und Blockbestätigungen). Liquidität: UniswapX bezieht Liquidität von vielen AMMs und Market Makern über mehrere DEXs hinweg, was großartig für Long-Tail-Tokens auf Ethereum ist; für wichtige Paare hat Hyperliquids einzelnes Orderbuch jedoch oft tiefere Liquidität und weniger Slippage, da sich alle Trader an einem Ort versammeln. Tatsächlich stiegen die Spot-Volumina nach dem Start der Spot-Märkte im März 2024 schnell auf Rekordniveau, wobei große Trader Assets wie BTC, ETH und SOL für den Spot-Handel aufgrund der überlegenen Ausführung in Hyperliquid überbrückten und dann wieder zurückbrückten. UniswapX zeichnet sich durch die Breite des Token-Zugangs aus, während Hyperliquid sich auf Tiefe und Effizienz für eine kuratiertere Auswahl von Assets konzentriert (die über seinen Governance-/Auktionsprozess gelistet werden). Dezentralisierung und UX: Uniswap (und X) nutzen Ethereums sehr dezentrale Basis und sind nicht-custodial, aber Aggregatoren wie UniswapX führen Off-Chain-Akteure (Füller, die Orders weiterleiten) ein – wenn auch auf erlaubnislose Weise. Hyperliquids Ansatz hält alle Handelsaktionen On-Chain mit voller Transparenz, und jedes auf Hyperliquid gelistete Asset profitiert von nativem Orderbuch-Handel plus Komponierbarkeit mit seinen DeFi-Apps. Die Benutzererfahrung auf Hyperliquid ist näher an einer zentralisierten Handels-App (was fortgeschrittene Benutzer bevorzugen), während UniswapX eher wie eine „Meta-DEX“ für Ein-Klick-Swaps ist (praktisch für Gelegenheits-Trades). Gebühren: UniswapX's Gebühren hängen von der verwendeten DEX-Liquidität ab (typischerweise 0,05–0,3 % auf AMMs) plus möglicherweise einem Füller-Anreiz; Hyperliquids Spot-Gebühren sind minimal und oft durch $HYPE-Rabatte ausgeglichen. Kurz gesagt, Hyperliquid konkurriert mit Uniswap und anderen Spot-DEXs, indem es ein neues Modell anbietet: eine Orderbuch-basierte Spot-Börse auf einer benutzerdefinierten Chain. Es hat eine Nische geschaffen, in der Hochvolumen-Spot-Trader (insbesondere für Large-Cap-Assets) Hyperliquid wegen seiner tieferen Liquidität und CEX-ähnlichen Erfahrung bevorzugen, während Retail-Benutzer, die obskure ERC-20s tauschen, möglicherweise immer noch Uniswaps Ökosystem bevorzugen. Bemerkenswert ist, dass Hyperliquids Ökosystem sogar Hyperswap (einen AMM auf HyperEVM mit ~70 Millionen Dollar TVL) eingeführt hat, um Long-Tail-Tokens über AMM-Pools zu erfassen – was anerkennt, dass AMMs und Orderbücher koexistieren und verschiedene Marktsegmente bedienen können.

Zusammenfassung der Hauptunterschiede: Die folgende Tabelle gibt einen Überblick über die wichtigsten Vergleiche:

DEX-PlattformDesign & ChainHandelsmodellPerformanceDezentralisierungGebührenmechanismus
HyperliquidBenutzerdefinierte L1 (HyperBFT PoS, ~27 Validatoren)On-Chain CLOB für Perps/Spot; auch EVM-Apps~0,5s Finalität, 100.000+ Transaktionen/Sek., CEX-ähnliche UIPoS-Chain (Community-betrieben, vereinheitlichter Zustand für dApps)Geringe Handelsgebühren, ~97 % der Gebühren kaufen $HYPE zurück (belohnt indirekt Inhaber)
dYdX v4Cosmos SDK App-Chain (PoS, ~20 Validatoren)On-Chain CLOB nur für Perps (keine allgemeinen Smart Contracts)~1-2s Finalität, hoher Durchsatz (Order-Matching durch Validatoren)PoS-Chain (dezentrales Matching, aber nicht EVM-komponierbar)Handelsgebühren in USDC bezahlt; DYDX-Token für Governance & Rabatte (kein Gebührenrückkauf)
GMXArbitrum & Avalanche (Ethereum L2/L1)AMM gepoolte Liquidität (GLP) mit Orakel-Preisgestaltung für PerpsAbhängig von Orakel-Update (~30s); gut für Gelegenheits-Trades, nicht HFTGesichert durch Ethereum/Avax L1; vollständig On-Chain, aber auf zentralisierte Orakel angewiesen~0,1 % Handelsgebühr; 70 % an Liquiditätsanbieter (GLP), 30 % an GMX-Staker (Umsatzbeteiligung)
UniswapXEthereum Mainnet (und Cross-Chain)Aggregator für Spot-Swaps (leitet über AMMs oder RFQ-Market Maker)~12s Ethereum-Blockzeit (Fills Off-Chain abstrahiert); Gasgebühren abstrahiertLäuft auf Ethereum (hohe Basissicherheit); verwendet Off-Chain-Füller-Nodes für die AusführungVerwendet zugrunde liegende AMM-Gebühren (0,05–0,3 %) + potenziellen Füller-Anreiz; UNI-Token nicht für die Nutzung erforderlich

Im Wesentlichen hat Hyperliquid einen neuen Maßstab gesetzt, indem es die Stärken dieser Ansätze ohne die üblichen Schwächen kombiniert hat: Es bietet die ausgeklügelten Orderarten, Geschwindigkeit und Liquidität einer CEX (übertrifft dYdX's früheren Versuch), ohne die Transparenz und Erlaubnislosigkeit von DeFi zu opfern (verbessert GMX's Performance und Uniswaps Komponierbarkeit). Infolgedessen hat Hyperliquid nicht nur Marktanteile von dYdX oder GMX erobert, sondern den On-Chain-Handelsmarkt tatsächlich erweitert, indem es Trader anzog, die zuvor auf CEXs blieben. Sein Erfolg hat andere dazu angespornt, sich weiterzuentwickeln – zum Beispiel haben sogar Coinbase und Robinhood ein Auge auf den On-Chain-Perps-Markt geworfen, wenn auch bisher mit viel geringerer Hebelwirkung und Liquidität. Wenn dieser Trend anhält, können wir einen Wettbewerbsdruck erwarten, bei dem sowohl CEXs als auch DEXs darum wetteifern, Performance mit Vertrauenslosigkeit zu kombinieren – ein Rennen, in dem Hyperliquid derzeit einen starken Vorsprung genießt.

Ökosystemwachstum, Partnerschaften und Community-Initiativen

Eine der größten Errungenschaften von Hyperliquid im Jahr 2025 ist die Entwicklung von einer Einzelproduktbörse zu einem florierenden Blockchain-Ökosystem. Der Start von HyperEVM löste eine kambrische Explosion von Projekten und Partnerschaften aus, die sich um Hyperliquids Kern herum aufbauten und es nicht nur zu einem Handelsplatz, sondern zu einer vollständigen DeFi- und Web3-Umgebung machten. Hier untersuchen wir die Expansion des Ökosystems und wichtige strategische Allianzen:

Ökosystemprojekte und Entwickler-Zugkraft: Seit Anfang 2025 wurden Dutzende von dApps auf Hyperliquid bereitgestellt, angezogen von seiner integrierten Liquidität und Benutzerbasis. Diese umfassen die gesamte Bandbreite der DeFi-Primitive und erstrecken sich sogar auf NFTs und Gaming:

  • Dezentrale Börsen (DEXs): Neben Hyperliquids nativen Orderbüchern sind Community-basierte DEXs entstanden, um andere Bedürfnisse zu erfüllen. Insbesondere Hyperswap wurde als AMM auf HyperEVM gestartet und entwickelte sich schnell zum führenden Liquiditätshub für Long-Tail-Tokens (es sammelte innerhalb von 4 Monaten über 70 Millionen Dollar TVL und 2 Milliarden Dollar Volumen an). Hyperswaps automatisierte Pools ergänzen Hyperliquids CLOB, indem sie die erlaubnislose Auflistung neuer Tokens ermöglichen und einen einfachen Ort für Projekte bieten, um Liquidität zu bootstrappen. Ein weiteres Projekt, KittenSwap (ein Velodrome-Fork mit ve(3,3)-Tokenomics), ging ebenfalls live, um incentivierten AMM-Handel für kleinere Assets anzubieten. Diese DEX-Ergänzungen stellen sicher, dass selbst Memecoins und experimentelle Tokens auf Hyperliquid über AMMs gedeihen können, während die Haupt-Assets auf Orderbüchern gehandelt werden – eine Synergie, die das Gesamtvolumen antreibt.
  • Kredit- und Renditeprotokolle: Das Hyperliquid-Ökosystem verfügt nun über Geldmärkte und Renditeoptimierer, die mit der Börse verbunden sind. HyperBeat ist ein führendes Kredit-/Leihprotokoll auf HyperEVM (mit ~145 Millionen Dollar TVL Mitte 2025). Es ermöglicht Benutzern, Assets wie $HYPE, Stablecoins oder sogar LP-Tokens einzuzahlen, um Zinsen zu verdienen, und gegen Sicherheiten zu leihen, um auf Hyperliquid mit zusätzlichem Hebel zu handeln. Da HyperBeat Hyperliquids Orderbuchpreise direkt lesen und sogar On-Chain-Liquidationen über HyperCore auslösen kann, arbeitet es effizienter und sicherer als Cross-Chain-Kreditprotokolle. Auch Rendite-Aggregatoren entstehen – HyperBeats „Hearts“-Belohnungsprogramm und andere incentivieren die Bereitstellung von Liquidität oder Vault-Einlagen. Ein weiterer bemerkenswerter Neuzugang ist Kinetiq, ein Liquid-Staking-Projekt für $HYPE, das am ersten Tag über 400 Millionen Dollar an Einlagen anzog, was einen riesigen Community-Appetit auf das Erzielen von Rendite mit HYPE zeigt. Sogar externe Ethereum-basierte Protokolle integrieren sich: EtherFi, ein großer Liquid-Staking-Anbieter (mit ~9 Milliarden Dollar in gestaktem ETH) kündigte eine Zusammenarbeit an, um gestaktes ETH und neue Renditestrategien über HyperBeat in Hyperliquid einzubringen. Diese Partnerschaft wird beHYPE, einen Liquid-Staking-Token für HYPE, einführen und möglicherweise EtherFis gestaktes ETH als Sicherheit für Hyperliquids Märkte nutzen. Solche Schritte zeigen das Vertrauen etablierter DeFi-Akteure in das Potenzial des Hyperliquid-Ökosystems.
  • Stablecoins und Krypto-Banking: Hyperliquid hat die Notwendigkeit einer stabilen On-Chain-Währung erkannt und sowohl externe als auch native Stablecoin-Unterstützung angezogen. Am wichtigsten ist, dass Circle (Emittent von USDC) eine strategische Partnerschaft eingegangen ist, um natives USDC auf Hyperliquid im Jahr 2025 einzuführen. Mithilfe von Circles Cross-Chain Transfer Protocol (CCTP) können Benutzer USDC auf Ethereum verbrennen und 1:1 USDC auf Hyperliquid minten, wodurch Wrapper eliminiert und direkte Stablecoin-Liquidität auf der Chain ermöglicht wird. Diese Integration wird voraussichtlich große Kapitaltransfers in Hyperliquid rationalisieren und die Abhängigkeit von nur überbrücktem USDT/USDC reduzieren. Tatsächlich stiegen Hyperliquids verwaltete Assets zum Zeitpunkt der Ankündigung auf 5,5 Milliarden Dollar, teilweise in Erwartung der nativen USDC-Unterstützung. Auf der nativen Seite haben Projekte wie Hyperstable einen überbesicherten Stablecoin (USH) auf HyperEVM mit dem renditetragenden Governance-Token PEG eingeführt – was die Vielfalt der für Trader und DeFi-Benutzer verfügbaren Stablecoin-Optionen erhöht.
  • Innovative DeFi-Infrastruktur: Hyperliquids einzigartige Fähigkeiten haben Innovationen im DEX-Design und bei Derivaten vorangetrieben. Valantis zum Beispiel ist ein modulares DEX-Protokoll auf HyperEVM, das Entwicklern ermöglicht, benutzerdefinierte AMMs und „souveräne Pools“ mit spezialisierter Logik zu erstellen. Es unterstützt erweiterte Funktionen wie Rebase-Tokens und dynamische Gebühren und hat 44 Millionen Dollar TVL, was zeigt, dass Teams Hyperliquid als fruchtbaren Boden sehen, um das DeFi-Design voranzutreiben. Speziell für Perpetuals verabschiedete die Community HIP-3, das Hyperliquids Core-Engine für jeden öffnete, der einen neuen Perpetual-Markt starten möchte. Dies ist ein Game-Changer: Es bedeutet, dass ein Benutzer, wenn er einen Perp-Markt für beispielsweise einen Aktienindex oder eine Ware wünscht, diesen (vorbehaltlich der Governance-Parameter) bereitstellen kann, ohne Hyperliquids Team zu benötigen – ein wirklich erlaubnisloses Derivate-Framework, ähnlich wie Uniswap es für ERC20-Swaps tat. Bereits erscheinen Community-gestartete Märkte für neuartige Assets, was die Kraft dieser Offenheit demonstriert.
  • Analysen, Bots und Tools: Eine lebendige Reihe von Tools ist entstanden, um Trader auf Hyperliquid zu unterstützen. Zum Beispiel ist PvP.trade ein Telegram-basierter Handelsbot, der sich in Hyperliquids API integriert und es Benutzern ermöglicht, Perp-Trades über den Chat auszuführen und sogar den Positionen von Freunden für ein soziales Handelserlebnis zu folgen. Es führte ein Punkteprogramm und einen Token-Airdrop durch, die sich als sehr beliebt erwiesen. Auf der Analyse-Seite haben KI-gesteuerte Plattformen wie Insilico Terminal und Katoshi AI Unterstützung für Hyperliquid hinzugefügt, die Tradern erweiterte Marktsignale, automatisierte Strategie-Bots und prädiktive Analysen bieten, die auf Hyperliquids Märkte zugeschnitten sind. Die Präsenz dieser Drittanbieter-Tools zeigt, dass Entwickler Hyperliquid als einen bedeutenden Markt ansehen – es lohnt sich, Bots und Terminals dafür zu entwickeln – ähnlich wie viele Tools für Binance oder Uniswap existieren. Zusätzlich haben Infrastrukturanbieter Hyperliquid angenommen: QuickNode und andere bieten RPC-Endpunkte für die Hyperliquid-Chain an, Nansen hat Hyperliquid-Daten in seinen Portfolio-Tracker integriert, und Blockchain-Explorer und Aggregatoren unterstützen das Netzwerk. Diese Infrastruktur-Adoption ist entscheidend für die Benutzererfahrung und signalisiert, dass Hyperliquid als wichtiges Netzwerk in der Multi-Chain-Landschaft anerkannt wird.
  • NFTs und Gaming: Über reine Finanzen hinaus befasst sich Hyperliquids Ökosystem auch mit NFTs und Krypto-Gaming, was dem Community-Geschmack entspricht. HypurrFun ist ein Memecoin-Launchpad, das Aufmerksamkeit erregte, indem es ein Telegram-Bot-Auktionssystem verwendete, um Spaß-Tokens (wie $PIP und $JEFF) auf Hyperliquids Spot-Markt zu listen. Es bot der Community ein unterhaltsames, Pump.win-ähnliches Erlebnis und war maßgeblich an der Erprobung von Hyperliquids Token-Auktionsmechanismen vor HyperEVM beteiligt. NFT-Projekte wie Hypio (eine NFT-Sammlung, die DeFi-Utility integriert) wurden auf Hyperliquid gestartet, und sogar ein KI-gesteuertes Spiel (TheFarm.fun) nutzt die Chain zum Minten kreativer NFTs und plant einen Token-Airdrop. Diese mögen Nischenprodukte sein, aber sie deuten auf eine organische Community hin, die sich bildet – Trader, die sich auch mit Memes, NFTs und sozialen Spielen auf derselben Chain beschäftigen, was die Benutzerbindung erhöht.

Strategische Partnerschaften: Neben Basisprojekten hat Hyperliquids Team (über die Hyper Foundation) aktiv Partnerschaften verfolgt, um seine Reichweite zu erweitern:

  • Phantom Wallet (Solana-Ökosystem): Im Juli 2025 kündigte Hyperliquid eine große Partnerschaft mit Phantom, der beliebten Solana-Wallet, an, um In-Wallet Perpetual-Trading für Phantoms Benutzer bereitzustellen. Diese Integration ermöglicht es der mobilen App von Phantom (mit Millionen von Benutzern), Hyperliquid-Perps nativ zu handeln, ohne die Wallet-Oberfläche verlassen zu müssen. Über 100+ Märkte mit bis zu 50× Hebelwirkung wurden in Phantom verfügbar, darunter BTC, ETH, SOL und mehr, mit integrierten Risikokontrollen wie Stop-Loss-Orders. Die Bedeutung ist zweifach: Sie verschafft Solana-Community-Benutzern einfachen Zugang zu Hyperliquids Märkten (Verbindung von Ökosystemen) und zeigt Hyperliquids API- und Backend-Stärke – Phantom würde keine DEX integrieren, die keinen großen Benutzerfluss bewältigen könnte. Phantoms Team betonte, dass Hyperliquids Liquidität und schnelle Abwicklung entscheidend für eine reibungslose mobile Handels-UX waren. Diese Partnerschaft bettet Hyperliquid im Wesentlichen als „Perps-Engine“ in eine führende Krypto-Wallet ein, wodurch die Hürden für neue Benutzer, mit dem Handel auf Hyperliquid zu beginnen, drastisch gesenkt werden. Es ist ein strategischer Gewinn für die Benutzerakquise und demonstriert Hyperliquids Absicht, mit anderen Ökosystemen (in diesem Fall Solana) zusammenzuarbeiten, anstatt mit ihnen zu konkurrieren.
  • Circle (USDC): Wie erwähnt, ist Circles Partnerschaft zur Bereitstellung von nativem USDC über CCTP auf Hyperliquid eine Eckpfeiler-Integration. Sie legitimiert Hyperliquid nicht nur als erstklassige Chain in den Augen eines großen Stablecoin-Emittenten, sondern löst auch ein kritisches Infrastrukturproblem: Fiat-Liquidität. Wenn Circle natives USDC für Hyperliquid aktiviert, können Trader Dollar mit der gleichen Leichtigkeit (und Vertrauen) in und aus Hyperliquids Netzwerk transferieren, wie sie USDC auf Ethereum oder Solana bewegen. Dies rationalisiert Arbitrage- und Cross-Exchange-Flüsse. Zusätzlich wird Circles Cross-Chain Transfer Protocol v2 es ermöglichen, USDC ohne Zwischenhändler zwischen Hyperliquid und anderen Chains zu bewegen, wodurch Hyperliquid weiter in das Multi-Chain-Liquiditätsnetzwerk integriert wird. Bis Juli 2025 hatte die Erwartung von USDC und anderen Assets, die an Bord kommen, die gesamten Asset-Pools von Hyperliquid bereits auf 5,5 Milliarden Dollar ansteigen lassen. Wir können erwarten, dass diese Zahl wächst, sobald die Circle-Integration vollständig live ist. Im Wesentlichen adressiert diese Partnerschaft eine der letzten Barrieren für Trader: einfache Fiat On/Off-Ramps in Hyperliquids Hochgeschwindigkeitsumgebung.
  • Market Maker und Liquiditätspartner: Obwohl nicht immer öffentlich bekannt, hat Hyperliquid wahrscheinlich Beziehungen zu professionellen Market-Making-Firmen aufgebaut, um seine Orderbuch-Liquidität zu bootstrappen. Die beobachtete Tiefe (oft mit Binance bei einigen Paaren konkurrierend) deutet darauf hin, dass große Krypto-Liquiditätsanbieter (möglicherweise Firmen wie Wintermute, Jump usw.) aktiv Märkte auf Hyperliquid machen. Ein indirekter Indikator: Auros Global, eine Handelsfirma, veröffentlichte Anfang 2025 einen „Hyperliquid Listing 101“-Leitfaden, in dem Hyperliquid im ersten Quartal 2025 durchschnittlich 6,1 Milliarden Dollar tägliches Perps-Volumen verzeichnete, was impliziert, dass Market Maker aufmerksam sind. Zusätzlich sind Hyperliquids Design (mit Anreizen wie Maker-Rabatten oder HLP-Renditen) und der Gas-freie Vorteil für HFT-Firmen sehr attraktiv. Obwohl spezifische MM-Partnerschaften nicht genannt werden, profitiert das Ökosystem eindeutig von ihrer Teilnahme.
  • Andere: Die Hyper Foundation, die die Protokollentwicklung steuert, hat Initiativen wie ein Delegationsprogramm gestartet, um zuverlässige Validatoren und globale Community-Programme zu incentivieren (ein Hackathon mit 250.000 Dollar Preisen wurde 2025 abgehalten). Diese tragen dazu bei, die Dezentralisierung des Netzwerks zu stärken und neue Talente anzuziehen. Es gibt auch eine Zusammenarbeit mit Orakel-Anbietern (Chainlink oder Pyth) für externe Daten, wenn nötig – z. B. wenn synthetische Real-World-Asset-Märkte starten, werden diese Partnerschaften wichtig sein. Da Hyperliquid EVM-kompatibel ist, können Tools von Ethereum (wie Hardhat, The Graph usw.) relativ einfach auf Hyperliquid erweitert werden, wenn Entwickler dies wünschen.

Community und Governance: Das Community-Engagement in Hyperliquid war aufgrund des frühen Airdrops und der laufenden Governance-Abstimmungen hoch. Das Hyperliquid Improvement Proposal (HIP)-Framework hat in seinem ersten Jahr wichtige Vorschläge (HIP-1 bis HIP-3) verabschiedet, was einen aktiven Governance-Prozess signalisiert. Die Community hat eine Rolle bei Token-Listings über Hyperliquids Auktionsmodell gespielt – neue Tokens werden durch eine On-Chain-Auktion (oft von HypurrFun oder ähnlichen Projekten ermöglicht) gestartet, und erfolgreiche Auktionen werden im Orderbuch gelistet. Dieser Prozess, obwohl durch eine Gebühr und Prüfung genehmigt, hat es Community-gesteuerten Tokens (wie Memecoins) ermöglicht, auf Hyperliquid ohne zentralisierte Gatekeeping an Zugkraft zu gewinnen. Er half Hyperliquid auch, Spam-Tokens zu vermeiden, da das Listing Kosten verursacht, wodurch sichergestellt wird, dass nur ernsthafte Projekte oder enthusiastische Communities dies verfolgen. Das Ergebnis ist ein Ökosystem, das erlaubnislose Innovation mit einem gewissen Grad an Qualitätskontrolle in Einklang bringt – ein neuartiger Ansatz in DeFi.

Darüber hinaus wurde die Hyper Foundation (eine gemeinnützige Organisation) gegründet, um das Ökosystemwachstum zu unterstützen. Sie war verantwortlich für Initiativen wie den $HYPE-Token-Launch und die Verwaltung der Anreizfonds. Die Entscheidung der Foundation, Anreize nicht rücksichtslos zu vergeben (wie in The Defiant bemerkt, stellten sie nach dem Airdrop kein zusätzliches Liquiditäts-Mining bereit), mag anfangs einige Yield-Farmer gebremst haben, aber sie unterstreicht einen Fokus auf organische Nutzung gegenüber kurzfristigen TVL-Steigerungen. Diese Strategie scheint sich mit stetigem Wachstum ausgezahlt zu haben. Jetzt zeigen Schritte wie die Beteiligung von EtherFi und anderen, dass auch ohne massives Liquiditäts-Mining echte DeFi-Aktivität auf Hyperliquid Fuß fasst, aufgrund seiner einzigartigen Möglichkeiten (wie hohe Renditen aus tatsächlichen Gebühreneinnahmen und Zugang zu einer aktiven Handelsbasis).

Zusammenfassend lässt sich sagen, dass Hyperliquid im Jahr 2025 von einem florierenden Ökosystem und starken Allianzen umgeben ist. Seine Chain beherbergt einen umfassenden DeFi-Stack – von Perps und Spot-Trading bis hin zu AMMs, Kreditvergabe, Stablecoins, Liquid Staking, NFTs und darüber hinaus – vieles davon ist erst im letzten Jahr entstanden. Strategische Partnerschaften mit Unternehmen wie Phantom und Circle erweitern seine Benutzerreichweite und den Liquiditätszugang im gesamten Krypto-Universum. Die Community-gesteuerten Aspekte (Auktionen, Governance, Hackathons) zeigen eine engagierte Benutzerbasis, die zunehmend in den Erfolg von Hyperliquid investiert ist. All diese Faktoren stärken Hyperliquids Position als mehr als nur eine Börse; es entwickelt sich zu einer ganzheitlichen Finanzschicht.

Zukunftsausblick: Hyperliquids Vision für On-Chain-Finanzen (Derivate, RWAs und darüber hinaus)

Hyperliquids rasanter Aufstieg wirft die Frage auf: Was kommt als Nächstes? Die Vision des Projekts war schon immer ehrgeizig – die grundlegende Infrastruktur für alle On-Chain-Finanzen zu werden. Nachdem Hyperliquid die Dominanz bei On-Chain-Perps erreicht hat, ist es bereit, in neue Produkte und Märkte zu expandieren und möglicherweise die Art und Weise neu zu gestalten, wie traditionelle Finanzanlagen mit Krypto interagieren. Hier sind einige Schlüsselelemente seiner zukunftsweisenden Vision:

  • Erweiterung der Derivate-Suite: Perpetual Futures waren der anfängliche Brückenkopf, aber Hyperliquid kann auf andere Derivate ausgedehnt werden. Die Architektur (HyperCore + HyperEVM) könnte zusätzliche Instrumente wie Optionen, Zinsswaps oder strukturierte Produkte unterstützen. Ein logischer nächster Schritt könnte eine On-Chain-Optionsbörse oder ein Options-AMM sein, das auf HyperEVM startet und die Liquidität und schnelle Ausführung der Chain nutzt. Mit einem vereinheitlichten Zustand könnte ein Optionsprotokoll auf Hyperliquid direkt über das Perps-Orderbuch absichern, wodurch ein effizientes Risikomanagement entsteht. Wir haben noch keine große On-Chain-Optionsplattform auf Hyperliquid entstehen sehen, aber angesichts des Ökosystemwachstums ist dies für 2025-26 plausibel. Zusätzlich könnten traditionelle Futures und tokenisierte Derivate (z. B. Futures auf Aktienindizes, Rohstoffe oder FX-Kurse) über HIP-Vorschläge eingeführt werden – im Wesentlichen traditionelle Finanzmärkte On-Chain bringen. Hyperliquids HIP-3 hat bereits den Weg geebnet, „jedes Asset, Krypto oder traditionell“ als Perp-Markt zu listen, solange ein Orakel oder Preis-Feed vorhanden ist. Dies öffnet die Tür für Community-Mitglieder, Märkte für Aktien, Gold oder andere Assets auf erlaubnislose Weise zu starten. Wenn Liquidität und rechtliche Überlegungen es zulassen, könnte Hyperliquid ein Hub für den 24/7 tokenisierten Handel mit realen Märkten werden, etwas, das selbst viele CEXs nicht in großem Maßstab anbieten. Eine solche Entwicklung würde die Vision einer vereinheitlichten globalen Handelsplattform On-Chain wirklich verwirklichen.
  • Real-World Assets (RWAs) und regulierte Märkte: Die Überbrückung von Real-World Assets in DeFi ist ein großer Trend, und Hyperliquid ist gut positioniert, um dies zu erleichtern. Durch HyperUnit und Partnerschaften wie Circle integriert sich die Chain mit realen Assets (Fiat über USDC, BTC/SOL über Wrapped Tokens). Der nächste Schritt könnten tokenisierte Wertpapiere oder Anleihen sein, die auf Hyperliquid gehandelt werden. Zum Beispiel könnte man sich eine Zukunft vorstellen, in der Staatsanleihen oder Aktien tokenisiert (vielleicht unter regulatorischer Sandbox) und rund um die Uhr auf Hyperliquids Orderbüchern gehandelt werden. Bereits jetzt ist Hyperliquids Design „regulatorisch bewusst“ – die Verwendung nativer Assets anstelle synthetischer IOUs kann die Compliance vereinfachen. Die Hyper Foundation könnte die Zusammenarbeit mit Jurisdiktionen prüfen, um bestimmte RWAs auf der Plattform zuzulassen, insbesondere wenn die On-Chain-KYC/Whitelisting-Technologie verbessert wird (HyperEVM könnte bei Bedarf für regulierte Assets erlaubnislose Pools unterstützen). Selbst ohne formelle RWA-Tokens könnten Hyperliquids erlaubnislose Perps Derivate listen, die RWAs verfolgen (zum Beispiel einen Perpetual Swap auf den S&P 500 Index). Das würde DeFi-Benutzern auf Umwegen, aber effektiv RWA-Exposition verschaffen. Zusammenfassend zielt Hyperliquid darauf ab, die Grenze zwischen Krypto-Märkten und traditionellen Märkten zu verwischen – um alle Finanzen zu beherbergen, muss man schließlich Assets und Teilnehmer von der traditionellen Seite aufnehmen. Die Grundlagen (in Technologie und Liquidität) werden für diese Konvergenz gelegt.
  • Skalierung und Interoperabilität: Hyperliquid wird weiterhin vertikal (mehr Durchsatz, mehr Validatoren) und wahrscheinlich horizontal über Interoperabilität skalieren. Mit Cosmos IBC oder anderen Cross-Chain-Protokollen könnte Hyperliquid sich mit breiteren Netzwerken verbinden, wodurch Assets und Nachrichten vertrauenslos fließen können. Es verwendet bereits Circles CCTP für USDC; die Integration mit etwas wie Chainlinks CCIP oder Cosmos' IBC könnte die Cross-Chain-Handelsmöglichkeiten erweitern. Hyperliquid könnte zu einem Liquiditätshub werden, den andere Chains anzapfen (man stelle sich dApps auf Ethereum oder Solana vor, die Trades auf Hyperliquid über vertrauenslose Bridges ausführen – und Hyperliquids Liquidität erhalten, ohne ihre native Chain zu verlassen). Die Erwähnung von Hyperliquid als „Liquiditätshub“ und sein wachsender Anteil am Open Interest (bereits ~18 % des gesamten Krypto-Futures-OI Mitte 2025) deutet darauf hin, dass es ein größeres Netzwerk von DeFi-Protokollen verankern könnte. Der kollaborative Ansatz der Hyper Foundation (z. B. Partnerschaften mit Wallets, anderen L1s) deutet darauf hin, dass sie Hyperliquid als Teil einer Multi-Chain-Zukunft und nicht als isolierte Insel sehen.
  • Fortgeschrittene DeFi-Infrastruktur: Durch die Kombination einer Hochleistungsbörse mit allgemeiner Programmierbarkeit könnte Hyperliquid ausgeklügelte Finanzprodukte ermöglichen, die zuvor On-Chain nicht realisierbar waren. Zum Beispiel können On-Chain-Hedgefonds oder Vault-Strategien auf HyperEVM aufgebaut werden, die komplexe Strategien direkt über HyperCore ausführen (Arbitrage, automatisiertes Market Making in Orderbüchern usw.) – alles auf einer Chain. Diese vertikale Integration eliminiert Ineffizienzen wie das Verschieben von Geldern über Schichten hinweg oder das Front-Running durch MEV-Bots während der Cross-Chain-Arbitrage – alles kann unter HyperBFT-Konsens mit voller Atomarität geschehen. Wir könnten ein Wachstum bei automatisierten Strategie-Vaults sehen, die Hyperliquids Primitive nutzen, um Rendite zu generieren (einige frühe Vaults existieren wahrscheinlich bereits, möglicherweise betrieben von HyperBeat oder anderen). Hyperliquids Gründer fasste die Strategie zusammen als „eine native Anwendung polieren und dann zu einer Allzweckinfrastruktur heranwachsen“. Jetzt, da die native Handels-App poliert ist und eine breite Benutzerbasis vorhanden ist, steht die Tür offen für Hyperliquid, eine allgemeine DeFi-Infrastrukturschicht zu werden. Dies könnte es nicht nur mit DEXs, sondern auch mit Layer-1s wie Ethereum oder Solana um die Hosting-Finanz-dApps konkurrieren lassen – obwohl Hyperliquids Spezialität alles bleiben wird, was tiefe Liquidität oder geringe Latenz erfordert.
  • Institutionelle Adoption und Compliance: Hyperliquids Zukunft beinhaltet wahrscheinlich das Werben um institutionelle Akteure – Hedgefonds, Market Maker, sogar Fintech-Firmen –, um die Plattform zu nutzen. Bereits jetzt steigt das institutionelle Interesse angesichts der Volumina und der Tatsache, dass Firmen wie Coinbase, Robinhood und andere ein Auge auf Perps werfen. Hyperliquid könnte sich als Infrastrukturanbieter für Institutionen positionieren, um On-Chain zu gehen. Es könnte Funktionen wie Unterkonten, Compliance-Berichtstools oder Whitelist-Pools (falls für bestimmte regulierte Benutzer erforderlich) anbieten – all dies unter Beibehaltung der öffentlichen On-Chain-Natur für den Retail-Bereich. Das regulatorische Klima wird dies beeinflussen: Wenn Jurisdiktionen den Status von DeFi-Derivaten klären, könnte Hyperliquid entweder in irgendeiner Form ein lizenzierter Handelsplatz werden oder ein rein dezentrales Netzwerk bleiben, an das Institutionen indirekt anschließen. Die Erwähnung eines „regulatorisch bewussten Designs“ deutet darauf hin, dass das Team darauf bedacht ist, ein Gleichgewicht zu finden, das eine reale Integration ermöglicht, ohne gegen Gesetze zu verstoßen.
  • Kontinuierliche Stärkung der Community: Mit dem Wachstum der Plattform könnte mehr Entscheidungsfindung auf die Token-Inhaber übergehen. Wir können erwarten, dass zukünftige HIPs Themen wie die Anpassung von Gebührenparametern, die Zuweisung des Anreizfonds (die ~39 % des beiseite gelegten Angebots), die Einführung neuer Produkte (z. B. wenn ein Optionsmodul vorgeschlagen würde) und die Erweiterung der Validatoren-Sets abdecken. Die Community wird eine große Rolle bei der Steuerung von Hyperliquids Entwicklung spielen und effektiv als Aktionäre dieser dezentralen Börse fungieren. Die Community-Schatzkammer (finanziert durch noch nicht verteilte Tokens und möglicherweise durch Einnahmen, die nicht für Rückkäufe verwendet werden) könnte zur Finanzierung neuer Projekte auf Hyperliquid oder zur Bereitstellung von Zuschüssen verwendet werden, wodurch die Ökosystementwicklung weiter gestärkt wird.

Fazit: Hyperliquid hat im Jahr 2025 das erreicht, was viele für unmöglich hielten: eine vollständig On-Chain-Börse, die in Performance und Liquidität mit zentralisierten Plattformen konkurriert. Seine technische Architektur – HyperBFT, HyperCore, HyperEVM – hat sich als Blaupause für die nächste Generation von Finanznetzwerken erwiesen. Das $HYPE-Token-Modell bringt die Community eng mit dem Erfolg der Plattform in Einklang und schafft eine der lukrativsten und deflationärsten Token-Ökonomien in DeFi. Mit massiven Handelsvolumina, einer stark wachsenden Benutzerbasis und einem schnell wachsenden DeFi-Ökosystem um sich herum hat sich Hyperliquid als führende Layer-1 für Finanzanwendungen positioniert. Mit Blick auf die Zukunft erscheint seine Vision, „die Blockchain zu werden, die alle Finanzen beherbergt“, nicht weit hergeholt. Indem es mehr Asset-Klassen On-Chain bringt (potenziell einschließlich Real-World Assets) und sich weiterhin mit anderen Netzwerken und Partnern integriert, könnte Hyperliquid als Rückgrat für ein wirklich globales, 24/7, dezentrales Finanzsystem dienen. In einer solchen Zukunft verschwimmen die Grenzen zwischen Krypto- und traditionellen Märkten – und Hyperliquids Mischung aus hoher Performance und vertrauensloser Architektur könnte sehr wohl das Modell sein, das sie überbrückt und die Zukunft der On-Chain-Finanzwelt Block für Block aufbaut.

Quellen:

  1. QuickNode Blog – „Hyperliquid in 2025: A High-Performance DEX…“ (Architektur, Kennzahlen, Tokenomics, Vision)
  2. Artemis Research – „Hyperliquid: A Valuation Model and Bull Case“ (Marktanteil, Token-Modell, Vergleiche)
  3. The Defiant – „EtherFi Expands to HyperLiquid…HyperBeat“ (Ökosystem-TVL, institutionelles Interesse)
  4. BlockBeats – „Inside Hyperliquid’s Growth – Semiannual Report 2025“ (On-Chain-Kennzahlen, Volumen, OI, Benutzerstatistiken)
  5. Coingape – „Hyperliquid Expands to Solana via Phantom Partnership“ (Phantom-Wallet-Integration, mobile Perps)
  6. Mitrade/Cryptopolitan – „Circle integrates USDC with Hyperliquid“ (Nativer USDC-Start, 5,5 Mrd. Dollar AUM)
  7. Nansen – „What is Hyperliquid? – Blockchain DEX & Trading Explained“ (Technischer Überblick, Sub-Sekunden-Finalität, Token-Nutzung)
  8. DeFi Prime – „Exploring the Hyperliquid Chain Ecosystem: Deep Dive“ (Ökosystemprojekte: DEXs, Kreditvergabe, NFTs usw.)
  9. Hyperliquid Wiki/Docs – Hyperliquid GitBook & Stats (Asset-Listings über HIPs, Statistik-Dashboard)
  10. CoinMarketCap – Hyperliquid (HYPE) Listing (Grundlegende Informationen zu Hyperliquid L1 und On-Chain-Orderbuch-Design)

Was sind Memecoins? Eine prägnante, entwicklerfreundliche Einführung (2025)

· 10 Min. Lesezeit
Dora Noda
Software Engineer

TL;DR

Memecoins sind Krypto-Token, die aus der Internetkultur, Witzen und viralen Momenten entstanden sind. Ihr Wert wird durch Aufmerksamkeit, Gemeinschaftskoordination und Geschwindigkeit bestimmt, nicht durch Fundamentaldaten. Die Kategorie begann 2013 mit Dogecoin und ist seitdem mit Token wie SHIB, PEPE und einer massiven Welle von Assets auf Solana und Base explodiert. Dieser Sektor repräsentiert heute einen Marktwert von mehreren zehn Milliarden und kann Netzwerkgebühren und On-Chain-Volumen erheblich beeinflussen. Die meisten Memecoins haben jedoch keinen intrinsischen Nutzen; sie sind extrem volatile Assets mit hohem Umschlag. Die Risiken von „Rug Pulls“ und fehlerhaften Presales sind außergewöhnlich hoch. Wenn Sie sich engagieren, verwenden Sie eine strenge Checkliste zur Bewertung von Liquidität, Angebot, Eigentumskontrollen, Verteilung und Vertragssicherheit.

Die 10-Sekunden-Definition

Ein Memecoin ist eine Kryptowährung, die von einem Internet-Meme, einem kulturellen Insider-Witz oder einem viralen sozialen Ereignis inspiriert ist. Im Gegensatz zu traditionellen Krypto-Projekten ist er typischerweise gemeinschaftsgetrieben und lebt vom Social-Media-Momentum, anstatt von zugrunde liegenden Cashflows oder Protokoll-Nutzen. Das Konzept begann mit Dogecoin, der 2013 als unbeschwerte Parodie auf Bitcoin eingeführt wurde. Seitdem sind Wellen ähnlicher Token entstanden, die neue Trends und Narrative über verschiedene Blockchains hinweg aufgreifen.

Wie groß ist das wirklich?

Lassen Sie sich von den humorvollen Ursprüngen nicht täuschen – der Memecoin-Sektor ist eine bedeutende Kraft auf dem Kryptomarkt. An jedem beliebigen Tag kann die aggregierte Marktkapitalisierung von Memecoins mehrere zehn Milliarden Dollar erreichen. Während der Höhepunkte von Bullenzyklen hat diese Kategorie einen wesentlichen Anteil an der gesamten Krypto-Ökonomie außerhalb von BTC/ETH ausgemacht. Dieses Ausmaß ist leicht auf Datenaggregatoren wie CoinGecko und in den speziellen „Meme“-Kategorien großer Krypto-Börsen sichtbar.

Wo leben Memecoins?

Während Memecoins auf jeder Smart-Contract-Plattform existieren können, haben sich einige Ökosysteme zu dominanten Hubs entwickelt.

  • Ethereum: Als ursprüngliche Smart-Contract-Chain beherbergt Ethereum viele ikonische Memecoins, von $DOGE-ähnlichen ERC-20s bis hin zu Token wie $PEPE. In Zeiten intensiver Spekulationswut hat die Handelsaktivität dieser Token bekanntermaßen zu erheblichen Spitzen bei den Netzwerk-Gasgebühren geführt und sogar die Einnahmen der Validatoren gesteigert.
  • Solana: In den Jahren 2024 und 2025 wurde Solana zum Ground Zero für die Memecoin-Erstellung und den Handel. Eine kambrische Explosion neuer Token trieb das Netzwerk zu rekordverdächtigen Gebühreneinnahmen und On-Chain-Volumen und brachte virale Hits wie $BONK und $WIF hervor.
  • Base: Das Layer-2-Netzwerk von Coinbase hat seine eigene lebendige Meme-Subkultur kultiviert, mit einer wachsenden Liste von Token und dediziertem Community-Tracking auf Plattformen wie CoinGecko.

Wie ein Memecoin entsteht (Ausgabe 2025)

Die technische Hürde für den Start eines Memecoins ist auf nahezu Null gesunken. Heute sind zwei Wege am gebräuchlichsten:

1. Klassischer DEX-Launch (EVM oder Solana)

Bei diesem Modell prägt ein Ersteller eine Menge Token, erstellt einen Liquiditätspool (LP) auf einer dezentralen Börse (wie Uniswap oder Raydium), indem er die Token mit einem Basis-Asset (wie $ETH, $SOL oder $USDC) paart, und vermarktet den Token dann mit einer Geschichte oder einem Meme. Die Hauptrisiken hierbei hängen davon ab, wer den Token-Vertrag (z. B. können sie mehr prägen?) und die LP-Token (z. B. können sie die Liquidität abziehen?) kontrolliert.

2. Bonding-Curve „Factory“ (z. B. pump.fun auf Solana)

Dieses Modell, das auf Solana stark an Popularität gewonnen hat, standardisiert und automatisiert den Launch-Prozess. Jeder kann sofort einen Token mit einem festen Angebot (oft eine Milliarde) auf einer linearen Bonding Curve starten. Der Preis wird automatisch basierend darauf angegeben, wie viel gekauft wurde. Sobald der Token eine bestimmte Marktkapitalisierungsschwelle erreicht, „graduiert“ er zu einer großen DEX wie Raydium, wo die Liquidität automatisch erstellt und gesperrt wird. Diese Innovation senkte die technische Hürde dramatisch, prägte die Kultur und beschleunigte das Tempo der Launches.

Warum Entwickler sich interessieren: Diese neuen Launchpads komprimieren, was früher Tage an Arbeit war, auf Minuten. Das Ergebnis sind massive, unvorhersehbare Verkehrsspitzen, die RPC-Nodes belasten, Mempools verstopfen und Indexer herausfordern. Auf ihrem Höhepunkt erzeugten diese Memecoin-Launches auf Solana Transaktionsvolumen, die alle früheren Netzwerkrekorde erreichten oder übertrafen.

Woher der „Wert“ kommt

Der Wert von Memecoins ist eine Funktion sozialer Dynamiken, nicht finanzieller Modellierung. Er leitet sich typischerweise aus drei Quellen ab:

  • Aufmerksamkeits-Gravitation: Memes, Prominenten-Empfehlungen oder virale Nachrichten wirken als starke Magneten für Aufmerksamkeit und damit für Liquidität. In den Jahren 2024–2025 verzeichneten Token, die sich um Prominente und politische Persönlichkeiten drehten, massive, wenn auch oft kurzlebige Handelsströme, insbesondere auf Solana DEXs.
  • Koordinationsspiele: Eine starke Gemeinschaft kann sich um eine Erzählung, ein Kunstwerk oder einen kollektiven Stunt sammeln. Dieser gemeinsame Glaube kann mächtige reflexive Preisbewegungen erzeugen, bei denen Kaufen mehr Aufmerksamkeit erzeugt, was wiederum mehr Kaufen erzeugt.
  • Gelegentliche Utility-Add-Ons: Einige erfolgreiche Memecoin-Projekte versuchen, nach dem Gewinn an Zugkraft Nutzen „anzuschrauben“, indem sie Swaps, Layer-2-Chains, NFT-Kollektionen oder Spiele einführen. Die überwiegende Mehrheit bleibt jedoch rein spekulative, nur zum Handel bestimmte Assets.

Die Risiken, die Sie nicht ignorieren können

Der Memecoin-Bereich ist voller Gefahren. Sie zu verstehen, ist nicht verhandelbar.

Vertrags- und Kontrollrisiko

  • Mint-/Freeze-Autorität: Kann der ursprüngliche Ersteller eine unendliche Menge neuer Token prägen und die Inhaber auf Null verwässern? Können sie Übertragungen einfrieren und Ihre Gelder blockieren?
  • Eigentums-/Upgrade-Rechte: Ein Vertrag mit „aufgegebenem“ Eigentum, bei dem die Admin-Schlüssel verbrannt werden, reduziert dieses Risiko, eliminiert es aber nicht vollständig. Proxies oder andere versteckte Funktionen können immer noch eine Bedrohung darstellen.

Liquiditätsrisiko

  • Gesperrte Liquidität: Ist der anfängliche Liquiditätspool für einen bestimmten Zeitraum in einem Smart Contract gesperrt? Wenn nicht, kann der Ersteller einen „Rug Pull“ durchführen, indem er alle wertvollen Assets aus dem Pool entfernt und den Token wertlos macht. Geringe Liquidität bedeutet auch hohe Slippage bei Trades.

Presales und Soft Rugs

  • Selbst ohne einen bösartigen Vertrag scheitern viele Projekte. Teams können ein Projekt nach der Beschaffung von Geldern in einem Presale aufgeben, oder Insider können ihre großen Zuteilungen langsam auf den Markt werfen. Der berüchtigte $SLERF-Launch auf Solana zeigte, wie selbst ein versehentlicher Fehler (wie das Verbrennen der LP-Token) Millionen vernichten und paradoxerweise gleichzeitig ein volatiles Handelsumfeld schaffen kann.

Markt- und Betriebsrisiko

  • Extreme Volatilität: Die Preise können innerhalb von Minuten um über 90 % in beide Richtungen schwanken. Darüber hinaus können die Netzwerkeffekte einer Hysterie kostspielig sein. Während des anfänglichen Anstiegs von $PEPE schossen die Ethereum-Gasgebühren in die Höhe, was Transaktionen für Spätkäufer unerschwinglich machte.

Betrug und rechtliche Risiken

  • Rug Pulls, Pump-and-Dumps, als Airdrops getarnte Phishing-Links und gefälschte Prominenten-Empfehlungen sind überall. Informieren Sie sich, wie gängige Betrugsmaschen funktionieren, um sich zu schützen. Dieser Inhalt stellt keine Rechts- oder Anlageberatung dar.

Eine 5-Minuten-Memecoin-Checkliste (DYOR in der Praxis)

Bevor Sie mit einem Memecoin interagieren, gehen Sie diese grundlegende Due-Diligence-Checkliste durch:

  1. Angebots-Mathematik: Was ist das Gesamtangebot im Vergleich zum zirkulierenden Angebot? Wie viel ist dem LP, dem Team oder einer Schatzkammer zugewiesen? Gibt es Vesting-Zeitpläne?
  2. LP-Gesundheit: Ist der Liquiditätspool gesperrt? Für wie lange? Welcher Prozentsatz des Gesamtangebots befindet sich im LP? Verwenden Sie einen Blockchain-Explorer, um diese Details On-Chain zu überprüfen.
  3. Admin-Befugnisse: Kann der Vertragsinhaber neue Token prägen, den Handel pausieren, Wallets auf die Blacklist setzen oder Transaktionssteuern ändern? Wurde das Eigentum aufgegeben?
  4. Verteilung: Überprüfen Sie die Inhaberverteilung. Ist das Angebot in wenigen Wallets konzentriert? Achten Sie auf Anzeichen von Bot-Clustern oder Insider-Wallets, die große, frühe Zuteilungen erhalten haben.
  5. Vertragsherkunft: Ist der Quellcode On-Chain verifiziert? Verwendet er eine standardmäßige, gut verständliche Vorlage, oder ist er voller benutzerdefiniertem, ungeprüftem Code? Vorsicht vor Honeypot-Mustern, die darauf ausgelegt sind, Gelder zu fangen.
  6. Liquiditätsorte: Wo wird es gehandelt? Befindet es sich noch auf einer Bonding Curve, oder ist es zu einer großen DEX oder CEX „graduiert“? Überprüfen Sie die Slippage für die Handelsgröße, die Sie in Betracht ziehen.
  7. Narrative Beständigkeit: Hat das Meme eine echte kulturelle Resonanz, oder ist es ein flüchtiger Witz, der nächste Woche vergessen sein wird?

Was Memecoins mit Blockchains (und Infrastruktur) machen

Memecoin-Hysterien sind ein leistungsstarker Stresstest für die Blockchain-Infrastruktur.

  • Gebühren- und Durchsatzspitzen: Plötzliche, intensive Nachfrage nach Blockspace belastet RPC-Gateways, Indexer und Validatoren. Im März 2024 verzeichnete Solana seine höchsten täglichen Gebühren und Milliarden an On-Chain-Volumen, fast ausschließlich getrieben durch einen Memecoin-Anstieg. Infrastrukturteams müssen Kapazitäten für diese Ereignisse planen.
  • Liquiditätsmigration: Kapital konzentriert sich schnell um einige wenige gefragte DEXs und Launchpads, was den Miner Extractable Value (MEV) und die Order-Flow-Muster im Netzwerk neu gestaltet.
  • Benutzer-Onboarding: Ob zum Guten oder Schlechten, Memecoin-Wellen dienen oft als erster Kontaktpunkt für neue Krypto-Benutzer, die später andere dApps im Ökosystem erkunden könnten.

Kanonische Beispiele (zum Kontext, keine Empfehlung)

  • $DOGE: Das Original (2013). Eine Proof-of-Work-Währung, die immer noch hauptsächlich aufgrund ihrer Markenbekanntheit und kulturellen Bedeutung gehandelt wird.
  • $SHIB: Ein Ethereum ERC-20 Token, der sich von einem einfachen Meme zu einem großen, gemeinschaftsgetriebenen Ökosystem mit eigenem Swap und L2 entwickelte.
  • $PEPE: Ein Phänomen von 2023 auf Ethereum, dessen explosive Popularität die On-Chain-Ökonomie für Validatoren und Benutzer erheblich beeinflusste.
  • BONK & WIF (Solana): Sinnbildlich für die Solana-Welle 2024-2025. Ihr schneller Aufstieg und die anschließenden Listings an großen Börsen katalysierten massive Aktivitäten im Netzwerk.

Für Entwickler und Teams

Wenn Sie launchen müssen, setzen Sie auf Fairness und Sicherheit:

  • Bieten Sie klare und ehrliche Offenlegungen. Keine versteckten Prägungen oder Teamzuteilungen.
  • Sperren Sie einen sinnvollen Teil des Liquiditätspools und veröffentlichen Sie den Nachweis der Sperrung.
  • Vermeiden Sie Presales, es sei denn, Sie verfügen über die operative Sicherheit, diese sicher zu verwalten.
  • Planen Sie Ihre Infrastruktur. Bereiten Sie sich auf Bot-Aktivitäten, Rate-Limit-Missbrauch vor und haben Sie einen klaren Kommunikationsplan für volatile Perioden.

Wenn Sie Memecoins in Ihre dApp integrieren, isolieren Sie die Abläufe und schützen Sie Benutzer:

  • Zeigen Sie prominente Warnungen vor Vertragsrisiken und geringer Liquidität an.
  • Zeigen Sie deutlich Slippage- und Preisimpakt-Schätzungen an, bevor ein Benutzer einen Trade bestätigt.
  • Stellen Sie wichtige Metadaten – wie Angebotszahlen und Admin-Rechte – direkt in Ihrer Benutzeroberfläche dar.

Für Trader

  • Behandeln Sie die Positionsgröße wie einen Hebel: Verwenden Sie nur einen kleinen Betrag an Kapital, dessen Verlust Sie vollständig bereit sind zu tragen.
  • Planen Sie Ihre Ein- und Ausstiegspunkte, bevor Sie handeln. Lassen Sie sich nicht von Emotionen leiten.
  • Automatisieren Sie Ihre Sicherheitshygiene. Verwenden Sie Hardware-Wallets, überprüfen Sie regelmäßig Token-Genehmigungen, nutzen Sie zugelassene RPCs und üben Sie das Erkennen von Phishing-Versuchen.
  • Seien Sie äußerst vorsichtig bei Spitzen, die durch Prominenten- oder politische Nachrichten verursacht werden. Diese sind oft sehr volatil und kehren schnell um.

Kurzes Glossar

  • Bonding Curve: Eine automatisierte mathematische Formel, die den Preis eines Tokens als Funktion seines gekauften Angebots festlegt. Häufig bei pump.fun-Launches.
  • LP Lock: Ein Smart Contract, der Liquiditätspool-Token zeitlich sperrt und den Projekt-Ersteller daran hindert, Liquidität zu entfernen und das Projekt zu „rugging“.
  • Renounced Ownership (Aufgegebenes Eigentum): Der Akt der Übergabe der Admin-Schlüssel an einen Smart Contract, was das Risiko bösartiger Änderungen reduziert (aber nicht vollständig eliminiert).
  • Graduation (Graduierung): Der Prozess, bei dem ein Token von einem anfänglichen Bonding-Curve-Launchpad zu einer öffentlichen DEX mit einem permanenten, gesperrten Liquiditätspool wechselt.

Quellen & Weiterführende Literatur

  • Binance Academy: „Was sind Meme Coins?“ und Definitionen von „Rug Pull“.
  • Wikipedia & Binance Academy: Ursprünge von DOGE und SHIB.
  • CoinGecko: Live-Memecoin-Marktstatistiken nach Sektor.
  • CoinDesk: Berichterstattung über Solana-Gebührenspitzen, PEPEs Einfluss auf Ethereum und die SLERF-Fallstudie.
  • Decrypt & Wikipedia: Erklärungen der pump.fun-Mechanismen und ihrer kulturellen Auswirkungen.
  • Investopedia: Überblick über gängige Krypto-Betrugsmaschen und Abwehrmaßnahmen.

Offenlegung: Dieser Beitrag dient Bildungszwecken und ist keine Anlageberatung. Krypto-Assets sind extrem volatil. Überprüfen Sie Daten immer On-Chain und aus mehreren Quellen, bevor Sie Entscheidungen treffen.

Was sind Krypto-Airdrops? Ein prägnanter Leitfaden für Entwickler und Nutzer (Ausgabe 2025)

· 12 Min. Lesezeit
Dora Noda
Software Engineer

TL;DR

Ein Krypto-Airdrop ist eine Verteilung von Token an bestimmte Wallet-Adressen – oft kostenlos –, um ein Netzwerk zu starten, das Eigentum zu dezentralisieren oder frühe Community-Mitglieder zu belohnen. Beliebte Methoden umfassen retrospektive Belohnungen für vergangene Aktionen, Punkte-zu-Token-Umwandlungen, Drops für NFT- oder Token-Inhaber und interaktive „Quest“-Kampagnen. Der Teufel steckt im Detail: Snapshot-Regeln, Claim-Mechanismen wie Merkle-Proofs, Sybil-Resistenz, klare Kommunikation und rechtliche Compliance sind entscheidend für den Erfolg. Für Nutzer ist der Wert an Tokenomics und Sicherheit gebunden. Für Teams muss ein erfolgreicher Airdrop mit den Kernproduktzielen übereinstimmen und nicht nur vorübergehenden Hype erzeugen.


Was ist ein Airdrop – wirklich?

Im Kern ist ein Krypto-Airdrop eine Marketing- und Distributionsstrategie, bei der ein Projekt seinen nativen Token an die Wallets einer bestimmten Nutzergruppe sendet. Dies ist nicht nur ein Giveaway; es ist ein kalkulierter Schritt, um spezifische Ziele zu erreichen. Wie von Bildungsressourcen von Coinbase und Binance Academy definiert, werden Airdrops häufig verwendet, wenn ein neues Netzwerk, DeFi-Protokoll oder eine dApp schnell eine Nutzerbasis aufbauen möchte. Indem Projekte potenziellen Nutzern Token geben, können sie diese dazu anregen, an der Governance teilzunehmen, Liquidität bereitzustellen, neue Funktionen zu testen oder einfach aktive Mitglieder der Community zu werden, wodurch der Netzwerkeffekt in Gang gesetzt wird.

Wo Airdrops in der Praxis auftauchen

Airdrops gibt es in verschiedenen Ausprägungen, jede mit einem anderen strategischen Zweck. Hier sind die gängigsten Modelle, die heute in der Praxis zu finden sind.

Retrospektiv (belohnt früheres Verhalten)

Dies ist das klassische Modell, das darauf abzielt, frühe Anwender zu belohnen, die ein Protokoll nutzten, bevor es einen Token hatte. Uniswaps Airdrop von 2020 ist das definitive Beispiel, das die moderne Vorlage setzte, indem es 400 $UNI-Token an jede Adresse verteilte, die jemals mit dem Protokoll interagiert hatte. Es war ein mächtiges „Dankeschön“, das Nutzer über Nacht zu Eigentümern machte.

Punkte → Token (Anreize zuerst, Token später)

Ein dominanter Trend in den Jahren 2024 und 2025 ist das Punkte-Modell, das die Teilnahme gamifiziert. Projekte verfolgen Nutzeraktionen – wie Bridging, Swapping oder Staking – und vergeben Off-Chain-„Punkte“. Später werden diese Punkte in eine Token-Zuteilung umgewandelt. Dieser Ansatz ermöglicht es Teams, gewünschte Verhaltensweisen über einen längeren Zeitraum zu messen und zu incentivieren, bevor sie sich zu einem Token-Launch verpflichten.

Inhaber-/NFT-Drops

Diese Art von Airdrop richtet sich an Nutzer, die bereits einen bestimmten Token oder NFT halten. Es ist eine Möglichkeit, die Loyalität innerhalb eines bestehenden Ökosystems zu belohnen oder ein neues Projekt mit einer engagierten Community zu starten. Ein berühmter Fall ist ApeCoin, das bei seinem Start im Jahr 2022 den Inhabern von Bored Ape und Mutant Ape Yacht Club NFTs Anspruchsrechte auf seinen $APE-Token gewährte.

Ökosystem-/Governance-Programme

Einige Projekte nutzen eine Reihe von Airdrops als Teil einer langfristigen Strategie zur Dezentralisierung und zum Community-Wachstum. Optimism hat beispielsweise mehrere Airdrops für Nutzer durchgeführt und gleichzeitig einen erheblichen Teil seines Token-Angebots für die Finanzierung öffentlicher Güter durch sein RetroPGF-Programm reserviert. Dies zeigt ein Engagement für den Aufbau eines nachhaltigen und werteorientierten Ökosystems.

Wie ein Airdrop funktioniert (Mechanismen, die zählen)

Der Unterschied zwischen einem erfolgreichen und einem chaotischen Airdrop liegt oft in der technischen und strategischen Ausführung. Hier sind die Mechanismen, die wirklich zählen.

Snapshot & Berechtigung

Zuerst muss ein Projekt entscheiden, wer qualifiziert ist. Dies beinhaltet die Wahl eines Snapshots – einer bestimmten Blockhöhe oder eines Datums –, nach dem die Nutzeraktivität nicht mehr gezählt wird. Die Berechtigungskriterien werden dann basierend auf Verhaltensweisen definiert, die das Projekt belohnen möchte, wie z. B. das Überbrücken von Geldern, das Ausführen von Swaps, das Bereitstellen von Liquidität, die Teilnahme an der Governance oder sogar das Beitragen von Code. Für seinen Airdrop arbeitete Arbitrum mit dem Analyseunternehmen Nansen zusammen, um ein ausgeklügeltes Verteilungsmodell zu entwickeln, das auf einem Snapshot basiert, der am 6. Februar 2023 zu einem bestimmten Blockzeitpunkt erstellt wurde.

Claim vs. Direktsendung

Während das direkte Senden von Token an Wallets einfacher erscheint, verwenden die meisten ausgereiften Projekte einen Claim-basierten Flow. Dies verhindert, dass Token an verlorene oder kompromittierte Adressen gesendet werden, und erfordert, dass Nutzer aktiv werden. Das gängigste Muster ist ein Merkle Distributor. Ein Projekt veröffentlicht einen kryptografischen Fingerabdruck (einen Merkle-Root) der berechtigten Adressen On-Chain. Jeder Nutzer kann dann einen eindeutigen „Proof“ generieren, um seine Berechtigung zu überprüfen und seine Token einzufordern. Diese Methode, die durch Uniswaps Open-Source-Implementierung populär wurde, ist gas-effizient und sicher.

Sybil-Resistenz

Airdrops sind ein Hauptziel für „Farmer“ – Einzelpersonen, die Hunderte oder Tausende von Wallets (einen „Sybil-Angriff“) verwenden, um ihre Belohnungen zu maximieren. Teams setzen verschiedene Methoden ein, um dies zu bekämpfen. Dazu gehören die Verwendung von Analysen zur Clusterbildung von Wallets, die von einer einzigen Entität kontrolliert werden, die Anwendung von Heuristiken (wie Wallet-Alter oder Aktivitätsvielfalt) und in jüngerer Zeit die Implementierung von Selbstmelde-Programmen. LayerZeros Kampagne von 2024 führte ein viel diskutiertes Modell ein, bei dem Nutzern die Möglichkeit gegeben wurde, Sybil-Aktivitäten selbst zu melden, um eine 15 %ige Zuteilung zu erhalten; diejenigen, die dies nicht taten und später erwischt wurden, wurden ausgeschlossen.

Freigabeplan & Governance

Nicht alle Token aus einem Airdrop sind sofort verfügbar. Viele Projekte implementieren einen schrittweisen Freigabeplan (oder eine Vesting-Periode) für Zuteilungen an das Team, Investoren und Ökosystemfonds. Das Verständnis dieses Plans ist für Nutzer entscheidend, um den zukünftigen Angebotsdruck auf dem Markt einzuschätzen. Plattformen wie TokenUnlocks bieten öffentliche Dashboards, die diese Freigabezeitpläne für Hunderte von Assets verfolgen.

Fallstudien (Kurzfakten)

  • Uniswap (2020): Verteilt 400 $UNI pro berechtigter Adresse, mit größeren Zuteilungen für Liquiditätsanbieter. Es etablierte das Claim-basierte Merkle-Proof-Modell als Industriestandard und demonstrierte die Kraft, eine Community retrospektiv zu belohnen.
  • Arbitrum (2023): Startete seinen L2-Governance-Token $ARB mit einem anfänglichen Angebot von 10 Milliarden. Der Airdrop verwendete ein Punktesystem, das auf On-Chain-Aktivitäten vor einem Snapshot vom 6. Februar 2023 basierte und fortschrittliche Analysen und Sybil-Filter von Nansen integrierte.
  • Starknet (2024): Brandete seinen Airdrop als „Provisions Program“, wobei die Claims am 20. Februar 2024 eröffnet wurden. Es richtete sich an eine breite Palette von Mitwirkenden, darunter frühe Nutzer, Netzwerkentwickler und sogar Ethereum-Staker, und bot ein mehrmonatiges Fenster zum Claimen.
  • ZKsync (2024): Am 11. Juni 2024 angekündigt, war dies eine der größten Layer-2-Nutzerverteilungen bis dato. Ein einmaliger Airdrop verteilte 17,5 % des gesamten Token-Angebots an fast 700.000 Wallets und belohnte die frühe Community des Protokolls.

Warum Teams Airdrops durchführen (und wann nicht)

Teams nutzen Airdrops aus mehreren strategischen Gründen:

  • Start eines zweiseitigen Netzwerks: Airdrops können ein Netzwerk mit den notwendigen Teilnehmern versorgen, seien es Liquiditätsanbieter, Trader, Creator oder Restaker.
  • Dezentralisierung der Governance: Die Verteilung von Token an eine breite Basis aktiver Nutzer ist ein grundlegender Schritt zu glaubwürdiger Dezentralisierung und einer von der Community geführten Governance.
  • Belohnung früher Mitwirkender: Für Projekte, die kein ICO oder Token-Verkauf durchgeführt haben, ist ein Airdrop der primäre Weg, frühe Unterstützer zu belohnen, die Wert lieferten, als das Ergebnis unsicher war.
  • Werte signalisieren: Das Design eines Airdrops kann die Kernprinzipien eines Projekts kommunizieren. Optimisms Fokus auf die Finanzierung öffentlicher Güter ist ein Paradebeispiel dafür.

Airdrops sind jedoch kein Allheilmittel. Teams sollten keinen Airdrop durchführen, wenn das Produkt eine schlechte Bindung aufweist, die Community schwach ist oder der Nutzen des Tokens schlecht definiert ist. Ein Airdrop verstärkt bestehende positive Rückkopplungsschleifen; er kann kein defektes Produkt reparieren.

Für Nutzer: Wie man sicher bewertet und teilnimmt

Airdrops können lukrativ sein, bergen aber auch erhebliche Risiken. Hier erfahren Sie, wie Sie sich sicher in der Landschaft bewegen.

Bevor Sie einem Drop nachjagen

  • Überprüfen Sie die Legitimität: Verifizieren Sie Airdrop-Ankündigungen immer über die offiziellen Kanäle des Projekts (Website, X-Konto, Discord). Seien Sie äußerst vorsichtig bei „Claim“-Links, die über DMs gesendet, in Anzeigen gefunden oder von unbestätigten Konten beworben werden.
  • Analysieren Sie die Ökonomie: Verstehen Sie die Tokenomics. Was ist das Gesamtangebot? Welcher Prozentsatz ist für Nutzer vorgesehen? Was ist der Vesting-Zeitplan für Insider? Tools wie TokenUnlocks können Ihnen helfen, zukünftige Angebotsfreigaben zu verfolgen.
  • Kennen Sie den Stil: Ist es ein retrospektiver Drop, der früheres Verhalten belohnt, oder ein Punkteprogramm, das eine kontinuierliche Teilnahme erfordert? Die Regeln für jedes sind unterschiedlich, und Punkteprogramme können ihre Kriterien im Laufe der Zeit ändern.

Wallet-Hygiene

  • Verwenden Sie eine neue Wallet: Verwenden Sie, wenn möglich, eine dedizierte „Burner“-Wallet mit geringem Wert, um Airdrops zu claimen. Dies isoliert das Risiko von Ihren Hauptbeständen.
  • Lesen Sie, was Sie signieren: Genehmigen Sie Transaktionen niemals blind. Bösartige Websites können Sie dazu verleiten, Berechtigungen zu unterzeichnen, die es ihnen ermöglichen, Ihre Assets zu leeren. Verwenden Sie Wallet-Simulatoren, um eine Transaktion zu verstehen, bevor Sie sie signieren. Überprüfen und widerrufen Sie regelmäßig veraltete Genehmigungen mit Tools wie Revoke.cash.
  • Seien Sie vorsichtig bei Off-Chain-Signaturen: Betrüger missbrauchen zunehmend Permit- und Permit2-Signaturen, bei denen es sich um Off-Chain-Genehmigungen handelt, die verwendet werden können, um Ihre Assets ohne eine On-Chain-Transaktion zu bewegen. Seien Sie bei diesen genauso vorsichtig wie bei On-Chain-Genehmigungen.

Häufige Risiken

  • Phishing & Drainer: Das häufigste Risiko ist die Interaktion mit einer gefälschten „Claim“-Website, die darauf ausgelegt ist, Ihre Wallet zu leeren. Untersuchungen von Firmen wie Scam Sniffer zeigen, dass ausgeklügelte Drainer-Kits für massive Verluste in den Jahren 2023–2025 verantwortlich waren.
  • Geofencing & KYC: Einige Airdrops können geografische Beschränkungen haben oder eine Know Your Customer (KYC)-Verifizierung erfordern. Lesen Sie immer die Geschäftsbedingungen, da Einwohner bestimmter Länder ausgeschlossen sein können.
  • Steuern (Kurzorientierung, keine Beratung): Die steuerliche Behandlung variiert je nach Gerichtsbarkeit. In den USA behandelt der IRS Airdrop-Token im Allgemeinen als steuerpflichtiges Einkommen zum fairen Marktwert an dem Datum, an dem Sie die Kontrolle über sie erlangen. Im Vereinigten Königreich kann HMRC einen Airdrop als Einkommen betrachten, wenn Sie eine Handlung ausgeführt haben, um ihn zu erhalten. Die spätere Veräußerung der Token kann die Kapitalertragssteuer auslösen. Konsultieren Sie einen qualifizierten Fachmann.

Für Teams: Eine pragmatische Checkliste für das Airdrop-Design

Planen Sie einen Airdrop? Hier ist eine Checkliste, die Sie bei Ihrem Designprozess unterstützt.

  1. Klären Sie das Ziel: Was wollen Sie erreichen? Echte Nutzung belohnen, Governance dezentralisieren, Liquidität bereitstellen oder Entwickler finanzieren? Definieren Sie Ihr primäres Ziel und machen Sie das Zielverhalten explizit.
  2. Legen Sie Berechtigungskriterien fest, die Ihr Produkt widerspiegeln: Entwerfen Sie Kriterien, die beständige, hochwertige Nutzer belohnen. Gewichten Sie Aktionen, die mit der Bindung korrelieren (z. B. zeitgewichtete Salden, konsistenter Handel), gegenüber einfachem Volumen und erwägen Sie eine Begrenzung der Belohnungen für Wale. Studieren Sie öffentliche Post-Mortems von großen Airdrops auf Plattformen wie Nansen.
  3. Bauen Sie Sybil-Resistenz ein: Verlassen Sie sich nicht auf eine einzige Methode. Kombinieren Sie On-Chain-Heuristiken (Wallet-Alter, Aktivitätsvielfalt) mit Cluster-Analysen. Erwägen Sie neuartige Ansätze wie das von LayerZero entwickelte Community-unterstützte Meldesystem.
  4. Implementieren Sie einen robusten Claim-Pfad: Verwenden Sie einen bewährten Merkle-Distributor-Vertrag. Veröffentlichen Sie den vollständigen Datensatz und den Merkle-Baum, damit jeder den Root und seine eigene Berechtigung unabhängig überprüfen kann. Halten Sie die Claim-Benutzeroberfläche minimalistisch, auditiert und ratenbegrenzt, um Verkehrsspitzen zu bewältigen, ohne Ihre RPC-Endpunkte zu überlasten.
  5. Kommunizieren Sie den Freigabeplan: Seien Sie transparent über das gesamte Token-Angebot, die Zuteilungen für verschiedene Empfängergruppen (Community, Team, Investoren) und zukünftige Freigabeereignisse. Öffentliche Dashboards schaffen Vertrauen und unterstützen gesündere Marktdynamiken.
  6. Berücksichtigen Sie Governance, Rechtliches und Steuern: Stimmen Sie die On-Chain-Fähigkeiten des Tokens (Abstimmung, Gebührenteilung, Staking) mit Ihrer langfristigen Roadmap ab. Holen Sie rechtlichen Rat bezüglich gerichtlicher Beschränkungen und notwendiger Offenlegungen ein. Wie die Richtlinien von IRS und HMRC zeigen, sind Details wichtig.

Kurzes Glossar

  • Snapshot: Ein spezifischer Block oder Zeitpunkt, der als Stichtag verwendet wird, um zu bestimmen, wer für einen Airdrop berechtigt ist.
  • Claim (Merkle): Eine gas-effiziente, beweisbasierte Methode, die es berechtigten Nutzern ermöglicht, ihre Token-Zuteilung von einem Smart Contract abzurufen.
  • Sybil: Ein Szenario, in dem ein Akteur viele Wallets verwendet, um eine Verteilung zu manipulieren. Teams verwenden Filtertechniken, um sie zu erkennen und zu entfernen.
  • Punkte: Off-Chain- oder On-Chain-Zählungen, die die Nutzerbindung verfolgen. Sie werden oft später in Token umgewandelt, aber die Kriterien können sich ändern.
  • Freigabeplan: Der Zeitplan, der detailliert beschreibt, wie und wann nicht zirkulierende Token (z. B. Team- oder Investorenzuteilungen) auf den Markt gelangen.

Builder’s Corner: Wie BlockEden helfen kann

Die Einführung eines Airdrops ist ein gewaltiges Unterfangen. BlockEden bietet die Infrastruktur, um sicherzustellen, dass Sie ihn verantwortungsvoll und effektiv umsetzen.

  • Zuverlässige Snapshots: Nutzen Sie unsere Hochdurchsatz-RPC- und Indexierungsdienste, um die Berechtigung über Millionen von Adressen und komplexe Kriterien auf jeder Chain zu berechnen.
  • Claim-Infrastruktur: Erhalten Sie fachkundige Beratung bei der Gestaltung und Implementierung von Merkle-Claim-Flows und gas-effizienten Verteilungsverträgen.
  • Sybil-Operationen: Nutzen Sie unsere Datenpipelines, um Heuristiken auszuführen, Cluster-Analysen durchzuführen und Ihre Ausschlussliste zu iterieren, bevor Sie Ihre Verteilung finalisieren.
  • Launch-Support: Unsere Infrastruktur ist für Skalierbarkeit ausgelegt. Mit integrierten Ratenbegrenzungen, automatischen Wiederholungsversuchen und Echtzeitüberwachung können Sie sicherstellen, dass der Claim-Tag Ihre Endpunkte nicht überlastet.

Häufig gestellte Fragen (Kurzantworten)

Ist ein Airdrop „kostenloses Geld“? Nein. Es ist eine Verteilung, die an spezifische Verhaltensweisen, Marktrisiken, potenzielle Steuerschulden und Sicherheitsaspekte gebunden ist. Es ist ein Anreiz, kein Geschenk.

Warum habe ich keinen bekommen? Höchstwahrscheinlich haben Sie entweder das Snapshot-Datum verpasst, die Mindestaktivitätsschwellen nicht erreicht oder wurden von den Sybil-Erkennungsregeln des Projekts herausgefiltert. Legitime Projekte veröffentlichen in der Regel ihre Kriterien; lesen Sie diese genau.

Sollten Teams Claims für immer offen lassen? Das variiert. Uniswaps Claim-Vertrag bleibt Jahre später offen, aber viele moderne Projekte setzen eine Frist (z. B. 3–6 Monate), um die Buchhaltung zu vereinfachen, nicht beanspruchte Token für die Schatzkammer zurückzugewinnen und den langfristigen Sicherheitswartungsaufwand zu reduzieren. Wählen Sie eine Richtlinie und dokumentieren Sie diese klar.

Weiterführende Lektüre (Primärquellen)

Gas-lose Erlebnisse mit Sui Paymaster schaffen: Architektur- und Implementierungsleitfaden

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Stellen Sie sich eine Welt vor, in der Benutzer nahtlos mit Ihrer dApp interagieren können, ohne native Token (SUI) besitzen zu müssen. Dies ist kein ferner Traum mehr. Mit Suis Gas Station (auch bekannt als Paymaster) können Entwickler die Gasgebühren im Namen ihrer Benutzer übernehmen, wodurch eine der größten Hürden für Neueinsteiger in Web3 vollständig beseitigt und ein wirklich reibungsloses On-Chain-Erlebnis ermöglicht wird.

Dieser Artikel bietet einen vollständigen Leitfaden zur Umstellung Ihrer dApp auf Gas-los. Wir werden tief in die Kernkonzepte des Sui Paymasters, seine Architektur, Implementierungsmuster und Best Practices eintauchen.

1. Hintergrund und Kernkonzepte: Was ist eine gesponserte Transaktion?

In der Welt der Blockchain erfordert jede Transaktion eine Netzwerkgebühr oder „Gas“. Für Benutzer, die an die nahtlosen Erfahrungen von Web2 gewöhnt sind, stellt dies eine erhebliche kognitive und operative Hürde dar. Sui begegnet dieser Herausforderung auf Protokollebene mit gesponserten Transaktionen.

Die Kernidee ist einfach: einer Partei (dem Sponsor) zu erlauben, die SUI-Gasgebühren für die Transaktion einer anderen Partei (des Benutzers) zu bezahlen. Auf diese Weise können Benutzer, selbst wenn sie kein SUI in ihrer Wallet haben, dennoch erfolgreich On-Chain-Aktionen initiieren.

Paymaster ≈ Tankstelle

Im Sui-Ökosystem wird die Logik für das Sponsern von Transaktionen typischerweise von einem Off-Chain- oder On-Chain-Dienst namens Gas Station oder Paymaster gehandhabt. Zu seinen Hauptaufgaben gehören:

  1. Bewertung der Transaktion: Er empfängt die gas-losen Transaktionsdaten eines Benutzers (GasLessTransactionData).
  2. Bereitstellung von Gas: Er sperrt und weist die notwendige Gasgebühr für die Transaktion zu. Dies wird normalerweise über einen Gas-Pool verwaltet, der aus vielen SUI-Coin-Objekten besteht.
  3. Erzeugung einer Sponsor-Signatur: Nach Genehmigung des Sponsorings signiert die Gas Station die Transaktion mit ihrem privaten Schlüssel (SponsorSig), wodurch ihre Bereitschaft zur Zahlung der Gebühr bestätigt wird.
  4. Rückgabe der signierten Transaktion: Er sendet die TransactionData zurück, die nun die Gasdaten und die Signatur des Sponsors enthält, um die endgültige Signatur des Benutzers abzuwarten.

Kurz gesagt, eine Gas Station fungiert als Tankservice für die Benutzer Ihrer dApp und stellt sicher, dass ihre „Fahrzeuge“ (Transaktionen) reibungslos im Sui-Netzwerk fahren können.

2. Hochrangige Architektur und Interaktionsfluss

Eine typische gas-lose Transaktion erfordert die Koordination zwischen dem Benutzer, dem dApp-Frontend, der Gas Station und einem Sui Full Node. Die Interaktionssequenz ist wie folgt:

Ablaufbeschreibung:

  1. Der Benutzer führt eine Aktion in der dApp-Benutzeroberfläche aus, die ein Transaktionsdatenpaket ohne Gasinformationen erstellt.
  2. Die dApp sendet diese Daten an ihre zugewiesene Gas Station, um ein Sponsoring anzufordern.
  3. Die Gas Station überprüft die Gültigkeit der Anfrage (z. B. ob der Benutzer für ein Sponsoring berechtigt ist), füllt die Transaktion dann mit einem Gas Coin und ihrer Signatur auf und gibt die halbfertige Transaktion an die dApp zurück.
  4. Der Benutzer sieht die vollständigen Transaktionsdetails in seiner Wallet (z. B. „Ein NFT kaufen“) und gibt die endgültige Signatur. Dies ist ein entscheidender Schritt, der sicherstellt, dass der Benutzer die Zustimmung und Kontrolle über seine Aktionen behält.
  5. Die dApp sendet die vollständige Transaktion, die sowohl die Signaturen des Benutzers als auch des Sponsors enthält, an einen Sui Full Node.
  6. Nachdem die Transaktion On-Chain abgeschlossen ist, kann die Gas Station dies durch Abhören von On-Chain-Ereignissen oder -Belegen bestätigen und dann das dApp-Backend über einen Webhook benachrichtigen, um den Geschäftsprozess abzuschließen.

3. Drei Kern-Interaktionsmodelle

Sie können die folgenden drei Interaktionsmodelle einzeln oder in Kombination verwenden, um Ihren Geschäftsanforderungen gerecht zu werden.

Modell 1: Benutzer-initiiert → Sponsor-genehmigt (Am häufigsten)

Dies ist das Standardmodell, das für die überwiegende Mehrheit der In-dApp-Interaktionen geeignet ist.

  1. Benutzer erstellt GasLessTransactionData: Der Benutzer führt eine Aktion innerhalb der dApp aus.
  2. Sponsor fügt GasData hinzu und signiert: Das dApp-Backend sendet die Transaktion an die Gas Station, die sie genehmigt, einen Gas Coin anhängt und ihre Signatur hinzufügt.
  3. Benutzer überprüft und gibt endgültige Signatur: Der Benutzer bestätigt die endgültigen Transaktionsdetails in seiner Wallet und signiert sie. Die dApp übermittelt sie dann an das Netzwerk.

Dieses Modell bietet eine hervorragende Balance zwischen Sicherheit und Benutzererfahrung.

Modell 2: Sponsor-initiierte Airdrops/Anreize

Dieses Modell ist perfekt für Airdrops, Benutzeranreize oder die Verteilung von Vermögenswerten in Batches.

  1. Sponsor füllt TransactionData vorab aus + signiert: Der Sponsor (typischerweise das Projektteam) konstruiert den Großteil der Transaktion vorab (z. B. das Airdroppen eines NFT an eine bestimmte Adresse) und fügt seine Sponsoring-Signatur hinzu.
  2. Die zweite Signatur des Benutzers macht sie wirksam: Der Benutzer muss diese „vorab genehmigte“ Transaktion nur einmal signieren, damit sie ausgeführt wird.

Dies schafft ein extrem reibungsloses Benutzererlebnis. Mit nur einem Klick zur Bestätigung können Benutzer Belohnungen beanspruchen oder Aufgaben erledigen, was die Konversionsraten von Marketingkampagnen drastisch erhöht.

Modell 3: Wildcard GasData (Kreditlinienmodell)

Dies ist ein flexibleres und berechtigungsbasiertes Modell.

  1. Sponsor überträgt ein GasData-Objekt: Der Sponsor erstellt zunächst ein oder mehrere Gas-Coin-Objekte mit einem bestimmten Budget und überträgt das Eigentum direkt an den Benutzer.
  2. Benutzer gibt innerhalb des Budgets frei aus: Der Benutzer kann diese Gas Coins dann frei verwenden, um beliebige Transaktionen zu bezahlen, die er innerhalb der Budgetgrenzen und des Gültigkeitszeitraums initiiert.
  3. Gas Coin wird zurückgegeben: Sobald der Gas Coin aufgebraucht oder abgelaufen ist, kann das Gas-Coin-Objekt so konzipiert werden, dass es automatisch zerstört oder an den Sponsor zurückgegeben wird.

Dieses Modell entspricht der Vergabe einer „Gasgebühren-Kreditkarte“ mit begrenzter Laufzeit und begrenztem Budget an den Benutzer, geeignet für Szenarien, die ein hohes Maß an Benutzerautonomie erfordern, wie z. B. das Anbieten eines Free-to-Play-Erlebnisses während einer Spielsaison.

4. Typische Anwendungsszenarien

Die Stärke des Sui Paymasters liegt nicht nur in der Lösung des Gasgebührenproblems, sondern auch in seiner Fähigkeit, sich tief in die Geschäftslogik zu integrieren, um neue Möglichkeiten zu schaffen.

Szenario 1: Paywalls

Viele Content-Plattformen oder dApp-Dienste erfordern, dass Benutzer bestimmte Kriterien erfüllen (z. B. ein VIP-NFT besitzen, ein bestimmtes Mitgliedschaftsniveau erreichen), um auf Funktionen zugreifen zu können. Der Paymaster kann diese Logik perfekt implementieren.

  • Ablauf: Ein Benutzer fordert eine Aktion an → das dApp-Backend überprüft die Qualifikationen des Benutzers (z. B. NFT-Besitz) → wenn berechtigt, ruft es den Paymaster auf, um die Gasgebühr zu sponsern; wenn nicht, lehnt es die Signaturanfrage einfach ab.
  • Vorteil: Dieses Modell ist von Natur aus resistent gegen Bots und Missbrauch. Da die Sponsoring-Entscheidung im Backend getroffen wird, können böswillige Benutzer die Qualifikationsprüfung nicht umgehen, um Gasgelder abzuschöpfen.

Szenario 2: Ein-Klick-Kaufabwicklung

In E-Commerce- oder In-Game-Kaufszenarien ist die Vereinfachung des Zahlungsprozesses entscheidend.

  • Ablauf: Der Benutzer klickt auf einer Checkout-Seite auf „Jetzt kaufen“. Die dApp erstellt eine Transaktion, die die Geschäftslogik (z. B. transfer_nft_to_user) enthält. Der Benutzer muss nur signieren, um die Geschäftstransaktion in seiner Wallet zu genehmigen, ohne sich um Gas kümmern zu müssen. Die Gasgebühr wird vom Sponsor der dApp übernommen.
  • Vorteil: Sie können Geschäftsparameter wie eine order_id direkt in den ProgrammableTransactionBlock kodieren, was eine präzise On-Chain-Zuordnung für Backend-Bestellungen ermöglicht.

Szenario 3: Datenzuordnung

Eine genaue Datenverfolgung ist grundlegend für die Geschäftsoptimierung.

  • Ablauf: Beim Erstellen der Transaktion schreiben Sie einen eindeutigen Bezeichner (wie einen order_hash) in die Parameter der Transaktion oder in ein Ereignis, das bei der Ausführung ausgegeben wird.
  • Vorteil: Wenn die Gas Station den On-Chain-Beleg für eine erfolgreiche Transaktion erhält, kann sie diesen order_hash leicht extrahieren, indem sie die Ereignis- oder Transaktionsdaten parst. Dies ermöglicht eine präzise Zuordnung zwischen On-Chain-Statusänderungen und spezifischen Backend-Bestellungen oder Benutzeraktionen.

5. Code-Grundgerüst (Basierend auf dem Rust SDK)

Hier ist ein vereinfachtes Code-Snippet, das die Kerninteraktionsschritte demonstriert.

// Assume tx_builder, sponsor, and wallet have been initialized

// Step 1: On the user or dApp side, construct a gas-less transaction
let gasless_transaction_data = tx_builder.build_gasless_transaction_data(false)?;

// Step 2: On the Sponsor (Gas Station) side, receive the gasless_transaction_data,
// fill it with a Gas Coin, and return the transaction data with the Sponsor's signature.
// The sponsor_transaction_block function handles gas allocation and signing internally.
let sponsored_transaction = sponsor.sponsor_transaction_block(gasless_transaction_data, user_address, gas_budget)?;

// Step 3: The dApp sends the sponsored_transaction back to the user,
// who signs and executes it with their wallet.
let response = wallet.sign_and_execute_transaction_block(&sponsored_transaction)?;

Für eine vollständige Implementierung verweisen wir auf das Gas Station Tutorial in der offiziellen Sui-Dokumentation, das sofort einsatzbereite Codebeispiele bietet.

6. Risiken und Schutz

Obwohl leistungsstark, erfordert der Einsatz einer Gas Station in einer Produktionsumgebung eine sorgfältige Abwägung der folgenden Risiken:

  • Äquivokation (Double-Spending): Ein böswilliger Benutzer könnte versuchen, denselben Gas Coin für mehrere Transaktionen parallel zu verwenden, was dazu führen würde, dass der Gas Coin vom Sui-Netzwerk gesperrt wird. Dies kann effektiv gemildert werden, indem jedem Benutzer oder jeder Transaktion ein eindeutiger Gas Coin zugewiesen, eine Blacklist geführt und Signaturanfragen ratenbegrenzt werden.
  • Gas-Pool-Management: In Szenarien mit hoher Parallelität kann ein einzelner Gas Coin mit hohem Wert zu einem Leistungsengpass werden. Der Gas Station-Dienst muss in der Lage sein, große SUI-Coins automatisch in viele kleinere Gas Coins aufzuteilen und diese nach Gebrauch effizient zurückzugewinnen. Professionelle Gas Station-Anbieter wie Shinami bieten ausgereifte, verwaltete Lösungen hierfür an.
  • Autorisierung und Ratenbegrenzung: Sie müssen strenge Autorisierungs- und Ratenbegrenzungsrichtlinien festlegen. Verwalten Sie beispielsweise Sponsoring-Limits und -Häufigkeiten basierend auf Benutzer-IP, Wallet-Adresse oder API-Tokens, um zu verhindern, dass der Dienst von böswilligen Akteuren geleert wird.

7. Ökosystem-Tools

Das Sui-Ökosystem bietet bereits eine Vielzahl von Tools, um die Entwicklung und Bereitstellung von Paymastern zu vereinfachen:

  • Offizielle SDKs (Rust/TypeScript): Enthalten High-Level-APIs wie sponsor_transaction_block(), was die Integrationskomplexität erheblich reduziert.
  • Shinami Gas Station: Bietet einen All-in-One-Managed-Service, einschließlich automatischer Gas-Coin-Aufteilung/-Rückgewinnung, detaillierter Metriküberwachung und Webhook-Benachrichtigungen, sodass sich Entwickler auf die Geschäftslogik konzentrieren können.
  • Enoki / Mysten Demos: Die Community und Mysten Labs stellen auch Open-Source-Paymaster-Implementierungen bereit, die als Referenz für den Aufbau Ihres eigenen Dienstes verwendet werden können.

8. Implementierungs-Checkliste

Bereit, Ihre dApp in die gas-lose Ära zu bringen? Gehen Sie diese Checkliste durch, bevor Sie beginnen:

  • Planen Sie Ihren Finanzierungsfluss: Definieren Sie die Finanzierungsquelle, das Budget und die Nachschubstrategie des Sponsors. Richten Sie Überwachung und Warnmeldungen für Schlüsselmetriken (z. B. Gas-Pool-Guthaben, Verbrauchsrate) ein.
  • Reservieren Sie Attributionsfelder: Achten Sie bei der Gestaltung Ihrer Transaktionsparameter darauf, Felder für Geschäftsbezeichner wie order_id oder user_id zu reservieren.
  • Implementieren Sie Anti-Missbrauchsrichtlinien: Sie müssen strenge Autorisierungs-, Ratenbegrenzungs- und Protokollierungsmechanismen implementieren, bevor Sie live gehen.
  • Proben auf dem Testnet: Egal, ob Sie Ihren eigenen Dienst aufbauen oder eine Drittanbieter-Gas Station integrieren, führen Sie immer zuerst gründliche Parallelitäts- und Stresstests auf einem Testnet oder Devnet durch.
  • Kontinuierlich optimieren: Verfolgen Sie nach dem Start kontinuierlich die Transaktionserfolgsraten, Fehlerursachen und Gaskosten. Passen Sie Ihr Budget und Ihre Strategien basierend auf den Daten an.

Fazit

Der Sui Paymaster (Gas Station) ist mehr als nur ein Tool zur Deckung der Gasgebühren von Benutzern. Es ist ein leistungsstarkes Paradigma, das ein „Zero SUI On-Chain“-Benutzererlebnis elegant mit dem geschäftlichen Bedürfnis nach „On-Chain-Attribution auf Bestellebene“ innerhalb einer einzigen, atomaren Transaktion kombiniert. Es ebnet Web2-Benutzern den Weg in Web3 und bietet Entwicklern eine beispiellose Flexibilität für die Geschäftsanpassung.

Mit einem zunehmend ausgereiften Ökosystem von Tools und den derzeit niedrigen Gaskosten im Sui-Netzwerk war es noch nie eine bessere Zeit, die Zahlungs- und Interaktionsflüsse Ihrer dApp in die gas-lose Ära zu bringen.

Einführung des SUI-Token-Stakings auf BlockEden.xyz: Verdienen Sie 2,08 % APY mit Ein-Klick-Einfachheit

· 7 Min. Lesezeit
Dora Noda
Software Engineer

Wir freuen uns, die Einführung des SUI-Token-Stakings auf BlockEden.xyz bekannt zu geben! Ab heute können Sie Ihre SUI-Token direkt über unsere Plattform staken und einen APY von 2,08 % verdienen, während Sie die Sicherheit und Dezentralisierung des SUI-Netzwerks unterstützen.

Was ist neu: Ein nahtloses SUI-Staking-Erlebnis

Unsere neue Staking-Funktion macht institutionelles Staking für jedermann zugänglich, mit einer einfachen, intuitiven Benutzeroberfläche, die das Verdienen von Belohnungen mühelos macht.

Hauptmerkmale

Ein-Klick-Staking SUI zu staken war noch nie so einfach. Verbinden Sie einfach Ihre Suisplash-Wallet, geben Sie den gewünschten SUI-Betrag ein und bestätigen Sie die Transaktion. Sie beginnen fast sofort, Belohnungen zu verdienen, ohne komplexe Prozeduren.

Wettbewerbsfähige Belohnungen Verdienen Sie einen wettbewerbsfähigen APY von 2,08 % auf Ihre gestakten SUI. Unsere 8 % Kommission ist transparent, sodass Sie genau wissen, was Sie erwartet. Belohnungen werden täglich nach Abschluss jeder Epoche ausgeschüttet.

Vertrauenswürdiger Validator Werden Sie Teil einer wachsenden Community, die bereits über 22 Millionen SUI mit dem BlockEden.xyz-Validator gestaket hat. Wir verfügen über eine nachweisliche Erfolgsbilanz zuverlässiger Validierungsdienste, unterstützt durch eine Infrastruktur auf Unternehmensniveau, die eine 99,9 %ige Verfügbarkeit gewährleistet.

Flexibles Management Ihre Assets bleiben flexibel. Staking ist sofortig, was bedeutet, dass Ihre Belohnungen sofort zu akkumulieren beginnen. Sollten Sie auf Ihre Gelder zugreifen müssen, können Sie den Unstaking-Prozess jederzeit einleiten. Ihre SUI werden nach der standardmäßigen SUI-Netzwerk-Unbonding-Periode von 24-48 Stunden verfügbar sein. Sie können Ihre Stakes und Belohnungen in Echtzeit über unser Dashboard verfolgen.

Warum SUI mit BlockEden.xyz staken?

Die Wahl eines Validators ist eine entscheidende Entscheidung. Hier erfahren Sie, warum BlockEden.xyz eine gute Wahl für Ihre Staking-Bedürfnisse ist.

Zuverlässigkeit, der Sie vertrauen können

BlockEden.xyz ist seit unserer Gründung ein Eckpfeiler der Blockchain-Infrastruktur. Unsere Validator-Infrastruktur versorgt Unternehmensanwendungen und hat eine außergewöhnliche Verfügbarkeit über mehrere Netzwerke hinweg aufrechterhalten, wodurch eine konsistente Belohnungsgenerierung gewährleistet ist.

Transparent & Fair

Wir glauben an vollständige Transparenz. Es gibt keine versteckten Gebühren – nur eine klare 8 % Kommission auf die Belohnungen, die Sie verdienen. Sie können Ihre Staking-Performance mit Echtzeit-Berichten überwachen und die Aktivität unseres Validators On-Chain überprüfen.

  • Offene Validator-Adresse: 0x3b5664bb0f8bb4a8be77f108180a9603e154711ab866de83c8344ae1f3ed4695

Nahtlose Integration

Unsere Plattform ist auf Einfachheit ausgelegt. Es ist keine Kontoerstellung erforderlich; Sie können direkt von Ihrer Wallet aus staken. Das Erlebnis ist für die Suisplash-Wallet optimiert, und unsere saubere, intuitive Benutzeroberfläche ist sowohl für Anfänger als auch für Experten konzipiert.

So fangen Sie an

Der Einstieg ins SUI-Staking auf BlockEden.xyz dauert weniger als zwei Minuten.

Schritt 1: Besuchen Sie die Staking-Seite

Navigieren Sie zu blockeden.xyz/dash/stake. Sie können den Prozess sofort ohne Registrierung eines Kontos beginnen.

Schritt 2: Verbinden Sie Ihre Wallet

Falls Sie sie noch nicht haben, installieren Sie die Suisplash-Wallet. Klicken Sie auf der Staking-Seite auf die Schaltfläche "Wallet verbinden" und bestätigen Sie die Verbindung in der Wallet-Erweiterung. Ihr SUI-Guthaben wird automatisch angezeigt.

Schritt 3: Wählen Sie Ihren Stake-Betrag

Geben Sie den Betrag an SUI ein, den Sie staken möchten (mindestens 1 SUI). Sie können die Schaltfläche "MAX" verwenden, um bequem Ihr gesamtes verfügbares Guthaben zu staken und einen kleinen Betrag für Gasgebühren zu belassen. Eine Zusammenfassung zeigt Ihren Stake-Betrag und die geschätzten jährlichen Belohnungen.

Schritt 4: Bestätigen & Verdienen Sie

Klicken Sie auf "SUI staken" und bestätigen Sie die finale Transaktion in Ihrer Wallet. Ihr neuer Stake wird in Echtzeit auf dem Dashboard angezeigt, und Sie beginnen sofort, Belohnungen zu akkumulieren.

Staking-Ökonomie: Was Sie wissen müssen

Das Verständnis der Staking-Mechanismen ist entscheidend für die effektive Verwaltung Ihrer Assets.

Belohnungsstruktur

  • Basis-APY: 2,08 % jährlich
  • Belohnungsfrequenz: Jede Epoche (ca. 24 Stunden) ausgeschüttet
  • Kommission: 8 % der verdienten Belohnungen
  • Zinseszinseffekt: Belohnungen werden Ihrer Wallet hinzugefügt und können erneut gestaket werden, um einen Zinseszinseffekt zu erzielen.

Beispiel-Einnahmen

Hier ist eine einfache Aufschlüsselung der potenziellen Einnahmen basierend auf einem APY von 2,08 %, nach Abzug der 8 % Kommission.

EinsatzbetragJährliche BelohnungenMonatliche BelohnungenTägliche Belohnungen
100 SUI~2,08 SUI~0,17 SUI~0,0057 SUI
1.000 SUI~20,8 SUI~1,73 SUI~0,057 SUI
10.000 SUI~208 SUI~17,3 SUI~0,57 SUI

Hinweis: Dies sind Schätzungen. Die tatsächlichen Belohnungen können je nach Netzwerkbedingungen variieren.

Risikobetrachtungen

Staking birgt bestimmte Risiken, derer Sie sich bewusst sein sollten:

  • Unbonding-Periode: Wenn Sie unstaken, unterliegen Ihre SUI einer 24-48-stündigen Unbonding-Periode, in der sie unzugänglich sind und keine Belohnungen verdienen.
  • Validator-Risiko: Obwohl wir hohe Standards aufrechterhalten, birgt jeder Validator operationelle Risiken. Die Wahl eines seriösen Validators wie BlockEden.xyz ist wichtig.
  • Netzwerkrisiko: Staking ist eine Form der Netzwerkbeteiligung und unterliegt den inhärenten Risiken des zugrunde liegenden Blockchain-Protokolls.
  • Marktrisiko: Der Marktwert des SUI-Tokens kann schwanken, was den Gesamtwert Ihrer gestakten Assets beeinflusst.

Technische Exzellenz

Unternehmensinfrastruktur

Unsere Validator-Nodes basieren auf einem Fundament technischer Exzellenz. Wir nutzen redundante Systeme, die über mehrere geografische Regionen verteilt sind, um eine hohe Verfügbarkeit zu gewährleisten. Unsere Infrastruktur wird rund um die Uhr überwacht, verfügt über automatisierte Failover-Funktionen und wird von einem professionellen Betriebsteam Tag und Nacht verwaltet. Wir führen außerdem regelmäßige Sicherheitsaudits und Compliance-Prüfungen durch.

Open Source & Transparenz

Wir bekennen uns zu den Prinzipien von Open Source. Unsere Staking-Integration ist transparent aufgebaut, sodass Benutzer die zugrunde liegenden Prozesse überprüfen können. Echtzeit-Metriken sind auf SUI-Netzwerk-Explorern öffentlich verfügbar, und unsere Gebührenstruktur ist vollständig offen, ohne versteckte Kosten. Wir beteiligen uns auch aktiv an der Community-Governance, um das SUI-Ökosystem zu unterstützen.

Unterstützung des SUI-Ökosystems

Indem Sie mit BlockEden.xyz staken, tun Sie mehr als nur Belohnungen zu verdienen. Sie tragen aktiv zur Gesundheit und zum Wachstum des gesamten SUI-Netzwerks bei.

  • Netzwerksicherheit: Ihr Stake erhöht den Gesamtbetrag, der das SUI-Netzwerk sichert, und macht es robuster gegen potenzielle Angriffe.
  • Dezentralisierung: Die Unterstützung unabhängiger Validatoren wie BlockEden.xyz erhöht die Widerstandsfähigkeit des Netzwerks und verhindert Zentralisierung.
  • Ökosystem-Wachstum: Die von uns verdienten Provisionsgebühren werden in die Wartung und Entwicklung kritischer Infrastruktur reinvestiert.
  • Innovation: Einnahmen unterstützen unsere Forschung und Entwicklung neuer Tools und Dienste für die Blockchain-Community.

Sicherheit & Best Practices

Bitte priorisieren Sie die Sicherheit Ihrer Assets.

Wallet-Sicherheit

  • Teilen Sie niemals Ihre privaten Schlüssel oder Seed-Phrase mit jemandem.
  • Verwenden Sie eine Hardware-Wallet zum Speichern und Staken großer Beträge.
  • Überprüfen Sie immer die Transaktionsdetails in Ihrer Wallet, bevor Sie unterschreiben.
  • Halten Sie Ihre Wallet-Software auf dem neuesten Stand.

Staking-Sicherheit

  • Wenn Sie neu im Staking sind, beginnen Sie mit einem kleinen Betrag, um sich mit dem Prozess vertraut zu machen.
  • Erwägen Sie, Ihren Stake auf mehrere seriöse Validatoren zu diversifizieren, um das Risiko zu reduzieren.
  • Überwachen Sie regelmäßig Ihre gestakten Assets und Belohnungen.
  • Stellen Sie sicher, dass Sie die Unbonding-Periode verstehen, bevor Sie Ihre Gelder festlegen.

Werden Sie Teil der Zukunft des SUI-Stakings

Die Einführung des SUI-Stakings auf BlockEden.xyz ist mehr als nur eine neue Funktion; es ist ein Tor zur aktiven Teilnahme an der dezentralen Wirtschaft. Egal, ob Sie ein erfahrener DeFi-Benutzer sind oder gerade erst Ihre Reise beginnen, unsere Plattform bietet eine einfache und sichere Möglichkeit, Belohnungen zu verdienen und gleichzeitig zur Zukunft des SUI-Netzwerks beizutragen.

Bereit, mit dem Verdienen zu beginnen?

Besuchen Sie blockeden.xyz/dash/stake und staken Sie noch heute Ihre ersten SUI-Token!


Über BlockEden.xyz

BlockEden.xyz ist ein führender Anbieter von Blockchain-Infrastruktur, der Entwicklern, Unternehmen und der gesamten Web3-Community zuverlässige, skalierbare und sichere Dienste anbietet. Von API-Diensten bis hin zu Validator-Operationen setzen wir uns dafür ein, das Fundament für eine dezentrale Zukunft zu legen.

  • Gegründet: 2021
  • Unterstützte Netzwerke: Über 15 Blockchain-Netzwerke
  • Unternehmenskunden: Über 500 Unternehmen weltweit
  • Gesamtwert gesichert: Über 100 Mio. USD über alle Netzwerke hinweg

Folgen Sie uns auf Twitter, treten Sie unserem Discord bei und entdecken Sie unser gesamtes Dienstleistungsangebot auf BlockEden.xyz.


Haftungsausschluss: Dieser Blogbeitrag dient ausschließlich zu Informationszwecken und stellt keine Finanzberatung dar. Das Staking von Kryptowährungen birgt Risiken, einschließlich des potenziellen Verlusts des Kapitals. Bitte führen Sie Ihre eigene Recherche durch und berücksichtigen Sie Ihre Risikobereitschaft, bevor Sie staken.

Dezentrale KI-Inferenzmärkte: Bittensor, Gensyn und Cuckoo AI

· 62 Min. Lesezeit
Dora Noda
Software Engineer

Einführung

Dezentrale KI-Inferenz-/Trainingsmärkte zielen darauf ab, globale Rechenressourcen und Community-Modelle auf vertrauenslose Weise zu nutzen. Projekte wie Bittensor, Gensyn und Cuckoo Network (Cuckoo AI) veranschaulichen, wie Blockchain-Technologie offene KI-Marktplätze antreiben kann. Jede Plattform tokenisiert wichtige KI-Assets – Rechenleistung, Machine-Learning-Modelle und manchmal auch Daten – in On-Chain-Wirtschaftseinheiten. Im Folgenden gehen wir auf die technischen Architekturen dieser Netzwerke ein, wie sie Ressourcen tokenisieren, ihre Governance- und Anreizstrukturen, Methoden zur Verfolgung des Modelleigentums, Umsatzbeteiligungsmechanismen und die Angriffsflächen (z. B. Sybil-Angriffe, Kollusion, Trittbrettfahren, Vergiftung), die dabei entstehen. Eine vergleichende Tabelle am Ende fasst alle wichtigen Dimensionen von Bittensor, Gensyn und Cuckoo AI zusammen.

Technische Architekturen

Bittensor: Dezentrales „Neuronales Internet“ auf Subnetzen

Bittensor basiert auf einer benutzerdefinierten Layer-1-Blockchain (der Subtensor-Kette, basierend auf Substrate), die ein Netzwerk von KI-Modellknoten über viele spezialisierte Subnetze koordiniert. Jedes Subnetz ist ein unabhängiges Mini-Netzwerk, das sich auf eine bestimmte KI-Aufgabe konzentriert (zum Beispiel ein Subnetz für Sprachgenerierung, ein anderes für Bildgenerierung usw.). Die Teilnehmer in Bittensor übernehmen unterschiedliche Rollen:

  • Miner – Sie betreiben Machine-Learning-Modelle auf ihrer Hardware und liefern Inferenzantworten (oder führen sogar Trainings durch) für die Aufgabe des Subnetzes. Im Wesentlichen ist ein Miner ein Knoten, der ein KI-Modell hostet, das Anfragen beantwortet.
  • Validatoren – Sie fragen die Modelle der Miner mit Prompts ab und bewerten die Qualität der Antworten, um eine Meinung darüber zu bilden, welche Miner wertvolle Ergebnisse liefern. Validatoren bewerten effektiv die Leistung der Miner.
  • Subnetz-Besitzer – Sie erstellen und definieren Subnetze und legen die Regeln fest, welche Aufgaben erledigt werden und wie die Validierung in diesem Subnetz durchgeführt wird. Ein Subnetz-Besitzer könnte zum Beispiel festlegen, dass ein Subnetz für einen bestimmten Datensatz oder eine bestimmte Modalität bestimmt ist und das Validierungsverfahren definieren.
  • Delegatoren – Token-Inhaber, die keine Knoten betreiben, können ihre Bittensor-Tokens (TAO) an Miner oder Validatoren delegieren (staken), um die besten Performer zu unterstützen und einen Anteil an den Belohnungen zu verdienen (ähnlich dem Staking in Proof-of-Stake-Netzwerken).

Der Konsensmechanismus von Bittensor ist neuartig: Anstelle der traditionellen Blockvalidierung verwendet Bittensor den Yuma-Konsens, eine Form des „Proof-of-Intelligence“. Im Yuma-Konsens werden die Bewertungen der Miner durch Validatoren On-Chain aggregiert, um die Belohnungsverteilung zu bestimmen. Alle 12 Sekunden prägt das Netzwerk neue TAO-Tokens und verteilt sie gemäß dem Konsens der Validatoren darüber, welche Miner nützliche Arbeit geleistet haben. Die Bewertungen der Validatoren werden in einem stake-gewichteten Median-Schema kombiniert: Ausreißermeinungen werden beschnitten und die ehrliche Mehrheitsmeinung setzt sich durch. Das bedeutet, wenn die meisten Validatoren zustimmen, dass ein Miner qualitativ hochwertig war, erhält dieser Miner eine hohe Belohnung; weicht ein Validator stark von anderen ab (möglicherweise aufgrund von Kollusion oder Fehler), wird dieser Validator bestraft, indem er weniger verdient. Auf diese Weise koordiniert die Blockchain von Bittensor eine Miner-Validator-Feedbackschleife: Miner konkurrieren darum, die besten KI-Outputs zu produzieren, und Validatoren kuratieren und bewerten diese Outputs, wobei beide Seiten Tokens proportional zum von ihnen hinzugefügten Wert verdienen. Diese Architektur wird oft als „dezentrales neuronales Netzwerk“ oder „globales Gehirn“ beschrieben, in dem Modelle voneinander lernen und sich kollektiv entwickeln. Bemerkenswert ist, dass Bittensor kürzlich seine Kette aktualisiert hat, um EVM-Kompatibilität (für Smart Contracts) zu unterstützen, und dTAO eingeführt hat, ein System von Subnetz-spezifischen Tokens und Staking (später erklärt), um die Kontrolle über die Ressourcenzuweisung weiter zu dezentralisieren.

Gensyn: Vertrauensloses verteiltes Rechenprotokoll

Gensyn nähert sich dezentraler KI aus dem Blickwinkel eines verteilten Rechenprotokolls für Machine Learning. Seine Architektur verbindet Entwickler (Submitter), die KI-Aufgaben haben (wie das Trainieren eines Modells oder das Ausführen eines Inferenz-Jobs), mit Rechenanbietern (Solver) weltweit, die über freie GPU-/TPU-Ressourcen verfügen. Ursprünglich plante Gensyn eine Substrate L1-Kette, schwenkte aber auf den Bau auf Ethereum als Rollup um, um stärkere Sicherheit und Liquidität zu gewährleisten. Das Gensyn-Netzwerk ist somit ein Ethereum Layer-2 (ein Ethereum-Rollup), das Job-Anzeigen und Zahlungen koordiniert, während die Berechnung Off-Chain auf der Hardware der Anbieter stattfindet.

Eine Kerninnovation des Gensyn-Designs ist sein Verifizierungssystem für Off-Chain-Arbeit. Gensyn verwendet eine Kombination aus optimistischer Verifizierung (Fraud Proofs) und kryptografischen Techniken, um sicherzustellen, dass das Ergebnis korrekt ist, wenn ein Solver behauptet, eine Trainings-/Inferenzaufgabe ausgeführt zu haben. In der Praxis umfasst das Protokoll mehrere Teilnehmerrollen:

  • Submitter – die Partei, die einen Job anfordert (zum Beispiel jemand, der ein Modell trainieren lassen muss). Sie zahlen die Netzwerkgebühr und stellen das Modell/die Daten oder die Spezifikation der Aufgabe bereit.
  • Solver – ein Knoten, der für die ML-Aufgabe auf seiner Hardware bietet und diese ausführt. Er trainiert das Modell oder führt die Inferenz wie angefordert aus und übermittelt dann die Ergebnisse und einen Berechnungsnachweis.
  • Verifier/Challenger – Knoten, die die Arbeit des Solvers prüfen oder stichprobenartig überprüfen können. Gensyn implementiert ein Truebit-ähnliches Schema, bei dem das Ergebnis eines Solvers standardmäßig akzeptiert wird, ein Verifier es jedoch innerhalb eines Zeitfensters anfechten kann, wenn er eine falsche Berechnung vermutet. Bei einer Anfechtung wird eine interaktive „binäre Suche“ durch die Berechnungsschritte (ein Fraud-Proof-Protokoll) verwendet, um jede Diskrepanz zu lokalisieren. Dies ermöglicht es der Kette, Streitigkeiten zu lösen, indem nur ein minimaler kritischer Teil der Berechnung On-Chain durchgeführt wird, anstatt die gesamte teure Aufgabe zu wiederholen.

Entscheidend ist, dass Gensyn so konzipiert ist, dass die massive Redundanz naiver Ansätze vermieden wird. Anstatt dass viele Knoten alle denselben ML-Job wiederholen (was Kosteneinsparungen zunichte machen würde), verwendet Gensyns „Proof-of-Learning“-Ansatz Trainingsmetadaten, um zu überprüfen, ob Lernfortschritte erzielt wurden. Zum Beispiel könnte ein Solver kryptografische Hashes oder Checkpoints von Zwischenmodellgewichten und einen prägnanten Nachweis liefern, dass diese gemäß den Trainingsaktualisierungen fortgeschritten sind. Dieser probabilistische Proof-of-Learning kann viel kostengünstiger überprüft werden als das erneute Ausführen des gesamten Trainings, was eine vertrauenslose Verifizierung ohne vollständige Replikation ermöglicht. Nur wenn ein Verifier eine Anomalie feststellt, würde als letztes Mittel eine aufwändigere On-Chain-Berechnung ausgelöst. Dieser Ansatz reduziert den Overhead im Vergleich zur Brute-Force-Verifizierung drastisch, wodurch dezentrales ML-Training praktikabler wird. Gensyns Architektur betont daher stark das kryptoökonomische Spieldesign: Solver hinterlegen einen Stake oder eine Anleihe, und wenn sie betrügen (falsche Ergebnisse einreichen), verlieren sie diesen Stake an ehrliche Verifier, die sie erwischen. Durch die Kombination von Blockchain-Koordination (für Zahlungen und Streitbeilegung) mit Off-Chain-Compute und cleverer Verifizierung schafft Gensyn einen Marktplatz für ML-Compute, der ungenutzte GPUs überall nutzen kann, während die Vertrauenslosigkeit erhalten bleibt. Das Ergebnis ist ein Hyperscale-„Compute-Protokoll“, bei dem jeder Entwickler bei Bedarf auf erschwingliche, global verteilte Trainingsleistung zugreifen kann.

Cuckoo AI: Full-Stack dezentrale KI-Serviceplattform

Cuckoo Network (oder Cuckoo AI) verfolgt einen stärker vertikal integrierten Ansatz und zielt darauf ab, End-to-End dezentrale KI-Dienste anstatt nur rohe Rechenleistung bereitzustellen. Cuckoo baute seine eigene Blockchain (ursprünglich eine Layer-1 namens Cuckoo Chain auf Arbitrum Orbit, einem Ethereum-kompatiblen Rollup-Framework), um alles zu orchestrieren: Sie gleicht nicht nur Jobs mit GPUs ab, sondern hostet auch KI-Anwendungen und wickelt Zahlungen in einem System ab. Das Design ist Full-Stack: Es kombiniert eine Blockchain für Transaktionen und Governance, eine dezentrale GPU-/CPU-Ressourcenschicht und benutzerorientierte KI-Anwendungen und APIs darüber. Mit anderen Worten, Cuckoo integriert alle drei Schichten – Blockchain, Compute und KI-Anwendung – innerhalb einer einzigen Plattform.

Die Teilnehmer in Cuckoo lassen sich in vier Gruppen einteilen:

  • KI-App-Entwickler (Koordinatoren) – Dies sind Entwickler, die KI-Modelle oder -Dienste auf Cuckoo bereitstellen. Zum Beispiel könnte ein Entwickler einen Stable Diffusion Bildgenerator oder einen LLM-Chatbot als Dienst hosten. Sie betreiben Koordinator-Knoten, die für die Verwaltung ihres Dienstes verantwortlich sind: Benutzeranfragen annehmen, diese in Aufgaben aufteilen und diese Aufgaben den Minern zuweisen. Koordinatoren staken den nativen Token ($CAI), um dem Netzwerk beizutreten und das Recht zu erhalten, Miner zu nutzen. Sie fungieren im Wesentlichen als Layer-2-Orchestratoren, die zwischen Benutzern und den GPU-Anbietern vermitteln.
  • GPU-/CPU-Miner (Aufgabenknoten) – Dies sind die Ressourcenanbieter. Miner betreiben den Cuckoo-Aufgabenclient und stellen ihre Hardware zur Verfügung, um Inferenzaufgaben für die KI-Apps auszuführen. Zum Beispiel könnte einem Miner von einem Koordinator eine Bildgenerierungsanfrage (mit einem bestimmten Modell und Prompt) zugewiesen werden, und er verwendet seine GPU, um das Ergebnis zu berechnen. Miner müssen ebenfalls $CAI staken, um Engagement und gutes Verhalten zu gewährleisten. Sie verdienen Token-Belohnungen für jede korrekt abgeschlossene Aufgabe.
  • Endbenutzer – die Konsumenten der KI-Anwendungen. Sie interagieren über Cuckoos Webportal oder APIs (zum Beispiel Kunst generieren über CooVerse oder mit KI-Persönlichkeiten chatten). Benutzer können entweder mit Krypto für jede Nutzung bezahlen oder möglicherweise ihre eigene Rechenleistung (oder ihren Stake) beisteuern, um die Nutzungskosten auszugleichen. Ein wichtiger Aspekt ist die Zensurresistenz: Wenn ein Koordinator (Dienstanbieter) blockiert wird oder ausfällt, können Benutzer zu einem anderen wechseln, der dieselbe Anwendung bereitstellt, da mehrere Koordinatoren ähnliche Modelle im dezentralen Netzwerk hosten könnten.
  • Staker (Delegatoren) – Community-Mitglieder, die keine KI-Dienste oder Mining-Hardware betreiben, können dennoch teilnehmen, indem sie $CAI auf diejenigen staken, die dies tun. Indem sie mit ihrem Stake auf vertrauenswürdige Koordinatoren oder Miner stimmen, helfen sie, Reputation zu signalisieren und verdienen im Gegenzug einen Anteil an den Netzwerkbelohnungen. Dieses Design baut eine Web3-Reputationsschicht auf: Gute Akteure ziehen mehr Stake an (und damit Vertrauen und Belohnungen), während schlechte Akteure Stake und Reputation verlieren. Sogar Endbenutzer können in einigen Fällen staken, wodurch sie mit dem Erfolg des Netzwerks in Einklang gebracht werden.

Die Cuckoo-Kette (die sich derzeit im Übergang von einer eigenständigen Kette zu einem Shared-Security-Rollup befindet) verfolgt all diese Interaktionen. Wenn ein Benutzer einen KI-Dienst aufruft, erstellt der Koordinator-Knoten On-Chain-Aufgabenzuweisungen für Miner. Die Miner führen die Aufgaben Off-Chain aus und senden die Ergebnisse an den Koordinator zurück, der sie validiert (z. B. überprüft, ob das Ausgabebild oder der Text kein Kauderwelsch ist) und das Endergebnis an den Benutzer liefert. Die Blockchain wickelt die Zahlungsabwicklung ab: Für jede Aufgabe zahlt der Smart Contract des Koordinators den Miner in $CAI (oft werden Mikrozahlungen zu täglichen Auszahlungen aggregiert). Cuckoo betont Vertrauenslosigkeit und Transparenz – alle Teilnehmer staken Tokens und alle Aufgabenzuweisungen und -abschlüsse werden aufgezeichnet, sodass Betrug durch die Androhung des Verlusts des Stakes und durch die öffentliche Sichtbarkeit der Leistung entmutigt wird. Das modulare Design des Netzwerks bedeutet, dass neue KI-Modelle oder Anwendungsfälle einfach hinzugefügt werden können: Obwohl es mit der Text-zu-Bild-Generierung als Proof of Concept begann, ist seine Architektur allgemein genug, um andere KI-Workloads (z. B. Sprachmodell-Inferenz, Audiotranskription usw.) zu unterstützen.

Ein bemerkenswerter Aspekt der Cuckoo-Architektur ist, dass sie ursprünglich eine eigene Layer-1-Blockchain startete, um den Durchsatz für KI-Transaktionen zu maximieren (während der Tests erreichte sie Spitzenwerte von 300.000 täglichen Transaktionen). Dies ermöglichte benutzerdefinierte Optimierungen für die KI-Aufgabenplanung. Das Team stellte jedoch fest, dass die Wartung einer eigenständigen L1 kostspielig und komplex war, und beschloss Mitte 2025, die benutzerdefinierte Kette einzustellen und zu einem Rollup-/AVS-Modell (Active Validated Service) auf Ethereum zu migrieren. Dies bedeutet, dass Cuckoo die Sicherheit von Ethereum oder einem L2 wie Arbitrum erben wird, anstatt einen eigenen Konsens zu betreiben, aber seinen dezentralen KI-Marktplatz auf dieser gemeinsamen Sicherheitsschicht weiter betreiben wird. Die Änderung soll die wirtschaftliche Sicherheit verbessern (durch Nutzung der Robustheit von Ethereum) und dem Cuckoo-Team ermöglichen, sich auf das Produkt statt auf die Wartung der Low-Level-Kette zu konzentrieren. Zusammenfassend schafft Cuckoos Architektur eine dezentrale KI-Bereitstellungsplattform, auf der jeder Hardware anschließen oder einen KI-Modell-Dienst bereitstellen kann und Benutzer weltweit auf KI-Apps mit geringeren Kosten und weniger Abhängigkeit von der Big-Tech-Infrastruktur zugreifen können.

Mechanismen zur Asset-Tokenisierung

Ein gemeinsames Thema dieser Netzwerke ist die Umwandlung von Rechenleistung, Modellen und Daten in On-Chain-Assets oder Wirtschaftseinheiten, die gehandelt oder monetarisiert werden können. Jedes Projekt konzentriert sich jedoch auf unterschiedliche Weisen der Tokenisierung dieser Ressourcen:

  • Rechenleistung: Alle drei Plattformen wandeln Rechenarbeit in Belohnungs-Tokens um. In Bittensor wird nützliche Berechnung (Inferenz oder Training durch einen Miner) über Validatoren-Scores quantifiziert und mit TAO-Tokens pro Block belohnt. Im Wesentlichen „misst“ Bittensor die beigesteuerte Intelligenz und prägt TAO als Ware, die diesen Beitrag repräsentiert. Gensyn behandelt Rechenleistung explizit als Ware – sein Protokoll schafft einen Marktplatz, auf dem GPU-Zeit das Produkt ist und der Preis durch Angebot und Nachfrage in Token-Begriffen festgelegt wird. Entwickler kaufen Rechenleistung mit dem Token, und Anbieter verdienen Tokens, indem sie ihre Hardware-Zyklen verkaufen. Das Gensyn-Team bemerkt, dass jede digitale Ressource (Rechenleistung, Daten, Algorithmen) in einem ähnlichen vertrauenslosen Markt dargestellt und gehandelt werden kann. Cuckoo tokenisiert Rechenleistung über einen ERC-20-Token $CAI, der als Zahlung für abgeschlossene Aufgaben ausgegeben wird. GPU-Anbieter „minen“ im Wesentlichen CAI, indem sie KI-Inferenzarbeit leisten. Cuckoos System erstellt On-Chain-Aufzeichnungen von Aufgaben, sodass man jede abgeschlossene GPU-Aufgabe als eine atomare Arbeitseinheit betrachten kann, die in Tokens bezahlt wird. Die Prämisse bei allen dreien ist, dass ansonsten ungenutzte oder unzugängliche Rechenleistung zu einem tokenisierten, liquiden Asset wird – entweder durch Token-Emissionen auf Protokollebene (wie bei Bittensor und frühem Cuckoo) oder durch einen offenen Markt von Kauf-/Verkaufsaufträgen für Rechenjobs (wie bei Gensyn).

  • KI-Modelle: Die Darstellung von KI-Modellen als On-Chain-Assets (z. B. NFTs oder Tokens) steckt noch in den Kinderschuhen. Bittensor tokenisiert die Modelle selbst nicht – die Modelle bleiben Off-Chain im Besitz der Miner. Stattdessen bewertet Bittensor Modelle indirekt, indem es diejenigen belohnt, die gut funktionieren. Im Grunde wird die „Intelligenz“ eines Modells in TAO-Einnahmen umgewandelt, aber es gibt kein NFT, das die Modellgewichte repräsentiert oder anderen die Nutzung des Modells erlaubt. Gensyns Fokus liegt auf Rechen-Transaktionen, nicht explizit auf der Erstellung von Tokens für Modelle. Ein Modell in Gensyn wird typischerweise von einem Entwickler Off-Chain bereitgestellt (vielleicht Open-Source oder proprietär), von Solvern trainiert und zurückgegeben – es gibt keinen eingebauten Mechanismus, um einen Token zu erstellen, der das Modell oder sein IP besitzt. (Allerdings könnte der Gensyn-Marktplatz potenziell den Handel mit Modellartefakten oder Checkpoints erleichtern, wenn die Parteien dies wünschen, aber das Protokoll selbst betrachtet Modelle als Inhalt der Berechnung und nicht als tokenisiertes Asset.) Cuckoo liegt irgendwo dazwischen: Es spricht von „KI-Agenten“ und in das Netzwerk integrierten Modellen, aber derzeit gibt es keinen nicht-fungiblen Token, der jedes Modell repräsentiert. Stattdessen wird ein Modell von einem App-Entwickler bereitgestellt und dann über das Netzwerk bedient. Die Nutzungsrechte an diesem Modell sind implizit tokenisiert, da das Modell $CAI verdienen kann, wenn es verwendet wird (über den Koordinator, der es bereitstellt). Alle drei Plattformen erkennen das Konzept der Modell-Tokenisierung an – zum Beispiel, Gemeinschaften über Tokens Eigentum an Modellen zu geben – aber praktische Implementierungen sind begrenzt. Als Branche wird die Tokenisierung von KI-Modellen (z. B. als NFTs mit Eigentumsrechten und Gewinnbeteiligung) noch erforscht. Bittensors Ansatz, bei dem Modelle Werte miteinander austauschen, ist eine Form eines „Modell-Marktplatzes“ ohne expliziten Token pro Modell. Das Cuckoo-Team merkt an, dass dezentrales Modelleigentum vielversprechend ist, um Barrieren im Vergleich zu zentralisierter KI abzubauen, aber es erfordert effektive Methoden zur Überprüfung von Modellausgaben und -nutzung On-Chain. Zusammenfassend lässt sich sagen, dass Rechenleistung sofort tokenisiert wird (es ist unkompliziert, Tokens für geleistete Arbeit zu bezahlen), während Modelle indirekt oder aspirativ tokenisiert werden (für ihre Outputs belohnt, möglicherweise durch Stake oder Reputation repräsentiert, aber auf diesen Plattformen noch nicht als übertragbare NFTs behandelt werden).

  • Daten: Die Daten-Tokenisierung bleibt am schwierigsten. Keines der Projekte Bittensor, Gensyn oder Cuckoo hat vollständig verallgemeinerte On-Chain-Datenmarktplätze integriert (wo Datensätze mit durchsetzbaren Nutzungsrechten gehandelt werden). Bittensor-Knoten könnten auf verschiedenen Datensätzen trainieren, aber diese Datensätze sind nicht Teil des On-Chain-Systems. Gensyn könnte einem Entwickler erlauben, einen Datensatz für das Training bereitzustellen, aber das Protokoll tokenisiert diese Daten nicht – sie werden einfach Off-Chain für den Solver bereitgestellt. Cuckoo tokenisiert ebenfalls keine Benutzerdaten; es verarbeitet Daten (wie Benutzer-Prompts oder Outputs) hauptsächlich transient für Inferenzaufgaben. Der Cuckoo-Blog stellt explizit fest, dass „dezentrale Daten trotz ihrer kritischen Bedeutung schwer zu tokenisieren bleiben“. Daten sind sensibel (Datenschutz- und Eigentumsfragen) und mit der aktuellen Blockchain-Technologie schwer zu handhaben. Während Rechenleistung und Modelle zunehmend zu Commodities werden, bleiben Daten weitgehend Off-Chain, außer in Sonderfällen (einige Projekte außerhalb dieser drei experimentieren mit Daten-Unions und Token-Belohnungen für Datenbeiträge, aber das liegt außerhalb unseres aktuellen Umfangs). Zusammenfassend lässt sich sagen, dass Rechenleistung in diesen Netzwerken jetzt eine On-Chain-Ware ist, Modelle durch Tokens bewertet, aber noch nicht individuell als Assets tokenisiert werden, und die Daten-Tokenisierung immer noch ein offenes Problem ist (abgesehen von der Anerkennung ihrer Bedeutung).

Governance und Anreize

Ein robustes Governance- und Anreizdesign ist entscheidend, damit diese dezentralen KI-Netzwerke autonom und fair funktionieren können. Hier untersuchen wir, wie sich jede Plattform selbst regiert (wer Entscheidungen trifft, wie Upgrades oder Parameteränderungen erfolgen) und wie sie die Anreize der Teilnehmer durch Token-Ökonomie aufeinander abstimmt.

  • Bittensor Governance: In seinen frühen Phasen wurden Bittensors Entwicklung und Subnetzparameter weitgehend vom Kernteam und einer Gruppe von 64 „Root“-Validatoren im Haupt-Subnetz kontrolliert. Dies war ein Punkt der Zentralisierung – einige mächtige Validatoren hatten einen überproportionalen Einfluss auf die Belohnungszuweisungen, was zu dem führte, was einige als „oligarchisches Wahlsystem“ bezeichneten. Um dies zu beheben, führte Bittensor 2025 die dTAO (dezentrale TAO)-Governance ein. Das dTAO-System verlagerte die Ressourcenzuweisung auf eine marktorientierte und gemeinschaftlich kontrollierte Basis. Konkret können TAO-Inhaber ihre Tokens in Subnetz-spezifische Liquiditätspools staken (im Wesentlichen „stimmen“ sie darüber ab, welche Subnetze mehr Netzwerkemissionen erhalten sollen) und erhalten Alpha-Tokens, die das Eigentum an diesen Subnetz-Pools repräsentieren. Subnetze, die mehr Stake anziehen, werden einen höheren Alpha-Token-Preis haben und einen größeren Anteil an der täglichen TAO-Emission erhalten, während unpopuläre oder leistungsschwache Subnetze Kapital (und damit Emissionen) abfließen sehen werden. Dies schafft eine Rückkopplungsschleife: Wenn ein Subnetz wertvolle KI-Dienste produziert, staken mehr Leute TAO darauf (auf der Suche nach Belohnungen), was diesem Subnetz mehr TAO gibt, um seine Teilnehmer zu belohnen, was das Wachstum fördert. Wenn ein Subnetz stagniert, ziehen Staker zu lukrativeren Subnetzen ab. Im Effekt regieren TAO-Inhaber kollektiv den Fokus des Netzwerks, indem sie finanziell signalisieren, welche KI-Domänen mehr Ressourcen verdienen. Dies ist eine Form der On-Chain-Governance nach Token-Gewichtung, ausgerichtet auf wirtschaftliche Ergebnisse. Abgesehen von der Ressourcenzuweisung erfolgen größere Protokoll-Upgrades oder Parameteränderungen wahrscheinlich immer noch über Governance-Vorschläge, über die TAO-Inhaber abstimmen (Bittensor verfügt über einen Mechanismus für On-Chain-Vorschläge und Referenden, die von der Bittensor Foundation und einem gewählten Rat verwaltet werden, ähnlich der Governance von Polkadot). Im Laufe der Zeit ist zu erwarten, dass Bittensors Governance zunehmend dezentralisiert wird, wobei die Stiftung zurücktritt, während die Community (über TAO-Stake) Dinge wie Inflationsrate, Genehmigung neuer Subnetze usw. steuert. Der Übergang zu dTAO ist ein großer Schritt in diese Richtung, der zentralisierte Entscheidungsträger durch einen anreizorientierten Markt von Token-Stakeholdern ersetzt.

  • Bittensor-Anreize: Bittensors Anreizstruktur ist eng mit seinem Konsens verknüpft. Bei jedem Block (12 Sekunden) wird genau 1 TAO neu geprägt und basierend auf der Leistung unter den Mitwirkenden jedes Subnetzes aufgeteilt. Die Standardaufteilung für die Blockbelohnung jedes Subnetzes beträgt 41 % für Miner, 41 % für Validatoren und 18 % für den Subnetz-Besitzer. Dies stellt sicher, dass alle Rollen belohnt werden: Miner verdienen für Inferenzarbeit, Validatoren für ihre Bewertungsbemühungen und Subnetz-Besitzer (die möglicherweise die Daten/Aufgabe für dieses Subnetz gebootstrappt haben) erhalten einen Restbetrag für die Bereitstellung des „Marktplatzes“ oder des Aufgabendesigns. Diese Prozentsätze sind im Protokoll festgelegt und zielen darauf ab, die Anreize aller auf eine qualitativ hochwertige KI-Ausgabe auszurichten. Der Yuma-Konsensmechanismus verfeinert die Anreize weiter, indem er Belohnungen nach Qualitätsbewertungen gewichtet – ein Miner, der bessere Antworten liefert (gemäß Validatoren-Konsens), erhält einen höheren Anteil dieser 41 %, und ein Validator, der dem ehrlichen Konsens genau folgt, erhält mehr vom Validatorenanteil. Schlechte Performer werden wirtschaftlich aussortiert. Zusätzlich erhalten Delegatoren (Staker), die einen Miner oder Validator unterstützen, typischerweise einen Anteil an den Einnahmen dieses Knotens (Knoten legen oft eine Provision fest und geben den Rest an ihre Delegatoren weiter, ähnlich dem Staking in PoS-Netzwerken). Dies ermöglicht passiven TAO-Inhabern, die besten Mitwirkenden zu unterstützen und Erträge zu erzielen, was die Meritokratie weiter stärkt. Bittensors Token (TAO) ist somit ein Utility-Token: Er ist für die Registrierung neuer Miner erforderlich (Miner müssen einen kleinen Betrag an TAO ausgeben, um beizutreten, was Sybil-Spam bekämpft) und kann gestaked werden, um den Einfluss zu erhöhen oder über Delegation zu verdienen. Er ist auch als Zahlungstoken vorgesehen, wenn externe Benutzer Dienste aus Bittensors Netzwerk nutzen möchten (zum Beispiel TAO zahlen, um ein Sprachmodell auf Bittensor abzufragen), obwohl der interne Belohnungsmechanismus bisher die primäre „Ökonomie“ war. Die allgemeine Anreizphilosophie besteht darin, „wertvolle Intelligenz“ zu belohnen – d. h. Modelle, die gute KI-Ergebnisse liefern – und einen Wettbewerb zu schaffen, der die Qualität der Modelle im Netzwerk kontinuierlich verbessert.

  • Gensyn Governance: Gensyns Governance-Modell ist so strukturiert, dass es sich mit der Reifung des Netzwerks von der Kontrolle durch das Kernteam zur Kontrolle durch die Community entwickelt. Zunächst wird Gensyn eine Gensyn Foundation und einen gewählten Rat haben, die Protokoll-Upgrades und Treasury-Entscheidungen überwachen. Dieser Rat wird voraussichtlich zunächst aus Kernteammitgliedern und frühen Community-Führern bestehen. Gensyn plant ein Token Generation Event (TGE) für seinen nativen Token (oft als GENS bezeichnet), wonach die Governance-Macht zunehmend über On-Chain-Abstimmungen in den Händen der Token-Inhaber liegen würde. Die Rolle der Stiftung ist es, die Interessen des Protokolls zu vertreten und einen reibungslosen Übergang zur vollständigen Dezentralisierung zu gewährleisten. In der Praxis wird Gensyn wahrscheinlich On-Chain-Vorschlagsmechanismen haben, bei denen über Änderungen von Parametern (z. B. Verifizierungsspieldauer, Gebührensätze) oder Upgrades von der Community abgestimmt wird. Da Gensyn als Ethereum-Rollup implementiert wird, könnte die Governance auch an die Sicherheit von Ethereum gebunden sein (zum Beispiel die Verwendung von Upgrade-Schlüsseln für den Rollup-Vertrag, die schließlich an eine DAO von Token-Inhabern übergehen). Der Abschnitt Dezentralisierung und Governance des Gensyn-Litepapers betont, dass das Protokoll letztendlich global im Besitz sein muss, im Einklang mit dem Ethos, dass das „Netzwerk für maschinelle Intelligenz“ seinen Benutzern und Mitwirkenden gehören sollte. Zusammenfassend beginnt Gensyns Governance semi-zentralisiert, ist aber so konzipiert, dass sie zu einer DAO wird, in der GENS-Token-Inhaber (potenziell nach Stake oder Beteiligung gewichtet) kollektiv Entscheidungen treffen.

  • Gensyn-Anreize: Die wirtschaftlichen Anreize in Gensyn sind unkomplizierte Marktdynamiken, ergänzt durch kryptoökonomische Sicherheit. Entwickler (Clients) bezahlen ML-Aufgaben mit dem Gensyn-Token, und Solver verdienen Tokens, indem sie diese Aufgaben korrekt erledigen. Der Preis für Rechenzyklen wird durch einen offenen Markt bestimmt – vermutlich können Entwickler Aufgaben mit einer Belohnung ausschreiben, und Solver können bieten oder sie einfach annehmen, wenn der Preis ihren Erwartungen entspricht. Dies stellt sicher, dass, solange ein Angebot an ungenutzten GPUs vorhanden ist, der Wettbewerb die Kosten auf einen fairen Satz senkt (Gensyns Team prognostiziert eine Kostenreduzierung von bis zu 80 % im Vergleich zu Cloud-Preisen, da das Netzwerk die günstigste verfügbare Hardware weltweit findet). Auf der anderen Seite haben Solver den Anreiz, Tokens für Arbeit zu verdienen; ihre Hardware, die sonst ungenutzt bleiben könnte, generiert nun Einnahmen. Um die Qualität zu gewährleisten, verlangt Gensyn von Solvern, dass sie Sicherheiten staken, wenn sie einen Job annehmen – wenn sie betrügen oder ein falsches Ergebnis produzieren und erwischt werden, verlieren sie diesen Stake (er kann „geslasht“ und dem ehrlichen Verifier zugesprochen werden). Verifier werden durch die Chance motiviert, eine „Jackpot“-Belohnung zu verdienen, wenn sie einen betrügerischen Solver erwischen, ähnlich dem Truebit-Design, das Verifier, die erfolgreich falsche Berechnungen identifizieren, periodisch belohnt. Dies hält Solver ehrlich und motiviert einige Knoten, als Wächter zu fungieren. In einem optimalen Szenario (kein Betrug) verdienen Solver einfach die Aufgaben-Gebühr, und die Rolle des Verifiers ist größtenteils untätig (oder einer der teilnehmenden Solver könnte auch als Verifier für andere fungieren). Gensyns Token dient somit sowohl als Gas-Währung für den Kauf von Rechenleistung als auch als Stake-Sicherheit, die das Protokoll sichert. Das Litepaper erwähnt ein Testnetz mit nicht-permanenten Tokens und dass frühe Testnetz-Teilnehmer beim TGE mit echten Tokens belohnt werden. Dies deutet darauf hin, dass Gensyn einen Teil des Token-Angebots für das Bootstrapping bereitgestellt hat – zur Belohnung von Early Adopters, Test-Solvern und Community-Mitgliedern. Langfristig sollten Gebühren aus echten Jobs das Netzwerk aufrechterhalten. Es kann auch eine kleine Protokollgebühr (ein Prozentsatz jeder Aufgaben-Zahlung) geben, die in eine Treasury fließt oder verbrannt wird; dieses Detail ist noch nicht bestätigt, aber viele Marktplatzprotokolle enthalten eine Gebühr zur Finanzierung der Entwicklung oder des Token-Kaufs und -Verbrennens. Zusammenfassend richten sich Gensyns Anreize an der ehrlichen Erledigung von ML-Jobs aus: Arbeit leisten, bezahlt werden; versuchen zu betrügen, Stake verlieren; andere überprüfen, verdienen, wenn man Betrüger erwischt. Dies schafft ein sich selbst regulierendes Wirtschaftssystem, das darauf abzielt, zuverlässige verteilte Berechnungen zu erreichen.

  • Cuckoo Governance: Cuckoo Network hat die Governance von Anfang an in sein Ökosystem integriert, obwohl es sich noch in einer Entwicklungsphase befindet. Der $CAI-Token ist neben seinen Utility-Rollen explizit ein Governance-Token. Cuckoos Philosophie ist, dass GPU-Knotenbetreiber, App-Entwickler und sogar Endbenutzer ein Mitspracherecht bei der Entwicklung des Netzwerks haben sollten – was seine gemeinschaftsgetriebene Vision widerspiegelt. In der Praxis würden wichtige Entscheidungen (wie Protokoll-Upgrades oder wirtschaftliche Änderungen) durch Token-gewichtete Abstimmungen entschieden, vermutlich über einen DAO-Mechanismus. Zum Beispiel könnte Cuckoo On-Chain-Abstimmungen über die Änderung der Belohnungsverteilung oder die Einführung einer neuen Funktion abhalten, und $CAI-Inhaber (einschließlich Miner, Entwickler und Benutzer) würden abstimmen. Bereits jetzt wird On-Chain-Abstimmung als Reputationssystem verwendet: Cuckoo verlangt von jeder Rolle, Tokens zu staken, und dann können Community-Mitglieder (vielleicht durch Delegation von Stake oder über Governance-Module) darüber abstimmen, welche Koordinatoren oder Miner vertrauenswürdig sind. Dies beeinflusst Reputationswerte und könnte die Aufgabenplanung beeinflussen (z. B. könnte ein Koordinator mit mehr Stimmen mehr Benutzer anziehen, oder ein Miner mit mehr Stimmen könnte mehr Aufgaben zugewiesen bekommen). Es ist eine Mischung aus Governance und Anreiz – die Verwendung von Governance-Tokens zur Etablierung von Vertrauen. Die Cuckoo Foundation oder das Kernteam hat die Richtung des Projekts bisher geleitet (zum Beispiel die jüngste Entscheidung, die L1-Kette einzustellen), aber ihr Blog deutet auf ein Engagement hin, sich in Richtung dezentraler Eigentümerschaft zu bewegen. Sie stellten fest, dass der Betrieb einer eigenen Kette hohe Gemeinkosten verursachte und dass der Wechsel zu einem Rollup eine offenere Entwicklung und Integration mit bestehenden Ökosystemen ermöglichen wird. Es ist wahrscheinlich, dass Cuckoo, sobald es auf einer gemeinsamen Schicht (wie Ethereum) ist, eine traditionellere DAO für Upgrades implementieren wird, wobei die Community mit CAI abstimmt.

  • Cuckoo-Anreize: Das Anreizdesign für Cuckoo hat zwei Phasen: die anfängliche Bootstrapping-Phase mit festen Token-Zuweisungen und einen zukünftigen Zustand mit nutzungsbasierter Umsatzbeteiligung. Beim Start führte Cuckoo eine „Fair Launch“-Verteilung von 1 Milliarde CAI-Tokens durch. 51 % des Angebots wurden für die Community reserviert, aufgeteilt als:

    • Mining-Belohnungen: 30 % des Gesamtangebots reserviert, um GPU-Miner für die Ausführung von KI-Aufgaben zu bezahlen.
    • Staking-Belohnungen: 11 % des Angebots für diejenigen, die staken und zur Sicherung des Netzwerks beitragen.
    • Airdrops: 5 % an frühe Benutzer und Community-Mitglieder als Anreiz zur Adoption.
    • (Weitere 5 % waren für Entwicklerzuschüsse zur Förderung des Aufbaus auf Cuckoo.)

    Diese große Zuweisung bedeutet, dass im frühen Netzwerk Miner und Staker aus einem Emissionspool belohnt wurden, selbst wenn die tatsächliche Benutzernachfrage gering war. Tatsächlich bot Cuckoos Anfangsphase hohe APY-Renditen für Staking und Mining, was erfolgreich Teilnehmer anzog, aber auch „Yield Farmer“, die nur wegen der Tokens da waren. Das Team stellte fest, dass viele Benutzer das Netzwerk verließen, sobald die Belohnungsraten sanken, was darauf hindeutet, dass diese Anreize nicht an die tatsächliche Nutzung gebunden waren. Aus diesen Erfahrungen lernend, wechselt Cuckoo zu einem Modell, bei dem Belohnungen direkt mit der tatsächlichen KI-Arbeitslast korrelieren. Zukünftig (und teilweise bereits jetzt), wenn ein Endbenutzer für eine KI-Inferenz bezahlt, wird diese Zahlung (in CAI oder möglicherweise einem anderen akzeptierten Token, der in CAI umgewandelt wird) unter den Mitwirkenden aufgeteilt:

    • GPU-Miner erhalten den Großteil des Anteils für die von ihnen bereitgestellte Rechenleistung.
    • Koordinator (App-Entwickler) erhält einen Anteil als Dienstanbieter, der das Modell bereitgestellt und die Anfrage bearbeitet hat.
    • Staker, die an diese Miner oder Koordinatoren delegiert haben, könnten einen kleinen Anteil oder eine inflationäre Belohnung erhalten, um die Unterstützung zuverlässiger Knoten weiterhin zu fördern.
    • Netzwerk/Treasury könnte eine Gebühr für die laufende Entwicklung einbehalten oder zukünftige Anreize finanzieren (oder die Gebühr könnte null/nominal sein, um die Benutzerfreundlichkeit zu maximieren).

    Im Wesentlichen bewegt sich Cuckoo auf ein Umsatzbeteiligungsmodell zu: Wenn eine KI-App auf Cuckoo Einnahmen generiert, werden diese Einnahmen fair an alle Mitwirkenden dieses Dienstes verteilt. Dies stimmt die Anreize so ab, dass die Teilnehmer von der tatsächlichen Nutzung profitieren und nicht nur von der Inflation. Bereits jetzt verlangte das Netzwerk von allen Parteien, CAI zu staken – das bedeutet, dass Miner und Koordinatoren nicht nur eine pauschale Belohnung verdienen, sondern möglicherweise auch stake-basierte Belohnungen (zum Beispiel könnte ein Koordinator höhere Belohnungen verdienen, wenn viele Benutzer auf ihn staken oder wenn er selbst mehr stakt, ähnlich wie Proof-of-Stake-Validatoren verdienen). Was die Benutzeranreize betrifft, führte Cuckoo auch Dinge wie ein Airdrop-Portal und Faucets ein (die einige Benutzer ausnutzten), um die anfängliche Aktivität anzukurbeln. Zukünftig könnten Benutzer über Token-Rabatte für die Nutzung der Dienste oder über Governance-Belohnungen für die Teilnahme an der Kuration (z. B. kleine Tokens für die Bewertung von Outputs oder die Bereitstellung von Daten) incentiviert werden. Das Fazit ist, dass Cuckoos Token ($CAI) vielseitig einsetzbar ist: Es ist der Gas-/Gebühren-Token auf der Kette (alle Transaktionen und Zahlungen verwenden ihn), er wird für Staking und Abstimmungen verwendet und ist die Einheit der Belohnung für geleistete Arbeit. Cuckoo erwähnt explizit, dass es Token-Belohnungen an Service-Level-KPIs (Key Performance Indicators) binden möchte – zum Beispiel Verfügbarkeit, Abfragedurchsatz, Benutzerzufriedenheit – um rein spekulative Anreize zu vermeiden. Dies spiegelt eine Reifung der Token-Ökonomie von einfachem Liquiditäts-Mining zu einem nachhaltigeren, nutzungsgetriebenen Modell wider.

Modelleigentum und IP-Zuordnung

Der Umgang mit geistigem Eigentum (IP) und Eigentumsrechten an KI-Modellen ist ein komplexer Aspekt dezentraler KI-Netzwerke. Jede Plattform hat eine etwas andere Haltung eingenommen, und im Allgemeinen ist dies ein sich entwickelnder Bereich ohne vollständige Lösung bisher:

  • Bittensor: Modelle in Bittensor werden von den Miner-Knoten bereitgestellt, und diese Miner behalten die volle Kontrolle über ihre Modellgewichte (die niemals On-Chain veröffentlicht werden). Bittensor verfolgt nicht explizit, wer ein Modell „besitzt“, außer der Tatsache, dass es unter einer bestimmten Wallet-Adresse läuft. Wenn ein Miner geht, geht sein Modell mit ihm. Daher erfolgt die IP-Zuordnung in Bittensor Off-Chain: Wenn ein Miner ein proprietäres Modell verwendet, gibt es nichts On-Chain, das dies durchsetzt oder gar weiß. Bittensors Philosophie fördert offene Beiträge (viele Miner könnten Open-Source-Modelle wie GPT-J oder andere verwenden) und das Netzwerk belohnt die Leistung dieser Modelle. Man könnte sagen, Bittensor erstellt einen Reputations-Score für Modelle (über die Validatoren-Rankings), und das ist eine Form der Anerkennung des Modellwerts, aber die Rechte am Modell selbst werden nicht tokenisiert oder verteilt. Bemerkenswert ist, dass Subnetz-Besitzer in Bittensor als Eigentümer eines Teils des IP angesehen werden könnten: Sie definieren eine Aufgabe (die einen Datensatz oder eine Methode umfassen könnte). Der Subnetz-Besitzer prägt ein NFT (genannt Subnetz-UID) bei der Erstellung eines Subnetzes, und dieses NFT berechtigt ihn zu 18 % der Belohnungen in diesem Subnetz. Dies tokenisiert effektiv die Schaffung eines Modell-Marktplatzes (das Subnetz), wenn auch nicht die Modellinstanzen. Wenn man die Definition des Subnetzes (sagen wir eine Spracherkennungsaufgabe mit einem bestimmten Datensatz) als IP betrachtet, wird dies zumindest aufgezeichnet und belohnt. Aber individuelle Modellgewichte, die Miner trainieren – davon gibt es keine On-Chain-Eigentumsaufzeichnung. Die Zuordnung erfolgt in Form von Belohnungen, die an die Adresse des Miners gezahlt werden. Bittensor implementiert derzeit kein System, bei dem zum Beispiel mehrere Personen gemeinsam ein Modell besitzen und eine automatische Umsatzbeteiligung erhalten könnten – die Person, die das Modell betreibt (Miner), erhält die Belohnung, und es liegt an ihr Off-Chain, alle IP-Lizenzen des von ihr verwendeten Modells einzuhalten.

  • Gensyn: In Gensyn ist das Modelleigentum unkompliziert, da der Submitter (derjenige, der ein Modell trainieren lassen möchte) die Modellarchitektur und Daten bereitstellt, und nach dem Training das resultierende Modellartefakt erhält. Die Solver, die die Arbeit ausführen, haben keine Rechte am Modell; sie sind wie Auftragnehmer, die für Dienstleistungen bezahlt werden. Gensyns Protokoll geht also vom traditionellen IP-Modell aus: Wenn Sie rechtliche Rechte an dem von Ihnen eingereichten Modell und den Daten hatten, haben Sie diese auch nach dem Training noch – das Rechennetzwerk beansprucht kein Eigentum. Gensyn erwähnt, dass der Marktplatz auch Algorithmen und Daten wie jede andere Ressource handeln könnte. Dies deutet auf ein Szenario hin, in dem jemand ein Modell oder einen Algorithmus zur Nutzung im Netzwerk anbieten könnte, möglicherweise gegen eine Gebühr, wodurch der Zugang zu diesem Modell tokenisiert würde. Zum Beispiel könnte ein Modellersteller sein vorab trainiertes Modell auf Gensyn platzieren und anderen erlauben, es über das Netzwerk gegen eine Gebühr feinabzustimmen (dies würde das Modell-IP effektiv monetarisieren). Während das Protokoll keine Lizenzbedingungen durchsetzt, könnte man Zahlungsanforderungen kodieren: Ein Smart Contract könnte eine Gebühr verlangen, um die Modellgewichte für einen Solver freizuschalten. Dies sind jedoch spekulative Anwendungsfälle – Gensyns primäres Design dreht sich um die Ermöglichung von Trainingsjobs. Was die Zuordnung betrifft, so würde, wenn mehrere Parteien zu einem Modell beitragen (sagen wir, einer stellt Daten bereit, ein anderer Rechenleistung), dies wahrscheinlich durch den Vertrag oder die Vereinbarung geregelt, die sie vor der Nutzung von Gensyn getroffen haben (z. B. könnte ein Smart Contract die Zahlung zwischen Datenanbieter und Rechenanbieter aufteilen). Gensyn selbst verfolgt On-Chain nicht, „dieses Modell wurde von X, Y, Z erstellt“, außer der Aufzeichnung, welche Adressen für den Job bezahlt wurden. Zusammenfassend lässt sich sagen, dass Modell-IP in Gensyn beim Submitter verbleibt, und jede Zuordnung oder Lizenzierung muss über die rechtlichen Vereinbarungen außerhalb des Protokolls oder über darauf aufbauende benutzerdefinierte Smart Contracts gehandhabt werden.

  • Cuckoo: Im Cuckoo-Ökosystem sind Modellersteller (KI-App-Entwickler) erstklassige Teilnehmer – sie stellen den KI-Dienst bereit. Wenn ein App-Entwickler ein Sprachmodell feinabstimmt oder ein benutzerdefiniertes Modell entwickelt und es auf Cuckoo hostet, ist dieses Modell im Wesentlichen sein Eigentum, und er fungiert als Dienstbesitzer. Cuckoo beansprucht kein Eigentum; stattdessen bietet es die Infrastruktur, damit sie die Nutzung monetarisieren können. Wenn zum Beispiel ein Entwickler einen Chatbot-KI bereitstellt, können Benutzer damit interagieren, und der Entwickler (plus Miner) verdienen CAI aus jeder Interaktion. Die Plattform ordnet somit Nutzungseinnahmen dem Modellersteller zu, veröffentlicht aber nicht explizit die Modellgewichte oder wandelt sie in ein NFT um. Tatsächlich muss der Koordinator-Knoten, um das Modell auf den GPUs der Miner auszuführen, das Modell (oder die Laufzeitumgebung) in irgendeiner Form an den Miner senden. Dies wirft IP-Fragen auf: Könnte ein böswilliger Miner die Modellgewichte kopieren und verteilen? In einem dezentralen Netzwerk besteht dieses Risiko, wenn proprietäre Modelle verwendet werden. Cuckoos aktueller Fokus lag auf ziemlich offenen Modellen (Stable Diffusion, LLaMA-abgeleitete Modelle usw.) und dem Aufbau einer Community, sodass wir noch keine Durchsetzung von IP-Rechten über Smart Contracts gesehen haben. Die Plattform könnte potenziell Tools wie verschlüsselte Modellausführung oder sichere Enklaven in Zukunft zum IP-Schutz integrieren, aber in der Dokumentation wird nichts Spezifisches erwähnt. Was es tut, ist die Verfolgung, wer den Modell-Dienst für jede Aufgabe bereitgestellt hat – da der Koordinator eine On-Chain-Identität ist, wird jede Nutzung seines Modells ihm zugerechnet, und er erhält automatisch seinen Anteil an den Belohnungen. Wenn man ein Modell an jemand anderen weitergeben oder verkaufen würde, würde man effektiv die Kontrolle über den Koordinator-Knoten übertragen (vielleicht sogar nur den privaten Schlüssel oder das NFT geben, wenn die Koordinator-Rolle tokenisiert wäre). Derzeit ist die Gemeinschaftseigentümerschaft von Modellen (über Token-Anteile) nicht implementiert, aber Cuckoos Vision deutet auf dezentrale, gemeinschaftsgetriebene KI hin, sodass sie möglicherweise erforschen werden, wie Menschen gemeinsam ein KI-Modell finanzieren oder regieren können. Die Tokenisierung von Modellen über das individuelle Eigentum hinaus ist in diesen Netzwerken immer noch ein offenes Feld – es wird als Ziel anerkannt (um Gemeinschaften KI-Modelle statt Unternehmen zu ermöglichen), aber praktisch erfordert es Lösungen für die oben genannten IP- und Verifizierungsherausforderungen.

Zusammenfassend lässt sich sagen, dass das Modelleigentum in Bittensor, Gensyn und Cuckoo Off-Chain auf traditionelle Weise gehandhabt wird: Die Person oder Entität, die das Modell betreibt oder einreicht, ist effektiv der Eigentümer. Die Netzwerke bieten eine Zuordnung in Form von wirtschaftlichen Belohnungen (Bezahlung des Modell-Beitragenden für sein IP oder seine Bemühungen). Keines der drei hat bisher eine integrierte Lizenz- oder Lizenzgebühren-Durchsetzung für die Modellnutzung auf Smart-Contract-Ebene. Die Zuordnung erfolgt durch Reputation und Belohnung: z. B. erhalten Bittensors beste Modelle hohe Reputationswerte (die öffentlich aufgezeichnet werden) und mehr TAO, was eine implizite Anerkennung ihrer Ersteller ist. Im Laufe der Zeit könnten wir Funktionen wie NFT-gebundene Modellgewichte oder dezentrale Lizenzen sehen, um IP besser zu verfolgen, aber derzeit lag die Priorität darauf, die Netzwerke funktionsfähig zu machen und Beiträge zu incentivieren. Alle sind sich einig, dass die Überprüfung der Modellherkunft und -ausgaben der Schlüssel zur Ermöglichung echter Modell-Asset-Märkte ist, und die Forschung in dieser Richtung ist im Gange.

Umsatzbeteiligungsstrukturen

Alle drei Plattformen müssen entscheiden, wie der wirtschaftliche Kuchen aufgeteilt wird, wenn mehrere Parteien zusammenarbeiten, um eine wertvolle KI-Ausgabe zu produzieren. Wer wird bezahlt und wie viel, wenn ein KI-Dienst genutzt wird oder wenn Tokens emittiert werden? Jede hat ein eigenes Umsatzbeteiligungsmodell:

  • Bittensor: Wie unter Anreize erwähnt, ist Bittensors Umsatzverteilung auf Blockebene protokoll-definiert: 41 % an Miner, 41 % an Validatoren, 18 % an den Subnetz-Besitzer für jede TAO-Ausgabe eines Blocks. Dies ist effektiv eine eingebaute Umsatzaufteilung für den in jedem Subnetz generierten Wert. Der Anteil des Subnetz-Besitzers (18 %) fungiert als Lizenzgebühr für das „Modell-/Aufgabendesign“ oder für das Bootstrapping des Ökosystems dieses Subnetzes. Miner und Validatoren erhalten gleiche Anteile, um sicherzustellen, dass Miner ohne Validierung nicht belohnt werden (und umgekehrt) – sie sind symbiotisch und jeder erhält einen gleichen Anteil an den geprägten Belohnungen. Wenn wir einen externen Benutzer betrachten, der TAO zahlt, um ein Modell abzufragen, sieht das Bittensor-Whitepaper vor, dass diese Zahlung ebenfalls ähnlich zwischen dem Miner, der antwortet, und den Validatoren, die bei der Überprüfung der Antwort geholfen haben, aufgeteilt wird (die genaue Aufteilung könnte durch das Protokoll oder Marktkräfte bestimmt werden). Zusätzlich sind Delegatoren, die auf Miner/Validatoren staken, effektiv Partner – typischerweise teilt ein Miner/Validator einen Prozentsatz seiner verdienten TAO mit seinen Delegatoren (dies ist konfigurierbar, aber oft der Großteil an Delegatoren). Wenn also ein Miner 1 TAO aus einem Block verdient hat, könnte dieser beispielsweise basierend auf dem Stake 80/20 zwischen seinen Delegatoren und sich selbst aufgeteilt werden. Das bedeutet, dass auch Nicht-Betreiber einen Anteil am Umsatz des Netzwerks proportional zu ihrer Unterstützung erhalten. Mit der Einführung von dTAO wurde eine weitere Ebene der Aufteilung hinzugefügt: Diejenigen, die in den Pool eines Subnetzes staken, erhalten Alpha-Tokens, die sie zu einem Teil der Emissionen dieses Subnetzes berechtigen (wie Yield Farming). Im Effekt kann jeder einen Anteil am Erfolg eines bestimmten Subnetzes nehmen und einen Bruchteil der Miner-/Validatoren-Belohnungen durch das Halten von Alpha-Tokens erhalten (Alpha-Tokens steigen im Wert, wenn das Subnetz mehr Nutzung und Emissionen anzieht). Zusammenfassend lässt sich sagen, dass Bittensors Umsatzbeteiligung für die Hauptrollen durch Code festgelegt ist und durch soziale/Staking-Vereinbarungen weiter aufgeteilt wird. Es ist eine relativ transparente, regelbasierte Aufteilung – bei jedem Block wissen die Teilnehmer genau, wie der 1 TAO zugewiesen wird, und kennen somit ihre „Einnahmen“ pro Beitrag. Diese Klarheit ist ein Grund, warum Bittensor manchmal als Bitcoin für KI bezeichnet wird – eine deterministische Geldausgabe, bei der die Belohnung der Teilnehmer mathematisch festgelegt ist.

  • Gensyn: Die Umsatzbeteiligung in Gensyn ist dynamischer und marktorientierter, da Aufgaben individuell bepreist werden. Wenn ein Submitter einen Job erstellt, fügt er eine Belohnung (sagen wir X Tokens) hinzu, die er zu zahlen bereit ist. Ein Solver, der den Job abschließt, erhält dieses X (abzüglich etwaiger Netzwerkgebühren). Wenn ein Verifier beteiligt ist, gibt es typischerweise eine Regel wie: Wenn kein Betrug entdeckt wird, behält der Solver die volle Zahlung; wenn Betrug entdeckt wird, wird der Solver „geslasht“ – er verliert einen Teil oder seinen gesamten Stake – und dieser „geslashte“ Betrag wird dem Verifier als Belohnung gegeben. Verifier verdienen also nicht an jeder Aufgabe, sondern nur, wenn sie ein schlechtes Ergebnis erwischen (plus möglicherweise eine kleine Grundgebühr für die Teilnahme, je nach Implementierung). Es gibt hier kein eingebautes Konzept der Bezahlung eines Modelleigentümers, da davon ausgegangen wird, dass der Submitter entweder der Modelleigentümer ist oder die Rechte zur Nutzung des Modells besitzt. Man könnte sich ein Szenario vorstellen, in dem ein Submitter das vortrainierte Modell eines anderen feinabstimmt und ein Teil der Zahlung an den ursprünglichen Modellersteller geht – dies müsste jedoch außerhalb des Protokolls gehandhabt werden (z. B. durch eine Vereinbarung oder einen separaten Smart Contract, der die Token-Zahlung entsprechend aufteilt). Gensyns protokollseitige Aufteilung ist im Wesentlichen Client -> Solver (-> Verifier). Das Token-Modell beinhaltet wahrscheinlich eine Zuweisung für die Protokoll-Treasury oder -Stiftung; zum Beispiel könnte ein kleiner Prozentsatz der Zahlung jeder Aufgabe an eine Treasury gehen, die zur Finanzierung von Entwicklung oder Versicherungs-Pools verwendet werden könnte (dies ist in den verfügbaren Dokumenten nicht explizit angegeben, aber viele Protokolle tun dies). Auch könnte Gensyn anfangs Solver über Inflation subventionieren: Testnet-Benutzern werden Belohnungen beim TGE versprochen, was effektiv eine Umsatzbeteiligung aus der anfänglichen Token-Verteilung ist (frühe Solver und Unterstützer erhalten einen Teil der Tokens, um beim Bootstrapping zu helfen, ähnlich einem Airdrop oder einer Mining-Belohnung). Im Laufe der Zeit, wenn echte Jobs dominieren, würden inflationäre Belohnungen abnehmen, und das Einkommen der Solver würde hauptsächlich aus Benutzerzahlungen stammen. Gensyns Ansatz lässt sich als Gebühren-für-Service-Umsatzmodell zusammenfassen: Das Netzwerk ermöglicht eine direkte Zahlung von denen, die Arbeit erledigt haben möchten, an diejenigen, die die Arbeit erledigen, wobei Verifier und möglicherweise Token-Staker nur dann Anteile erhalten, wenn sie eine Rolle bei der Sicherung dieses Dienstes spielen.

  • Cuckoo: Cuckoos Umsatzbeteiligung hat sich weiterentwickelt. Anfangs, da es nicht viele zahlende Endbenutzer gab, war die Umsatzbeteiligung im Wesentlichen Inflationsbeteiligung: Die 30 % Mining- und 11 % Staking-Zuweisungen aus dem Token-Angebot bedeuteten, dass Miner und Staker die vom Fair-Launch-Pool des Netzwerks ausgegebenen Tokens teilten. In der Praxis führte Cuckoo Dinge wie tägliche CAI-Auszahlungen an Miner proportional zu den abgeschlossenen Aufgaben durch. Diese Auszahlungen stammten größtenteils aus der Mining-Belohnungszuweisung (die Teil des fest reservierten Angebots ist). Dies ähnelt der Art und Weise, wie viele Layer-1-Blockchains Blockbelohnungen an Miner/Validatoren verteilen – es war nicht an die tatsächliche Nutzung durch externe Benutzer gebunden, sondern sollte eher die Teilnahme und das Wachstum fördern. Wie jedoch in ihrem Blog vom Juli 2025 hervorgehoben, führte dies zu einer Nutzung, die eher durch Token-Farming als durch echte Nachfrage motiviert war. Die nächste Phase für Cuckoo ist ein echtes Umsatzbeteiligungsmodell basierend auf Servicegebühren. In diesem Modell, wenn ein Endbenutzer beispielsweise den Bildgenerierungsdienst nutzt und 1 $ (in Krypto-Begriffen) bezahlt, würde dieser Token-Wert von 1 $ vielleicht aufgeteilt wie folgt: 0,70 an den Miner, der die GPU-Arbeit geleistet hat, 0,20 an den App-Entwickler (Koordinator), der das Modell und die Schnittstelle bereitgestellt hat, und 0,10 an Staker oder die Netzwerk-Treasury. (Hinweis: Die genauen Verhältnisse sind hypothetisch; Cuckoo hat sie noch nicht öffentlich spezifiziert, aber dies veranschaulicht das Konzept.) Auf diese Weise erhalten alle Mitwirkenden an der Bereitstellung des Dienstes einen Anteil am Umsatz. Dies ist analog zu, zum Beispiel, einer Fahrgemeinschafts-Wirtschaft, aber für KI: Das Fahrzeug (GPU-Miner) erhält den Großteil, der Fahrer oder die Plattform (Koordinator, der den Modell-Dienst erstellt hat) erhält einen Anteil, und vielleicht erhalten die Governance/Staker der Plattform eine kleine Gebühr. Cuckoos Erwähnung von „Umsatzbeteiligungsmodellen und Token-Belohnungen, die direkt an Nutzungsmetriken gebunden sind“ deutet darauf hin, dass wenn ein bestimmter Dienst oder Knoten ein hohes Volumen verarbeitet, seine Betreiber und Unterstützer mehr verdienen werden. Sie entfernen sich von pauschalen Renditen für das bloße Sperren von Tokens (was bei ihrem anfänglichen Staking-APY der Fall war). Konkret: Wenn Sie auf einen Koordinator staken, der letztendlich eine sehr beliebte KI-App antreibt, könnten Sie einen Teil der Gebühren dieser App verdienen – ein echtes Staking-als-Investition-in-Utility-Szenario, anstatt nur für die Inflation zu staken. Dies stimmt die Anreize aller darauf ab, echte Benutzer anzuziehen, die für KI-Dienste bezahlen, was wiederum Wert an die Token-Inhaber zurückführt. Es ist erwähnenswert, dass Cuckoos Kette auch Gebühren für Transaktionen (Gas) hatte, sodass Miner, die Blöcke produzierten (anfangs trugen GPU-Miner auch zur Blockproduktion auf der Cuckoo-Kette bei), auch Gasgebühren erhielten. Mit der Abschaltung der Kette und der Migration zu einem Rollup werden die Gasgebühren wahrscheinlich minimal sein (oder auf Ethereum liegen), sodass die Haupteinnahmen die KI-Servicegebühren selbst werden. Zusammenfassend wechselt Cuckoo von einem subventionsgetriebenen Modell (Netzwerk zahlt Teilnehmer aus seinem Token-Pool) zu einem nachfragegetriebenen Modell (Teilnehmer verdienen an tatsächlichen Benutzerzahlungen). Der Token wird weiterhin eine Rolle beim Staking und der Governance spielen, aber die täglichen Einnahmen von Minern und App-Entwicklern sollten zunehmend von Benutzern stammen, die KI-Dienste kaufen. Dieses Modell ist langfristig nachhaltiger und spiegelt die Umsatzbeteiligung von Web2-SaaS wider, jedoch über Smart Contracts und Tokens für Transparenz implementiert.

Angriffsflächen und Schwachstellen

Die Dezentralisierung von KI bringt mehrere Anreiz- und Sicherheitsherausforderungen mit sich. Wir analysieren nun die wichtigsten Angriffsvektoren – Sybil-Angriffe, Kollusion, Trittbrettfahren und Daten-/Modellvergiftung – und wie jede Plattform diese mindert oder ihnen gegenüber anfällig bleibt:

  • Sybil-Angriffe (gefälschte Identitäten): In einem offenen Netzwerk könnte ein Angreifer viele Identitäten (Knoten) erstellen, um unverhältnismäßige Belohnungen oder Einfluss zu erlangen.

    • Bittensor: Sybil-Resistenz wird hauptsächlich durch die Eintrittskosten gewährleistet. Um einen neuen Miner oder Validator auf Bittensor zu registrieren, muss man TAO ausgeben oder staken – dies könnte eine Burn- oder Bonding-Anforderung sein. Das bedeutet, dass die Erstellung von N gefälschten Knoten N-mal die Kosten verursacht, was große Sybil-Schwärme teuer macht. Zusätzlich bindet Bittensors Konsens den Einfluss an Stake und Leistung; ein Sybil ohne Stake oder mit schlechter Leistung verdient wenig. Ein Angreifer müsste stark investieren und seine Sybil-Knoten tatsächlich nützliche Arbeit leisten lassen, um eine signifikante Belohnung zu erhalten (was keine typische Sybil-Strategie ist). Wenn ein Angreifer jedoch viel Kapital besitzt, könnte er eine Mehrheit der TAO erwerben und viele Validatoren oder Miner registrieren – effektiv ein Sybil durch Reichtum. Dies überschneidet sich mit dem 51%-Angriffsszenario: Wenn eine einzelne Entität >50 % der gestakten TAO in einem Subnetz kontrolliert, kann sie den Konsens stark beeinflussen. Bittensors Einführung von dTAO hilft hier ein wenig: Es verteilt den Einfluss auf mehrere Subnetze und erfordert die Unterstützung der Community beim Staking, damit Subnetze gedeihen können, was es für eine Entität schwieriger macht, alles zu kontrollieren. Dennoch bleiben Sybil-Angriffe durch einen gut finanzierten Gegner ein Problem – die Arxiv-Analyse weist explizit darauf hin, dass der Stake derzeit ziemlich konzentriert ist, sodass die Barriere für einen Mehrheitsangriff nicht so hoch ist wie gewünscht. Um dies zu mindern, wurden Vorschläge wie Stake-Obergrenzen pro Wallet (z. B. Begrenzung des effektiven Stakes auf das 88. Perzentil, um die Dominanz einer Wallet zu verhindern) gemacht. Zusammenfassend verlässt sich Bittensor auf Stake-gewichtete Identität (man kann Identitäten nicht billig ohne proportionalen Stake erzeugen), um Sybils zu handhaben; es ist einigermaßen effektiv, außer bei einem sehr ressourcenstarken Angreifer.
    • Gensyn: Sybil-Angriffe in Gensyn würden sich darin äußern, dass ein Angreifer viele Solver- oder Verifier-Knoten hochfährt, um das System zu manipulieren. Gensyns Verteidigung ist rein wirtschaftlich und kryptografisch – Identitäten an sich spielen keine Rolle, aber das Erledigen von Arbeit oder das Hinterlegen von Sicherheiten schon. Wenn ein Angreifer 100 gefälschte Solver-Knoten erstellt, diese aber keine Jobs oder keinen Stake haben, erreichen sie nichts. Um Aufgaben zu gewinnen, müsste ein Sybil-Knoten wettbewerbsfähig bieten und die Hardware haben, um die Arbeit zu erledigen. Wenn sie ohne Kapazität unterbieten, werden sie scheitern und Stake verlieren. Ähnlich könnte ein Angreifer viele Verifier-Identitäten erstellen, in der Hoffnung, zur Verifizierung ausgewählt zu werden (wenn das Protokoll Verifier zufällig auswählt). Aber wenn es zu viele gibt, könnte das Netzwerk oder der Job-Poster die Anzahl der aktiven Verifier begrenzen. Außerdem müssen Verifier möglicherweise die Berechnung durchführen, um sie zu überprüfen, was kostspielig ist; viele gefälschte Verifier helfen nicht, es sei denn, man kann tatsächlich Ergebnisse verifizieren. Ein relevanterer Sybil-Aspekt in Gensyn ist, wenn ein Angreifer versucht, das Netzwerk mit gefälschten Jobs oder Antworten zu füllen, um die Zeit anderer zu verschwenden. Dies wird durch die Anforderung einer Einzahlung von Submittern gemildert (ein böswilliger Submitter, der gefälschte Jobs postet, verliert seine Zahlung oder Einzahlung). Insgesamt bedeutet Gensyns Verwendung von erforderlichen Stakes/Bonds und zufälliger Auswahl zur Verifizierung, dass ein Angreifer wenig gewinnt, indem er mehrere Identitäten hat, es sei denn, er bringt auch proportionale Ressourcen mit. Es wird zu einem kostspieligeren Angriff statt zu einem billigen. Das optimistische Sicherheitsmodell geht davon aus, dass mindestens ein ehrlicher Verifier vorhanden ist – Sybils müssten alle Verifier überwältigen und sein, um konsequent zu betrügen, was wiederum auf den Besitz einer Mehrheit des Stakes oder der Rechenleistung zurückführt. Gensyns Sybil-Resistenz ist daher vergleichbar mit der eines optimistischen Rollups: Solange es einen ehrlichen Akteur gibt, können Sybils keinen systemischen Schaden leicht verursachen.
    • Cuckoo: Die Prävention von Sybil-Angriffen in Cuckoo basiert auf Staking und Community-Überprüfung. Jede Rolle in Cuckoo (Miner, Koordinator, in einigen Fällen sogar Benutzer) erfordert das Staking von $CAI. Dies erhöht sofort die Kosten für Sybil-Identitäten – ein Angreifer, der 100 Dummy-Miner erstellt, müsste für jeden Stake erwerben und sperren. Darüber hinaus hat Cuckoos Design ein menschliches/gemeinschaftliches Element: Neue Knoten müssen Reputation durch On-Chain-Abstimmung verdienen. Eine Sybil-Armee von neuen Knoten ohne Reputation wird wahrscheinlich nicht viele Aufgaben zugewiesen bekommen oder von Benutzern vertraut werden. Koordinatoren müssen insbesondere Benutzer anziehen; ein gefälschter Koordinator ohne Erfolgsbilanz würde keine Nutzung erhalten. Für Miner können Koordinatoren ihre Leistungsstatistiken (erfolgreiche Aufgaben usw.) auf Cuckoo Scan sehen und werden zuverlässige Miner bevorzugen. Cuckoo hatte auch eine relativ kleine Anzahl von Minern (zu einem Zeitpunkt in der Beta 40 GPUs), sodass jeder ungewöhnliche Zustrom vieler Knoten auffallen würde. Der potenzielle Schwachpunkt ist, wenn der Angreifer auch das Reputationssystem ausnutzt – z. B. staken sie viel CAI auf ihre Sybil-Knoten, um sie seriös aussehen zu lassen, oder erstellen gefälschte „Benutzer“-Konten, um sich selbst hochzustimmen. Dies ist theoretisch möglich, aber da alles Token-kuratiert ist, kostet es Tokens, dies zu tun (man würde im Wesentlichen mit dem eigenen Stake auf die eigenen Knoten stimmen). Das Cuckoo-Team kann auch die Staking- und Belohnungsparameter anpassen, wenn Sybil-Verhalten beobachtet wird (insbesondere jetzt, da es zu einem stärker zentralisierten Rollup-Dienst wird; sie können schlechte Akteure pausieren oder „slashen“). Alles in allem werden Sybils durch die Anforderung von „Skin in the Game“ (Stake) und die Notwendigkeit der Community-Zustimmung in Schach gehalten. Niemand kann einfach mit Hunderten von gefälschten GPUs hereinspazieren und Belohnungen ernten, ohne eine erhebliche Investition zu tätigen, die ehrliche Teilnehmer besser für echte Hardware und Stake ausgeben könnten.
  • Kollusion: Hier betrachten wir mehrere Teilnehmer, die kolludieren, um das System zu manipulieren – zum Beispiel Validatoren und Miner, die in Bittensor kolludieren, oder Solver und Verifier, die in Gensyn kolludieren usw.

    • Bittensor: Kollusion wurde als echtes Problem identifiziert. Im ursprünglichen Design konnte eine Handvoll Validatoren kolludieren, um bestimmte Miner oder sich selbst immer hochzustufen, wodurch die Belohnungsverteilung unfair verzerrt wurde (dies wurde als Machtkonzentration im Root-Subnetz beobachtet). Der Yuma-Konsens bietet eine gewisse Verteidigung: Indem er einen Median der Validatoren-Scores nimmt und diejenigen bestraft, die abweichen, verhindert er, dass eine kleine kolludierende Gruppe ein Ziel dramatisch aufwertet, es sei denn, sie bilden die Mehrheit. Mit anderen Worten, wenn 3 von 10 Validatoren kolludieren, um einem Miner einen super hohen Score zu geben, die anderen 7 dies aber nicht tun, werden die Ausreißer-Scores der Kolludierenden beschnitten und die Belohnung des Miners basiert auf dem Median-Score (so scheitert die Kollusion daran, signifikant zu helfen). Wenn die Kolludierenden jedoch >50 % der Validatoren (oder >50 % des Stakes unter den Validatoren) bilden, sind sie effektiv der Konsens – sie können sich auf falsche hohe Scores einigen, und der Median wird ihre Ansicht widerspiegeln. Dies ist das klassische 51%-Angriffsszenario. Leider ergab die Arxiv-Studie, dass in einigen Bittensor-Subnetzen eine Koalition von nur 1–2 % der Teilnehmer (nach Anzahl) eine Mehrheit des Stakes kontrollierte, aufgrund einer starken Token-Konzentration. Dies bedeutet, dass Kollusion durch einige wenige Großinhaber eine glaubwürdige Bedrohung darstellte. Die Minderung, die Bittensor über dTAO verfolgt, ist die Demokratisierung des Einflusses: Indem jeder TAO-Inhaber Stake an Subnetze lenken kann, wird die Macht geschlossener Validatoren-Gruppen verwässert. Auch Vorschläge wie konkaves Staking (abnehmende Erträge für übermäßigen Stake) und Stake-Obergrenzen zielen darauf ab, die Fähigkeit einer kolludierenden Entität zu brechen, zu viel Stimmrecht zu sammeln. Bittensors Sicherheitsannahme ähnelt nun Proof-of-Stake: keine einzelne Entität (oder Kartell) kontrolliert >50 % des aktiven Stakes. Solange dies gilt, ist Kollusion begrenzt, da ehrliche Validatoren schlechte Bewertungen überschreiben werden und kolludierende Subnetz-Besitzer ihre eigenen Belohnungen nicht willkürlich erhöhen können. Schließlich, bei Kollusion zwischen Subnetz-Besitzern und Validatoren (z. B. ein Subnetz-Besitzer besticht Validatoren, um die Miner seines Subnetzes hoch zu bewerten), entfernt dTAO die direkte Validatoren-Kontrolle und ersetzt sie durch Token-Inhaber-Entscheidungen. Es ist schwieriger, mit „dem Markt“ zu kolludieren, es sei denn, man kauft das Token-Angebot auf – in diesem Fall ist es keine Kollusion, sondern eine Übernahme. Bittensors Haupttechnik gegen Kollusion ist also algorithmischer Konsens (Median-Clipping) und breite Token-Verteilung.

    • Gensyn: Kollusion in Gensyn würde wahrscheinlich einen Solver und einen Verifier (oder mehrere Verifier) umfassen, die kolludieren, um das System zu betrügen. Zum Beispiel könnte ein Solver ein gefälschtes Ergebnis produzieren, und ein kolludierender Verifier könnte es absichtlich nicht anfechten (oder sogar bestätigen, dass es korrekt ist, wenn das Protokoll Verifier auffordert, dies zu unterschreiben). Um dies zu mindern, erfordert Gensyns Sicherheitsmodell mindestens einen ehrlichen Verifier. Wenn alle Verifier mit dem Solver kolludieren, bleibt ein schlechtes Ergebnis unangefochten. Gensyn begegnet dem, indem es viele unabhängige Verifier fördert (jeder kann verifizieren) und durch die Spieltheorie, dass ein Verifier eine große Belohnung verdienen könnte, indem er die Kollusion bricht und anfechtet (weil er den Stake des Solvers erhalten würde). Im Wesentlichen hat jedes Mitglied, selbst wenn eine Gruppe sich zur Kollusion bereit erklärt, einen Anreiz, abtrünnig zu werden und die Belohnung für sich selbst zu beanspruchen – dies ist ein klassisches Gefangenendilemma. Die Hoffnung ist, dass dies Kollusionsgruppen klein oder ineffektiv hält. Eine weitere potenzielle Kollusion besteht zwischen mehreren Solvern, um Preise in die Höhe zu treiben oder Aufgaben zu monopolisieren. Da Entwickler jedoch wählen können, wo sie Aufgaben posten (und Aufgaben keine identischen Einheiten sind, die leicht monopolisiert werden können), wäre eine Solver-Kollusion bei der Preisgestaltung global schwer zu koordinieren – jeder nicht-kolludierende Solver könnte unterbieten, um die Arbeit zu gewinnen. Die Dynamik des offenen Marktes wirkt der Preiskollusion entgegen, vorausgesetzt, es gibt zumindest einige wettbewerbsfähige Teilnehmer. Ein weiterer Aspekt: Verifier-Kollusion, um Solver zu schädigen – z. B. Verifier, die ehrliche Solver fälschlicherweise beschuldigen, um deren Stake zu stehlen. Gensyns Fraud Proof ist binär und On-Chain; eine falsche Anschuldigung würde fehlschlagen, wenn die On-Chain-Neuberechnung keinen Fehler findet, und presumably würde der böswillige Verifier dann etwas verlieren (vielleicht eine Einzahlung oder Reputation). Eine Kollusion von Verifiern, die versuchen, Solver zu sabotieren, würde also durch den Verifizierungsprozess des Protokolls aufgedeckt. Zusammenfassend ist Gensyns Architektur robust, solange mindestens eine Partei in jedem kolludierenden Set einen Anreiz hat, ehrlich zu sein – eine Eigenschaft der optimistischen Verifizierung, ähnlich der Anforderung eines ehrlichen Miners in Bitcoin, um schließlich einen Betrug aufzudecken. Kollusion ist theoretisch möglich, wenn ein Angreifer alle Verifier und Solver in einer Aufgabe kontrollieren könnte (wie eine Mehrheit des Netzwerks), aber dann könnten sie einfach betrügen, ohne Kollusion an sich zu benötigen. Die kryptoökonomischen Anreize sind so angeordnet, dass die Aufrechterhaltung von Kollusion irrational ist.

    • Cuckoo: Kollusion in Cuckoo könnte auf verschiedene Weisen geschehen:

      1. Ein Koordinator kolludiert mit Minern – zum Beispiel könnte ein Koordinator Aufgaben immer einer Gruppe befreundeter Miner zuweisen und Belohnungen aufteilen, während er andere ehrliche Miner ignoriert. Da Koordinatoren bei der Aufgabenplanung Ermessensspielraum haben, kann dies geschehen. Wenn die befreundeten Miner jedoch unterdurchschnittlich sind, könnten die Endbenutzer einen langsamen oder schlechten Dienst bemerken und abwandern, sodass der Koordinator von reinem Favoritismus, der die Qualität beeinträchtigt, abgeschreckt wird. Wenn die Kollusion darauf abzielt, Belohnungen zu manipulieren (z. B. das Einreichen gefälschter Aufgaben, um Minern Tokens zu geben), würde dies On-Chain entdeckt werden (viele Aufgaben mit vielleicht identischen Eingaben oder ohne tatsächlichen Benutzer) und kann bestraft werden. Cuckoos On-Chain-Transparenz bedeutet, dass ungewöhnliche Muster von der Community oder dem Kernteam gemeldet werden könnten. Da alle Teilnehmer staken, riskiert ein kolludierender Koordinator-Miner-Ring den Verlust seines Stakes, wenn er beim Missbrauch des Systems erwischt wird (z. B. wenn die Governance beschließt, sie wegen Betrugs zu „slashen“).
      2. Miner kolludieren untereinander – sie könnten Informationen teilen oder ein Kartell bilden, um sich beispielsweise gegenseitig bei der Reputation zu wählen oder alle weigern, einem bestimmten Koordinator zu dienen, um höhere Gebühren zu erzielen. Diese Szenarien sind weniger wahrscheinlich: Die Reputationsabstimmung erfolgt durch Staker (einschließlich Benutzer), nicht durch die Miner selbst, die sich gegenseitig wählen. Und die Verweigerung des Dienstes würde Koordinatoren nur dazu bringen, andere Miner zu finden oder Alarm zu schlagen. Angesichts des derzeit relativ kleinen Umfangs wäre jede Kollusion schwer zu verbergen.
      3. Kollusion zur Manipulation der Governance – große CAI-Inhaber könnten kolludieren, um Vorschläge zu ihren Gunsten durchzusetzen (wie die Festlegung einer exorbitanten Gebühr oder die Umleitung der Treasury). Dies ist ein Risiko in jeder Token-Governance. Die beste Minderung ist eine breite Verteilung des Tokens (Cuckoos Fair Launch gab 51 % an die Community) und eine aktive Community-Aufsicht. Da Cuckoo auch von L1 abgewichen ist, könnte die sofortige On-Chain-Governance begrenzt sein, bis sie sich auf einer neuen Kette niedergelassen haben; das Team behält wahrscheinlich in der Zwischenzeit eine Multisig-Kontrolle, was ironischerweise Kollusion durch böswillige Außenseiter auf Kosten einer vorübergehenden Zentralisierung verhindert.

    Insgesamt stützt sich Cuckoo auf Transparenz und Staking, um Kollusion zu handhaben. Es gibt ein Element des Vertrauens in Koordinatoren, sich korrekt zu verhalten, da sie in einem wettbewerbsintensiven Umfeld Benutzer anziehen wollen. Wenn Kollusion zu schlechterem Service oder offensichtlicher Belohnungsmanipulation führt, können Stakeholder schlechte Akteure abwählen oder das Staking auf sie einstellen, und das Netzwerk kann sie „slashen“ oder blockieren. Die ziemlich offene Natur (jeder kann Koordinator oder Miner werden, wenn er stakt) bedeutet, dass Kollusion eine große koordinierte Anstrengung erfordern würde, die offensichtlich wäre. Es ist nicht so mathematisch verhindert wie in Bittensor oder Gensyn, aber die Kombination aus wirtschaftlichem Stake und Community-Governance bietet eine Kontrolle.

  • Trittbrettfahren (Free-Rider-Probleme): Dies bezieht sich auf Teilnehmer, die versuchen, Belohnungen zu ernten, ohne einen gleichwertigen Beitrag zu leisten – z. B. ein Validator, der nicht tatsächlich evaluiert, aber trotzdem verdient, oder ein Miner, der die Antworten anderer kopiert, anstatt zu rechnen, oder Benutzer, die Belohnungen farmen, ohne nützliche Eingaben zu liefern.

    • Bittensor: Ein bekanntes Trittbrettfahrerproblem in Bittensor ist das „Gewichtskopieren“ durch faule Validatoren. Ein Validator könnte einfach die Mehrheitsmeinung (oder die Bewertungen eines anderen Validators) kopieren, anstatt Miner unabhängig zu bewerten. Dadurch vermeiden sie die Kosten für die Ausführung von KI-Abfragen, erhalten aber dennoch Belohnungen, wenn ihre eingereichten Bewertungen konsenskonform aussehen. Bittensor bekämpft dies, indem es die Konsensausrichtung und den informatorischen Beitrag jedes Validators misst. Wenn ein Validator immer nur andere kopiert, mag er gut ausgerichtet sein (so dass er nicht stark bestraft wird), aber er fügt keinen einzigartigen Wert hinzu. Die Protokollentwickler haben diskutiert, Validatoren, die genaue, aber nicht rein redundante Bewertungen liefern, höhere Belohnungen zu geben. Techniken wie die Rauschinfusion (absichtliches Geben von leicht unterschiedlichen Abfragen an Validatoren) könnten sie zwingen, tatsächlich zu arbeiten, anstatt zu kopieren – obwohl unklar ist, ob dies implementiert ist. Der Arxiv schlägt leistungsgewichtete Emissions- und zusammengesetzte Bewertungsmethoden vor, um den Aufwand des Validators besser mit der Belohnung zu verknüpfen. Was Miner betrifft, so wäre ein mögliches Trittbrettfahrer-Verhalten, wenn ein Miner andere Miner abfragt und die Antwort weiterleitet (eine Form von Plagiat). Bittensors Design (mit dezentralen Abfragen) könnte es einem Miner-Modell ermöglichen, andere über seinen eigenen Dendriten aufzurufen. Wenn ein Miner nur die Antwort eines anderen weiterleitet, könnte ein guter Validator dies erkennen, da die Antwort möglicherweise nicht konsistent mit den vom Miner beanspruchten Modellfähigkeiten übereinstimmt. Es ist algorithmisch schwierig zu erkennen, aber ein Miner, der niemals originelle Ergebnisse berechnet, sollte schließlich bei einigen Abfragen schlecht abschneiden und an Reputation verlieren. Ein weiteres Trittbrettfahrer-Szenario waren Delegatoren, die Belohnungen verdienten, ohne KI-Arbeit zu leisten. Das ist beabsichtigt (um Token-Inhaber einzubeziehen), also kein Angriff – aber es bedeutet, dass einige Token-Emissionen an Personen gehen, die nur gestakt haben. Bittensor rechtfertigt dies als Ausrichtung der Anreize, nicht als verschwendete Belohnungen. Kurz gesagt, Bittensor erkennt das Trittbrettfahrerproblem der Validatoren an und stimmt die Anreize ab (z. B. durch die Vergabe von Validatoren-Vertrauens-Scores, die diejenigen fördern, die nicht abweichen oder kopieren). Ihre Lösung besteht im Wesentlichen darin, Aufwand und Korrektheit expliziter zu belohnen, so dass Nichtstun oder blindes Kopieren im Laufe der Zeit weniger TAO einbringt.
    • Gensyn: In Gensyn hätten Trittbrettfahrer es schwer, zu verdienen, da man entweder Rechenleistung bereitstellen oder jemanden beim Betrug erwischen muss, um Tokens zu erhalten. Ein Solver kann Arbeit nicht „fälschen“ – er muss entweder einen gültigen Nachweis einreichen oder das Risiko des „Slashing“ eingehen. Es gibt keinen Mechanismus, um bezahlt zu werden, ohne die Aufgabe zu erledigen. Ein Verifier könnte theoretisch untätig bleiben und hoffen, dass andere Betrug aufdecken – aber dann verdient er nichts (weil nur derjenige, der den Fraud Proof vorlegt, die Belohnung erhält). Wenn zu viele Verifier versuchen, Trittbrett zu fahren (Aufgaben nicht tatsächlich neu berechnen), könnte ein betrügerischer Solver durchrutschen, weil niemand prüft. Gensyns Anreizdesign begegnet dem durch die Jackpot-Belohnung: Es braucht nur einen aktiven Verifier, um einen Betrug zu erwischen und eine große Auszahlung zu erhalten, daher ist es rational, dass mindestens einer immer die Arbeit erledigt. Andere, die keine Arbeit leisten, schaden dem Netzwerk nicht, außer dass sie nutzlos sind; sie erhalten auch keine Belohnung. Das System filtert Trittbrettfahrer also natürlich heraus: Nur diejenigen Verifier, die tatsächlich verifizieren, werden langfristig Gewinn machen (andere verschwenden Ressourcen für Knoten umsonst oder ergattern sehr selten zufällig eine Belohnung). Das Protokoll könnte auch zufällig auswählen, welcher Verifier die Möglichkeit erhält, eine Anfechtung vorzunehmen, um alle Verifier davon abzuhalten, anzunehmen, „jemand anderes wird es tun“. Da Aufgaben einzeln bezahlt werden, gibt es kein Analogon zu „Staking-Belohnungen ohne Arbeit“, abgesehen von Testnet-Anreizen, die temporär sind. Ein Bereich, den man beobachten sollte, ist die Multi-Task-Optimierung: Ein Solver könnte versuchen, Arbeit zwischen Aufgaben wiederzuverwenden oder sie heimlich an jemanden billigeren auszulagern (z. B. eine zentralisierte Cloud nutzen) – aber das ist kein wirklich schädliches Trittbrettfahren; wenn sie korrekte Ergebnisse pünktlich liefern, spielt es keine Rolle, wie sie es getan haben. Das ist eher Arbitrage als ein Angriff. Zusammenfassend lässt Gensyns Mechanismusdesign wenig Raum für Trittbrettfahrer, um zu gewinnen, da jeder verteilte Token einer erledigten Aufgabe oder einem bestraften Betrug entspricht.
    • Cuckoo: Cuckoos Anfangsphase schuf unbeabsichtigt ein Trittbrettfahrerproblem: Der Airdrop und das High-Yield-Staking zogen Benutzer an, die nur da waren, um Tokens zu farmen. Diese Benutzer würden Tokens durch Faucets zirkulieren lassen oder die Airdrop-Aufgaben manipulieren (zum Beispiel kontinuierlich kostenlose Test-Prompts verwenden oder viele Konten erstellen, um Belohnungen zu beanspruchen), ohne zum langfristigen Netzwerkwert beizutragen. Cuckoo erkannte dies als Problem – im Wesentlichen nutzten die Leute das Netzwerk nicht für KI-Outputs, sondern für spekulative Belohnungsgewinne. Die Entscheidung, die L1-Kette zu beenden und sich neu zu konzentrieren, diente teilweise dazu, diese Fehlausrichtungen der Anreize zu beseitigen. Indem zukünftige Token-Belohnungen an die tatsächliche Nutzung gebunden werden (d. h., man verdient, weil der Dienst tatsächlich von zahlenden Kunden genutzt wird), nimmt die Attraktivität des Trittbrettfahrens ab. Es gibt auch ein minerseitiges Trittbrettfahrer-Szenario: Ein Miner könnte beitreten, Aufgaben zugewiesen bekommen und diese irgendwie nicht ausführen, aber trotzdem Belohnungen beanspruchen. Der Koordinator überprüft jedoch die Ergebnisse – wenn ein Miner keine oder schlechte Outputs zurückgibt, wird der Koordinator dies nicht als abgeschlossene Aufgabe zählen, sodass der Miner nicht bezahlt würde. Miner könnten auch versuchen, einfache Aufgaben auszuwählen und schwierige fallen zu lassen (zum Beispiel, wenn einige Prompts langsamer sind, könnte ein Miner die Verbindung trennen, um sie zu vermeiden). Dies könnte ein Problem sein, aber Koordinatoren können die Zuverlässigkeit eines Miners beachten. Wenn ein Miner häufig ausfällt, kann der Koordinator aufhören, ihm Aufgaben zuzuweisen, oder seinen Stake „slashen“ (falls ein solcher Mechanismus existiert oder ihn einfach nicht belohnen). Benutzer-Trittbrettfahren – da viele KI-Dienste kostenlose Testphasen haben, könnte ein Benutzer Anfragen spammen, um Outputs ohne Bezahlung zu erhalten (wenn es ein subventioniertes Modell gibt). Das ist weniger ein Protokoll- als ein Dienstleistungsproblem; jeder Koordinator kann entscheiden, wie er mit kostenloser Nutzung umgeht (z. B. eine kleine Zahlung oder Drosselung verlangen). Da Cuckoo anfangs Werbegeschenke (wie kostenlose KI-Bildgenerierungen, um Benutzer anzuziehen) verteilte, nutzten einige dies aus, aber das war Teil des erwarteten Wachstumsmarketings. Wenn diese Aktionen enden, müssen Benutzer bezahlen, sodass es kein kostenloses Mittagessen mehr zu nutzen gibt. Insgesamt zielt Cuckoos neue Strategie, die Token-Verteilung an den tatsächlichen Nutzen zu koppeln, explizit darauf ab, das Trittbrettfahrerproblem des „Mining von Tokens für sinnlose Schleifen“ zu eliminieren.
  • Daten- oder Modellvergiftung: Dies bezieht sich auf das böswillige Einführen schlechter Daten oder Verhaltensweisen, sodass die KI-Modelle sich verschlechtern oder Outputs manipuliert werden, sowie auf Probleme mit schädlichen oder voreingenommenen Inhalten, die beigesteuert werden.

    • Bittensor: Datenvergiftung in Bittensor würde bedeuten, dass ein Miner absichtlich falsche oder schädliche Antworten gibt oder Validatoren gute Antworten absichtlich falsch bewerten. Wenn ein Miner konsistent Müll oder bösartigen Inhalt ausgibt, werden Validatoren niedrige Bewertungen vergeben, und dieser Miner wird wenig verdienen und schließlich ausscheiden – der wirtschaftliche Anreiz ist, Qualität zu liefern, sodass das „Vergiften“ anderer dem Angreifer keinen Nutzen bringt (es sei denn, sein Ziel ist reine Sabotage auf eigene Kosten). Könnte ein bösartiger Miner andere vergiften? In Bittensor trainieren Miner sich nicht direkt gegenseitig (zumindest nicht von Natur aus – es gibt kein globales Modell, das aktualisiert wird und vergiftet werden könnte). Das Modell jedes Miners ist separat. Sie lernen in dem Sinne, dass ein Miner interessante Beispiele von anderen nehmen könnte, um sich selbst feinabzustimmen, aber das ist völlig optional und jedem selbst überlassen. Wenn ein böswilliger Akteur unsinnige Antworten spammen würde, würden ehrliche Validatoren dies herausfiltern (sie würden es niedrig bewerten), sodass es den Trainingsprozess eines ehrlichen Miners nicht wesentlich beeinflussen würde (außerdem würde ein Miner wahrscheinlich das Wissen von hoch bewerteten Peers nutzen, nicht von niedrig bewerteten). Klassische Datenvergiftung (Einspeisung schlechter Trainingsdaten zur Korruption eines Modells) ist in Bittensors aktueller Konfiguration minimal. Das relevantere Risiko ist die Manipulation von Modellantworten: z. B. ein Miner, der subtil voreingenommene oder gefährliche Inhalte ausgibt, die für Validatoren nicht offensichtlich sind. Da Validatoren jedoch auch von Menschen entworfen oder zumindest algorithmische Agenten sind, wird offensichtliche Toxizität oder Fehler wahrscheinlich erkannt (einige Subnetze könnten sogar KI-Validatoren haben, die auf unsichere Inhalte prüfen). Ein Worst-Case-Szenario wäre, wenn ein Angreifer irgendwie eine Mehrheit der Validatoren und Miner dazu bringen könnte, eine bestimmte falsche Ausgabe als „korrekt“ durchzusetzen – sie könnten dann den Konsens des Netzwerks über Antworten verzerren (wie alle kolludierenden Validatoren eine bösartige Antwort hochstufen). Aber damit ein externer Benutzer dadurch geschädigt wird, müsste er das Netzwerk tatsächlich abfragen und der Ausgabe vertrauen. Bittensor befindet sich noch in einer Phase, in der es Fähigkeiten aufbaut, und wird von Endbenutzern nicht weit verbreitet für kritische Abfragen verwendet. Bis dahin hofft man, dass es Inhaltsfilterung und eine Vielfalt von Validatoren haben wird, um solche Risiken zu mindern. Auf der Validatorenseite könnte ein bösartiger Validator vergiftete Bewertungen einspeisen – z. B. einen bestimmten ehrlichen Miner konsequent herabstufen, um den Wettbewerb zu eliminieren. Mit genügend Stake könnten sie erfolgreich sein, diesen Miner zu verdrängen (wenn die Belohnungen des Miners so stark sinken, dass er geht). Dies ist ein Angriff auf den Anreizmechanismus. Auch hier gilt: Wenn sie nicht die Mehrheit sind, wird das Median-Clipping einen Ausreißer-Validator vereiteln. Wenn sie die Mehrheit sind, verschmilzt es mit dem Kollusions-/51%-Szenario – jede Mehrheit kann Regeln umschreiben. Die Lösung kehrt zur Dezentralisierung zurück: verhindern, dass eine einzelne Entität dominiert. Zusammenfassend bestraft Bittensors Design vergiftete Daten-/Modellbeiträge über sein Bewertungssystem – schlechte Beiträge erhalten geringes Gewicht und somit geringe Belohnung. Es gibt kein permanentes Modell-Repository zum Vergiften; alles ist dynamisch und wird kontinuierlich bewertet. Dies bietet Resilienz: Das Netzwerk kann schlechte Akteure allmählich „vergessen“ oder ignorieren, da ihre Beiträge von Validatoren herausgefiltert werden.
    • Gensyn: Wenn ein Solver ein zu trainierendes Modell vergiften wollte (z. B. eine Hintertür oder eine Verzerrung während des Trainings einführen), könnte er versuchen, dies heimlich zu tun. Das Gensyn-Protokoll würde überprüfen, ob das Training gemäß dem angegebenen Algorithmus (stochastische Gradientenabstiegs-Schritte usw.) verlief, würde aber nicht unbedingt erkennen, ob der Solver einen subtilen Hintertür-Trigger eingeführt hat, der in normalen Validierungsmetriken nicht auftaucht. Dies ist ein heimtückischeres Problem – es ist kein Fehler der Berechnung, sondern eine Manipulation innerhalb der zulässigen Freiheitsgrade des Trainings (wie das Anpassen von Gewichten an eine Triggerphrase). Die Erkennung dessen ist ein aktives Forschungsproblem in der ML-Sicherheit. Gensyn hat keinen speziellen Mechanismus zur Modellvergiftung, abgesehen davon, dass der Submitter das endgültige Modell auf einem Testset seiner Wahl bewerten könnte. Ein versierter Submitter sollte das zurückgegebene Modell immer testen; wenn er feststellt, dass es bei einigen Eingaben fehlschlägt oder ein seltsames Verhalten aufweist, kann er das Ergebnis anfechten oder die Zahlung verweigern. Vielleicht könnte das Protokoll einem Submitter erlauben, bestimmte Akzeptanzkriterien festzulegen (wie „Modell muss mindestens X Genauigkeit auf diesem geheimen Testset erreichen“), und wenn das Ergebnis des Solvers fehlschlägt, wird der Solver nicht vollständig bezahlt. Dies würde eine Vergiftung abschrecken, da der Angreifer die Bewertungskriterien nicht erfüllen würde. Wenn das Gift jedoch die Genauigkeit bei normalen Tests nicht beeinträchtigt, könnte es durchrutschen. Verifier in Gensyn überprüfen nur die Berechnungsintegrität, nicht die Modellqualität, sodass sie absichtliches Overfitting oder Trojaner nicht erkennen würden, solange die Trainingsprotokolle gültig aussehen. Dies bleibt also ein Vertrauensproblem auf Aufgabenebene: Der Submitter muss entweder darauf vertrauen, dass der Solver das Modell nicht vergiften wird, oder Methoden wie das Ensembling mehrerer Trainingsergebnisse von verschiedenen Solvern verwenden, um den Einfluss eines einzelnen Solvers zu verwässern. Ein weiterer Aspekt ist die Datenvergiftung: Wenn der Submitter Trainingsdaten bereitstellt, könnte ein böswilliger Solver diese Daten ignorieren und auf etwas anderem trainieren oder Mülldaten hinzufügen. Dies würde jedoch wahrscheinlich die Genauigkeit verringern, was der Submitter an der Leistung des Ausgabemodells bemerken würde. Der Solver würde dann keine volle Zahlung erhalten (da er vermutlich ein Leistungsziel erreichen möchte). Eine Vergiftung, die die Leistung beeinträchtigt, ist also für die Belohnung des Solvers selbstzerstörerisch. Nur ein Gift, das leistungsneutral, aber bösartig ist (eine Hintertür), ist eine echte Gefahr, und das liegt außerhalb des Bereichs der typischen Blockchain-Verifizierung – es ist eine Herausforderung der Machine-Learning-Sicherheit. Gensyns beste Minderung ist wahrscheinlich sozial: bekannte, seriöse Modelle verwenden, mehrere Trainingsläufe durchführen, Open-Source-Tools verwenden. Bei Inferenzaufgaben (wenn Gensyn auch für Inferenzjobs verwendet wird) könnte ein kolludierender Solver falsche Outputs zurückgeben, die eine bestimmte Antwort verzerren. Aber Verifier würden falsche Outputs erkennen, wenn sie dasselbe Modell ausführen, sodass dies weniger eine Vergiftung als vielmehr Betrug ist, den die Fraud Proofs adressieren. Zusammenfassend lässt sich sagen, dass Gensyn den Prozess, nicht die Absicht, sichert. Es stellt sicher, dass das Training/die Inferenz korrekt durchgeführt wurde, aber nicht, dass das Ergebnis gut oder frei von versteckten Gemeinheiten ist. Das bleibt ein offenes Problem, und Gensyns Whitepaper löst dies wahrscheinlich noch nicht vollständig (nur wenige tun dies).
    • Cuckoo: Da Cuckoo derzeit auf Inferenz (Bereitstellung bestehender Modelle) fokussiert ist, ist das Risiko von Daten-/Modellvergiftung relativ begrenzt auf Output-Manipulation oder Inhaltsvergiftung. Ein böswilliger Miner könnte versuchen, das Modell, das er ausführen soll, zu manipulieren – z. B. wenn er einen Stable Diffusion Checkpoint erhält, könnte er ihn durch ein anderes Modell ersetzen, das vielleicht ein subtiles Wasserzeichen oder eine Werbung in jedes Bild einfügt. Der Koordinator (der der Modelleigentümer ist) sendet Aufgaben jedoch typischerweise mit einer Erwartung an das Ausgabeformat; wenn ein Miner konsistent nicht-spezifikationsgerechte Outputs zurückgibt, wird der Koordinator diesen Miner kennzeichnen und sperren. Außerdem können Miner ein Modell nicht einfach ändern, ohne dessen Outputs merklich zu beeinflussen. Ein weiteres Szenario ist, wenn Cuckoo von der Community trainierte Modelle einführt: Dann könnten Miner oder Datenanbieter versuchen, die Trainingsdaten zu vergiften (zum Beispiel viele falsche Labels oder voreingenommenen Text einzugeben). Cuckoo müsste eine Validierung von Crowd-sourced-Daten oder eine Gewichtung der Mitwirkenden implementieren. Dies ist noch keine Funktion, aber das Interesse des Teams an personalisierter KI (wie ihre Erwähnung von KI-Life-Coaches oder Lern-Apps) bedeutet, dass sie möglicherweise irgendwann benutzerbereitgestellte Trainingsdaten verarbeiten werden, was sorgfältige Überprüfungen erfordert. Was die Inhaltssicherheit betrifft, so könnte man sich, da Cuckoo-Miner Inferenz durchführen, Sorgen machen, dass sie schädliche Inhalte ausgeben, selbst wenn das Modell dies normalerweise nicht tun würde. Miner haben jedoch keinen Anreiz, Outputs willkürlich zu ändern – sie werden für korrekte Berechnung bezahlt, nicht für Kreativität. Wenn überhaupt, könnte ein böswilliger Miner die vollständige Berechnung überspringen, um Zeit zu sparen (z. B. ein unscharfes Bild oder eine generische Antwort zurückgeben). Der Koordinator oder Benutzer würde dies sehen und diesen Miner herabstufen (und wahrscheinlich nicht für diese Aufgabe bezahlen). Datenschutz ist ein weiterer Aspekt: Ein böswilliger Miner könnte Benutzerdaten leaken oder protokollieren (z. B. wenn ein Benutzer sensible Texte oder Bilder eingibt). Dies ist keine Vergiftung, sondern ein Angriff auf die Vertraulichkeit. Cuckoos Datenschutzhaltung ist, dass es datenschutzfreundliche Methoden erforscht (die Erwähnung eines datenschutzfreundlichen VPN im Ökosystem deutet auf einen zukünftigen Fokus hin). Sie könnten Techniken wie sichere Enklaven oder geteilte Inferenz integrieren, um Daten vor Minern privat zu halten. Noch nicht implementiert, aber eine bekannte Überlegung. Schließlich betont Cuckoos Blog die effektive Überprüfung von Modellausgaben und die Sicherstellung eines sicheren dezentralen Modellbetriebs als Schlüssel zur Realisierung der Modell-Tokenisierung. Dies deutet darauf hin, dass sie sich bewusst sind, dass man, um KI wirklich zu dezentralisieren, sich gegen Dinge wie vergiftete Outputs oder fehlerhafte Modelle schützen muss. Möglicherweise beabsichtigen sie, eine Kombination aus kryptoökonomischen Anreizen (Stake-Slashing für schlechte Akteure) und Benutzerbewertungssystemen (Benutzer können schlechte Outputs kennzeichnen, und diese Miner verlieren Reputation) zu verwenden. Das Reputationssystem kann hier helfen: Wenn ein Miner auch nur ein offensichtlich bösartiges oder falsches Ergebnis zurückgibt, können Benutzer/Koordinatoren ihn herabstufen, was seine zukünftige Verdienstfähigkeit stark beeinträchtigt. In dem Wissen darum sind Miner motiviert, konsistent

MEV-Unterdrückung und faire Transaktionsreihenfolge: SUAVE vs. Anoma vs. Skip vs. Flashbots v2

· 89 Min. Lesezeit
Dora Noda
Software Engineer

Maximal Extractable Value (MEV) bezieht sich auf den Gewinn, den ein Blockchain-„Insider“ (Miner / Validator oder ein anderer privilegierter Akteur) durch das willkürliche Umordnen, Einschließen oder Ausschließen von Transaktionen in einem Block erzielen kann. Eine unkontrollierte MEV-Extraktion kann zu einer unfairen Transaktionsreihenfolge, hohen Gebühren (durch Priority Gas Auctions) und einer Machtzentralisierung bei der Blockproduktion führen. Eine Reihe von Protokollen ist entstanden, um schädliches MEV zu unterdrücken oder eine faire Reihenfolge von Transaktionen zu erzwingen. Dieser Bericht vergleicht vier prominente Ansätze: Flashbots v2 (das MEV-Boost-System für Ethereum nach dem Merge), SUAVE (Flashbots’ kommende Single Unifying Auction for Value Expression), Anoma (eine intent-zentrierte Architektur, die das Matching und Ordnen von Transaktionen neu konzipiert) und Skip Protocol (ein Cosmos-basiertes Toolkit für souveränes, protokollinternes MEV-Management). Wir untersuchen jeden Ansatz im Hinblick auf seine Algorithmen zur Transaktionswarteschlange / -reihenfolge, MEV-Minderungs- oder Extraktionsmechanismen, Anreizmodelle, Compliance- und Neutralitätsmerkmale, technische Architektur (Konsens und Kryptographie) sowie den Entwicklungsfortschritt. Strukturierte Zusammenfassungen und eine Vergleichstabelle heben ihre Stärken und Kompromisse bei der Verfolgung von Fairness und der Reduzierung negativer MEV-Externalitäten hervor.

Flashbots v2 (MEV-Boost & BuilderNet auf Ethereum)

Flashbots v2 bezeichnet das aktuelle Flashbots-Ökosystem auf Ethereum nach dem Umstieg auf Proof-of-Stake, konzentriert auf MEV-Boost und jüngste Initiativen wie BuilderNet. Flashbots v2 baut auf dem Paradigma der Proposer / Builder Separation (PBS) auf, um den Blockaufbau für einen wettbewerbsorientierten Markt von Buildern zu öffnen und gleichzeitig Ethereum-Nutzer vor MEV-Angriffen im öffentlichen Mempool zu schützen.

  • Transaktionsreihenfolge (Warteschlangen & Algorithmus): Flashbots MEV-Boost führt einen Off-Chain-Marktplatz für den Blockaufbau ein. Validatoren (Proposer) lagern den Blockaufbau über ein Relay an spezialisierte Builder aus, anstatt Transaktionen lokal zu ordnen. Mehrere Builder konkurrieren darum, den am höchsten zahlenden Block bereitzustellen, und der Validator signiert blind den Header des Blocks mit dem höchsten Gebot (ein PBS-Ansatz). Dieses Design ersetzt effektiv die First-Come-First-Served-Ordnung des öffentlichen Mempools durch eine Sealed-Bid-Auktion für gesamte Blöcke. Builder bestimmen die Transaktionsreihenfolge intern, um die Gesamtauszahlungen (einschließlich MEV-Möglichkeiten) zu maximieren, wobei sie typischerweise Bundles mit profitablen Arbitragen oder Liquidationen an der Spitze des Blocks bevorzugen. Durch den Einsatz von MEV-Boost vermied Ethereum die chaotischen Priority Gas Auctions (PGAs), die zuvor die Reihenfolge bestimmten; anstatt dass Nutzer und Bots in Echtzeit über Gasgebühren bieten (was die Netzlast erhöhte), zentralisiert MEV-Boost die Ordnung pro Block beim wettbewerbsfähigsten Builder. Transaktionswarteschlangen werden somit privat von Buildern verwaltet, die eingehende Bundles oder Transaktionen sehen und für optimalen Gewinn anordnen können. Ein Nachteil ist, dass diese gewinnorientierte Ordnung nicht von Natur aus „Fairness“ für die Nutzer erzwingt – Builder können beispielsweise immer noch toxische Orderflows wie Sandwich-Attacken einbeziehen, sofern diese profitabel sind. Dennoch wird die Effizienz optimiert, indem MEV über eine kontrollierte Auktion statt über Ad-hoc-Gas-Kriege extrahiert wird. Jüngste Entwicklungen zielen darauf ab, die Ordnung neutraler zu gestalten: Zum Beispiel ermöglicht das neue BuilderNet von Flashbots (Ende 2024 gestartet), dass mehrere kooperierende Builder Orderflows teilen und Blöcke gemeinsam in einem Trusted Execution Environment konstruieren, wobei verifizierbare Ordnungsregeln zur Verbesserung der Fairness eingeführt werden. Dies bewegt die Blockordnung weg von einem einzelnen zentralisierten Builder hin zu einem dezentralen Blockaufbau-Netzwerk mit Regeln, die auf Neutralität geprüft werden können.

  • MEV-Unterdrückung vs. Extraktionsmechanismen: Flashbots v2 ermöglicht primär die MEV-Extraktion in einer weniger schädlichen Form, anstatt sie zu eliminieren. Das ursprüngliche Flashbots-System (v1) von 2021 erlaubte es Searchern, Bundles (bevorzugte Transaktionssätze) direkt an Miner zu senden, was schädliche Externalitäten unterdrückte (kein öffentliches Frontrunning, keine fehlgeschlagenen Transaktionen durch Wettläufe), während MEV weiterhin extrahiert wurde. In der MEV-Boost-Ära wird MEV durch Builder extrahiert, die profitable Transaktionen bündeln, aber der Negativsummen-Wettbewerb wird reduziert: Searcher spammen den Mempool nicht mehr mit konkurrierenden Transaktionen und exorbitant hohen Gasgebühren, was die Netzwerküberlastung und übermäßige Gebühren für Nutzer mildert. Flashbots v2 bietet zudem Tools zur MEV-Minderung für Nutzer an: Beispielsweise erlaubt Flashbots Protect RPC den Nutzern, Transaktionen privat an ein Relay zu senden, was Frontrunning im öffentlichen Mempool verhindert (niemand kann die Transaktion vor der Aufnahme sehen oder umordnen). Eine weitere Initiative, MEV-Share, ermöglicht es Nutzern, gerade genug Informationen über ihre Transaktionen preiszugeben, um MEV-Gebote anzuziehen, während sie einen Teil des Wertes für sich selbst beanspruchen. Flashbots v2 „verhindert“ jedoch kein MEV wie Sandwiches oder Arbitrage – es kanalisiert diese Aktivitäten durch eine effiziente Auktion, die wohl demokratisiert, wer das MEV extrahieren kann. Das Design von BuilderNet verfolgt explizit das Ziel, „Negativsummen-Orderflow-Spiele zu neutralisieren“ und MEV über On-Chain-Rückerstattungsregeln mit der Community zu teilen. BuilderNet berechnet Rückerstattungen an Orderflow-Anbieter (wie Wallets oder DApps) proportional zu dem durch ihre Transaktionen generierten MEV und verteilt so Werte um, die andernfalls reiner Gewinn für die Builder wären. Zusammenfassend lässt sich sagen, dass Flashbots v2 die Effizienz der MEV-Extraktion maximiert (um sicherzustellen, dass fast der gesamte extrahierbare Wert in einem Block tatsächlich erfasst wird) und gleichzeitig Maßnahmen einführt, um die schlimmsten Externalitäten einzudämmen und einen Teil des Wertes an die Nutzer zurückzugeben. Es verzichtet auf die Durchsetzung einer absolut fairen Reihenfolge (Transaktionen werden immer noch nach Builder-Gewinn geordnet), unterdrückt aber durch private Übermittlung, Multi-Party-Building und Rückerstattungen den negativen Schaden für Nutzer (wie Slippage durch Frontrunning und Zensureffekte) so weit wie möglich innerhalb des Auktionsmodells.

  • Ökonomische Anreizstruktur: Flashbots v2 richtet die Anreize zwischen Validatoren, Buildern und Searchern über die PBS-Auktion aus. Validatoren profitieren von der Auslagerung der Blockproduktion – sie akzeptieren einfach das höchste Gebot und erhalten den Gebotsbetrag (zusätzlich zu den Konsens-Belohnungen), was den Anteil des MEV, der an die Validatoren geht, im Vergleich zur Ära, in der Miner keine solchen Auktionen hatten, drastisch erhöht hat. Builder sind motiviert, einander zu übertreffen, indem sie die profitabelste Transaktionsreihenfolge finden (oft unter Einbeziehung von Searcher-Strategien), und sie behalten jeglichen MEV-Gewinn, der nach Zahlung des Validator-Gebots übrig bleibt. In der Praxis zwingt der Wettbewerb die Builder dazu, den Großteil des MEV an die Validatoren zu zahlen (oft > 90 % des Gewinns), sodass ihnen nur eine geringe Marge verbleibt. Searcher (die nun über Bundles oder direkte Transaktionen mit Buildern interagieren) verdienen weiterhin durch das Entdecken von MEV-Möglichkeiten (Arbitrage, Liquidation etc.), müssen aber den Großteil ihres Gewinns bieten, um aufgenommen zu werden – effektiv werden Searcher-Gewinne über Builder-Gebote an Validatoren transferiert. Dieses Wettbewerbsgleichgewicht maximiert den Gesamtumsatz des Netzwerks (wovon Validatoren / Staker profitieren), drückt jedoch die Margen der einzelnen Searcher. Flashbots v2 entmutigt somit exklusive Deals: Jeder Searcher oder Builder mit einer privaten MEV-Strategie hat einen Anreiz, diese über das offene Relay anzubieten, um nicht unterboten zu werden, was zu einem offeneren Markt führt. Die Einführung von BuilderNet fügt einen Anreiz für Orderflow-Urheber (wie DEXs oder Wallets) hinzu – indem ihnen Rückerstattungen für das durch ihre Transaktionen erzeugte MEV gewährt werden, werden Nutzer und Apps ermutigt, den Orderflow an das BuilderNet-Ökosystem zu senden. Dieser Mechanismus bringt die Nutzer mit dem System in Einklang: Anstatt gegeneinander zu arbeiten (Nutzer gegen MEV-Extraktoren), partizipieren die Nutzer am MEV, weshalb sie eher bereit sind, fair an der Auktion teilzunehmen. Insgesamt begünstigt die Ökonomik von Flashbots v2 die Zusammenarbeit gegenüber dem Wettbewerb beim Blockaufbau: Validatoren erhalten maximale Einnahmen ohne Risiko, Builder konkurrieren über die Ausführungsqualität, Searcher innovieren, um MEV zu finden, geben aber die meisten Gewinne ab, um Gebote zu gewinnen, während Nutzer Schutz und möglicherweise Rabatte erhalten.

  • Compliance und Zensurresistenz: Regulatorische Compliance wurde für Flashbots nach dem Ethereum-Merge zu einem umstrittenen Thema. Das Standard-Relay von Flashbots implementierte anfänglich die Einhaltung von OFAC-Sanktionen (Zensur bestimmter Transaktionen wie Tornado Cash) – was dazu führte, dass Ende 2022 ca. 80 % der Ethereum-Blöcke „OFAC-konform“ waren, was Bedenken hinsichtlich Zentralisierung und Zensur in der Community auslöste. Flashbots v2 begegnete dem durch die Förderung eines Ökosystems mit mehreren Relays, in dem Validatoren nicht-zensierende Relays (z. B. UltraSound, Agnostic) wählen oder sogar eigene betreiben können. Flashbots stellte seinen Relay-Code Mitte 2022 als Open Source zur Verfügung, um den globalen Wettbewerb und die Transparenz unter den Relays zu fördern. Zusätzlich führte MEV-Boost v1.4 Funktionen wie eine Mindestgebots-Einstellung (Min-Bid) ein, damit Proposer niedrige Gebote von zensierenden Buildern ablehnen und auf lokale Blöcke zurückgreifen konnten, wobei sie etwas Gewinn für die Aufnahme aller Transaktionen opferten. Diese Funktion gab Validatoren explizit eine Möglichkeit, die Zensurresistenz von Ethereum zu geringen Kosten zu verbessern. Bis Ende 2024 ging Flashbots einen weiteren Schritt und stellte seinen eigenen zentralisierten Builder zugunsten von BuilderNet ein – einem kollaborativen Netzwerk, das darauf abzielt, „unzensierbar und neutral“ zu sein. BuilderNet verwendet TEEs (Intel SGX), um den Transaktions-Orderflow verschlüsselt zu halten und verpflichtet sich verifizierbar zu einer Ordnungsregel, was verhindern kann, dass einzelne Builder spezifische Transaktionen zensieren. Wenn mehrere Teilnehmer gemeinsam Blöcke innerhalb sicherer Enklaven bauen, kann keine einzelne Partei eine Transaktion ohne Entdeckung ausschließen. Kurz gesagt: Flashbots v2 hat sich von einem einzelnen (und anfangs zensierenden) Relay zu einer dezentraleren Infrastruktur mit offener Teilnahme und expliziten Neutralitätszielen entwickelt. Compliance wird den Richtlinien einzelner Relays / Builder überlassen (und Validatoren können wählen), anstatt vom Protokoll erzwungen zu werden. Die Entwicklung geht in Richtung glaubwürdiger Neutralität: Eliminierung aller von Flashbots kontrollierten Engpässe, die von Regulierungsbehörden unter Druck gesetzt werden könnten. Flashbots hat sich öffentlich dazu verpflichtet, sich als zentraler Betreiber zurückzuziehen und alle Aspekte der MEV-Lieferkette langfristig zu dezentralisieren.

  • Technische Architektur & Kryptographie: Flashbots v2 operiert als Hybrid aus Off-Chain und protokollinternen Elementen. Die Kernauktion (MEV-Boost) findet Off-Chain über das Builder- und Relay-Netzwerk statt, ist aber direkt in den Konsens von Ethereum eingebunden: Validatoren führen einen Sidecar-Client (mev-boost) aus, der über die standardisierte Builder-API mit Relays kommuniziert. Konsensseitig nutzt Ethereum weiterhin Standard-PoS (Casper / Hotstuff) – MEV-Boost ändert die L1-Konsensregeln nicht; es ändert nur, wer den Block zusammenstellt. Anfangs erforderte die Flashbots-Auktion Vertrauen in das Relay und den Builder, Transaktionen nicht zu stehlen oder zu zensieren – es gab keine kryptographischen Garantien (das System verließ sich auf den ökonomischen Anreiz, dass Builder eine gültige Payload liefern müssen, die ihrem Gebot entspricht, sonst verlieren sie den Slot). Im Laufe der Zeit hat Flashbots v2 mehr Sicherheitstechnologie integriert. Die Einführung von Trusted Execution Environments (TEE) über BuilderNet ist ein bemerkenswerter architektonischer Wandel: Builder laufen innerhalb von SGX-Enklaven, sodass selbst der Builder-Betreiber den rohen Transaktions-Orderflow nicht sehen kann (was ihn daran hindert, Informationen preiszugeben oder Frontrunning zu betreiben). Diese Enklaven folgen gemeinsam einem Protokoll zur Blockproduktion, was eine verifizierbare Fairness ermöglichen kann (z. B. der Beweis, dass Transaktionen nach einer festgelegten Regel geordnet wurden oder dass keine unbefugte Entität sie vor der Aufnahme gesehen hat). Während SGX verwendet wird (ein hardwarebasierter Ansatz), erforscht die Flashbots-Forschung auch rein kryptographische Primitive – z. B. Threshold Encryption für Mempool-Privatsphäre und Secure Multi-Party Computation –, um TEEs eventuell zu ersetzen oder zu ergänzen und das Vertrauen weiter zu reduzieren. Der Software-Stack von Flashbots v2 umfasst angepasste Clients wie MEV-geth (jetzt veraltet) und Rust-basierte Builder (z. B. rbuilder) und hält sich an die Ethereum-Builder-Spezifikationen für Interoperabilität. Zusammenfassend ist die Architektur modular: Ein Netzwerk aus Relays, Buildern und nun Enklaven, das zwischen Nutzern und Ethereum-Proposern angesiedelt ist. Sie priorisiert Performance (schnelles Bieten, Blockbereitstellung) und fügt schrittweise kryptographische Zusicherungen für Privatsphäre und faire Ordnung hinzu. Es wird kein neuer Konsensalgorithmus eingeführt; stattdessen arbeitet Flashbots v2 neben dem Konsens von Ethereum und entwickelt die Blockproduktions-Pipeline weiter, anstatt die Konsensregeln selbst zu verändern.

  • Entwicklungs-Roadmap & Meilensteine: Flashbots hat sich durch iterative Phasen entwickelt. Flashbots v1 (2020–2021) beinhaltete den Start von MEV-geth und die ersten Off-Chain-Bundle-Auktionen mit Minern. Bis Mitte 2021 nutzten über 80 % der Hashrate von Ethereum MEV-geth von Flashbots, was die Akzeptanz des Ansatzes bestätigte. Flashbots v2 (2022) wurde im Vorfeld von „The Merge“ konzipiert: Im November 2021 veröffentlichte Flashbots die MEV-Boost-Architektur für PoS-Ethereum. Nachdem Ethereum auf PoS umgestellt hatte (15. Sept. 2022), wurde MEV-Boost innerhalb weniger Tage aktiviert und erreichte schnell eine Mehrheitsbeteiligung durch die Validatoren. Weitere Meilensteine waren die Offenlegung des Relay-Codes (Aug. 2022) und des internen Block-Builders von Flashbots (Nov. 2022), um den Wettbewerb anzukurbeln. Ende 2022 fügte Flashbots zudem Funktionen mit Fokus auf Zensurresistenz und Resilienz hinzu (z. B. Min-Bid für Proposer) und thematisierte die „Kosten der Resilienz“, um Validatoren zu ermutigen, gelegentlich die Inklusion dem Gewinn vorzuziehen. Im Laufe des Jahres 2023 wurde die Verbesserung der Builder-Dezentralisierung zu einem Schwerpunkt: Flashbots veröffentlichte „rbuilder“ (einen Hochleistungs-Rust-Builder) im Juli 2024 als Referenzimplementierung, um die Hürde für neue Builder zu senken. Schließlich startete Flashbots Ende 2024 BuilderNet (Alpha) in Zusammenarbeit mit Partnern (Beaverbuild, Nethermind). Bis Dezember 2024 stellte Flashbots seinen zentralisierten Builder ein und migrierte den gesamten Orderflow zu BuilderNet – ein bedeutender Schritt in Richtung Dezentralisierung. Anfang 2025 wurde BuilderNet v1.2 mit Verbesserungen bei Sicherheit und Onboarding (einschließlich reproduzierbarer Enklaven-Builds) veröffentlicht. Diese Meilensteine markieren den Übergang von Flashbots von einer zweckmäßigen zentralisierten Lösung zu einem offeneren, von der Community betriebenen Protokoll. Mit Blick in die Zukunft verschmilzt Flashbots mit seiner Vision der nächsten Generation (SUAVE), um die Blockaufbauschicht vollständig zu dezentralisieren und fortschrittliche Privatsphäre-Technologien zu integrieren. Viele Lehren aus Flashbots v2 (z. B. die Notwendigkeit von Neutralität, Multi-Chain-Scope und die Einbeziehung der Nutzer in MEV-Belohnungen) fließen direkt in die SUAVE-Roadmap ein.

SUAVE (Flashbots’ Single Unifying Auction for Value Expression)

SUAVE ist das ehrgeizige Folgeprotokoll von Flashbots, das als dezentraler, domänenübergreifender (Cross-Domain) MEV-Marktplatz und faire Transaktions-Sequenzierungsschicht konzipiert wurde. Es zielt darauf ab, Mempools und die Block-Erstellung von einzelnen Blockchains zu entbündeln und eine einheitliche Plattform bereitzustellen, auf der Benutzer ihre Präferenzen äußern, ein dezentrales Netzwerk Transaktionen optimal ausführt und Block-Builder auf glaubwürdig neutrale Weise Blöcke über viele Ketten hinweg produzieren. Kurz gesagt: SUAVE versucht, die gesamte Wertschöpfung (Value Extraction) zu maximieren, während der Wert an die Benutzer zurückgegeben und die Dezentralisierung der Blockchain bewahrt wird. Flashbots führte SUAVE Ende 2022 als „die Zukunft des MEV“ ein und entwickelt es seitdem offen.

  • Warteschlangen und Transaktions-Reihenfolge: Auf hoher Ebene fungiert SUAVE als unabhängiges Blockchain-Netzwerk, das andere Ketten als Plug-and-Play-Mempool und Block-Builder nutzen können. Anstatt dass Transaktionen im Mempool jeder einzelnen Kette anstehen und von lokalen Minern oder Validatoren geordnet werden, können Benutzer ihre Transaktionen (oder allgemeiner: Präferenzen) in den Mempool des SUAVE-Netzwerks senden. Der Mempool von SUAVE dient dann als globaler Auktionspool für Präferenzen aller teilnehmenden Ketten. Die Reihenfolge der Transaktionen wird durch diese Auktion und die anschließende Ausführungsoptimierung bestimmt. Konkret führt SUAVE das Konzept der Präferenzen (Preferences) ein: Die Einreichung eines Benutzers ist nicht nur eine einfache Transaktion für eine Kette, sondern kann ein Ziel oder einen bedingten Handel kodieren (der möglicherweise mehrere Ketten umfasst) sowie ein zugehöriges Gebot (Bid), das der Benutzer für die Erfüllung zu zahlen bereit ist. Der Sortier- und Warteschlangenalgorithmus in SUAVE umfasst mehrere Phasen: Zuerst posten Benutzer ihre Präferenzen in den SUAVE-Mempool (das „Universal Preference Environment“), das alle Aufträge privat und global aggregiert. Als Nächstes überwachen spezialisierte Knoten, sogenannte Executoren (analog zu Searchern/Solvern), diesen Mempool und konkurrieren in einem Optimal Execution Market, um diese Präferenzen zu erfüllen. Sie „reihen“ Transaktionen effektiv ein, indem sie Übereinstimmungen oder eine optimale Ausführungsreihenfolge finden. Schließlich produziert SUAVE Block-Outputs für jede verbundene Kette über eine dezentrale Block-Erstellungsschicht: Viele Builder (oder SUAVE-Executoren, die als Builder fungieren) arbeiten zusammen, um Blöcke unter Verwendung der (nun optimierten) Transaktionsreihenfolge zu konstruieren, die aus den Benutzerpräferenzen abgeleitet wurde. In der Praxis ist die Sortierung von SUAVE flexibel und benutzergesteuert: Ein Benutzer kann Bedingungen festlegen wie „führe meinen Handel nur aus, wenn der Preis < X ist“ oder sogar eine abstrakte Absicht äußern („tausche Token A gegen B zum besten Kurs innerhalb von 1 Minute“) anstatt einer strikten Transaktion. Das System stellt diese Intents in eine Warteschlange, bis ein Executor eine optimale Reihenfolge oder Übereinstimmung findet (möglicherweise durch Batching mit anderen). Da SUAVE blockchain-agnostisch ist, kann es die Reihenfolge über Ketten hinweg koordinieren (wodurch Szenarien verhindert werden, in denen Cross-Chain-Arbitragen aufgrund unkoordinierter separater Mempools verpasst werden). Im Wesentlichen implementiert SUAVE eine globale MEV-Auktion: Alle Teilnehmer teilen sich eine Sequenzierungsschicht, welche Transaktionen basierend auf aggregierten Präferenzen und Geboten ordnet, anstatt nach einfacher Zeit oder Gaspreis. Dies hat den Effekt, dass gleiche Wettbewerbsbedingungen geschaffen werden – der gesamte Orderflow läuft durch eine transparente Warteschlange (wenn auch zur Wahrung der Privatsphäre verschlüsselt, wie unten besprochen), anstatt über exklusive Deals oder private Mempools. Der Sortieralgorithmus von SUAVE wird noch verfeinert, wird aber wahrscheinlich datenschutzfreundliche Batch-Auktionen und Matching-Algorithmen beinhalten, damit „faire“ Ergebnisse (wie maximaler Gesamtüberschuss oder benutzeroptimale Preise) erzielt werden können, anstatt eines reinen „First-Come-First-Served“-Prinzips. Bemerkenswert ist, dass SUAVE verhindern will, dass ein einzelner Akteur die Reihenfolge manipuliert: Es ist Ethereum-nativ und MEV-bewusst, mit einem Privacy-First verschlüsselten Mempool, der vor zentralen Kontrollpunkten schützt. Zusammenfassend ist die Warteschlange von SUAVE ein einheitlicher Orderflow-Pool, in dem die Reihenfolge durch eine Kombination aus Benutzergeboten, Executor-Strategien und (schließlich) kryptografischen Fairness-Beschränkungen bestimmt wird, anstatt durch Block-Proposer, die um Priorität konkurrieren.

  • MEV-Unterdrückungs- und Extraktionsmechanismen: Die Philosophie von SUAVE besagt, dass MEV zum Vorteil der Benutzer und für die Netzwerksicherheit genutzt werden kann, wenn dies auf kooperative, dezentrale Weise geschieht. Anstatt MEV entweder zu ignorieren oder es in wenigen Händen konzentrieren zu lassen, macht SUAVE MEV-Möglichkeiten explizit sichtbar und gibt den Wert so weit wie möglich an diejenigen zurück, die ihn erschaffen (die Benutzer). Der primäre Mechanismus ist die Orderflow-Auktion: Wann immer die Transaktion (Präferenz) eines Benutzers MEV enthält – zum Beispiel, wenn sie gewinnbringend „backrunned“ werden könnte –, führt SUAVE eine Auktion unter Executoren (Searchern) um das Recht durch, diese MEV-Gelegenheit auszuführen. Searcher (Executoren) bieten mit, indem sie versprechen, einen Teil des Gewinns als Zahlung an den Benutzer zurückzugeben (dies ist das „Bid“-Feld des Benutzers in seiner Präferenz, das an denjenigen geht, der sie erfüllt). Das Ergebnis ist eine kompetitive MEV-Extraktion, die Einnahmen eher zum Benutzer als zum Extrahierer leitet. Wenn zum Beispiel der große DEX-Handel eines Benutzers eine Arbitrage-Möglichkeit von 100 $ schafft, könnten Searcher auf SUAVE den Gewinn herunterbieten, indem sie dem Benutzer beispielsweise 90 $ als Rabatt anbieten und nur 10 $ behalten. Dies unterdrückt die negativen Aspekte von MEV, wie die Wertabschöpfung beim Benutzer, und macht MEV zu einem Vorteil für den Benutzer (Benutzer erhalten effektiv Preisverbesserungen oder Rabatte). Das Design von SUAVE unterdrückt auch Front-Running und anderes bösartiges MEV: Transaktionen im SUAVE-Mempool können verschlüsselt bleiben, bis ein Block erstellt wird (anfänglich unter Verwendung von SGX-Enklaven, später durch Schwellenwert-Kryptografie). Dies bedeutet, dass kein externer Akteur ausstehende Transaktionen sehen kann, um sie zu frontrunnen; erst wenn genügend Transaktionen gesammelt wurden und ein Block finalisiert ist, werden sie entschlüsselt und ausgeführt, ähnlich dem Prinzip von Batch-Auktionen oder verschlüsselten Mempools, die den Zeit-Prioritäts-Vorteil von Bots eliminieren. Da Executoren zudem die Ausführung über viele Präferenzen hinweg optimieren, kann SUAVE ineffizienten Wettbewerb eliminieren (wie zwei Bots, die durch Spamming um dieselbe Arbitrage kämpfen). Stattdessen wählt SUAVE über die Auktion den besten Executor aus, und dieser führt den Handel einmalig aus, wobei das Ergebnis dem Benutzer und dem Netzwerk zugutekommt. SUAVE agiert somit als MEV-Aggregator und „gute Fee“: Es eliminiert MEV nicht (die profitablen Gelegenheiten werden weiterhin genutzt), aber diese Gelegenheiten werden unter transparenten Regeln realisiert, wobei die Erlöse weitgehend an Benutzer und Validatoren verteilt werden (und nicht für Gasgebühren oder Latenzkriege verschwendet werden). Durch die Vereinheitlichung der Mempools adressiert SUAVE auch Cross-Domain MEV auf benutzerfreundliche Weise – z. B. könnte eine Arbitrage zwischen Uniswap auf Ethereum und einer DEX auf Arbitrum von einem SUAVE-Executor erfasst und ein Teil an die Benutzer auf beiden Seiten gezahlt werden, anstatt verpasst zu werden oder einen zentralisierten Arbitrageur zu erfordern. Wichtig ist, dass SUAVE die zentralisierenden Kräfte von MEV unterdrückt: Exklusive Orderflow-Deals (bei denen private Einheiten MEV abgreifen) werden unnötig, wenn jeder die gemeinsame Auktion nutzt. Die ultimative Vision von SUAVE ist es, schädliche MEV-Extraktion zu reduzieren (wie Sandwich-Attacken, die Slippage verursachen), indem sie entweder unprofitabel gemacht werden oder die Slippage erstattet wird, und „gutes MEV“ (Arbitrage, Liquidationen) zur Stärkung der Netzwerke zu nutzen (durch Umsatzbeteiligung und optimale Ausführung). In den Worten von Flashbots ist es das Ziel von SUAVE, sicherzustellen, dass „Benutzer mit der besten Ausführung und minimalen Gebühren transagieren“, während „Validatoren maximale Einnahmen erzielen“ – d. h. jedes vorhandene MEV wird auf die benutzerfreundlichste Weise extrahiert.

  • Ökonomische Anreizstruktur: SUAVE führt neue Rollen und Anreizflüsse in die MEV-Lieferkette ein. Die Hauptteilnehmer sind Benutzer, Executoren, Block-Builder/Validatoren und die SUAVE-Netzwerkbetreiber (Validatoren der SUAVE-Kette). Benutzer legen in ihrer Präferenz ein Gebot (Zahlung) fest, das ausgezahlt wird, wenn ihre Bedingungen erfüllt sind. Dieses Gebot ist der Anreiz für Executoren: Ein Executor, der die Absicht des Benutzers erfüllt (z. B. seinen Handel backrunned, um ihm einen besseren Preis zu verschaffen), kann das Gebot als Belohnung beanspruchen. Benutzer zahlen daher direkt für die Qualität der Ausführung, ähnlich wie beim Aussetzen eines Kopfgeldes. Executoren (Searcher) sind motiviert, Benutzerpräferenzen aus dem SUAVE-Mempool aufzugreifen und zu optimieren, da sie das Gebot des Benutzers plus etwaige zusätzliche Arbitrage-Gewinne aus der Transaktion verdienen. Executoren werden konkurrieren, um dem Benutzer das beste Ergebnis zu bieten, da der Benutzer sein Gebot so gestalten kann, dass er nur zahlt, wenn der Executor tatsächlich das gewünschte Ergebnis erzielt (das Gebot kann über Orakel von On-Chain-Ergebnissen abhängig gemacht werden). Beispielsweise könnte ein Benutzer sagen: „Ich zahle 0,5 ETH an denjenigen, der diese Transaktion so ausführt, dass ich mindestens X Output erhalte; wenn nicht, erfolgt keine Zahlung.“ Dies bringt die Anreize der Executoren mit dem Erfolg des Benutzers in Einklang. SUAVE-Validatoren/Builder: Die SUAVE-Kette selbst wird wahrscheinlich ein Proof-of-Stake-Netzwerk sein (Design noch offen), sodass Validatoren (die Blöcke auf SUAVE produzieren) Transaktionsgebühren auf SUAVE verdienen (die von Benutzern stammen, die Gebote abgeben). Da SUAVE eine EVM-kompatible Kette ist, kann es auch ein natives Token- oder Gasgebührensystem für diese Transaktionen geben. Diese Validatoren spielen auch eine Rolle bei der Sequenzierung von Cross-Domain-Blöcken; die endgültige Block-Inklusion auf jedem L1 erfolgt jedoch weiterhin durch den Validator dieses L1. In vielen Fällen wird SUAVE ein teilweises oder vollständiges Block-Template produzieren, das ein Ethereum- oder ein anderer Chain-Proposer übernehmen kann. Dieser Builder könnte SUAVE (oder den SUAVE-Executoren) einen Teil des MEV zahlen. Flashbots hat erwähnt, dass SUAVE-Validatoren durch normale Netzwerkgebühren incentiviert werden, während Executoren durch Gebote (Bids) incentiviert werden. Wertverteilung: Der Ansatz von SUAVE neigt dazu, den Wert an die Ränder zu verlagern: Benutzer erfassen Wert (durch bessere Preise oder direkte Rückerstattungen) und Validatoren erfassen Wert (durch erhöhte Gebühren/Gebote). Wenn SUAVE seine Mission erfüllt, wird theoretisch das meiste MEV entweder an die Benutzer zurückgegeben oder zur Entschädigung der Validatoren für die Sicherung des Netzwerks verwendet, anstatt sich bei Searchern zu konzentrieren. Flashbots selbst hat angedeutet, dass es kein Rent-Seeking bei SUAVE plant und keinen Anteil über das hinaus nehmen wird, was für den Systemstart erforderlich ist – sie wollen den Marktplatz gestalten, nicht monopolisieren. Ein weiterer Anreizfaktor sind Cross-Chain-Builder: SUAVE ermöglicht Block-Buildern den Zugriff auf Cross-Domain MEV, was bedeutet, dass ein Builder auf einer Kette zusätzliche Gebühren verdienen kann, indem er Transaktionen einschließt, die eine Arbitrage mit einer anderen Kette vervollständigen. Dies ermutigt Builder/Validatoren verschiedener Ketten, an SUAVE teilzunehmen, da ein Opt-out den Verzicht auf Einnahmen bedeutet. Im Wesentlichen versucht das ökonomische Design von SUAVE, alle Teilnehmer zur Teilnahme an der gemeinsamen Auktion zu bewegen: Benutzer, weil sie eine bessere Ausführung erhalten (und vielleicht MEV-Rabatte), Validatoren, weil sie maximale Einnahmen erzielen, und Searcher, weil dort der Orderflow aggregiert wird. Durch die Konzentration des Orderflows gewinnt SUAVE auch einen Informationsvorteil gegenüber jedem isolierten Akteur (alle Präferenzen an einem Ort), was ökonomischen Druck auf alle ausübt, innerhalb von SUAVE zu kooperieren, anstatt sich abzuspalten. Zusammenfassend fördern die Anreize von SUAVE einen positiven Kreislauf: mehr Orderflow → bessere kombinierte MEV-Möglichkeiten → höhere Gebote für Benutzer/Validatoren → mehr Orderflow. Dies steht im Gegensatz zum Nullsummenspiel und den exklusiven Deals der Vergangenheit und zielt stattdessen auf eine „Koopetition“ (Coopetition) ab, bei der MEV ein gemeinsamer Wert ist, der wachsen und verteilt werden soll.

  • Compliance und regulatorische Überlegungen: SUAVE wird mit glaubwürdiger Neutralität und Zensurresistenz als Kernprinzipien entwickelt. Bauartbedingt entfernt SUAVE zentrale Vermittler – es gibt keinen einzelnen Mempool oder Builder, den man angreifen oder regulieren könnte. Transaktionen (Präferenzen) in SUAVE können vollständig verschlüsselt und privat sein, bis sie ausgeführt werden, wobei sichere Enklaven und später kryptografische Techniken zum Einsatz kommen. Dies bedeutet, dass Zensur auf Ebene des Transaktionsinhalts unpraktikabel ist, da Validatoren/Builder die Transaktionsdetails nicht einmal lesen können, bevor die Reihenfolge festgelegt ist. SUAVE erzwingt im Grunde einen „Don’t trust, verify“-Ansatz: Teilnehmer müssen keiner einzelnen Instanz vertrauen, dass sie nicht zensiert, da die Systemarchitektur selbst (dezentrales Netzwerk + Verschlüsselung) sicherstellt, dass die Präferenzen aller fair berücksichtigt werden. Darüber hinaus soll SUAVE ein offenes, erlaubnisloses Netzwerk sein – Flashbots lädt explizit alle Parteien (Benutzer, Searcher, Wallets, andere Blockchains) zur Teilnahme ein. Es gibt kein KYC oder eine Zugangsbeschränkung im Design. Dies könnte Fragen bei Regulierungsbehörden aufwerfen (z. B. könnte das Protokoll die MEV-Extraktion bei sanktionierten Transaktionen erleichtern), aber da SUAVE nur eine dezentrale Plattform ist, wäre eine Durchsetzung schwierig und analog zum Versuch, den Mempool einer Blockchain zu regulieren. Der Fokus von SUAVE auf Privatsphäre (über SGX und später Kryptografie) schützt zudem Benutzerdaten und Orderflow vor unerwünschter Überwachung, was positiv für die Benutzersicherheit ist, aber mit regulatorischen Wünschen nach Transparenz in Konflikt geraten könnte. Andererseits könnte der Ansatz von SUAVE als fairer und konformer mit dem Geist offener Märkte angesehen werden: Durch die Schaffung gleicher Wettbewerbsbedingungen und die Rückgabe von Werten an die Benutzer reduziert es die ausbeuterischen Aspekte von MEV, die regulatorischen Zorn auf sich ziehen könnten (wie das Backrunning von Benutzern ohne deren Zustimmung). SUAVE kann auch dazu beitragen, unregulierte Dark Pools zu eliminieren – ein Grund, warum Regulierungsbehörden über MEV besorgt sein könnten, sind exklusive Orderflow-Verkäufe (die Insiderhandel ähneln). SUAVE ersetzt diese durch eine transparente öffentliche Auktion, was wohl eine konformere Marktstruktur darstellt. In Bezug auf explizite Compliance-Funktionen könnte SUAVE mehrere Sortierrichtlinien zulassen: Beispielsweise könnten Communities oder Gerichtsbarkeiten ihre eigenen Executoren mit bestimmten Filtern oder Präferenzen einsetzen. Die Basislinie ist jedoch, dass SUAVE versuchen wird, maximal neutral zu sein: „alle zentralen Kontrollpunkte, einschließlich Flashbots, zu eliminieren“ und zu vermeiden, Richtlinienentscheidungen auf Protokollebene einzubetten. Flashbots hat betont, dass es den Marktplatz von SUAVE mit zunehmender Reife nicht selbst kontrollieren wird – was bedeutet, dass es keinen zentralen Kill-Switch oder Zensurschalter gibt. Die Governance (sofern vorhanden) von SUAVE ist öffentlich noch nicht definiert, es ist jedoch zu erwarten, dass sie die breitere Community und möglicherweise einen Token einbezieht, anstatt das Machtwort eines Unternehmens. Zusammenfassend ist SUAVE darauf ausgelegt, mit dezentralen Prinzipien in Einklang zu stehen, was von Natur aus bestimmten regulatorischen Kontrollen (Zensur) widersteht, während es potenziell einige regulatorische Bedenken mildert, indem es die MEV-Extraktion gerechter und transparenter macht.

  • Technische Architektur (Konsens & Krypto): SUAVE wird – zumindest anfangs – eine eigene Blockchain-Umgebung betreiben. Es wird als eine EVM-kompatible Kette beschrieben, die auf Präferenzen und MEV spezialisiert ist. Die Architektur besteht aus drei Hauptkomponenten: (1) dem Universal Preference Environment (die SUAVE-Kette + Mempool, wo Präferenzen gepostet und aggregiert werden), (2) dem Execution Market (Off-Chain- oder On-Chain-Executoren, welche die Präferenzen lösen/optimieren, ähnlich einer dezentralen „Order Matching Engine“), und (3) der dezentralen Block-Erstellung (Decentralized Block Building) (ein Netzwerk von SUAVE-Teilnehmern, die Blöcke für verschiedene Domänen zusammenstellen). Im Kern wird der Konsens von SUAVE wahrscheinlich ein Proof-of-Stake-BFT-Konsens sein (ähnlich wie bei Ethereum oder Cosmos), um die SUAVE-Kette selbst zu betreiben – wobei noch entschieden wird, ob SUAVE ein L1, ein Ethereum-L2 oder eine Suite von „Restaking“-Verträgen wird. Eine Möglichkeit ist, dass SUAVE als Layer-2 oder Sidechain startet, die Ethereum für die Finalität nutzt oder bestehende Validatoren-Sets verwendet. Das Sicherheitsmodell ist noch offen (TBD), aber es gab Diskussionen darüber, es zu einem Ethereum-L3 oder einer Cosmos-Kette zu machen. Kryptografisch setzt SUAVE in seiner frühen Roadmap stark auf Trusted Hardware und Verschlüsselung. Die Phase SUAVE Centauri implementiert eine „datenschutzbewusste Orderflow-Auktion“, in der Flashbots (zentral) SGX-Enklaven betreibt, um den Orderflow von Searchern und Benutzern privat zu halten. In SUAVE Andromeda ist geplant, SGX-basierte Auktionen und Block-Erstellung einzusetzen, ohne Flashbots vertrauen zu müssen (die Enklaven bieten Vertraulichkeit, sodass selbst Flashbots nicht hineinschauen kann). Mit SUAVE Helios wird das Ziel verfolgt, ein SGX-basiertes dezentrales Building-Netzwerk zu haben – das bedeutet, dass viele unabhängige Parteien Enklaven betreiben, die kollektiv Blöcke erstellen und so sowohl Privatsphäre als auch Dezentralisierung erreichen. Langfristig erforscht Flashbots maßgeschneiderte sichere Enklaven und kryptografische Alternativen wie Schwellenwert-Entschlüsselung (Threshold Decryption) und Multi-Party Computation, um die Abhängigkeit von Intels SGX zu verringern. Beispielsweise könnten sie ein Schwellenwert-Verschlüsselungsschema verwenden, bei dem die Validatoren von SUAVE gemeinsam einen Schlüssel halten, um Transaktionen erst zu entschlüsseln, nachdem die Reihenfolge festgelegt wurde (um sicherzustellen, dass niemand frontrunnen kann). Dieses Konzept ähnelt Anomas Ferveo oder anderen Ideen zur „fairen Sortierung via Schwellenwert-Verschlüsselung“. Zusätzlich behandelt SUAVE Benutzerpräferenzen als Smart Contracts auf seiner Kette. Die Präferenz eines Benutzers könnte ein Gültigkeitsprädikat und eine Zahlungsbedingung enthalten – im Grunde ein Stück Code, das besagt: „Wenn das Ergebnis X auf der Kette Y erreicht wird, dann zahle dem Executor Z diesen Betrag“. Die SUAVE-Kette muss Orakel und Cross-Chain-Verifizierungen handhaben, um zu wissen, wann eine Präferenz erfüllt wurde (z. B. das Auslesen des Ethereum-Status, um zu sehen, ob ein Swap stattgefunden hat). Dies impliziert, dass die Architektur von SUAVE On-Chain-Light-Clients oder Orakelsysteme für verbundene Ketten sowie potenziell atomares Cross-Chain-Settlement umfassen wird (um sicherzustellen, dass ein Executor beispielsweise auf Ethereum und Arbitrum ausführen und das Gebot atomar beanspruchen kann). SUAVE soll hochgradig erweiterbar sein: Da es EVM-kompatibel ist, könnten beliebige Verträge (SUAVE-native „Preferences“ oder sogar normale dApps) darauf laufen, wobei die Absicht ist, den Fokus auf der Orderflow-Koordination zu halten. In Bezug auf den Konsens könnte SUAVE innovativ sein, indem es eine Intent-zentrierte Kette anstelle einer transaktionszentrierten Kette ist, aber letztendlich muss es Nachrichten (Präferenzen) ordnen und Blöcke produzieren wie jede andere Kette. Man kann sich vorstellen, dass SUAVE einen Konsensalgorithmus übernimmt, der auf Durchsatz und Finalität mit geringer Latenz optimiert ist, da es im kritischen Pfad der Transaktionen für viele Ketten liegen wird. Vielleicht könnte eine Tendermint-artige sofortige Finalität oder sogar ein DAG-basierter Konsens verwendet werden, um Präferenzen schnell zu bestätigen. Ungeachtet dessen liegen die Unterscheidungsmerkmale von SUAVE auf der Transaktionsebene, nicht auf der Konsensebene: die Nutzung von Privacy-Tech (SGX, Schwellenwert-Verschlüsselung) für die Sortierung, domänenübergreifende Kommunikation und eine im Protokoll integrierte Smart-Order-Routing-Logik. Dies macht es zu einer Art „Meta-Layer“ über bestehenden Blockchains. Technisch gesehen wird jede teilnehmende Kette den Outputs von SUAVE bis zu einem gewissen Grad vertrauen müssen (z. B. müsste ein Ethereum-Proposer einen von SUAVE erstellten Block akzeptieren oder SUAVE-Vorschläge einbeziehen). Flashbots hat angedeutet, dass SUAVE schrittweise und auf Opt-in-Basis eingeführt wird – Domänen können wählen, ob sie die SUAVE-Sequenzierung für ihre Blöcke übernehmen möchten. Bei breiter Akzeptanz könnte SUAVE zu einem De-facto-MEV-bewussten Transaktions-Routing-Netzwerk für Web3 werden. Zusammenfassend ist die Architektur von SUAVE eine Verbindung aus Blockchain und Off-Chain-Auktion: eine spezialisierte Kette zur Koordination, gepaart mit sicherer Off-Chain-Berechnung unter Executoren, alles verankert durch kryptografische Garantien für Fairness und Privatsphäre.

  • Entwicklungs-Roadmap & Meilensteine: Flashbots skizzierte die Roadmap von SUAVE in drei großen Meilensteinen, benannt nach Sternensystemen: Centauri, Andromeda und Helios. Centauri (die erste Phase, in Entwicklung im Jahr 2023) konzentriert sich auf den Aufbau einer zentralisierten, aber datenschutzwahrenden Orderflow-Auktion. In dieser Phase betreibt Flashbots den Auktionsdienst (wahrscheinlich in SGX), der es Searchern ermöglicht, darauf zu bieten, Benutzertransaktionen zu backrunnen und MEV privat an die Benutzer zurückzugeben. Dazu gehört auch der Start eines SUAVE-Devnets für erste Tests. Tatsächlich hat Flashbots im August 2023 einen frühen SUAVE-Client (suave-geth) als Open Source veröffentlicht und Toliman, das erste öffentliche SUAVE-Testnet, gestartet. Dieses Testnet wurde verwendet, um mit der Äußerung von Präferenzen und grundlegender Auktionslogik zu experimentieren. Andromeda (die nächste Phase) wird das erste SUAVE-Mainnet einführen. Hier werden Benutzer in der Lage sein, Präferenzen in einem Live-Netzwerk zu äußern, und der Execution Market wird in Betrieb gehen (Executoren erfüllen Intents). Andromeda führt auch SGX-basierte Auktionen und Block-Erstellung in einer verteilteren Form ein – wodurch die Notwendigkeit entfällt, Flashbots als Betreiber zu vertrauen, und das System für Searcher und Builder wirklich erlaubnisfrei wird. Ein Ergebnis in dieser Phase ist die Nutzung von SGX zur Verschlüsselung des Orderflows in einer Weise, dass selbst Block-Builder noch nicht hineinsehen können, aber dennoch Blöcke bauen können (d. h. „offener, aber privater“ Orderflow). Helios ist die ehrgeizige dritte Phase, in der SUAVE eine vollständige Dezentralisierung und Cross-Chain-Funktionalität erreicht. In Helios produziert ein dezentrales Netzwerk von Buildern in SGX kollaborativ Blöcke (keine Dominanz eines einzelnen Builders). Außerdem wird SUAVE eine „zweite Domäne“ über Ethereum hinaus einbinden – was bedeutet, dass es MEV für mindestens zwei Ketten handhabt und Cross-Chain-MEV-Auktionen demonstriert. Zusätzlich wird die Äußerung und Ausführung von Cross-Domain MEV ermöglicht (Benutzer können wirklich multikettige Intents posten und diese atomar ausführen lassen). Über Helios hinaus plant Flashbots, maßgeschneiderte Hardware und fortgeschrittene Kryptografie (wie ZK-Proofs oder MPC) zu erforschen, um die Vertrauensgarantien weiter zu stärken. Bisherige wichtige Updates und Meilensteine: November 2022 – SUAVE angekündigt; August 2023 – erste SUAVE-Code-Veröffentlichung und Testnet (Toliman); laufend 2024 – Centauri-Phase der Orderflow-Auktion in Betrieb (Flashbots hat angedeutet, dass dies mit Benutzertransaktionen in einer geschlossenen Umgebung getestet wird). Ein bemerkenswerter Meilenstein wird der Start des SUAVE-Mainnets (Andromeda) sein, der ab Mitte 2025 am Horizont steht. Flashbots hat sich verpflichtet, SUAVE offen zu entwickeln und zur Zusammenarbeit aus dem gesamten Ökosystem einzuladen. Dies spiegelt sich in der Forschung und den Forumsdiskussionen wider, wie etwa den Posts der „Stargazing“-Serie, die über die Entwicklung des Designs von SUAVE informieren. Das Endziel für SUAVE ist es, eine im Gemeinschaftsbesitz befindliche Infrastruktur zu werden – die „dezentrale Sequenzierungsschicht“ für den gesamten Kryptosektor. Dies zu erreichen, markiert einen wichtigen Meilenstein im Kampf um eine faire Sortierung: Wenn SUAVE erfolgreich ist, wäre MEV kein dunkler Wald mehr, sondern eine transparente, geteilte Wertquelle, und keine einzelne Kette müsste die zentralisierenden Effekte von MEV allein ertragen.

Anoma ( Intent-zentrierte Architektur für faire Gegenpartei-Suche )

Anoma ist ein radikal anderer Ansatz zur Ermöglichung von fairem Ordering und der MEV-Abschwächung – es handelt sich um eine vollständige Architektur für intent-basierte Blockchain-Infrastruktur. Anstatt eine Auktion an bestehende Chains anzudocken, überdenkt Anoma das Transaktionsparadigma von Grund auf. In Anoma senden Benutzer keine konkreten Transaktionen; sie senden Intents ( Absichten ) – Erklärungen darüber, welchen Endzustand sie wünschen – und das Netzwerk selbst entdeckt Gegenparteien und bildet Transaktionen, die diese Intents erfüllen. Durch die Integration von Gegenpartei-Suche ( Counterparty Discovery ), fairem Ordering und Datenschutz auf Protokollebene zielt Anoma darauf ab, bestimmte Formen von MEV ( wie Frontrunning ) praktisch zu eliminieren und einen „frontrunning-freien“ dezentralen Austausch und Settlement zu ermöglichen. Anoma ist eher ein Framework als eine einzelne Chain: Jede Blockchain kann eine „fraktale Instanz“ von Anoma sein, indem sie deren Intent-Gossip- und Matching-Architektur übernimmt. Für diese Diskussion konzentrieren wir uns auf die erste Implementierung von Anoma ( manchmal Anoma L1 genannt ) und deren Kernprotokoll-Features im Zusammenhang mit Fairness und MEV.

  • Warteschlangen und Transaktionsreihenfolge: Anoma verwirft den herkömmlichen Mempool von Transaktionen; stattdessen verfügt es über ein Gossip-Netzwerk von Intents. Benutzer senden einen Intent, z. B. „Ich möchte 100 DAI gegen mindestens 1 ETH tauschen“ oder „Ich möchte einen Kredit gegen Sicherheiten zum besten Zinssatz aufnehmen“. Diese Intents sind Teilaufträge – sie spezifizieren keine exakten Ausführungspfade, sondern nur das gewünschte Ergebnis und die Bedingungen. Alle Intents werden im gesamten Netzwerk verbreitet und gesammelt. Das Ordering in Anoma funktioniert nun in zwei Phasen: ( 1 ) Gegenpartei-Suche/Matching und ( 2 ) Transaktionsausführung mit fairem Ordering. In Phase 1 überwachen spezialisierte Knoten, sogenannte Solver, kontinuierlich den Pool der Intents und versuchen, Sets von Intents zu finden, die sich gegenseitig ergänzen, um eine gültige Transaktion zu bilden. Wenn Alice beispielsweise beabsichtigt, DAI gegen ETH zu tauschen, und Bob beabsichtigt, ETH gegen DAI zu tauschen, kann ein Solver sie zusammenführen. Wenn mehrere Intents kompatibel sind ( wie ein Orderbuch mit Geboten und Nachfragen ), können Solver einen optimalen Matching- oder Clearing-Preis finden. Wichtig ist, dass dies Off-Chain im Solver-Netzwerk geschieht – effektiv ein algorithmisches Matchmaking. Sobald ein Solver ( oder eine Gruppe von Solvern ) eine vollständige Transaktion ( oder ein Set von Transaktionen ) konstruiert hat, die einige Intents erfüllt, wird diese zur Ausführung an die Chain übermittelt. Hier kommt Phase 2 ins Spiel: Der Konsens von Anoma wird diese vom Solver übermittelten Transaktionen dann in Blöcke ordnen. Der Konsens von Anoma ist jedoch darauf ausgelegt, ordnungsfair zu sein: Er verwendet kryptografische Techniken ( Schwellenwert-Verschlüsselung / Threshold Encryption ), um sicherzustellen, dass Transaktionen geordnet werden, ohne durch ihren Inhalt oder den genauen Zeitpunkt der Übermittlung beeinflusst zu werden. Konkret plant Anoma den Einsatz von Ferveo, einem Schwellenwert-Verschlüsselungsschema, auf Mempool-Ebene. Dies funktioniert so: Solver verschlüsseln die Transaktionen, die sie vorschlagen möchten, mit einem kollektiven öffentlichen Schlüssel der Validatoren. Validatoren nehmen diese verschlüsselten Transaktionen in Blöcke auf, ohne deren Details zu kennen. Erst nachdem eine Transaktion in einem Block finalisiert wurde, entschlüsseln die Validatoren sie kollektiv ( indem jeder einen Anteil des Entschlüsselungsschlüssels beiträgt ). Dies stellt sicher, dass kein Validator selektiv Frontrunning betreiben oder die Reihenfolge basierend auf dem Inhalt einer Transaktion ändern kann – sie verpflichten sich blind zu einer Reihenfolge. Der Konsensalgorithmus ordnet Transaktionen ( eigentlich Intents ) effektiv in einer Art First-Seen- oder Batch-Verfahren an, da alle Transaktionen in einem bestimmten „Batch“ ( Block ) gleichzeitig verschlüsselt und offengelegt werden. In der Praxis kann Anoma Batch-Auktionen für bestimmte Anwendungen implementieren: Z. B. kann ein Handels-Intent über N Blöcke gesammelt ( verschlüsselt gehalten ), dann nach N Blöcken zusammen entschlüsselt und von Solvern in einem Batch gematcht werden. Dies verhindert, dass schnelle Akteure die Orders anderer sehen und innerhalb dieses Batches reagieren – ein enormer Vorteil für die Fairness ( diese Technik ist von Frequent Batch Auctions inspiriert und wurde vorgeschlagen, um Vorteile im Hochfrequenzhandel zu eliminieren ). Zusätzlich können die Gültigkeitsprädikate ( Validity Predicates ) von Anoma ( Smart Contracts auf Anwendungsebene ) Fairness-Beschränkungen für das Ergebnis des Orderings durchsetzen. Beispielsweise könnte eine Anoma-DEX-Anwendung die Regel haben: „Alle Trades in einem Batch erhalten denselben Clearing-Preis, und Solver können keine zusätzlichen Transaktionen einfügen, um Benutzer auszunutzen“. Da diese Regeln Teil der Statusgültigkeit sind, wäre jeder Block, der ein unfaires Matching enthält ( wenn z. B. ein Solver versucht hat, einen Eigenhandel zu einem besseren Preis einzuschmuggeln ), ungültig und würde von den Validatoren abgelehnt. Zusammenfassend lässt sich sagen, dass das Ordering in Anoma nach dem Prinzip Matchen, dann Verschlüsseln + Ordnen erfolgt: Intents werden konzeptionell in die Warteschlange gestellt, bis ein Solver eine Transaktion bildet, und diese Transaktion wird dann durch einen Fair-Order-Konsens geordnet ( was typisches MEV verhindert ). Es gibt praktisch kein Rennen im Mempool, da die Intents der Benutzer nicht direkt über den Gas-Preis oder die Zeitpriorität konkurrieren. Stattdessen besteht der Wettbewerb darin, dass Solver Matches finden, und diese Matches werden dann so ausgeführt, dass niemand die Reihenfolge ändern oder sie während der Übertragung abfangen kann. Diese Architektur verspricht, viele MEV-Vektoren zu neutralisieren – es gibt kein Konzept für das Frontrunning eines Intents, da Intents erst dann umsetzbar sind, wenn der Solver sie zusammenstellt, und zu diesem Zeitpunkt sind sie bereits im Block verschlüsselt. Es ist ein grundlegend anderes Warteschlangenmodell, das darauf abzielt, zeitbasierte Prioritäts-Exploits zu eliminieren.

  • MEV-Unterdrückungs-/Extraktionsmechanismen: Anoma ist darauf ausgelegt, „schlechtes MEV“ konstruktionsbedingt zu minimieren. Da Trades über Batch-Solving und Schwellenwert-Verschlüsselung aufgelöst werden, sind typische MEV-Angriffe wie Sandwiching unmöglich – niemand sieht einen Intent und kann vor ihm einen eigenen einfügen, da Intents keine Transaktionen sind, die in einem transparenten Mempool leben. Solver geben finale gematchte Transaktionen erst aus, nachdem die Gelegenheit zur Einfügung ( aufgrund von Verschlüsselung und Batching ) verstrichen ist. In einer Anoma-basierten DEX würden Benutzer nicht im traditionellen Sinne front- oder backrunned, da alle Trades in einem Batch zusammen zu einem einheitlichen Preis ausgeführt werden ( was verhindert, dass ein Angreifer Preisänderungen zwischen ihnen ausnutzt ). Dies unterdrückt im Wesentlichen räuberisches MEV wie DEX-Arbitrage oder Sandwiching; der Wert, der von einem Bot abgeschöpft worden wäre, bleibt stattdessen bei den Benutzern ( sie erhalten einen fairen Preis ). Auch der Ansatz von Anoma zur Arbitrage ist bemerkenswert: In vielen Fällen, wenn mehrere Intents eine Arbitrage-Gelegenheit schaffen, wird der Solver, der sie matcht, diesen Gewinn in das Matching einbeziehen ( z. B. unterschiedliche Preise matchen und einen Gewinn ausgleichen ). Da jedoch mehrere Solver konkurrieren können, um das beste Matching anzubieten, kann der Wettbewerb die Solver dazu zwingen, den Großteil dieses Vorteils in Form von besseren Ausführungsbedingungen an die Benutzer zurückzugeben. Wenn beispielsweise ein Benutzer zum Preis A verkaufen möchte und ein anderer zum Preis B kaufen möchte ( B > A impliziert eine Lücke ), könnte ein Solver beide zu einem mittleren Preis bedienen und die Differenz als Gewinn einbehalten – aber wenn ein anderer Solver den Benutzern einen noch engeren Preis anbietet ( und weniger Gewinn übrig lässt ), wird er den Intent gewinnen. Somit konkurrieren Solver MEV-Margen weg, um den Benutzern zugutezukommen, ähnlich wie Searcher in Flashbots über Gebühren konkurrieren. Der Unterschied besteht darin, dass dies algorithmisch über Intent-Matching geschieht und nicht über Gas-Bidding. Es kann in Anoma immer noch „extrahiertes MEV“ geben, aber dieses beschränkt sich wahrscheinlich darauf, dass Solver bescheidene Gebühren für ihren Service verdienen. Insbesondere erwartet Anoma, dass der Großteil des Orderflows durch das Protokoll oder die Anwendungslogik internalisiert wird. In einigen Fällen bedeutet dies, dass das, was eine MEV-Gelegenheit wäre, zu einer normalen Protokollgebühr wird. Beispielsweise implementiert Anomas erste fraktale Instanz ( Namada ) einen On-Chain Bonding-Curve AMM; Arbitrage auf diesem AMM wird durch den Mechanismus des AMM ( wie einen integrierten Rebalancer ) erfasst und nicht durch externe Arbitrageure. Ein weiteres Beispiel: Ein Lending-Intent mit hohen Zinsen könnte mit einem Borrowing-Intent gematcht werden; es ist kein dritter Liquidator erforderlich, wenn die Sicherheiten fallen, da die Intents selbst das Rebalancing übernehmen könnten oder das Protokoll automatisch zu einem fairen Preis liquidieren könnte. Durch das Ausschalten von Drittanbieter-Extraktoren reduziert Anoma die Verbreitung von Off-Chain-MEV-Extraktion. Darüber hinaus betont Anoma den Datenschutz ( durch das Taiga-Subsystem aus ZK-Schaltkreisen ). Benutzer können wählen, ob sie ihre Intents teilweise oder vollständig abschirmen ( shielded ) möchten ( z. B. Beträge oder Asset-Typen verbergen ). Dies unterdrückt MEV weiter: Wenn die Details einer großen Order verborgen sind, kann niemand sie für die Wertextraktion ins Visier nehmen. Erst nach dem Matching und der Ausführung könnten Details ans Licht kommen, aber zu diesem Zeitpunkt ist es zu spät für eine Ausnutzung. Zusammenfassend lässt sich sagen, dass es beim Mechanismus von Anoma weitgehend darum geht, MEV zu verhindern, anstatt es zu extrahieren: Durch das Batching von Transaktionen, die Verschlüsselung des Mempools und die Verankerung ökonomischer Ausrichtung im Matching versucht es sicherzustellen, dass es kaum Gelegenheiten für bösartige Arbitrage oder Frontrunning gibt. Das notwendige MEV ( wie Arbitrage zum Preisabgleich zwischen Märkten ) wird von Solvern oder der Protokolllogik auf eine vertrauensminimierte Weise gehandhabt. Man könnte sagen, Anoma strebt eine „MEV-Minimierung“ an und bemüht sich um Ergebnisse, als hätte jeder Benutzer sofortigen Zugang zur perfekten Gegenpartei ohne Informationsverlust. Jeder Wert, der bei der Ermöglichung dessen extrahiert wird ( die Belohnung des Solvers ), ist vergleichbar mit einer kleinen Servicegebühr und kein Zufallsgewinn aus der Ausnutzung von Asymmetrie.

  • Ökonomische Anreizstruktur: In Anoma übernehmen Solver eine Rolle, die analog zu Matchmakern und Block-Buildern ist. Ihnen entstehen Kosten ( Rechenaufwand, eventuell das Hinterlegen von Sicherheiten ), um Intent-Matches zu finden, und sie werden belohnt, wenn sie erfolgreich Transaktionen vorschlagen, die aufgenommen werden. Solver können auf verschiedene Weise verdienen: Sie könnten eine Gebühr oder einen Spread innerhalb der von ihnen konstruierten Transaktion erheben ( indem sie den Benutzern beispielsweise etwas weniger günstige Bedingungen gewähren und die Differenz einbehalten, ähnlich wie ein DEX-Aggregator einen kleinen Anteil nehmen könnte ). Oder bestimmte Intents könnten explizit eine Belohnung für den Solver enthalten ( wie „Ich bin bereit, bis zu 0,01 ETH zu zahlen, um dies zu erledigen“ ). Das genaue Vergütungsmodell ist flexibel, aber der Schlüssel ist, dass Solver konkurrieren. Wenn ein Solver versucht, eine zu hohe Gebühr zu verlangen, kann ein anderer eine Lösung mit einem besseren Ergebnis für den Benutzer vorschlagen und die Aufnahme gewinnen. Diese Wettbewerbsdynamik soll die Solver-Gewinne in Schach halten und auf die Wertschöpfung ausrichten. Validatoren ( Block-Produzenten ): Anoma-Validatoren betreiben den Konsens, der Transaktionen ordnet und ausführt. Sie werden durch Blockbelohnungen und Gebühren incentiviert, wie in jeder Blockchain. Wenn Intents über mehrere Benutzer hinweg gematcht werden, könnte die resultierende Transaktion insbesondere mehrere Gebührenquellen haben ( jeder Benutzer könnte eine Gebühr oder einen Teil der Assets beisteuern ). Es ist möglich, dass das Gebührenmodell von Anoma ein Fee-Splitting erlaubt, aber normalerweise erhalten Validatoren die Standard-Gas-Gebühren für die Verarbeitung von Transaktionen. In zukünftigen Phasen plant Anoma einen „On-Demand-Konsens“ und einen nativen Token. Die Idee ist, dass viele Anoma-Instanzen ( oder Shards ) existieren könnten und einige temporär für spezifische Aufgaben hochfahren könnten ( „Ad-hoc-Konsens“ für besondere Anwendungsanforderungen ). Der Token würde wahrscheinlich verwendet werden, um diese Instanzen zu staken und abzusichern. Anreize stellen hier sicher, dass das Netzwerk über genügend Validatoren verfügt, um alle gematchten Transaktionen zuverlässig zu verarbeiten, und dass sie sich im Schwellenwert-Entschlüsselungsprozess ehrlich verhalten ( möglicherweise Slashing-Bedingungen, wenn sie versuchen, vorzeitig zu entschlüsseln oder zu zensieren ). Benutzer: Benutzer in Anoma sparen potenziell Geld und erzielen bessere Ergebnisse, anstatt implizit MEV zu zahlen. Beispielsweise könnten sie konsistent bessere Handelspreise als auf einer herkömmlichen Chain erhalten, was bedeutet, dass der Wert bei ihnen bleibt. In einigen Fällen könnten Benutzer auch explizite Gebühren zahlen, um Solver zu incentivieren, insbesondere bei komplexen Intents oder wenn sie ein schnelleres Matching wünschen. Da Benutzer jedoch Intents ausdrücken können, ohne spezifizieren zu müssen, wie diese umzusetzen sind, verlagern sie die Schwerarbeit auf die Solver und zahlen nur, wenn es sich lohnt. Es gibt auch die Vorstellung, dass „Intent-Besitzer ihre eigenen Sicherheits-/Performance-Trade-offs definieren können“ – z. B. könnte ein Benutzer sagen: „Ich warte länger auf einen besseren Preis“ oder „Ich zahle mehr für eine sofortige Ausführung“. Diese Flexibilität lässt die Benutzer selbst entscheiden, wie viel sie Solvern oder Validatoren anbieten möchten, wodurch die ökonomischen Anreize auf ihre Bedürfnisse abgestimmt werden. MEV-Umverteilung: Falls MEV auftritt ( wie Cross-Chain-ARB oder ähnliches ), könnte die Anoma-Architektur es ermöglichen, dieses in das System zu leiten. Beispielsweise könnten mehrere Anoma-Shards oder -Instanzen koordinieren, um ein atomares Multi-Chain-ARB abzuwickeln, und der Gewinn könnte geteilt oder verbrannt werden ( je nach Design ), anstatt ihn einem externen Arbitrageur zu überlassen. Da Anoma den Anwendungen die Kontrolle über den Transaktionsfluss gibt, ist es generell möglich, Strategien für protokolleigenes MEV ( ähnlich der Philosophie von Skip ) auf Anwendungsebene zu implementieren. Beispielsweise könnte eine DeFi-App auf Anoma alle Benutzer-Trades automatisch über einen protokollinternen Solver leiten, der die beste Ausführung garantiert und jeglichen zusätzlichen Gewinn mit den Benutzern oder Liquiditätsanbietern teilt. Der Nettoeffekt ist, dass Drittanbieter-MEV-Extraktoren ausgeschaltet werden. Ökonomisch gesehen ist dies ein Positivsummenspiel für ehrliche Teilnehmer ( Benutzer, LPs usw. ), könnte aber die Möglichkeiten für klassische Searcher verringern. Es werden jedoch neue Rollen wie spezialisierte Solver entstehen ( vielleicht konzentriert sich einer auf NFT-Matching, ein anderer auf FX-Swaps usw. ). Diese Solver sind analog zu den heutigen MEV-Searchern, agieren aber innerhalb der Systemregeln und haben aufgrund von Wettbewerb und Protokollbeschränkungen wahrscheinlich weniger extreme Gewinnmargen. Schließlich deutet die Vision der Anoma Foundation darauf hin, dass Anoma eine Public-Good-Infrastruktur ( Gemeingut ) ist. Es wird einen nativen Token geben, vermutlich ANOMA, der möglicherweise Wert über Gebühren generiert oder für das Staking erforderlich ist. Man kann Token-Anreize ( inflationäre Belohnungen usw. ) für Validatoren und vielleicht sogar für Solver vorhersehen, um die Aktivität anzukurbeln. Zum Zeitpunkt der Erstellung dieses Textes sind die Details zur Token-Ökonomie noch nicht final, aber die Roadmap bestätigt, dass ein Anoma-Token und nativer On-Demand-Konsens in zukünftigen Phasen geplant sind. Zusammenfassend lässt sich sagen, dass das Anreizmodell von Anoma kooperatives Verhalten fördert: Solver verdienen, indem sie Benutzern helfen, das zu bekommen, was sie wollen, nicht indem sie sie ausbeuten; Validatoren verdienen, indem sie das Netzwerk sichern und fair ordnen; und Benutzer „zahlen“ hauptsächlich, indem sie etwas MEV an Solver oder Gebühren abgeben, aber idealerweise viel weniger als das implizite MEV, das sie in anderen Systemen verlieren würden.

  • Compliance und Neutralität: Anoma kann als Framework, nicht als einzelnes Netzwerk, auf verschiedene Weise instanziiert werden – einige könnten zugangsbeschränkt ( permissioned ) sein, aber das Flaggschiff Anoma L1 und ähnliche Instanzen sollen permissionless ( erlaubnisfrei ) und datenschutzorientiert sein. Durch die Einbeziehung starker Datenschutzfunktionen ( wie shielded Intents unter Verwendung von Zero-Knowledge-Proofs in Taiga ) steht Anoma im Einklang mit der Ansicht, dass finanzielle Privatsphäre ein Recht ist. Dies könnte im Widerspruch zu bestimmten Regulierungsregimen stehen, die eine offene Sichtbarkeit von Transaktionen fordern. Das Design von Anoma könnte jedoch auch bestimmte regulatorische Fallstricke vermeiden. Wenn beispielsweise Frontrunning und unfaire Order-Auswahl eliminiert werden, werden Bedenken hinsichtlich Marktmanipulation gemildert – ein Regulator könnte es begrüßen, dass Benutzer nicht systematisch von Insidern ausgenutzt werden. Darüber hinaus impliziert das Konzept der „benutzerdefinierten Sicherheitsmodelle“, dass Benutzer oder Communities sich für verschiedene Vertrauensannahmen entscheiden könnten. Potenziell könnte eine regulierte Anwendung auf Anoma aufgebaut werden, bei der beispielsweise der Solver oder eine Teilmenge der Validatoren KYC-geprüfte Einheiten sind, die die Compliance für diesen speziellen Intent-Bereich sicherstellen. Anoma als Basisschicht würde KYC nicht für jeden erzwingen, aber man könnte Gültigkeitsprädikate implementieren, die ( zum Beispiel ) einen Nachweis der Berechtigung für bestimmte Transaktionen erfordern ( wie den Nachweis, dass es sich nicht um eine sanktionierte Adresse handelt, oder eine Prüfung von Anmeldedaten ), falls eine Anwendung dies benötigt. Die Architektur ist flexibel genug, um Compliance auf der Anwendungsebene zu unterstützen, ohne die Neutralität der Basisschicht zu gefährden. In Bezug auf Zensur: Anomas Schwellenwert-Verschlüsselung bedeutet, dass Validatoren, selbst wenn sie zensieren wollten, keine spezifischen Intents ins Visier nehmen können, da sie diese nicht im Klartext sehen. Das Einzige, was sie tun könnten, ist, sich zu weigern, verschlüsselte Transaktionen von bestimmten Solvern oder Benutzern aufzunehmen, aber das wäre offensichtlich ( und würde gegen die Protokollregeln verstoßen, wenn es willkürlich geschieht ). Es wird erwartet, dass Konsensregeln Zensur entmutigen – zum Beispiel könnte ein Block als ungültig oder weniger bevorzugt gelten, wenn er nicht alle verfügbaren entschlüsselten Intents aus dem letzten Batch enthält. In jedem Fall gewährleisten die Dezentralisierung der Validatoren und die verschlüsselte Natur der Payloads zusammen ein hohes Maß an Zensurresistenz. Zur Neutralität: Anoma strebt danach, eine allgemeine Plattform zu sein, die nicht von einer einzelnen Entität kontrolliert wird. Die Forschung und Entwicklung wird von Heliax ( dem Team hinter Anoma und Namada ) angeführt, aber sobald ein Anoma-Netzwerk live ist, würde es von der Community betrieben. Es wird wahrscheinlich eine On-Chain-Governance für Upgrades usw. geben, was Compliance-Fragen aufwerfen könnte ( z. B. könnte eine Regierung die Governance unterwandern, um Regeln zu ändern? ), aber das ist ein allgemeines Blockchain-Problem. Ein interessantes Compliance-bezogenes Merkmal ist, dass Anoma mehrere parallele Instanzen unterstützt – was bedeutet, dass man einen isolierten Intent-Pool oder Shard für bestimmte Asset-Typen oder Gerichtsbarkeiten haben könnte. Dies dient nicht explizit der Regulierung, könnte aber beispielsweise einen CBDC-Intent-Pool ermöglichen, in dem nur autorisierte Banken Solver betreiben, der koexistent mit einem freien DeFi-Pool ist. Die Modularität der Architektur bietet Flexibilität zur Trennung bei Bedarf, während gleichzeitig Interoperabilität über Intent-Bridging ermöglicht wird. Schließlich könnte das gesamte Konzept der Intents in Bezug auf die rechtliche Kompatibilität einige Klassifizierungen vermeiden, die das traditionelle Krypto-Umfeld plagen: Da ein Intent keine verbindliche Transaktion ist, bis er gematcht wurde, könnte man argumentieren, dass Benutzer mehr Kontrolle behalten ( es ist vergleichbar mit dem Einstellen einer Order an einer Börse, was eine klarere rechtliche Präzedenz hat, im Gegensatz zur direkten Ausführung eines Trades ). Dies könnte bei Dingen wie der steuerlichen Behandlung helfen ( das System könnte potenziell einen einheitlichen Beleg für einen mehrstufigen Handel ausstellen statt vieler einzelner Transaktionen ) – wenngleich dies spekulativ ist. Insgesamt priorisiert Anoma Dezentralisierung, Datenschutz und Benutzerautonomie, was historisch gesehen mit regulatorischen Erwartungen kollidieren kann, aber die Gewinne an Fairness und Transparenz könnten Zuspruch finden. Es bringt im Wesentlichen die Raffinesse traditioneller Finanz-Matching-Engines auf die Chain, jedoch ohne zentrale Betreiber. Wenn Regulatoren dieses Modell verstehen lernen, könnten sie es als eine geordnetere und fairere Marktstruktur ansehen als das „Jeder-gegen-Jeden“ der Mempools.

  • Technische Architektur ( Konsens & Kryptografie ): Die Architektur von Anoma ist komplex und umfasst mehrere Komponenten: Typhon ( Netzwerk, Mempool, Konsens, Ausführung ) und Taiga ( die Zero-Knowledge-Datenschutzschicht ). Der Kern von Typhon ist der Intent-Gossip-Layer und ein neuartiger Ansatz für kombinierten Konsens + Matching. Das Konsensprotokoll von Anoma erweitert den typischen BFT-Konsens um das Konzept der „Validity Predicates“ ( Gültigkeitsprädikate ) und des „Proof-of-Order-Matching“. Im Wesentlichen kann jede Anwendung in Anoma ein Gültigkeitsprädikat definieren, das für Transaktionen erfüllt sein muss ( man kann es sich wie Smart-Contract-Bedingungen vorstellen, die auf Blockebene gelten, nicht nur auf Transaktionsebene ). Dies ermöglicht die Durchsetzung von Eigenschaften wie Clearing-Preisen für Batch-Auktionen usw., wie beschrieben. Der Konsensalgorithmus selbst baut wahrscheinlich auf BFT im Tendermint- oder HotStuff-Stil auf ( da Anoma im Cosmos-Umfeld angesiedelt ist und IBC unterstützt ). Tatsächlich verwenden das erste Testnet von Anoma ( Feigenbaum im Jahr 2021 ) und Namada einen Konsens im Tendermint-Stil mit Modifikationen. Eine wesentliche Modifikation ist die Integration der Schwellenwert-Verschlüsselung ( Ferveo ) in die Mempool-Pipeline. Normalerweise wählt Tendermint einen Proposer aus, der Transaktionen ordnet. In Anoma würde der Proposer verschlüsselte Intents/Transaktionen ordnen. Ferveo funktioniert wahrscheinlich so, dass sich Validatoren periodisch auf einen gemeinsamen öffentlichen Schwellenwert-Schlüssel einigen und jeder von Solvern übermittelte Intent mit diesem Schlüssel verschlüsselt wird. Während des Blockvorschlags werden alle verschlüsselten Transaktionen aufgenommen; nach dem Vorschlag führen die Validatoren ein Protokoll aus, um sie zu entschlüsseln ( vielleicht enthält der nächste Block die entschlüsselten Ergebnisse oder ein ähnliches Schema ). Dies fügt dem Konsens eine Phase hinzu, gewährleistet aber die Fairness der Reihenfolge. Kryptografisch nutzt dies verteilte Schlüsselerzeugung und Schwellenwert-Entschlüsselung ( es beruht also auf Annahmen wie der, dass mindestens 2/3 der Validatoren ehrlich sind, um Daten nicht preiszugeben oder vorzeitig zu entschlüsseln ). Auf der Datenschutzseite bietet Taiga zkSNARK- oder zk-STARK-Proofs, die es ermöglichen, dass Intents teilweise oder vollständig abgeschirmt bleiben. Beispielsweise könnte ein Benutzer einen Intent zum Tausch übermitteln, ohne den Asset-Typ oder den Betrag preiszugeben; er liefert einen ZK-Proof, dass er über ausreichendes Guthaben verfügt und dass die Transaktion gültig ist, wenn sie gematcht wird, ohne Details zu verraten. Dies ist analog dazu, wie abgeschirmte Transaktionen in Zcash funktionieren, jedoch erweitert auf Intents. Die Verwendung von rekursiven Proofs wird erwähnt, was bedeutet, dass mehrere Schritte einer Transaktion ( oder mehrere Intents ) in einem einzigen prägnanten Proof effizient bewiesen werden können. Das Zusammenspiel von Taiga und Typhon bedeutet, dass einige Solver und Validatoren möglicherweise mit Geheimtexten oder Commitments anstelle von Klartextwerten arbeiten. Beispielsweise könnte ein Solver Intents matchen, die auf vertrauliche Weise ausgedrückt werden, indem er eine Gleichung von Commitments löst. Dies ist modernste Kryptografie und geht über das hinaus, was die meisten aktuellen Blockchains leisten. Ein weiteres wichtiges Element ist die IBC-Integration: Anoma-Instanzen können mit anderen Chains ( insbesondere Cosmos-Chains ) über das Inter-Blockchain Communication Protocol kommunizieren. Dies bedeutet, dass ein Intent auf Anoma potenziell eine Aktion auf einer anderen Chain auslösen ( über eine IBC-Nachricht ) oder Daten aus dem Status einer anderen Chain konsumieren könnte. Die Mainnet Phase 1 in der Roadmap von Anoma erwähnt explizit einen „Adapter“ auf Ethereum und Rollups, um Anoma-Intents den Zugriff auf EVM-Liquidität zu ermöglichen. Wahrscheinlich könnte ein Anoma-Solver eine Transaktion zusammenstellen, die beispielsweise Uniswap auf Ethereum nutzt, indem er einen Intent entwirft, der bei einem Matching eine Nachricht an Ethereum sendet, um einen Swap auszuführen ( vielleicht über einen Relayer oder über etwas wie eine IBC-Bridge ). Der Konsens muss die Atomarität gewährleisten: Vermutlich könnte das Ergebnis von Anoma eine einzelne Transaktion sein, die sich über mehrere Chains erstreckt ( etwa das Initiieren einer Transaktion auf Chain A und das Erwarten eines Ergebnisses auf Chain B ). Das Erreichen eines atomaren Cross-Chain-Settlements ist schwierig; möglicherweise wird Anoma damit beginnen, jeweils auf einer Chain abzurechnen ( Phase 1 konzentriert sich auf das Ethereum-Ökosystem, was wahrscheinlich bedeutet, dass Anoma-Intents in einem Rutsch auf Ethereum L1 oder L2s abgerechnet werden ). Später könnten „Chimera-Chains“ und On-Demand-Konsens es ermöglichen, dass benutzerdefinierte Sidechains hochfahren, um bestimmte Cross-Chain-Matches zu handhaben. In Bezug auf die Performance könnte der Ansatz von Anoma rechenintensiver sein ( Solver lösen NP-schwere Matching-Probleme, Validatoren betreiben komplexe Kryptografie ). Aber der Trade-off ist eine erheblich verbesserte Benutzererfahrung ( keine fehlgeschlagenen Transaktionen, bessere Preise usw. ). Die Entwicklung von Anoma erfordert den Aufbau dieser neuartigen Komponenten fast von Null an: Heliax hat Juvix entwickelt, eine neue Sprache zum Schreiben von Gültigkeitsprädikaten und Intents, und viel Forschung betrieben ( einige Referenzen auf der Anoma-Website erläutern diese Konzepte im Detail ). Wichtige Meilensteine: Anomas erstes öffentliches Testnet Feigenbaum startete im November 2021 als Demo für grundlegenden Intent-Gossip. Anschließend verlagerte Heliax den Fokus auf den Start von Namada ( eine datenschutzorientierte L1, die als eine Instanz von Anoma mit Fokus auf Asset-Transfers gesehen werden kann ) – Namada ging 2023 live und enthält Features wie abgeschirmte Transfers und Ferveo-Schwellenwert-Verschlüsselung für seinen Mempool. Dies zeigt die Technologie in Aktion bei einem enger gefassten Anwendungsfall. Unterdessen wurden Testnets für die vollständige Anoma-Vision in Etappen ausgerollt ( in der Community wurde auch ein „Sommer 2023 Testnet“ erwähnt ). Die Roadmap sieht vor, dass Phase 1 des Mainnets Ethereum integriert, Phase 2 weitere Chains und fortgeschrittene Kryptografie hinzufügt und schließlich nativer Konsens und Token eingeführt werden. Die Trennung von „Konsens und Token in zukünftiger Phase“ deutet darauf hin, dass das erste Anoma-Mainnet auf Ethereum angewiesen sein könnte ( z. B. durch Nutzung der Ethereum-Sicherheit oder bestehender Token, anstatt vom ersten Tag an eigene zu haben ). Möglicherweise starten sie eine L2 oder Sidechain, die auf Ethereum postet, und fahren später ihr eigenes PoS-Netzwerk mit einem Token hoch. Dieser phasenweise Ansatz ist interessant – er könnte dazu dienen, die Hürde für die Einführung zu senken ( vorhandenes Kapital auf Ethereum nutzen, anstatt initial eine neue Coin zu starten ). Zusammenfassend lässt sich sagen, dass die Architektur von Anoma neuartig und umfassend ist: Sie verbindet kryptografische Fairness ( Schwellenwert-Verschlüsselung, ZK-Proofs ) mit einem neuen Transaktionsparadigma ( intent-basiertes Matching ) und Cross-Chain-Fähigkeiten. Es ist wohl der aggressivste Versuch, traditionelles MEV auf Protokollebene auszumerzen, indem es etwas tut, was keine Legacy-Chain tut: integrierte faire Matching-Engines. Die Komplexität ist hoch, aber bei Erfolg könnte eine Anoma-Chain den Benutzern nahezu CEX-ähnliche Ausführungsgarantien in einer dezentralen Umgebung bieten, was der heilige Gral für Blockchain-UX und Fairness ist.

Skip Protocol ( Souveräne MEV - Kontrolle für Cosmos und Toolkit für faires Ordering )

Skip Protocol ist eine führende MEV - Lösung im Cosmos - Ökosystem , die darauf ausgerichtet ist , jeder Blockchain ( „ App - Chain “ ) die Werkzeuge an die Hand zu geben , um die Transaktionsreihenfolge und die MEV - Erfassung zu ihren eigenen Bedingungen zu verwalten . Im Gegensatz zu Flashbots oder Anoma , die netzwerkübergreifende Systeme vorschlagen , orientiert sich Skip an der Cosmos - Philosophie der Souveränität : Jede Chain kann die Module von Skip integrieren , um benutzerdefinierte Regeln für faires Ordering durchzusetzen , protokollinterne Blockspace - Auktionen durchzuführen und MEV für die Stakeholder oder Nutzer der Chain zu erfassen . Skip kann als eine Suite von Cosmos SDK - Modulen und Infrastruktur betrachtet werden , die zusammen das Protocol - Owned Blockbuilding ( POB ) und eine flexible Transaktionssequenzierung ermöglichen . Es wurde auf Chains wie Osmosis , Juno , Terra und anderen in Cosmos implementiert und arbeitet auch mit Projekten wie der kommenden dYdX - Chain zur MEV - Minderung zusammen . Zu den Schlüsselelementen gehören ein On - Chain - Auktionsmechanismus für Prioritätstransaktionen , eine Logik für die Transaktionsreihenfolge auf Konsensebene und In - App - Mechanismen zum Recycling von MEV ( „ gutes MEV “ ) zugunsten des Protokolls .

  • Transaktions - Queuing & Ordering - Algorithmen : In einer typischen Cosmos - Chain ( unter Verwendung des Tendermint / BFT - Konsenses ) ordnet der Mempool Transaktionen grob nach Gebühr und Ankunftszeit , und der Block - Proposer kann beim Erstellen eines Blocks eine beliebige Reihenfolge wählen ( ohne algorithmische Einschränkungen über die Aufnahme gültiger Transaktionen hinaus ) . Skip ändert dies durch die Einführung von konsensbasierten Ordering - Regeln und Multi - Lane - Mempools . Unter Verwendung der neuen ABCI++ Schnittstelle von Cosmos ( die eine Anpassung des Block - Vorschlags und der -verarbeitung ermöglicht ) kann das Protocol - Owned Builder ( POB ) - Modul von Skip den Block in verschiedene Lanes mit unterschiedlichen Ordering - Richtlinien unterteilen . Zum Beispiel könnte eine Lane eine Top - of - Block - Auktions - Lane sein , in der die Transaktionen mit den höchsten Geboten ( etwa von Arbitrage - Bots oder für dringende Trades ) an erster Stelle im Block in einer festen Reihenfolge platziert werden , eine andere Lane könnte eine Free - Lane für gewöhnliche Nutzertransaktionen ohne Gebühren sein und eine Default - Lane für normale Transaktionen mit Gebühren . Die BlockBuster - Komponente des Skip - Moduls ermöglicht es Entwicklern , diese Lanes und deren Ordering - Logik modular zu definieren . Entscheidend ist , dass diese Regeln von allen Validatoren erzwungen werden : Wenn ein Proposer einen Block erstellt , verifizieren die anderen Validatoren , dass die Transaktionen des Blocks den vereinbarten Ordering - Regeln entsprechen ( über die ProcessProposal ABCI - Prüfungen ) . Wenn nicht , können sie den Block ablehnen . Das bedeutet , dass selbst ein bösartiger oder profitorientierter Proposer nicht abweichen kann ( z. B. kann er keine eigene Frontrunning - Transaktion vor einem gewinnenden Auktionsbieter einschieben , da dies gegen die Ordering - Regel verstoßen würde ) . Einige Beispiele für Ordering - Regeln , die Skip ermöglicht : ( a ) Transaktionen nach absteigendem Gas - Preis ( Gebühr ) ordnen – um sicherzustellen , dass die Transaktion mit der höchsten Gebühr immer Priorität erhält . Dies formalisiert ein faires „ Pay - for - Priority „ - Schema anstelle eines zufälligen oder zeitbasierten Schemas . ( b ) Mindestens eine Oracle - Preisaktualisierungs - Transaktion vor allen Trades aufnehmen – um sicherzustellen , dass Datenfeeds aktualisiert werden , was Szenarien verhindert , in denen ein Proposer Oracle - Updates ignorieren könnte , um veraltete Preise auszunutzen . ( c ) Begrenzung der Anzahl spezieller Transaktionen am Top - of - Block – z. B. kann nur ein auktionsgewinnendes Bundle den obersten Platz einnehmen , um Spamming durch viele kleine MEV - Griffe zu verhindern . ( d ) Keine Transaktionen , die eine State - Eigenschaft verletzen – Skip ermöglicht zustandsabhängige Ordering - Regeln , wie „ nach dem Aufbau des Blocks sicherstellen , dass kein DEX - Handel zu einem schlechteren Preis ausgeführt wurde , als wenn er an letzter Stelle im Block stünde “ ( eine Möglichkeit , sicherzustellen , dass keine Sandwich - Attacke stattgefunden hat ) . Eine beschriebene konkrete Regel ist eine „ Zero - Frontrunning - Bedingung über alle DEXs hinweg “ , was bedeuten könnte , dass ein Block ungültig ist , wenn eine Transaktion von späteren Transaktionen in einer Weise beeinflusst wurde , die auf Frontrunning hindeutet . Das ist mächtig : Es macht Fairness im Wesentlichen zu einem Teil der Blockgültigkeit . Cosmos - Chains können solche Regeln implementieren , da sie ihren gesamten Stack kontrollieren . Das Framework von Skip bietet eine strukturierte Möglichkeit , dies über den AuctionDecorator im SDK zu tun , der jede Transaktion gegen konfigurierte Regeln prüfen kann . Zusätzlich bietet Skip Mempool - Verbesserungen : Der Mempool des Knotens kann Blöcke im Voraus simulieren , fehlschlagende Transaktionen herausfiltern usw. , um Proposern zu helfen , die Regeln effizient zu befolgen . Wenn beispielsweise die Auktions - Lane eines Blocks die höchsten Gebote enthalten muss , kann der Mempool für diese Lane nach Geboten sortiert werden . Wenn ein Block nur Transaktionen enthalten darf , die zu einem bestimmten Zustand führen , kann der Knoten des Proposers Transaktionen simulieren , während er sie auswählt , um sicherzustellen , dass die Bedingung erfüllt ist . Zusammenfassend ermöglicht Skip deterministisches , Chain - definiertes Ordering , anstatt es gänzlich dem Gutdünken des Proposers oder einer einfachen Gas - Preis - Priorität zu überlassen . Chains integrieren das Builder - Modul von Skip , um ihre Transaktions - Ordering - Richtlinie effektiv im Protokoll zu kodifizieren . Dies fördert die Fairness , da alle Validatoren dieselben Regeln durchsetzen , wodurch die Möglichkeit für einen einzelnen Proposer entfällt , willkürliche Umordnungen für MEV vorzunehmen , es sei denn , dies geschieht innerhalb des erlaubten Mechanismus ( wie der Auktion , wo es transparent und wettbewerbsfähig ist ) . Das Queuing von Transaktionen im Modell von Skip kann separate Queues pro Lane beinhalten . Zum Beispiel könnte eine Auktions - Lane spezielle Gebotstransaktionen in die Queue stellen ( Skip verwendet einen speziellen MsgAuctionBid - Typ für Gebote zur Aufnahme am Top - of - Block ) . Diese Gebote werden in jedem Block gesammelt und das höchste wird ausgewählt . Währenddessen werden normale Transaktionen im Standard - Mempool in die Queue gestellt . Im Wesentlichen führt Skip eine strukturierte Queue ein : eine für Prioritätsgebote , eine für kostenlose oder andere Transaktionen usw. , jeweils mit eigenen Ordering - Kriterien . Dieser modulare Ansatz bedeutet , dass jede Chain individuell anpassen kann , wie sie Fairness und Einnahmen ausbalanciert – z. B. könnte Osmosis sagen : „ Wir wollen gar keine MEV - Auktion , sondern erzwingen Order - Fairness über Threshold - Verschlüsselung “ ( sie haben Threshold - Verschlüsselung mit Hilfe von Skip und anderen implementiert ) , während eine andere Chain sagen könnte : „ Wir erlauben Auktionen für MEV , verlangen aber , dass ein Teil der Erlöse verbrannt wird “ . Skip unterstützt beides . Diese Konfigurierbarkeit des Orderings ist das Markenzeichen von Skip .

  • MEV - Minderung und Extraktionsmechanismen : Der Ansatz von Skip in Bezug auf MEV wird oft als „ Protokolleigenes MEV “ und „ Multiplizität “ beschrieben . Protokolleigenes MEV bedeutet , dass das Blockchain - Protokoll selbst über seinen Code und seine Governance MEV erfasst oder umverteilt , anstatt es einzelnen Validatoren oder Außenstehenden zu überlassen . Multiplizität bezieht sich darauf , sicherzustellen , dass die „ richtigen “ ( multiplen ) Transaktionen aufgenommen werden – im Wesentlichen ohne legitime Nutzertransaktionen zugunsten von reinen MEV - Transaktionen auszuschließen und möglicherweise mehrere MEV - Möglichkeiten in einem Block aufzunehmen , falls möglich ( damit kein einzelner Searcher monopolisiert ) . Konkret bietet Skip Werkzeuge an , um MEV auf eine Weise zu erfassen , die dem Netzwerk zugutekommt : Eines davon ist Skip Select , ein Blockspace - Auktionssystem für die Aufnahme am Top - of - Block . Bei Skip Select reichen Searcher ( wie Arbitrage - Bots ) Bundles mit Tips bei Validatoren ein , ähnlich wie Flashbots - Bundles , außer dass dies nativ On - Chain über die Module von Skip erfolgt . Das am höchsten zahlende Bundle ( oder die Bundles ) wird dann automatisch in der angegebenen Reihenfolge an den Anfang des Blocks eingefügt . Dies garantiert , dass diese Transaktionen wie beabsichtigt ausgeführt werden , und der Validator ( oder die Chain ) kassiert den Tip . Dieser Mechanismus macht aus einem Prozess , der ( in Ethereum ) ein Off - Chain - OTC - Prozess war , eine offene On - Chain - Auktion – was Transparenz und Zugang verbessert . Ein weiterer Mechanismus ist ProtoRev ( Prototype Revenue - Modul ) , das Skip für Osmosis entwickelt hat . ProtoRev ist ein On - Chain - Arbitrage - Modul , das zyklische Arbitragen ( wie solche mit mehreren Pools ) automatisch innerhalb der Blockausführung erkennt und ausführt und den Gewinn an die Treasury der Chain oder den Community - Pool abführt . Im Wesentlichen hat Osmosis entschieden , dass bestimmtes „ gutes MEV “ ( wie Arbitrage , die Preise angeglichen hält ) weiterhin stattfinden sollte ( für die Markteffizienz ) , aber das Protokoll selbst die Arbitrage durchführt und den Gewinn erfasst und ihn später verteilt ( z. B. an Staker oder als Liquidity - Mining - Anreize ) . Dies eliminiert die Notwendigkeit für externe Arbitrage - Bots für diese Möglichkeiten und stellt sicher , dass der Wert im Ökosystem bleibt . ProtoRev war das erste seiner Art auf einer großen Chain und demonstriert , wie eine tiefe Integration die externen Effekte von MEV mildern kann : Nutzer , die auf Osmosis handeln , sind weniger Slippage ausgesetzt , denn wenn nach ihrem Trade eine Arbitrage besteht , wird das Protokoll diese schließen und den Wert im Wesentlichen an Osmosis zurückerstatten ( was den Nutzern indirekt durch niedrigere Gebühren oder Token - Rückkäufe usw. zugutekommen könnte ) . Darüber hinaus befähigt Skip Chains , Anti - MEV - Maßnahmen wie Threshold - Verschlüsselung für den Mempool zu implementieren . Zum Beispiel implementiert Osmosis in Zusammenarbeit mit Skip und anderen eine Mempool - Verschlüsselung , bei der Transaktionen verschlüsselt eingereicht und erst nach einer festgelegten Zeit offengelegt werden ( ähnlich wie die Idee von Anoma , aber auf Chain - Ebene ) . Obwohl dies kein direktes Skip - Produkt an sich ist , ist die Architektur von Skip kompatibel – die Auktion von Skip kann mit verschlüsselten Transaktionen durchgeführt werden , indem die Auktion auf Basis deklarierter Gebote erfolgt , anstatt den Inhalt der Transaktion zu lesen . In Bezug auf die Unterdrückung von schädlichem MEV : Die Konsensregeln von Skip wie „ kein Frontrunning erlaubt “ ( erzwungen durch State - Checks ) sind eine direkte Maßnahme , um bösartiges Verhalten zu stoppen . Wenn ein Validator versucht , eine Sandwich - Attacke einzubauen , würden andere Validatoren erkennen , dass das Zustandsergebnis gegen die No - Frontrunning - Regel verstößt ( sie könnten zum Beispiel prüfen , ob keinem Handel unmittelbar ein anderer von derselben Adresse vorausging und folgte , und zwar in einer Weise , die einen Vorteil ausnutzte ) . Dieser Block würde abgelehnt . Da sie dies wissen , werden Validatoren gar nicht erst versuchen , solche Muster aufzunehmen , wodurch Nutzer durch das Protokollgesetz geschützt sind . Skip fördert auch das Verbrennen oder Umverteilen von MEV - Einnahmen , um perverse Anreize zu vermeiden . Beispielsweise könnte eine Chain entscheiden , alle Auktionserlöse zu verbrennen oder sie in einen Community - Fonds zu leiten , anstatt sie alle dem Block - Proposer zu geben . Dies verringert den Anreiz für Validatoren , Transaktionen selbst umzuordnen , da sie persönlich möglicherweise nicht davon profitieren ( je nach Wahl der Chain ) . Zusammenfassend lässt sich sagen , dass das Toolkit von Skip es jeder Chain ermöglicht , MEV chirurgisch dort zu extrahieren , wo es vorteilhaft ist ( z. B. Arbitrage zur Aufrechterhaltung der Markteffizienz , Liquidationen zur Gesunderhaltung von Kreditmärkten ) , und sicherzustellen , dass dieser Wert vom Protokoll oder den Nutzern erfasst wird , während bösartiges MEV ( wie nutzerunfreundliches Frontrunning ) streng verboten und verhindert wird . Es ist eine pragmatische Mischung aus Extraktion und Unterdrückung , die durch Governance maßgeschneidert wird : Anstatt einer Einheitslösung befähigt Skip Communities zu entscheiden , welches MEV „ gut “ ist ( und dessen Erfassung zu automatisieren ) und welches „ schlecht „ ist ( und es über Konsensregeln zu verbieten ) . Das Ergebnis ist eine fairere Handelsumgebung auf Skip - fähigen Chains und eine zusätzliche Einnahmequelle , die öffentliche Güter finanzieren oder Kosten senken kann ( einer der Blogbeiträge von Skip stellt fest , dass eine faire MEV - Erfassung dazu verwendet werden kann , „ Einnahmen fair unter allen Netzwerkteilnehmern zu verteilen “ ) .

  • Ökonomische Anreizstruktur : Die Einführung von Skip verschiebt grundlegend die Anreize , insbesondere für Validatoren und Chain - Communities in Cosmos . Traditionell könnte ein Validator in Cosmos MEV extrahieren , indem er Transaktionen in seinem Block privat umordnet ( da Cosmos standardmäßig keine MEV - Auktion hat ) . Mit Skip erklären sich Validatoren stattdatessen mit einem Protokoll einverstanden , bei dem MEV über Auktionen oder Module erfasst und oft geteilt wird . Validatoren profitieren weiterhin : Sie können einen Anteil an den Auktionserlösen oder zusätzliche Gebühren aus den Mechanismen von Skip erhalten , aber wichtig ist , dass alle Validatoren ( nicht nur der Proposer ) profitieren können , wenn es so konzipiert ist . Beispielsweise können einige Skip - Auktionen so konfiguriert werden , dass die Einnahmen unter allen Stakern oder gemäß Governance - Entscheidungen aufgeteilt werden , anstatt dass der Proposer alles erhält ( Winner - takes - all ) . Dies richtet Validatoren kollektiv darauf aus , die Skip - Software auszuführen , da selbst Nicht - Proposer Sicherheit gewinnen ( mit dem Wissen , dass ein ungültiger Block sich nicht auszahlt ) und möglicherweise Einnahmen erzielen . Einige Chains könnten dem Proposer immer noch den Großteil der MEV - Auktionsgebühr überlassen ( um den unmittelbaren Anreiz zur Aufnahme zu maximieren ) , aber selbst dann ist es transparent und wettbewerbsfähig , was wohl die Chance auf geheime Absprachen verringert . Chain / Community : Das Konzept des protokolleigenen MEV bedeutet , dass die Blockchain und ihre Stakeholder das MEV erfassen . Zum Beispiel leitet Osmosis ProtoRev - Gewinne in seinen Community - Pool um , wodurch MEV effektiv in eine zusätzliche Protokolleinnahme umgewandelt wird , die die Entwicklung finanzieren oder an OSMO - Staker verteilt werden könnte . Dies macht die Community im Allgemeinen zum „ Eigentümer “ dieses MEV und richtet das Interesse aller darauf aus , MEV auf gesunde Weise zu extrahieren . Wenn Nutzer wissen , dass das MEV in die Verbesserung der Chain oder der Tokenomics zurückfließt , akzeptieren sie es möglicherweise eher , als wenn es an einen zufälligen Bot geht . Searcher : Im Modell von Skip haben unabhängige Searcher / Bots möglicherweise weniger auf der Chain zu tun , da einige Möglichkeiten durch die Protokolllogik ( wie ProtoRev ) übernommen werden und andere durch Auktionen geleitet werden . Skip eliminiert Searcher jedoch nicht – vielmehr kanalisiert es sie dazu , über die richtigen Wege zu bieten . Ein Searcher kann immer noch versuchen , eine komplexe Strategie umzusetzen , aber um die Aufnahme an einer bestimmten Stelle zu garantieren , sollte er an der Auktion von Skip ( Skip Select ) teilnehmen , indem er sein Bundle mit einem Gebot einreicht . Wenn er dies nicht tut , riskiert er , dass ein Validator ihn zugunsten von jemandem ignoriert , der geboten hat , oder dass der chaineigene Mechanismus die Gelegenheit wahrnimmt . Die Searcher in Cosmos entwickeln sich also dahingehend weiter , mit Skip zusammenzuarbeiten : Z. B. reichen viele Arbitrageure auf Osmosis ihre Arbitragen nun über das System von Skip ein . Sie zahlen einen Teil an die Chain und behalten weniger Gewinn , aber das ist der Preis für die Teilnahme . Im Laufe der Zeit könnten einige „ Searcher “ - Rollen vollständig absorbiert werden ( wie Backrunning - Arbitrage – ProtoRev übernimmt dies , sodass kein externer Searcher konkurrieren kann ) . Dies könnte Spam und verschwendeten Aufwand im Netzwerk reduzieren ( keine konkurrierenden Bots mehr ; nur noch eine Protokollausführung ) . Nutzer : Endnutzer profitieren von einer faireren Umgebung ( keine überraschenden MEV - Angriffe ) . Zudem ermöglichen einige Skip - Konfigurationen explizit Belohnungen für Nutzer : Eine MEV - Umverteilung an Nutzer ist möglich . Beispielsweise könnte eine Chain entscheiden , einen Teil der MEV - Auktionserlöse an die Nutzer zurückzuerstatten , deren Trades dieses MEV erzeugt haben ( ähnlich wie die Refund - Idee von Flashbots ) . Astroport , eine DEX auf Terra , integrierte Skip , um MEV - Einnahmen mit Swappern zu teilen – was bedeutet , dass , wenn der Trade eines Nutzers MEV enthielt , ein Teil dieses Wertes standardmäßig an ihn zurückgegeben wird . Dies entspricht dem Ethos , dass MEV den Nutzern zugutekommen sollte . Obwohl nicht alle Chains dies tun , existiert die Option über die Infrastruktur von Skip , solche Schemata zu implementieren . Skip Protocol selbst ( das Unternehmen / Team ) hat ein Geschäftsmodell , bei dem sie diese Werkzeuge oft kostenlos für Validatoren zur Verfügung stellen ( um die Einführung zu fördern ) , und sie monetarisieren durch Partnerschaften mit Chains ( B2B ) . Zum Beispiel könnte Skip eine kleine Gebühr vom erfassten MEV einbehalten oder Chains für erweiterte Funktionen / Support Gebühren berechnen . Es wird erwähnt , dass Skip für Validatoren kostenlos ist , aber ein B2B - Modell mit Chains nutzt . Das bedeutet , Skip hat einen Anreiz , das von der Chain und der Community erfasste MEV zu maximieren ( damit die Chain zufrieden ist und vielleicht einen Teil gemäß Vereinbarung abgibt ) . Da jedoch Governance involviert ist , wird jede Gebühr , die Skip erhebt , in der Regel von der Community genehmigt . Der ökonomische Effekt ist interessant : Er professionalisiert die MEV - Extraktion als eine Dienstleistung , die für Chains erbracht wird . Dadurch wird unlauteres Verhalten unattraktiv – Validatoren müssen keine individuellen zwielichtigen Deals machen , sie können einfach Skip nutzen und erhalten einen zuverlässigen Fluss an zusätzlichen Einnahmen , der gesellschaftlich akzeptiert ist . Ehrliches Verhalten ( das Befolgen der Protokollregeln ) bringt fast so viel oder sogar mehr Gewinn als der Versuch zu betrügen , denn wenn man betrügt , könnte der Block ungültig sein oder man könnte sozial sanktioniert werden usw. Governance spielt eine bedeutende Rolle : Die Übernahme des Skip - Moduls oder das Festlegen der Parameter ( wie der Auktionsanteil , die Verteilung der Erlöse ) erfolgt über On - Chain - Vorschläge ( Proposals ) . Das bedeutet , dass die ökonomischen Ergebnisse ( wer das MEV erhält ) letztendlich durch Abstimmung der Community bestimmt werden . Beispielsweise debattiert der Cosmos Hub über die Übernahme des Builder - SDK von Skip , um MEV möglicherweise an die Treasury des Hubs oder an Staker umzuleiten . Diese Ausrichtung über die Governance stellt sicher , dass die Nutzung von MEV von der Community als legitim angesehen wird . Es verwandelt MEV von einem toxischen Nebenprodukt in eine öffentliche Ressource , die zugewiesen werden kann ( für Sicherheit , Nutzer , Entwickler usw. ) . Zusammenfassend lässt sich sagen , dass Skip die Anreize so umgestaltet , dass Validatoren kollektiv sowie Nutzer / Communities profitieren , während opportunistische MEV - Nehmer entweder in das System kooptiert ( als Bieter ) oder durch Design ausgeschlossen werden . In der Theorie stehen alle besser da : Nutzer verlieren weniger Wert an MEV , Validatoren werden weiterhin entschädigt ( möglicherweise sogar insgesamt mehr aufgrund von Auktionen ) , und das Netzwerk als Ganzes kann MEV nutzen , um sich selbst zu stärken ( finanziell oder durch eine fairere Erfahrung ) . Die einzigen Verlierer sind diejenigen , die von der Nullsummen - Extraktion profitierten , ohne einen Wert zurückzugeben .

  • Compliance und regulatorische Kompatibilität : Das Framework von Skip erleichtert es Chains durch die Stärkung der Chain - Governance tatsächlich , Compliance oder spezifische Richtlinien sicherzustellen , falls dies gewünscht ist . Da Skip auf Protokollebene arbeitet , könnte eine Chain entscheiden , bestimmte Transaktionsfilterungen oder Ordering - Regeln durchzusetzen , um Regulierungen einzuhalten . Wenn eine Chain zum Beispiel sanktionierte Adressen blockieren möchte , könnte sie eine AnteHandler - oder AuctionDecorator - Regel in das Skip - Modul integrieren , die Blöcke mit Blacklist - Adressen für ungültig erklärt . Dies ist wohl einfacher als bei Ethereum , wo Zensur eine Off - Chain - Entscheidung einzelner Validatoren ist ; bei Cosmos mit Skip könnte es eine chainweite Regel sein ( obwohl dies umstritten wäre und für viele gegen Dezentralisierungsideale verstößt ) . Alternativ könnte eine Chain erzwingen , dass zum Beispiel „ FIAT - Onramp - Transaktionen vor anderen erscheinen müssen „ , falls dies gesetzlich vorgeschrieben ist . Das Skip - Toolkit enthält keine voreingestellten Compliance - Regeln , ist aber flexibel genug , um sie zu implementieren , wenn eine Community dazu gezwungen ist ( durch Governance ) . Auf der anderen Seite kann Skip die Zensurresistenz stärken : Durch die Verteilung von MEV - Einnahmen und den gleichberechtigten Zugang verringert es den Vorteil eines einzelnen Validators , der aus Profitgründen zensieren könnte . Wenn zudem Threshold - Verschlüsselungs - Mempools ( wie der von Osmosis hinzugefügte ) mit Skip zum Standard werden , verdeckt dies Transaktionsinhalte und erschwert Zensur ( ähnlich wie bei Anoma ) . Skip ist eine neutrale Infrastruktur – sie kann entweder zur Compliance oder zum Widerstand genutzt werden , je nach Governance . Da Cosmos - Chains oft jurisdiktionsspezifisch sind ( die Terra - Community könnte sich um koreanische Gesetze sorgen , Kava um US - Gesetze usw. ) , ist die Option , Compliance zu konfigurieren , wertvoll . Beispielsweise könnte eine zugangsbeschränkte ( Permissioned ) Cosmos - Chain ( wie eine institutionelle Chain ) das Builder - Modul von Skip weiterhin nutzen , aber vielleicht verlangen , dass nur Whitelist - Adressen an Auktionen teilnehmen können usw. , um ihren Regulierungen zu entsprechen . Regulatorische Kompatibilität bedeutet auch Transparenz : Die On - Chain - Auktionen von Skip erzeugen eine öffentliche Aufzeichnung von MEV - Transaktionen und wer was bezahlt hat . Dies könnte tatsächlich einige regulatorische Bedenken hinsichtlich der Fairness ausräumen ( jeder hatte die Chance zu bieten , und es ist prüfbar ) . Es ist transparenter als geheime Zahlungen an Validatoren . Durch die On - Chain - Erfassung von MEV verringert Skip zudem die Wahrscheinlichkeit von Off - Chain - Kartellen oder Dark Pools , die Regulierungsbehörden aufgrund ihrer Undurchsichtigkeit fürchten . Ohne Skip könnten Validatoren zum Beispiel private Deals mit Searchern machen ( wie bei Relay - Zensurproblemen zu sehen war ) . Mit Skip ist die Erwartung , dass man die offizielle Auktion nutzt – die offen und protokolliert ist – um Priorität zu erhalten . Dies fördert einen offenen Markt , der für alle Bots gleichermaßen zugänglich ist , was wohl fairer und weniger anfällig für Absprachen ist ( Absprachen sind möglich , aber es gibt eine Governance - Aufsicht ) . Ein weiterer Compliance - Aspekt : Da Skip sich mit der Werterfassung befasst , könnten Fragen aufkommen , wenn MEV - Einnahmen in einen Community - Pool oder eine Treasury fließen ( ist es eine Gebühr , ist es steuerpflichtig usw.? ) . Diese sind jedoch ähnlich wie die Handhabung von Transaktionsgebühren , also rechtlich nichts grundlegend Neues . In Cosmos können Chain - Communities auch entscheiden , wie sie diesen Fonds verwenden ( verbrennen , verteilen usw. ) , was sie gegebenenfalls mit rechtlichen Vorgaben in Einklang bringen können ( zum Beispiel könnten sie vermeiden , es an eine Stiftung zu senden , wenn dies steuerliche Probleme auslöst , und es stattdessen verbrennen ) . In Bezug auf Zensurresistenz ein interessanter Hinweis : Durch das Durchsetzen von Regeln für die Blockgültigkeit verhindert Skip , dass Validatoren bestimmte Transaktionen zensieren , wenn dies gegen die Regeln verstößt . Wenn eine Chain zum Beispiel die Regel hätte „ muss mindestens ein Oracle - Update enthalten “ , könnte ein zensierender Validator nicht einfach alle Oracle - Transaktionen weglassen ( die vielleicht aus bestimmten Quellen stammen ) , da sein Block ungültig wäre . Paradoxerweise können Skip - Regeln also die Aufnahme kritischer Transaktionen erzwingen ( Anti - Zensur ) , so wie sie dazu verwendet werden könnten , den Ausschluss unzulässiger Transaktionen zu erzwingen . Es kommt ganz darauf an , was die Community festlegt . Neutralität : Die Standardposition von Skip besteht darin , Chains zu befähigen , „ Nutzer vor negativem MEV zu schützen und die Nutzererfahrung zu verbessern “ , was Neutralität und Nutzerfreundlichkeit impliziert . Es gibt kein zentrales Skip - Netzwerk , das Entscheidungen trifft – jede Chain ist souverän . Skip als Unternehmen könnte beraten oder Standards bereitstellen ( wie ein empfohlenes Auktionsformat ) , aber letztendlich entscheiden die Token - Inhaber der Chain . Diese Dezentralisierung der MEV - Politik auf die Governance jeder Chain kann als kompatibler mit regulatorischer Vielfalt angesehen werden : Z. B. könnte eine in den USA ansässige Chain die OFAC - Konformität implementieren , wenn sie rechtlich unter Druck gesetzt wird , ohne andere Chains zu beeinflussen . Es ist kein einzelner Relay , der über viele Chains hinweg zensiert ; es ist eine Entscheidung pro Chain . Aus Sicht eines Regulierers führt Skip keine zusätzlichen illegalen Aktivitäten ein – es reorganisiert lediglich , wie Transaktionen geordnet werden . Wenn überhaupt , könnte es die Volatilität verringern ( weniger Gas - Kriege ) und eine vorhersehbarere Ausführung schaffen , was ein Pluspunkt sein könnte . Zusammenfassend lässt sich sagen , dass die Architektur von Skip hochgradig anpassbar an Compliance - Anforderungen ist , während sie die Option für maximale Zensurresistenz bewahrt , wenn Communities dies priorisieren . Sie hält MEV im Tageslicht und unter kollektiver Kontrolle , was Blockchain - Ökosysteme wahrscheinlich robuster sowohl gegen böswillige Akteure als auch gegen regulatorische Maßnahmen macht , da die Selbstverwaltung proaktiv gegen schlimmste Missbräuche vorgehen kann .

  • Technische Architektur & Implementierung : Skip Protocol ist eng in den Cosmos SDK - Stack integriert . Das Kernprodukt ist eine Reihe von Modulen ( z. B. x / builder ) und Modifikationen wie die BlockBuster - Mempool - Implementierung . Cosmos - Chains führen einen Konsens ( Tendermint / CometBFT ) aus , der ABCI - Hooks zum Vorbereiten und Verarbeiten von Vorschlägen ( Proposals ) bietet . Skip nutzt die ABCI++ Erweiterungen , die das Ausführen von Code zwischen Blockvorschlag und Finalisierung ermöglichen . Auf diese Weise wird das Ordering erzwungen : PrepareProposal kann die Blocktransaktionen gemäß den Lane - Regeln umordnen , bevor der Vorschlag verbreitet wird , und ProcessProposal kann bei den empfangenden Validatoren prüfen , ob das Ordering und die Zustandsgültigkeit den Erwartungen entsprechen . Dies ist ein modernes Feature ( Cosmos SDK v0.47+ ) , und das POB von Skip ist mit aktuellen SDK - Versionen kompatibel . Unter der Haube verwalten die Module von Skip Datenstrukturen für Auktionen ( z. B. ein On - Chain - Orderbuch von Geboten für den Top - of - Block ) . Sie verwenden wahrscheinlich auch Prioritäts - Transaktionstypen . Die README zeigt ein spezielles MsgAuctionBid und eine benutzerdefinierte Logik zur Handhabung . Searcher interagieren also , indem sie diese Nachrichten über normale Cosmos - Transaktionen senden , die das Modul dann abfängt und entsprechend platziert . Der AnteHandler des Builder - Moduls ( der AuctionDecorator ) kann Auktionsgebote verarbeiten und in der Blockmontagephase Gewinner ermitteln . Kryptographisch fügt Skip von sich aus keine neuen kryptographischen Anforderungen hinzu ( abgesehen von dem , was die Chain wählt , wie Threshold - Kryptographie für den Mempool , was separat ist ) . Es verlässt sich auf die Ehrlichkeit von mehr als 2 / 3 der Validatoren , um die Regeln durchzusetzen und keine Absprachen zu treffen , um sie zu brechen . Wenn eine Mehrheit gemeinsame Sache machen würde , könnten sie technisch gesehen die Regeln über die Governance ändern oder sie ignorieren , indem sie dies zur neuen De - facto - Regel machen . Das ist jedoch bei jeder Chain - Logik der Fall . Das Design von Skip versucht es mechanisch unmöglich zu machen , dass ein einzelner Validator in geringem Umfang betrügt . Beispielsweise wird jeder Versuch , vom Ordering abzuweichen , von anderen bemerkt , da dies objektiv ist . So verringert es das Vertrauen in einzelne Proposer . In Bezug auf die Performance verursachen Auktionen und zusätzliche Prüfungen Overhead . Cosmos - Blöcke sind jedoch relativ klein und die Zeit zwischen den Blöcken beträgt oft nur wenige Sekunden , was in den meisten Fällen für diese Operationen ausausreicht . Die Simulation ( das Vorausführen von Transaktionen zur Sicherstellung von Erfolg und Ordering - Einschränkungen ) könnte der aufwendigste Teil sein , aber Validatoren führen die Blockausführung ohnehin normalerweise durch , sodass dies ähnlich ist . Das Vorhandensein von Multi - Lanes bedeutet eine Trennung des Mempools : Z. B. muss eine Transaktion möglicherweise angeben , auf welche Lane sie abzielt ( Auktion vs. Kostenlos vs. Standard ) . Das Skip BlockBuster - Design sah in der Tat separate Lanes wie lanes / auction , lanes / free usw. vor , wahrscheinlich separate Mempool - Queues . Dies stellt beispielsweise sicher , dass kostenlose Transaktionen die Auktions - Transaktionen nicht verzögern oder stören . Es ist ein wenig wie verschiedene Prioritätsklassen beim Scheduling . Ein weiterer Aspekt sind Sicherheit und Fehlverhalten : Wenn ein Proposer versucht , die Auktion zu manipulieren ( z. B. seine eigene Transaktion aufzunehmen , aber behauptet , er sei den Regeln gefolgt ) , werden andere Validatoren den Block ablehnen . Der Cosmos - Konsens geht dann wahrscheinlich zum nächsten Proposer über , wobei der vorherige für Double - Signing oder einfach das Verfehlen bestraft wird ( je nach Szenario ) . Das Sicherheitsmodell der Chain übernimmt dies also – kein spezielles Slashing durch Skip über den bestehenden Konsens hinaus erforderlich . Man könnte Skip erweitern , um bösartiges Ordering zu bestrafen , aber das ist wahrscheinlich unnötig , wenn der Block einfach fehlschlägt . Entwicklung und Tooling : Der Code von Skip wurde Open Source zur Verfügung gestellt ( ursprünglich unter skip - mev / pob und nun wahrscheinlich nach stabilen Releases in ein neues Repo verschoben ) . Sie haben Testnets und Iterationen mit Partner - Chains durchlaufen . Auf der Roadmap haben wir gesehen : Osmosis Prop 341 ( im Herbst 2022 verabschiedet ) zur Integration von ProtoRev und Auktionen mit Skip – geliefert Anfang 2023 . Astroport auf Terra integrierte 2023 das MEV - Sharing mit Skip . Der Cosmos Hub evaluiert das „ Block SDK “ von Skip , das ähnliche Funktionen in den Hub bringen würde . Eine weitere interessante Grenze ist Cross - Chain - MEV über den Interchain - Scheduler – die Cosmos Hub - Community untersucht eine Interchain - MEV - Auktion , bei der MEV von vielen Chains auf dem Hub gehandelt werden könnte , und Skip ist an diesen Diskussionen beteiligt ( die Forschung von Zerocap erwähnte den geplanten Interchain - Scheduler von IBC ) . Die Technik von Skip könnte als Rückgrat für solche Cross - Chain - Auktionen dienen , da sie bereits Auktionen auf einzelnen Chains durchführt . Dies wäre analog zum Cross - Domain - Ziel von SUAVE , jedoch innerhalb von Cosmos . Zu den wichtigen Updates : Skip startete etwa Mitte 2022 . Bis Mitte 2023 hatten sie ein stabiles POB - Release für SDK v0.47+ ( auf das viele Chains aktualisierten ) . Sie erhielten zudem eine Seed - Finanzierung , was auf eine aktive Entwicklung hindeutet . Ein weiterer Konkurrent in Cosmos , Mekatek , bietet ähnliche Funktionen an . Dies hat die Roadmap von Skip vielleicht beschleunigt , um an der Spitze zu bleiben . Skip verfeinert weiterhin Funktionen wie private Transaktions - Lanes ( vielleicht um Transaktionen bis zur Aufnahme zu verbergen ) und komplexere Gültigkeitsregeln , wenn Anwendungsfälle auftreten . Da es modular aufgebaut ist , könnte eine Chain wie dYdX ( die ein Orderbuch haben wird ) Skip nutzen , um Fairness beim Order - Matching On - Chain sicherzustellen usw. , sodass sich die Werkzeuge von Skip an verschiedene App - Logiken anpassen können . Technisch gesehen ist die Lösung von Skip einfacher als der Aufbau einer völlig neuen Chain : Es ist ein Upgrade der Fähigkeiten bestehender Chains . Dieser inkrementelle Opt - in - Ansatz hat eine recht schnelle Einführung ermöglicht – zum Beispiel erforderte die Aktivierung von Auktionen auf Osmosis keinen neuen Konsensalgorithmus , sondern lediglich das Hinzufügen eines Moduls und die Koordinierung der Validatoren zur Ausführung der aktualisierten Software ( was sie taten , da es vorteilhaft war und von der Governance verabschiedet wurde ) . Zusammenfassend lässt sich sagen , dass die Architektur von Skip in die Knotensoftware jeder Chain eingebettet ist und den Mempool sowie die Block - Proposal - Pipeline anpasst . Es ist ein pragmatischer technischer Ansatz für faires Ordering : Nutze das , was bereits vorhanden ist ( Tendermint BFT ) , und füge Logik hinzu , um es zu steuern . Die Schwerstarbeit ( wie das Finden von Arbitragen ) kann sogar vom chaineigenen Modul erledigt werden ( ProtoRev nutzt den in Osmosis eingebauten Wasm - und Rust - Code , um Pools zu scannen ) . So verlagert sich ein Großteil der MEV - Handhabung On - Chain . Dieser On - Chain - Ansatz muss sorgfältig auf Effizienz und Sicherheit programmiert werden , steht aber unter der Beobachtung der Community . Wenn eine Regel problematisch ist ( zu streng usw. ) , kann die Governance sie anpassen . Damit verwandelt Skip MEV sowohl technisch als auch gesellschaftlich in einen weiteren Parameter der Chain , der optimiert und verwaltet werden kann , anstatt in einen „ Wilden Westen „ . Dies ist eine einzigartige Position , die durch die Flexibilität von Cosmos ermöglicht wird .

Vergleichende Analyse von SUAVE, Anoma, Skip und Flashbots v2

Diese vier Protokolle nähern sich dem MEV- und Fair-Ordering-Problem aus unterschiedlichen Blickwinkeln an, abgestimmt auf ihre jeweiligen Ökosysteme und Designphilosophien. Flashbots v2 ist eine inkrementelle, pragmatische Lösung für die aktuelle Architektur von Ethereum: Es akzeptiert MEV-Auktionen, versucht jedoch, deren Auswirkungen zu demokratisieren und abzumildern (durch Off-Chain-Koordination, SGX-Privatsphäre und Sharing-Mechanismen). SUAVE ist der zukunftsorientierte Plan von Flashbots, eine inter-chain MEV-Plattform zu schaffen, die den Gesamtwert und den Nutzen für die Anwender maximiert – im Wesentlichen wird das Auktionsmodell auf ein dezentrales, die Privatsphäre schützendes globales Netzwerk ausgeweitet. Anoma ist eine grundlegende Neugestaltung der Art und Weise, wie Transaktionen formuliert und ausgeführt werden. Ziel ist es, die Ursachen für unfaire Reihenfolgen durch den Einsatz von Intents (Absichten), Solver-vermitteltem Matching und kryptografischer Fairness im Konsens zu eliminieren. Skip ist ein Ansatz für souveräne Chains, der Fairness und MEV-Erfassung auf Protokollebene pro Chain integriert, insbesondere im Cosmos-Ökosystem, durch konfigurierbare Regeln und Auktionen.

Jedes Modell hat Stärken und Kompromisse:

  • Fairness- und Ordering-Garantien: Anoma bietet die stärkste theoretische Fairness (kein Frontrunning durch Design, verschlüsselte Batches), erfordert aber ein neues Paradigma und komplexe Technologie, die sich erst noch beweisen muss. Skip kann konkrete Fairness-Regeln auf bestehenden Chains erzwingen (Verhinderung von Frontrunning oder Durchsetzung von First-In-First-Out innerhalb von Lanes), ist jedoch darauf beschränkt, was die jeweilige Community erzwingen möchte. SUAVE und Flashbots v2 verbessern die Fairness in Bezug auf den Zugang (offene Auktionen statt geheimer Absprachen, Schutz vor Sniping im öffentlichen Mempool), verhindern jedoch nicht inhärent die Ausführung einer entschlossenen MEV-Strategie – sie stellen lediglich sicher, dass diese die Nutzer bezahlt oder neutral durchgeführt wird.
  • MEV-Umverteilung: SUAVE und Flashbots zielen explizit darauf ab, MEV an Nutzer/Validatoren „zurückzugeben“: SUAVE über Nutzergebote/Rückerstattungen, Flashbots über Builder-Wettbewerbe und Rückerstattungen. Skip kann MEV an Nutzer (je nach Konfiguration, z. B. im Fall von Astroport) oder an Community-Fonds leiten. Anoma vermeidet eine explizite Umverteilung, da das Ziel darin besteht, die Extraktion von vornherein zu vermeiden – idealerweise erhalten die Nutzer einfach faire Preise, was gleichbedeutend damit ist, keinen Wert an MEV zu verlieren.
  • Umfang (Single- vs. Multi-Domain): Flashbots v2 und Skip konzentrieren sich auf ihre eigenen Domains (Ethereum bzw. einzelne Cosmos-Chains). SUAVE ist von Natur aus multi-domain-fähig – es sieht Cross-Chain-MEV als eine Hauptmotivation. Anoma zieht schließlich auch Multi-Chain-Intents in Betracht, könnte sich aber in der Anfangsphase auf jeweils eine Fraktal-Instanz beschränken und dann über Adapter expandieren. Die Cross-Chain-Auktion von SUAVE könnte Arbitrage und Koordination ermöglichen, die andere nicht so einfach umsetzen können (außer vielleicht ein Interchain Scheduler mit Hilfe von Skip im Cosmos-Bereich).
  • Komplexität und Adaption: Flashbots v2 war relativ einfach zu adoptieren (ein Client-Sidecar) und erfasste schnell die Mehrheit der Ethereum-Blöcke. Skip nutzt ebenfalls bestehende Technologien und findet im Cosmos-Ökosystem durch unkomplizierte Governance-Vorschläge Anklang. SUAVE und Anoma sind revolutionärer – sie erfordern neue Netzwerke oder umfassende Änderungen. Die Herausforderung für SUAVE wird darin bestehen, viele Chains und Nutzer zur Teilnahme an einer neuen Ebene zu bewegen; die Herausforderung für Anoma besteht darin, ein neues Ökosystem zu schaffen und Entwickler davon zu überzeugen, in einem Intent-zentrierten Modell zu bauen.
  • Compliance und Neutralität: Alle vier bieten Verbesserungen bei der Transparenz. Flashbots v2/SUAVE eliminieren „Dark Forest“-Elemente, mussten sich jedoch mit Zensurproblemen auseinandersetzen – SUAVE wird explizit so gebaut, dass diese zentralen Punkte vermieden werden. Anoma schützt die Nutzer durch standardmäßige Privatsphäre maximal (könnte aber Regulierungsbehörden aufgrund verschlüsselter Aktivitäten beunruhigen). Das Modell von Skip gibt jeder Chain die Autonomie, einen Compliance-Kompromiss zu finden. Wenn ein Regulator „keine MEV-Auktionen“ oder „keine Privatsphäre“ fordern würde, könnte ein Ethereum, das Flashbots nutzt, in einen Konflikt geraten, während eine Cosmos-Chain, die Skip nutzt, diese Funktionen einfach nicht implementieren oder anpassen könnte. In Bezug auf Neutralität: SUAVE und Anoma streben nach glaubwürdiger Neutralität (jeder greift zu gleichen Bedingungen auf ein System zu; beide sind im Wesentlichen Netzwerke für öffentliche Güter). Flashbots v2 ist neutral, indem es offenen Zugang bietet, aber es existiert eine gewisse Zentralisierung im Builder-Markt (die jedoch durch BuilderNet-Bemühungen gemildert wird). Die Neutralität von Skip hängt von der Governance ab – idealerweise sorgt sie dafür, dass MEV keinen einzelnen Insider bevorzugt, aber man könnte es schlecht konfigurieren und die Neutralität beeinträchtigen (was jedoch unwahrscheinlich ist, da dies einen Governance-Konsens erfordern würde).
  • Unterschiede in der technischen Architektur: Flashbots v2 und SUAVE sind Off-Chain-Marktplätze, die über die Chain gelegt werden: Sie führen spezialisierte Rollen ein (Builder, Relays, Executoren) und nutzen Hardware oder Kryptografie, um diese abzusichern. Anoma und Skip integrieren sich direkt in den Konsens oder die State Machine. Anoma verändert den Transaktionslebenszyklus und den Konsens selbst (mit Schwellenwert-Verschlüsselung und vereinheitlichten Intents). Skip klinkt sich über ABCI++ in den Konsens von Tendermint ein, ändert aber nicht den grundlegenden Algorithmus – es ist eine Anpassung auf der Anwendungsebene. Dieser Unterschied bedeutet, dass SUAVE/Flashbots theoretisch viele Chains bedienen können, ohne dass jede Chain ein Upgrade benötigt (sie laufen parallel zu ihnen), während Anoma/Skip erfordern, dass jede Chain oder Instanz die neue Software verwendet. SUAVE liegt gewissermaßen in der Mitte: Es ist eine separate Chain, aber um sie effektiv zu nutzen, benötigen andere Chains geringfügige Anpassungen (um von SUAVE erstellte Blöcke zu akzeptieren oder an SUAVE auszugeben). Die kryptografische Komplexität ist bei Anoma am höchsten (ZK, MPC, Threshold Crypto alles in einem), moderat bei SUAVE (Threshold Crypto und SGX, plus normale Kryptografie für das Bridging) und relativ gering bei Flashbots v2 (SGX, Standardsignaturen) und Skip (hauptsächlich Standardsignaturen, plus was auch immer die Chain verwendet, wie Threshold Decryption, falls gewählt).
  • Entwicklungsstadium: Flashbots v2 ist in Produktion auf Ethereum (seit September 2022). Skip ist in Produktion auf mehreren Cosmos-Chains (ab 2022–2023). SUAVE befindet sich in der Testnet/Devnet-Phase, wobei Teile bereits ausgerollt werden (einige Auktionsfunktionen im Test, Testnet Toliman live). Anoma befindet sich ebenfalls in der Testnet-Phase (ein Vision-Paper, teilweise Implementierungen wie das Namada-Mainnet und wahrscheinlich ein Anoma-Testnet, das 2023 Einladungscodes erforderte). Was reale Daten betrifft: Flashbots v2 und Skip haben Ergebnisse vorzuweisen (z. B. lieferte Flashbots v2 Millionen an Validatoren und senkte die durchschnittlichen Gaspreise während Phasen mit hohem MEV; ProtoRev von Skip generierte beträchtliche Mittel für die Osmosis-Community und verhinderte viele Sandwich-Attacken, als die Schwellenwert-Verschlüsselung begann). SUAVE und Anoma sind vielversprechend, müssen sich aber operativ und ökonomisch erst noch beweisen.

Um diese Vergleiche zu konkretisieren, fasst die folgende Tabelle die wichtigsten Aspekte jedes Protokolls nebeneinander zusammen:

ProtokollTransaktionsreihenfolgeMEV-Mechanismus (Unterdrücken vs. Extrahieren)Wirtschaftliche Anreize (Alignment)Compliance & NeutralitätArchitektur & TechnikEntwicklungsstand
Flashbots v2 (Ethereum)Off-Chain-Builder-Auktionen entscheiden über die Blockreihenfolge (PBS über MEV-Boost). Transaktionen im öffentlichen Mempool werden für private Bundles umgangen. Die Reihenfolge ist gewinnorientiert (höchstzahlendes Bundle zuerst).Extrahiert MEV über Sealed-Bid-Blockauktionen, mildert aber schädliche Nebenwirkungen ab (keine Gas-Wars, kein öffentliches Frontrunning). Ermöglicht private Transaktionsübermittlung (Flashbots Protect), um für Nutzer sichtbares MEV wie direktes Frontrunning zu unterdrücken. Zensurresistenz verbessert sich durch Multi-Relay & Builder-Dezentralisierung.Validatoren maximieren Einnahmen durch Outsourcing von Blöcken (erhalten höchste Gebote). Searcher konkurrieren Gewinne weg, um Inklusion zu gewinnen (das meiste MEV geht an Validatoren). Builder verdienen eine Marge, falls vorhanden. Aufkommende Refunds teilen MEV mit Nutzern (über BuilderNet). Anreize bevorzugen offenen Wettbewerb gegenüber exklusiven Deals.Stand anfangs vor OFAC-Zensur (zentrales Relay), wechselte aber zu mehreren Relays und Open-Source-Buildern. Strebt nun glaubwürdige Neutralität an: Das TEE-Netzwerk von BuilderNet stellt sicher, dass kein einzelner Builder zensieren kann. Insgesamt transparenter als der Mempool, aber immer noch abhängig von Off-Chain-Entitäten (Relays).Off-Chain-Marktplatz, integriert in Ethereum PoS. Nutzt Trusted HW (SGX) für privaten Orderflow in BuilderNet. Keine Konsensänderung auf L1; verwendet Standard-Builder-API. Fokus auf Engineering (Sidecar-Clients, Relays), weniger auf neue Kryptografie.Produktion im Ethereum-Mainnet (seit Sep. 2022). >90 % der Blöcke über MEV-Boost. Kontinuierliche Upgrades: Open-Source-Builder, BuilderNet Alpha live (Ende 2024). Bewährt stabil, mit laufenden Dezentralisierungsbemühungen.
SUAVE (Flashbots nächste Gen)Vereinheitlichter Cross-Chain-Mempool von Präferenzen (Nutzer-Intents + Gebote). Executoren bilden daraus optimale Transaktionsbündel. Dezentrales Sequencing – SUAVE gibt geordnete Blockfragmente an Domains aus. Reihenfolge basierend auf Nutzergeboten & globalem Wohlergehen (nicht einfaches FIFO oder Gas). Privatsphäre (Verschlüsselung) verhindert Manipulation der Reihenfolge bis zur Ausführung.Unterdrückt „schlechtes MEV“, indem MEV an Nutzer zurückgegeben wird: z. B. bezahlen Orderflow-Auktionen Nutzer dafür, dass sie „backrunned“ werden. Aggregiert „gutes MEV“ (wie Cross-Domain-Arbs) für maximale Extraktion, verteilt es aber an Nutzer/Validatoren um. Nutzt verschlüsselten Mempool & kollaboratives Blockbuilding, um Frontrunning und exklusiven Zugang zu verhindern.Nutzer posten Präferenzen mit zahlbaren Geboten; konkurrierende Executoren verdienen das Gebot, indem sie das Ziel des Nutzers erfüllen. Validatoren jeder Chain erhalten höhere Gebühren durch optimale Blöcke und Cross-Chain-MEV-Erfassung. SUAVEs eigene Validatoren verdienen Netzwerkgebühren. Design verlagert MEV-Gewinne zu Nutzern und Validatoren und minimiert Searcher-Rente. Flashbots möchte lediglich ein Vermittler bleiben.Gebaut für glaubwürdige Neutralität: eine neutrale öffentliche Plattform, die von keinem einzelnen Akteur kontrolliert wird. Privacy-first (Transaktionen in SGX oder kryptografisch verschlüsselt) bedeutet, dass keine Entität basierend auf Inhalten zensieren kann. Hofft, jede Flashbots-Vertrauensanforderung durch schrittweise Dezentralisierung zu vermeiden. Compliance ist nicht explizit eingebaut, aber Neutralität und globale Reichweite haben Priorität (könnte regulatorische Fragen zur Privatsphäre aufwerfen).Unabhängige Chain (EVM-kompatibel) für Präferenzen & Auktionen. Nutzt intensiv Intel SGX Enclaves (für privaten Mempool und kollaboratives Blockbuilding). Plant die Einführung von Threshold Encryption und MPC, um Trusted Hardware zu eliminieren. Im Wesentlichen eine Blockchain + Secure Compute-Ebene über anderen Chains.In EntwicklungCentauri-Testnet-Phase aktiv (Devnet, Basis-Auktionen). Open-Source SUAVE-Client (Aug. 2023); Toliman Testnet für Community-Tests gestartet. Mainnet noch nicht live (erwartet in Phasen: Andromeda, Helios). Ehrgeizige Roadmap, in großem Maßstab noch unbewiesen.
Anoma (Intent-zentriert)Kein herkömmlicher Mempool; Nutzer senden Intents (gewünschte Ergebnisse). Solver sammeln Intents und erstellen passende Transaktionen. Nutzt Threshold Encryption von Transaktionen, sodass Validatoren sie ordnen, ohne den Inhalt zu sehen, was reaktives MEV verhindert. Verwendet oft Batch-Processing (z. B. Entschlüsseln und Abgleichen von Intents in Batches alle N Blöcke) für faire Preise. Konsens stellt Order-Commitments vor der Offenlegung sicher und erreicht so Reihenfolge-Fairness.Starke MEV-Minderung durch Design: Frontrunning unmöglich (Transaktionen werden erst nach finaler Ordnung offengelegt). Batch-Auktionen eliminieren Prioritätsvorteile (z. B. teilen alle Trades im Batch den Clearing-Preis). Solver konkurrieren um die Erfüllung von Intents, was die Preise in Richtung des Nutzer-Optimums treibt und wenig MEV hinterlässt. Im Wesentlichen wird der extrahierbare Wert minimiert – jede notwendige Arbitrage erfolgt als Teil des Matchings, nicht durch Außenstehende.Solver verdienen Gebühren oder Spreads für das Finden von Matches (ähnlich wie DEX-Aggregatoren), aber der Wettbewerb zwingt sie, den Nutzern die besten Deals zu liefern. Validatoren erhalten Gebühren und Staking-Rewards; sie stellen auch eine faire Ausführung sicher (kein extra MEV über Konsens). Nutzer gewinnen durch bessere Ausführung (sie handeln nur zu fairen Preisen und verlieren keinen Wert an MEV). Wert, der MEV wäre, bleibt bei Nutzern oder dem Protokoll (oder wird minimal als Servicegebühr mit Solvern geteilt). Die Architektur richtet Anreize auf ehrliche Teilnahme aus.Privatsphäre und Fairness sind Kernpunkte – Intents können teilweise oder vollständig abgeschirmt werden (mit ZK-Proofs), was Nutzerdaten schützt. Zensurresistenz: Validatoren können nicht selektiv zensieren, was sie nicht sehen können (verschlüsselte Tx), und müssen algorithmischen Matching-Regeln folgen. Hochgradig neutral – alle Intents werden nach derselben Matching-Logik behandelt. Regulatorische Compliance ist nicht fest eingebaut (starke Privatsphäre könnte für KYC schwierig sein), aber das Intent-Framework könnte konforme Designs auf Anwendungsebene ermöglichen.Neue Blockchain-Architektur. Nutzt BFT-Konsens mit integrierter Intent-Gossip- & Solver-Ebene. Verlässt sich auf Threshold Cryptography (Ferveo) für Mempool-Privatsphäre und ZK SNARKs (Taiga) für Datenschutz. Die Ausführung wird durch Validity Predicates gesteuert (anwendungsspezifische Logik, die faire Ergebnisse erzwingt). Interoperabel über IBC (Multi-Chain-Intents in Zukunft möglich). Kryptografisch sehr fortschrittlich (Verschlüsselung, ZK, MPC-Konzepte kombiniert).Testnets und Teil-Launches. Anomas erstes Testnet Feigenbaum (Nov. 2021) demonstrierte grundlegendes Intent-Matching. Viele Konzepte werden in Stufen implementiert; z. B. startete Namada (2023) mit Anomas Privacy-Tech und Ferveo für einen Single-Chain-Use-Case. Das volle Anoma L1 mit Intents befindet sich im Testnet (Invite-only Tests Mitte 2023). Mainnet Phase 1 (geplant) wird auf Ethereum-Integration abzielen; nativer Token und voller Konsens folgen später. Noch stark in der F&E-Phase, noch nicht praxiserprobt.
Skip Protocol (Cosmos)Protokollinterne Regeln zur Transaktionsreihenfolge und Block-Lanes, konfiguriert durch die Governance jeder Chain. Z. B. entscheiden Auktionen über die Reihenfolge am Blockanfang, danach folgen Standardtransaktionen usw. Konsens-erzwungen: Validatoren lehnen Blöcke ab, die gegen die Reihenfolge verstoßen (wie eine ungültige Tx-Sequenz). Ermöglicht benutzerdefinierte Richtlinien (Reihenfolge nach Gaspreis, Oracle-Tx zuerst einschließen, bestimmte Muster verbieten) – effektiv deterministische Ordering-Algorithmen, die von der Chain gewählt werden.Hybrider Ansatzextrahiert MEV auf kontrollierte Weise (über On-Chain-Auktionen und protokolleigene Arbitrage), während böswilliges MEV unterdrückt wird (durch Durchsetzung von Regeln). Frontrunning kann durch Chain-Regeln verboten werden. Backrunning/Arbitrage kann internalisiert werden: z. B. führt die Chain ihre eigene Arbitrage durch (ProtoRev) und teilt die Einnahmen. Blockspace-Auktionen (Skip Select) lassen Searcher um Priorität bieten, sodass MEV transparent erfasst und oft umverteilt wird. Insgesamt wird negatives MEV (Sandwiches etc.) eingedämmt, während „positives MEV“ (Arbs, Liquidationen) zum Vorteil der Chain genutzt wird.Validatoren gewinnen eine neue Einnahmequelle aus Auktionsgebühren oder vom Protokoll erfasstem MEV, ohne Konsensregeln zu brechen. Das Risiko einzelner „Rogue Validatoren“ wird reduziert (müssen Regeln folgen, sonst ist der Block ungültig), was Validatoren kollektiv ausrichtet. Chain/Community kann MEV-Einnahmen lenken (z. B. an Staker oder Community-Fonds). Searcher müssen über Auktionen konkurrieren und oft einen Teil des Gewinns an die Chain/Validatoren abgeben. Einige MEV-Rollen werden von On-Chain-Modulen übernommen. Nutzer profitieren von weniger Angriffen und können sogar MEV-Rabatte erhalten (z. B. teilt Astroport MEV mit Tradern). Anreize werden Community-orientiert – MEV wird als öffentliches Einkommen behandelt.Souveräne Compliance: Jede Chain wählt ihre eigene Richtlinie. Das bedeutet, eine Chain könnte über Modulkonfiguration strenge Anti-MEV-Regeln oder KYC-Anforderungen durchsetzen. Skips Transparenz (On-Chain-Gebote) und Governance-Kontrolle verbessern die Legitimität. Es erhöht inhärent die Zensurresistenz innerhalb der gewählten Regeln der Chain – wenn die Regel sagt „Oracle-Tx immer einschließen“, kann ein zensierender Validator sie nicht weglassen. Skip fördert generell Transparenz und Fairness, wie sie von der Community festgelegt werden. Keine einzelne Entität (wie ein Relay) kontrolliert die Reihenfolge – sie ist im Protokoll und Open Source.Cosmos SDK-Module (Protocol-Owned Builder), die zur Node-Software hinzugefügt werden. Nutzt ABCI++ Hooks für benutzerdefinierte Block-Erstellung und Validierung. Implementiert On-Chain-Auktionen (Verträge oder Module handhaben Gebote und Auszahlungen). Standardmäßig keine spezialisierte Kryptografie (über Standard-Cosmos-Tech hinaus), aber kompatibel mit Threshold Encryption – z. B. fügte Osmosis einen verschlüsselten Mempool mit Blick auf Skip hinzu. Im Wesentlichen eine Erweiterung von Tendermint BFT, die MEV-bewusste Logik in den Block-Vorschlag einbringt. Leichtgewichtig für Chains zu adoptieren.Live auf mehreren Chains. Skips Auktions- und Builder-Modul wurde auf Osmosis (2023) eingesetzt – das ProtoRev-Modul generierte Protokolleinnahmen und Auktionen für den Blockanfang sind live. Wird auf Terra/Astroport, Juno usw. verwendet und vom Cosmos Hub in Erwägung gezogen. Der Code ist Open Source und entwickelt sich weiter (v1 von POB für SDK 0.47+). In der Produktion bewährt, mit real erfasstem und verteiltem MEV. Kontinuierlicher Rollout von Features (z. B. neue Lane-Typen).

Jede Lösung adressiert das MEV-Problem auf einer anderen Ebene – Flashbots v2 arbeitet um den L1-Konsens herum, SUAVE schlägt eine neue L1.5-Ebene vor, Anoma gestaltet das L1 selbst neu und Skip nutzt modulare L1-Anpassungen. In der Praxis schließen sich diese Ansätze nicht gegenseitig aus und könnten sich sogar ergänzen (beispielsweise könnte eine Cosmos-Chain Skip intern nutzen und zusätzlich Intents an SUAVE für Cross-Chain-MEV senden, oder Ethereum könnte in Zukunft eine Anoma-ähnliche Reihenfolge-Fairness implementieren, während es weiterhin Flashbots für Builder-Märkte nutzt). Die Tabelle verdeutlicht ihre vergleichenden Eigenschaften: Flashbots v2 liefert bereits Verbesserungen für Ethereum, extrahiert aber weiterhin MEV (nur gerechter und effizienter); SUAVE strebt ein maximales Synergie-Ergebnis an, bei dem alle über ein Netzwerk kooperieren – sein Erfolg wird von der breiten Akzeptanz und der technischen Umsetzung der versprochenen Privatsphäre und Dezentralisierung abhängen; Anoma bietet vielleicht die stärkste MEV-Unterdrückung, indem es die Funktionsweise von Transaktionen vollständig ändert, steht aber vor der großen Herausforderung, ein neues Ökosystem aufzubauen und sein komplexes Protokoll zu beweisen; Skip findet eine pragmatische Balance für Cosmos, indem es Communities erlaubt, MEV und Fairness aktiv nach ihren eigenen Vorstellungen zu steuern – es ist weniger radikal als Anoma, aber tiefer eingebettet als Flashbots und zeigt bereits greifbare Ergebnisse im Cosmos-Ökosystem.

Fazit und Ausblick

MEV-Unterdrückung und Fair Ordering bleiben eines der „Millennium-Probleme der Krypto-Welt“. Die vier analysierten Protokolle – Flashbots v2, SUAVE, Anoma und Skip – repräsentieren ein Spektrum an Lösungen: von sofortigen Abmilderungen in bestehenden Frameworks bis hin zu totalen Paradigmenwechseln in der Transaktionsverarbeitung. Flashbots v2 hat die Kraft von offenen MEV-Märkten demonstriert, um Chaos zu reduzieren und Werte umzuverteilen, während gleichzeitig Kompromisse wie Zensur navigiert werden, die durch Dezentralisierung angegangen werden. Es zeigt, dass inkrementelle Änderungen (wie PBS-Auktionen und private Mempools) den Schmerz durch MEV kurzfristig erheblich lindern können. SUAVE, der nächste Schritt von Flashbots, führt diesen Ethos in eine vereinheitlichte Cross-Chain-Arena – wenn es erfolgreich ist, könnten wir eine Zukunft sehen, in der Nutzer routinemäßig für den MEV bezahlt werden, den ihre Trades erzeugen, und in der die Block-Erstellung über viele Netzwerke hinweg kollaborativ und für Fairness verschlüsselt ist. Anoma deutet auf eine grundlegendere Entwicklung hin: Durch die Entfernung des Konzepts von Prioritätstransaktionen und deren Ersetzung durch ein Intent-Matchmaking-System könnten ganze Klassen von MEV eliminiert und ausdrucksstärkere Finanz-dApps freigeschaltet werden. Sein Fair Ordering auf der Konsensus-Ebene (via Threshold-Verschlüsselung und Batch-Auktionen) ist ein Ausblick darauf, wie Blockchains selbst Fairness-Garantien bieten können, nicht nur als Off-Chain-Add-ons. Skip Protocol wiederum verkörpert einen Mittelweg im Multi-Chain-Kontext – es gibt einzelnen Chains die Entscheidungsfreiheit darüber, wie sie MEV-Einnahmen und Nutzerschutz ausbalancieren. Die frühe Einführung in Cosmos zeigt, dass viele der negativen Auswirkungen von MEV heute mit durchdachtem Protokoll-Engineering und Community-Zustimmung bewältigt werden können.

In Zukunft können wir eine gegenseitige Befruchtung von Ideen erwarten: Ethereum-Forscher untersuchen Order-Fair-Konsensus und Threshold-Verschlüsselung (inspiriert von Projekten wie Anoma und Osmos verschlüsseltem Mempool) für eine potenzielle Aufnahme in L1- oder L2-Lösungen. Flashbots’ SUAVE könnte mit Cosmos-Chains interagieren (vielleicht sogar via Skip), da es danach strebt, Chain-agnostisch zu sein. Anomas Intent-Konzept könnte das Anwendungsdesign selbst auf traditionellen Plattformen beeinflussen (z. B. nutzt CoW Swap auf Ethereum bereits ein Solver-Modell; man kann es als eine „Anoma-ähnliche“ dApp betrachten). Der Erfolg von Skip könnte andere Ökosysteme (Polkadot, Solana etc.) dazu ermutigen, ähnliche In-Protokoll-MEV-Kontrollen einzuführen. Ein zentrales Thema ist das ökonomische Alignment – all diese Protokolle streben danach, die Anreize derjenigen, die das Netzwerk sichern, mit dem Wohlergehen der Nutzer in Einklang zu bringen, sodass die Ausbeutung von Nutzern weder profitabel noch möglich ist. Dies ist entscheidend für die langfristige Gesundheit von Blockchain-Ökosystemen und zur Vermeidung von Zentralisierung.

In Zusammenfassung lässt sich sagen, dass SUAVE, Anoma, Skip und Flashbots v2 jeweils Puzzleteile zum Fair Ordering und zur MEV-Abmilderung beitragen. Flashbots v2 hat eine Vorlage für MEV-Auktionen geschaffen, die andere nachahmen, Skip hat bewiesen, dass On-Chain-Durchsetzung machbar ist, Anoma hat die Vorstellungskraft dessen erweitert, was möglich ist, indem es das Transaktionsmodell neu aufgebaut hat, und SUAVE versucht, die Gewinne der letzten Jahre zu vereinheitlichen und zu dezentralisieren. Die ultimative Lösung könnte Elemente von allen beinhalten: datenschutzwahrende globale Auktionen, Intent-zentrierte Benutzeroberflächen, Fairness-Regeln auf Chain-Ebene und kollaborative Block-Erstellung. Stand 2025 ist der Kampf gegen MEV-induzierte Ungerechtigkeit in vollem Gange – diese Protokolle verwandeln MEV von einer dunklen Unvermeidlichkeit in einen verwalteten, sogar produktiven Teil der Krypto-Ökonomie, während sie sich dem Ideal der „besten Ausführung für Nutzer mit der dezentralsten Infrastruktur“ annähern.