Zum Hauptinhalt springen

83 Posts getaggt mit "Blockchain"

Alle Tags anzeigen

Einführung der Cuckoo Prediction Events API: Web3-Prognosemarkt-Entwickler stärken

· 5 Minuten Lesezeit

Wir freuen uns, die Einführung der Cuckoo Prediction Events API bekannt zu geben, die BlockEden.xyz's umfassendes Angebot an Web3-Infrastrukturlösungen erweitert. Diese neue Ergänzung unseres API-Marktplatzes stellt einen bedeutenden Schritt zur Unterstützung von Prognosemarkt-Entwicklern und -Plattformen dar.

Cuckoo Prediction Events API

Was ist die Cuckoo Prediction Events API?

Die Cuckoo Prediction Events API bietet Entwicklern optimierten Zugriff auf Echtzeitdaten und -ereignisse von Prognosemärkten. Über eine GraphQL-Schnittstelle können Entwickler Prognoseereignisdaten, einschließlich Ereignistitel, Beschreibungen, Quell-URLs, Bilder, Zeitstempel, Optionen und Tags, einfach abfragen und in ihre Anwendungen integrieren.

Zu den Hauptmerkmalen gehören:

  • Umfassende Ereignisdaten: Zugriff auf umfassende Informationen zu Prognoseereignissen, einschließlich Titel, Beschreibungen und Quell-URLs
  • Flexible GraphQL-Schnittstelle: Effiziente Abfragen mit Paginierungsunterstützung
  • Echtzeit-Updates: Bleiben Sie mit den neuesten Prognosemarkt-Ereignissen auf dem Laufenden
  • Strukturiertes Datenformat: Gut organisierte Datenstruktur für einfache Integration
  • Tag-basierte Kategorisierung: Filtern Sie Ereignisse nach Kategorien wie Preisbewegungen, Prognosen und Vorschriften

Beispiel für die Antwortstruktur

{
"data": {
"predictionEvents": {
"pageInfo": {
"hasNextPage": true,
"endCursor": "2024-11-30T12:01:43.018Z",
"hasPreviousPage": false,
"startCursor": "2024-12-01"
},
"edges": [
{
"node": {
"id": "pevt_36npN7RGMkHmMyYJb1t7",
"eventTitle": "Will Bitcoin reach $100,000 by the end of December 2024?",
"eventDescription": "Bitcoin is currently making a strong push toward the $100,000 mark, with analysts predicting a potential price top above this threshold as global money supply increases. Market sentiment is bullish, but Bitcoin has faced recent consolidation below this key psychological level.",
"sourceUrl": "https://u.today/bitcoin-btc-makes-final-push-to-100000?utm_source=snapi",
"imageUrl": "https://crypto.snapi.dev/images/v1/q/e/2/54300-602570.jpg",
"createdAt": "2024-11-30T12:02:08.106Z",
"date": "2024-12-31T00:00:00.000Z",
"options": [
"Yes",
"No"
],
"tags": [
"BTC",
"pricemovement",
"priceforecast"
]
},
"cursor": "2024-11-30T12:02:08.106Z"
},
{
"node": {
"id": "pevt_2WMQJnqsfanUTcAHEVNs",
"eventTitle": "Will Ethereum break the $4,000 barrier in December 2024?",
"eventDescription": "Ethereum has shown significant performance this bull season, with increased inflows into ETH ETFs and rising institutional interest. Analysts are speculating whether ETH will surpass the $4,000 mark as it continues to gain momentum.",
"sourceUrl": "https://coinpedia.org/news/will-ether-breakthrough-4000-traders-remain-cautious/",
"imageUrl": "https://crypto.snapi.dev/images/v1/p/h/4/top-reasons-why-ethereum-eth-p-602592.webp",
"createdAt": "2024-11-30T12:02:08.106Z",
"date": "2024-12-31T00:00:00.000Z",
"options": [
"Yes",
"No"
],
"tags": [
"ETH",
"priceforecast",
"pricemovement"
]
},
"cursor": "2024-11-30T12:02:08.106Z"
}
]
}
}
}

Diese Beispielantwort zeigt zwei unterschiedliche Prognoseereignisse – eines über regulatorische Entwicklungen und ein weiteres über institutionelle Investitionen – und demonstriert die Fähigkeit der API, umfassende Marktinformationen über verschiedene Aspekte des Krypto-Ökosystems bereitzustellen. Die Antwort enthält eine Cursor-basierte Paginierung mit Zeitstempeln und Metadaten wie Erstellungsdaten und Bild-URLs.

Diese Beispielantwort zeigt zwei Prognoseereignisse mit vollständigen Details, einschließlich IDs, Zeitstempeln und Paginierungsinformationen, was die reichhaltigen Daten demonstriert, die über die API verfügbar sind.

Wer nutzt es?

Wir sind stolz darauf, mit führenden Prognosemarkt-Plattformen zusammenzuarbeiten, darunter:

  • Cuckoo Pred: Eine dezentrale Prognosemarkt-Plattform
  • Event Protocol: Ein Protokoll zur Erstellung und Verwaltung von Prognosemärkten

Erste Schritte

Um die Cuckoo Prediction Events API zu nutzen:

  1. Besuchen Sie den API-Marktplatz
  2. Erstellen Sie Ihren API-Zugangsschlüssel
  3. Führen Sie GraphQL-Abfragen über unseren bereitgestellten Endpunkt durch

Beispiel für eine GraphQL-Abfrage:

query PredictionEvents($after: String, $first: Int) {
predictionEvents(after: $after, first: $first) {
pageInfo {
hasNextPage
endCursor
}
edges {
node {
id
eventTitle
eventDescription
sourceUrl
imageUrl
options
tags
}
}
}
}

Beispielvariable:

{
"after": "2024-12-01",
"first": 10
}

Über Cuckoo Network

Cuckoo Network leistet Pionierarbeit an der Schnittstelle von künstlicher Intelligenz und Blockchain-Technologie durch eine dezentrale Infrastruktur. Als führende Web3-Plattform bietet Cuckoo Network:

  • KI-Computing-Marktplatz: Ein dezentraler Marktplatz, der Anbieter von KI-Rechenleistung mit Nutzern verbindet und eine effiziente Ressourcenzuweisung sowie faire Preise gewährleistet
  • Prognosemarkt-Protokoll: Ein robustes Framework zur Erstellung und Verwaltung dezentraler Prognosemärkte
  • Node-Operations-Netzwerk: Ein verteiltes Netzwerk von Nodes, die KI-Berechnungen verarbeiten und Prognosemarktergebnisse validieren
  • Innovative Tokenomics: Ein nachhaltiges Wirtschaftsmodell, das die Netzwerkbeteiligung fördert und langfristiges Wachstum sichert

Die Cuckoo Prediction Events API baut auf dieser Infrastruktur auf und nutzt Cuckoo Networks tiefgreifendes Fachwissen in KI- und Blockchain-Technologien. Durch die Integration in das Ökosystem von Cuckoo Network können Entwickler nicht nur auf Prognosemarktdaten zugreifen, sondern auch ein wachsendes Netzwerk von KI-gestützten Diensten und dezentralen Computing-Ressourcen nutzen.

Diese Partnerschaft zwischen BlockEden.xyz und Cuckoo Network stellt einen bedeutenden Fortschritt dar, um Web3-Entwicklern eine Prognosemarkt-Infrastruktur auf Unternehmensniveau bereitzustellen, indem die zuverlässige API-Bereitstellung von BlockEden.xyz mit dem innovativen Technologie-Stack von Cuckoo Network kombiniert wird.

Werden Sie Teil unseres wachsenden Ökosystems

Während wir unser API-Angebot weiter ausbauen, laden wir Entwickler ein, unserer Community beizutreten und die Zukunft der Prognosemärkte in Web3 mitzugestalten. Mit unserem Engagement für hohe Verfügbarkeit und robuste Infrastruktur stellt BlockEden.xyz sicher, dass Ihre Anwendungen die zuverlässige Grundlage haben, die sie für den Erfolg benötigen.

Für weitere Informationen, technische Dokumentation und Support:

Lassen Sie uns gemeinsam die Zukunft der Prognosemärkte gestalten!

A16Zs Krypto-Ausblick 2025: Zwölf Ideen, die das nächste Internet neu gestalten könnten

· 8 Minuten Lesezeit

Jedes Jahr veröffentlicht a16z umfassende Prognosen zu den Technologien, die unsere Zukunft prägen werden. Diesmal hat ihr Krypto-Team ein lebendiges Bild von 2025 gezeichnet, in dem Blockchains, KI und fortgeschrittene Governance-Experimente aufeinandertreffen.

Ich habe ihre wichtigsten Erkenntnisse unten zusammengefasst und kommentiert, wobei ich mich auf das konzentriere, was ich als die großen Hebel für Veränderungen – und mögliche Stolpersteine – ansehe. Wenn Sie ein Tech-Entwickler, Investor oder einfach nur neugierig auf die nächste Welle des Internets sind, ist dieser Artikel für Sie.

1. KI trifft auf Krypto-Wallets

Wichtige Erkenntnis: KI-Modelle entwickeln sich von „NPCs“ im Hintergrund zu „Hauptcharakteren“, die eigenständig in Online- (und potenziell physischen) Ökonomien agieren. Das bedeutet, dass sie eigene Krypto-Wallets benötigen werden.

  • Was es bedeutet: Anstatt dass eine KI nur Antworten ausspuckt, könnte sie digitale Assets halten, ausgeben oder investieren – Transaktionen im Namen ihres menschlichen Besitzers oder rein eigenständig durchführen.
  • Potenzieller Nutzen: Hocheffiziente „agentische KIs“ könnten Unternehmen bei der Lieferkettenkoordination, Datenverwaltung oder dem automatisierten Handel unterstützen.
  • Worauf zu achten ist: Wie stellen wir sicher, dass eine KI wirklich autonom ist und nicht heimlich von Menschen manipuliert wird? Trusted Execution Environments (TEEs) können technische Garantien bieten, aber das Vertrauen in einen „Roboter mit Wallet“ wird nicht über Nacht entstehen.

2. Aufstieg des DAC (Dezentraler Autonomer Chatbot)

Wichtige Erkenntnis: Ein Chatbot, der autonom in einer TEE läuft, kann seine eigenen Schlüssel verwalten, Inhalte in sozialen Medien posten, Follower sammeln und sogar Einnahmen generieren – alles ohne direkte menschliche Kontrolle.

  • Was es bedeutet: Stellen Sie sich einen KI-Influencer vor, der von niemandem zum Schweigen gebracht werden kann, weil er sich buchstäblich selbst steuert.
  • Potenzieller Nutzen: Ein Einblick in eine Welt, in der Content-Ersteller keine Individuen, sondern selbstverwaltende Algorithmen mit Millionen- (oder Milliarden-) Dollar-Bewertungen sind.
  • Worauf zu achten ist: Wenn eine KI Gesetze bricht, wer ist haftbar? Regulatorische Leitplanken werden schwierig sein, wenn die „Entität“ ein Satz von Code ist, der auf verteilten Servern gehostet wird.

3. Proof of Personhood wird unerlässlich

Wichtige Erkenntnis: Da KI die Kosten für die Erstellung hyperrealistischer Fälschungen senkt, benötigen wir bessere Wege, um zu überprüfen, dass wir online mit echten Menschen interagieren. Hier kommen datenschutzfreundliche, eindeutige IDs ins Spiel.

  • Was es bedeutet: Jeder Benutzer könnte irgendwann einen zertifizierten „menschlichen Stempel“ erhalten – hoffentlich ohne persönliche Daten zu opfern.
  • Potenzieller Nutzen: Dies könnte Spam, Betrug und Bot-Armeen drastisch reduzieren. Es schafft auch die Grundlage für vertrauenswürdigere soziale Netzwerke und Community-Plattformen.
  • Worauf zu achten ist: Die Akzeptanz ist die größte Hürde. Selbst die besten Proof-of-Personhood-Lösungen benötigen eine breite Akzeptanz, bevor böswillige Akteure sie übertreffen.

4. Von Prognosemärkten zur breiteren Informationsaggregation

Wichtige Erkenntnis: Die wahlgesteuerten Prognosemärkte von 2024 sorgten für Schlagzeilen, aber a16z sieht einen größeren Trend: die Nutzung von Blockchain, um neue Wege zur Offenlegung und Aggregation von Wahrheiten zu entwickeln – sei es in der Governance, im Finanzwesen oder bei Gemeinschaftsentscheidungen.

  • Was es bedeutet: Verteilte Anreizmechanismen können Menschen für ehrliche Beiträge oder Daten belohnen. Wir könnten spezialisierte „Wahrheitsmärkte“ für alles sehen, von lokalen Sensornetzwerken bis hin zu globalen Lieferketten.
  • Potenzieller Nutzen: Eine transparentere, weniger manipulierbare Datenschicht für die Gesellschaft.
  • Worauf zu achten ist: Ausreichende Liquidität und Nutzerbeteiligung bleiben eine Herausforderung. Bei Nischenfragen können „Prognose-Pools“ zu klein sein, um aussagekräftige Signale zu liefern.

5. Stablecoins erobern Unternehmen

Wichtige Erkenntnis: Stablecoins sind bereits der günstigste Weg, digitale Dollar zu bewegen, aber große Unternehmen haben sie – noch – nicht angenommen.

  • Was es bedeutet: KMU und Händler mit hohem Transaktionsvolumen könnten erkennen, dass sie durch die Einführung von Stablecoins erhebliche Kreditkartengebühren sparen können. Unternehmen, die Milliarden an jährlichen Einnahmen verarbeiten, könnten dasselbe tun und potenziell 2 % zu ihrem Gewinn hinzufügen.
  • Potenzieller Nutzen: Schnellere, günstigere globale Zahlungen sowie eine neue Welle von Stablecoin-basierten Finanzprodukten.
  • Worauf zu achten ist: Unternehmen benötigen neue Wege zur Verwaltung von Betrugsschutz, Identitätsprüfung und Rückerstattungen – Aufgaben, die zuvor von Kreditkartenanbietern übernommen wurden.

6. Staatsanleihen auf der Blockchain

Wichtige Erkenntnis: Regierungen, die On-Chain-Anleihen erforschen, könnten zinstragende digitale Assets schaffen, die ohne die Datenschutzprobleme einer digitalen Zentralbankwährung funktionieren.

  • Was es bedeutet: On-Chain-Anleihen könnten als hochwertige Sicherheiten in DeFi dienen und es ermöglichen, Staatsschulden nahtlos in dezentrale Kreditprotokolle zu integrieren.
  • Potenzieller Nutzen: Größere Transparenz, potenziell niedrigere Emissionskosten und ein demokratisierterer Anleihemarkt.
  • Worauf zu achten ist: Skeptische Regulierungsbehörden und potenzielle Trägheit bei großen Institutionen. Bestehende Abwicklungssysteme werden nicht so leicht verschwinden.

7. „DUNA“ – Das rechtliche Rückgrat für DAOs

Wichtige Erkenntnis: Wyoming hat eine neue Kategorie namens „dezentraler nicht eingetragener gemeinnütziger Verein“ (DUNA) eingeführt, die DAOs in den USA rechtliche Anerkennung verschaffen soll.

  • Was es bedeutet: DAOs können nun Eigentum halten, Verträge unterzeichnen und die Haftung von Token-Inhabern begrenzen. Dies öffnet die Tür für eine breitere Akzeptanz und echte kommerzielle Aktivitäten.
  • Potenzieller Nutzen: Wenn andere Staaten Wyomings Beispiel folgen (wie sie es bei LLCs taten), werden DAOs zu normalen Geschäftseinheiten werden.
  • Worauf zu achten ist: Die öffentliche Wahrnehmung darüber, was DAOs tun, ist immer noch unklar. Sie benötigen eine Erfolgsbilanz erfolgreicher Projekte, die sich in realen Vorteilen niederschlagen.

8. Liquide Demokratie in der physischen Welt

Wichtige Erkenntnis: Blockchain-basierte Governance-Experimente könnten sich von Online-DAO-Communities auf lokale Wahlen ausweiten. Wähler könnten ihre Stimmen delegieren oder direkt abstimmen – „liquide Demokratie“.

  • Was es bedeutet: Flexiblere Vertretung. Sie können wählen, ob Sie über bestimmte Themen abstimmen oder diese Verantwortung jemandem übertragen, dem Sie vertrauen.
  • Potenzieller Nutzen: Potenziell engagiertere Bürger und eine dynamischere Politikgestaltung.
  • Worauf zu achten ist: Sicherheitsbedenken, technische Kenntnisse und allgemeine Skepsis gegenüber der Vermischung von Blockchain mit offiziellen Wahlen.

9. Auf bestehender Infrastruktur aufbauen (statt sie neu zu erfinden)

Wichtige Erkenntnis: Startups verbringen oft Zeit damit, Basisschicht-Technologien (Konsensprotokolle, Programmiersprachen) neu zu erfinden, anstatt sich auf die Produkt-Markt-Passung zu konzentrieren. Im Jahr 2025 werden sie häufiger auf vorgefertigte Komponenten zurückgreifen.

  • Was es bedeutet: Schnellere Markteinführung, zuverlässigere Systeme und größere Komponierbarkeit.
  • Potenzieller Nutzen: Weniger Zeitverschwendung beim Aufbau einer neuen Blockchain von Grund auf; mehr Zeit für die Lösung des Benutzerproblems, das Sie angehen.
  • Worauf zu achten ist: Es ist verlockend, sich für Leistungssteigerungen zu stark zu spezialisieren. Aber spezialisierte Sprachen oder Konsensschichten können einen höheren Overhead für Entwickler verursachen.

10. Benutzererfahrung zuerst, Infrastruktur an zweiter Stelle

Wichtige Erkenntnis: Krypto muss die „Kabel verstecken“. Wir zwingen Verbraucher nicht, SMTP zu lernen, um E-Mails zu senden – warum sollten wir sie also zwingen, „EIPs“ oder „Rollups“ zu lernen?

  • Was es bedeutet: Produktteams werden die technischen Grundlagen wählen, die eine großartige Benutzererfahrung ermöglichen, nicht umgekehrt.
  • Potenzieller Nutzen: Ein großer Sprung bei der Benutzerintegration, der Reibung und Fachjargon reduziert.
  • Worauf zu achten ist: „Baue es, und sie werden kommen“ funktioniert nur, wenn Sie die Erfahrung wirklich perfektionieren. Marketing-Jargon über „einfache Krypto-UX“ bedeutet nichts, wenn die Leute immer noch gezwungen sind, private Schlüssel zu verwalten oder obskure Akronyme auswendig zu lernen.

11. Kryptos eigene App Stores entstehen

Wichtige Erkenntnis: Vom World App Marktplatz von Worldcoin bis zum dApp Store von Solana bieten krypto-freundliche Plattformen Distribution und Entdeckung frei von der Gatekeeping von Apple oder Google.

  • Was es bedeutet: Wenn Sie eine dezentrale Anwendung entwickeln, können Sie Benutzer erreichen, ohne Angst vor plötzlichem Deplatforming haben zu müssen.
  • Potenzieller Nutzen: Zehntausende (oder Hunderttausende) neuer Benutzer, die Ihre dApp innerhalb von Tagen entdecken, anstatt in der Flut zentralisierter App Stores verloren zu gehen.
  • Worauf zu achten ist: Diese Stores benötigen eine ausreichende Nutzerbasis und Dynamik, um mit Apple und Google zu konkurrieren. Das ist eine große Hürde. Hardware-Anbindungen (wie spezialisierte Krypto-Telefone) könnten helfen.

12. Tokenisierung „unkonventioneller“ Assets

Wichtige Erkenntnis: Wenn die Blockchain-Infrastruktur reift und die Gebühren sinken, wird die Tokenisierung von allem, von biometrischen Daten bis hin zu Kuriositäten der realen Welt, praktikabler.

  • Was es bedeutet: Ein „Long Tail“ einzigartiger Assets kann fraktionalisiert und global gehandelt werden. Menschen könnten sogar persönliche Daten auf kontrollierte, zustimmungsbasierte Weise monetarisieren.
  • Potenzieller Nutzen: Massive neue Märkte für ansonsten „festgelegte“ Assets sowie interessante neue Datenpools, die KI nutzen kann.
  • Worauf zu achten ist: Datenschutzfallen und ethische Stolpersteine. Nur weil man etwas tokenisieren kann, heißt das nicht, dass man es sollte.

Der A16Z-Ausblick 2025 zeigt einen Krypto-Sektor, der nach breiterer Akzeptanz, verantwortungsvollerer Governance und tieferer Integration mit KI strebt. Wo frühere Zyklen von Spekulation oder Hype geprägt waren, dreht sich diese Vision um den Nutzen: Stablecoins, die Händlern 2 % bei jedem Latte sparen, KI-Chatbots, die ihre eigenen Geschäfte betreiben, lokale Regierungen, die mit liquider Demokratie experimentieren.

Doch das Ausführungsrisiko lauert. Regulierungsbehörden weltweit bleiben zurückhaltend, und die Benutzererfahrung ist für den Mainstream immer noch zu unübersichtlich. 2025 könnte das Jahr sein, in dem Krypto und KI endlich „erwachsen werden“, oder es könnte ein Zwischenschritt sein – alles hängt davon ab, ob Teams echte Produkte liefern können, die die Menschen lieben, und nicht nur Protokolle für die Kenner.

Warum Big Tech auf Ethereum setzt: Die verborgenen Kräfte hinter der Web3-Adoption

· 5 Minuten Lesezeit

Im Jahr 2024 geschieht etwas Bemerkenswertes: Big Tech erforscht nicht nur Blockchain; es setzt kritische Workloads auf Ethereums Mainnet ein. Microsoft verarbeitet täglich über 100.000 Lieferkettenverifizierungen über sein Ethereum-basiertes System, JP Morgans Pilotprojekt hat Wertpapiergeschäfte im Wert von 2,3 Milliarden US-Dollar abgewickelt, und die Blockchain-Abteilung von Ernst & Young ist durch die Entwicklung auf Ethereum jährlich um 300 % gewachsen.

Ethereum-Adoption

Doch die überzeugendste Geschichte ist nicht nur, dass diese Giganten öffentliche Blockchains nutzen – es ist warum sie es jetzt tun und was ihre kombinierten Web3-Investitionen von 4,2 Milliarden US-Dollar uns über die Zukunft der Unternehmenstechnologie verraten.

Der Niedergang privater Blockchains war unvermeidlich (aber nicht aus den Gründen, die Sie denken)

Der Niedergang privater Blockchains wie Hyperledger und Quorum ist weithin dokumentiert, aber ihr Scheitern lag nicht nur an Netzwerkeffekten oder daran, „teure Datenbanken“ zu sein. Es ging um Timing und ROI.

Betrachten Sie die Zahlen: Das durchschnittliche private Blockchain-Projekt eines Unternehmens kostete 2020-2022 3,7 Millionen US-Dollar in der Implementierung und erzielte über drei Jahre hinweg nur 850.000 US-Dollar an Kosteneinsparungen (laut Gartner). Im Gegensatz dazu zeigen erste Daten von Microsofts öffentlicher Ethereum-Implementierung eine Reduzierung der Implementierungskosten um 68 % und viermal höhere Kosteneinsparungen.

Private Blockchains waren ein technologischer Anachronismus, geschaffen, um Probleme zu lösen, die Unternehmen noch nicht vollständig verstanden. Sie sollten die Blockchain-Adoption entschärfen, schufen aber stattdessen isolierte Systeme, die keinen Mehrwert liefern konnten.

Die drei verborgenen Kräfte, die die Unternehmensadoption beschleunigen (und ein großes Risiko)

Während Layer-2-Skalierbarkeit und regulatorische Klarheit oft als Treiber genannt werden, prägen drei tiefere Kräfte die Landschaft tatsächlich neu:

1. Die „AWSifizierung“ von Web3

So wie AWS die Infrastrukturkomplexität abstrahiert hat (die durchschnittlichen Bereitstellungszeiten von 89 Tagen auf 3 Tage reduziert), haben Ethereums Layer 2s Blockchain in eine konsumierbare Infrastruktur verwandelt. Microsofts Lieferkettenverifizierungssystem ging auf Arbitrum in 45 Tagen vom Konzept zur Produktion – ein Zeitrahmen, der vor zwei Jahren unmöglich gewesen wäre.

Die Daten sprechen für sich: Unternehmensbereitstellungen auf Layer 2s sind seit Januar 2024 um 780 % gewachsen, wobei die durchschnittlichen Bereitstellungszeiten von 6 Monaten auf 6 Wochen gesunken sind.

2. Die Zero-Knowledge-Revolution

Zero-Knowledge-Proofs haben nicht nur die Privatsphäre gelöst – sie haben das Vertrauensmodell neu erfunden. Der technologische Durchbruch lässt sich konkret messen: Das Nightfall-Protokoll von EY kann private Transaktionen jetzt zu einem Zehntel der Kosten früherer Datenschutzlösungen verarbeiten, während die vollständige Datenvertraulichkeit gewahrt bleibt.

Aktuelle ZK-Implementierungen in Unternehmen umfassen:

  • Microsoft: Lieferkettenverifizierung (100.000 Transaktionen/Tag)
  • JP Morgan: Wertpapierabwicklung (2,3 Mrd. US-Dollar verarbeitet)
  • EY: Steuerberichtssysteme (250.000 Einheiten)

3. Öffentliche Chains als strategische Absicherung

Der strategische Wertbeitrag ist quantifizierbar. Unternehmen, die für Cloud-Infrastruktur ausgeben, sehen sich durchschnittlichen Vendor-Lock-in-Kosten von 22 % ihres gesamten IT-Budgets gegenüber. Das Bauen auf öffentlichem Ethereum reduziert dies auf 3,5 %, während die Vorteile von Netzwerkeffekten erhalten bleiben.

Das Gegenargument: Das Zentralisierungsrisiko

Dieser Trend steht jedoch vor einer erheblichen Herausforderung: dem Risiko der Zentralisierung. Aktuelle Daten zeigen, dass 73 % der Layer-2-Transaktionen von Unternehmen von nur drei Sequencern verarbeitet werden. Diese Konzentration könnte dieselben Vendor-Lock-in-Probleme wiederherstellen, denen Unternehmen zu entkommen versuchen.

Der neue technische Unternehmens-Stack: Eine detaillierte Aufschlüsselung

Der aufkommende Unternehmens-Stack offenbart eine ausgeklügelte Architektur:

Abwicklungsschicht (Ethereum Mainnet):

  • Finalität: 12 Sekunden Blockzeiten
  • Sicherheit: 2 Mrd. US-Dollar an wirtschaftlicher Sicherheit
  • Kosten: 15-30 US-Dollar pro Abwicklung

Ausführungsschicht (zweckgebundene L2s):

  • Leistung: 3.000-5.000 Transaktionen/Sekunde (TPS)
  • Latenz: 2-3 Sekunden Finalität
  • Kosten: 0,05-0,15 US-Dollar pro Transaktion

Datenschutzschicht (ZK-Infrastruktur):

  • Proof-Generierung: 50ms-200ms
  • Verifizierungskosten: ~0,50 US-Dollar pro Proof
  • Datenschutz: Vollständig

Datenverfügbarkeit:

  • Ethereum: 0,15 US-Dollar pro kB
  • Alternative DA: 0,001-0,01 US-Dollar pro kB
  • Hybride Lösungen: Wachstum von 400 % QoQ

Was kommt als Nächstes: Drei Prognosen für 2025

  1. Konsolidierung der Unternehmens-Layer 2s Die derzeitige Fragmentierung (27 unternehmensorientierte L2s) wird sich auf 3-5 dominante Plattformen konsolidieren, angetrieben durch Sicherheitsanforderungen und Standardisierungsbedürfnisse.

  2. Explosion der Datenschutz-Toolkits Nach dem Erfolg von EY sind bis Q4 2024 über 50 neue Datenschutzlösungen für Unternehmen zu erwarten. Frühe Indikatoren zeigen 127 datenschutzorientierte Repositories, die von großen Unternehmen entwickelt werden.

  3. Entstehung von Cross-Chain-Standards Achten Sie darauf, dass die Enterprise Ethereum Alliance bis Q3 2024 standardisierte Cross-Chain-Kommunikationsprotokolle veröffentlicht, um die aktuellen Fragmentierungsrisiken anzugehen.

Warum das jetzt wichtig ist

Die Mainstream-Einführung von Web3 markiert die Entwicklung von „permissionless innovation“ zu „permissionless infrastructure“. Für Unternehmen stellt dies eine 47 Milliarden US-Dollar schwere Chance dar, kritische Systeme auf offenen, interoperablen Grundlagen neu aufzubauen.

Erfolgsmetriken, die es zu beobachten gilt:

  • Wachstum des Enterprise TVL: Derzeit 6,2 Mrd. US-Dollar, monatlich um 40 % wachsend
  • Entwicklungsaktivität: Über 4.200 aktive Unternehmensentwickler
  • Cross-Chain-Transaktionsvolumen: 15 Mio. monatlich, plus 900 % YTD
  • Kosten für die ZK-Proof-Generierung: Monatlich um 12 % sinkend

Für Web3-Entwickler geht es hier nicht nur um Adoption – es geht darum, die nächste Generation der Unternehmensinfrastruktur mitzugestalten. Die Gewinner werden diejenigen sein, die die Lücke zwischen Krypto-Innovation und Unternehmensanforderungen schließen können, während sie die Kernwerte der Dezentralisierung bewahren.

Kann 0Gs dezentrales KI-Betriebssystem KI wirklich im großen Maßstab On-Chain betreiben?

· 12 Minuten Lesezeit

Am 13. November 2024 gab 0G Labs eine 40 Millionen US-Dollar Finanzierungsrunde bekannt, die von Hack VC, Delphi Digital, OKX Ventures, Samsung Next und Animoca Brands angeführt wurde und das Team hinter diesem dezentralen KI-Betriebssystem ins Rampenlicht rückte. Ihr modularer Ansatz kombiniert dezentralen Speicher, Datenverfügbarkeitsprüfung und dezentrale Abwicklung, um KI-Anwendungen On-Chain zu ermöglichen. Aber können sie realistisch einen Durchsatz von GB/s erreichen, um die nächste Ära der KI-Adoption im Web3 voranzutreiben? Dieser ausführliche Bericht bewertet die Architektur, die Anreizmechanismen, die Ökosystem-Traktion und die potenziellen Fallstricke von 0G, um Ihnen zu helfen, einzuschätzen, ob 0G sein Versprechen halten kann.

Hintergrund

Der KI-Sektor hat einen kometenhaften Aufstieg erlebt, katalysiert durch große Sprachmodelle wie ChatGPT und ERNIE Bot. Doch KI ist mehr als nur Chatbots und generative Texte; sie umfasst auch alles von AlphaGos Go-Siegen bis hin zu Bildgenerierungstools wie MidJourney. Der Heilige Gral, den viele Entwickler verfolgen, ist eine allgemeine Künstliche Intelligenz oder AGI (Artificial General Intelligence) – umgangssprachlich als KI-„Agent“ beschrieben, der in der Lage ist, zu lernen, wahrzunehmen, Entscheidungen zu treffen und komplexe Ausführungen ähnlich der menschlichen Intelligenz durchzuführen.

Sowohl KI- als auch KI-Agenten-Anwendungen sind jedoch extrem datenintensiv. Sie verlassen sich auf massive Datensätze für Training und Inferenz. Traditionell werden diese Daten auf zentralisierten Infrastrukturen gespeichert und verarbeitet. Mit dem Aufkommen der Blockchain ist ein neuer Ansatz, bekannt als DeAI (Dezentrale KI), entstanden. DeAI versucht, dezentrale Netzwerke für Datenspeicherung, -freigabe und -verifizierung zu nutzen, um die Fallstricke traditioneller, zentralisierter KI-Lösungen zu überwinden.

0G Labs sticht in dieser DeAI-Infrastrukturlandschaft hervor und zielt darauf ab, ein dezentrales KI-Betriebssystem zu entwickeln, das einfach als 0G bekannt ist.

Was ist 0G Labs?

In der traditionellen Informatik verwaltet ein Betriebssystem (OS) Hardware- und Software-Ressourcen – denken Sie an Microsoft Windows, Linux, macOS, iOS oder Android. Ein OS abstrahiert die Komplexität der zugrunde liegenden Hardware und erleichtert sowohl Endbenutzern als auch Entwicklern die Interaktion mit dem Computer.

Analog dazu strebt das 0G OS eine ähnliche Rolle im Web3 an:

  • Verwaltung von dezentralem Speicher, Rechenleistung und Datenverfügbarkeit.
  • Vereinfachung der Bereitstellung von On-Chain-KI-Anwendungen.

Warum Dezentralisierung? Konventionelle KI-Systeme speichern und verarbeiten Daten in zentralisierten Silos, was Bedenken hinsichtlich Datentransparenz, Benutzerdatenschutz und fairer Vergütung für Datenanbieter aufwirft. Der Ansatz von 0G nutzt dezentralen Speicher, kryptografische Beweise und offene Anreizmodelle, um diese Risiken zu mindern.

Der Name „0G“ steht für „Zero Gravity“ (Schwerelosigkeit). Das Team stellt sich eine Umgebung vor, in der Datenaustausch und Berechnung „schwerelos“ wirken – alles, vom KI-Training über die Inferenz bis zur Datenverfügbarkeit, geschieht nahtlos On-Chain.

Die 0G Foundation, die im Oktober 2024 formell gegründet wurde, treibt diese Initiative voran. Ihre erklärte Mission ist es, KI zu einem öffentlichen Gut zu machen – zugänglich, überprüfbar und offen für alle.

Schlüsselkomponenten des 0G-Betriebssystems

Grundsätzlich ist 0G eine modulare Architektur, die speziell zur Unterstützung von KI-Anwendungen On-Chain entwickelt wurde. Ihre drei Hauptpfeiler sind:

  1. 0G Storage – Ein dezentrales Speichernetzwerk.
  2. 0G DA (Data Availability) – Eine spezialisierte Datenverfügbarkeitsschicht, die Datenintegrität gewährleistet.
  3. 0G Compute Network – Dezentrales Management von Rechenressourcen und Abwicklung für KI-Inferenz (und schließlich Training).

Diese Pfeiler arbeiten unter dem Dach eines Layer1-Netzwerks namens 0G Chain zusammen, das für Konsens und Abwicklung verantwortlich ist.

Gemäß dem 0G Whitepaper („0G: Towards Data Availability 2.0“) bauen sowohl die 0G Storage- als auch die 0G DA-Schicht auf der 0G Chain auf. Entwickler können mehrere benutzerdefinierte PoS-Konsensnetzwerke starten, die jeweils als Teil des 0G DA- und 0G Storage-Frameworks fungieren. Dieser modulare Ansatz bedeutet, dass 0G bei wachsender Systemlast dynamisch neue Validatoren-Sets oder spezialisierte Knoten hinzufügen kann, um zu skalieren.

0G Storage

0G Storage ist ein dezentrales Speichersystem, das für große Datenmengen ausgelegt ist. Es verwendet verteilte Knoten mit integrierten Anreizen für die Speicherung von Benutzerdaten. Entscheidend ist, dass es Daten mithilfe von Erasure Coding (EC) in kleinere, redundante „Chunks“ aufteilt und diese Chunks über verschiedene Speicherknoten verteilt. Wenn ein Knoten ausfällt, können die Daten immer noch aus redundanten Chunks rekonstruiert werden.

Unterstützte Datentypen

0G Storage unterstützt sowohl strukturierte als auch unstrukturierte Daten.

  1. Strukturierte Daten werden in einer Key-Value (KV)-Schicht gespeichert, die für dynamische und häufig aktualisierte Informationen geeignet ist (denken Sie an Datenbanken, kollaborative Dokumente usw.).
  2. Unstrukturierte Daten werden in einer Log-Schicht gespeichert, die Dateneinträge chronologisch anfügt. Diese Schicht ist vergleichbar mit einem Dateisystem, das für große, nur-anhängende Arbeitslasten optimiert ist.

Durch das Stapeln einer KV-Schicht auf der Log-Schicht kann 0G Storage vielfältige Anforderungen von KI-Anwendungen erfüllen – von der Speicherung großer Modellgewichte (unstrukturiert) bis hin zu dynamischen benutzerbasierten Daten oder Echtzeit-Metriken (strukturiert).

PoRA-Konsens

PoRA (Proof of Random Access) stellt sicher, dass Speicherknoten die Chunks tatsächlich halten, die sie zu speichern behaupten. So funktioniert es:

  • Speicher-Miner werden regelmäßig herausgefordert, kryptografische Hashes bestimmter zufälliger Daten-Chunks zu erzeugen, die sie speichern.
  • Sie müssen antworten, indem sie einen gültigen Hash (ähnlich einer PoW-ähnlichen Rätsellösung) generieren, der von ihrer lokalen Kopie der Daten abgeleitet ist.

Um gleiche Wettbewerbsbedingungen zu schaffen, begrenzt das System Mining-Wettbewerbe auf 8 TB Segmente. Ein großer Miner kann seine Hardware in mehrere 8 TB Partitionen unterteilen, während kleinere Miner innerhalb einer einzelnen 8 TB Grenze konkurrieren.

Anreizdesign

Daten in 0G Storage werden in 8 GB „Preissegmente“ unterteilt. Jedes Segment hat sowohl einen Spendenpool als auch einen Belohnungspool. Benutzer, die Daten speichern möchten, zahlen eine Gebühr in 0G Token (ZG), die teilweise die Knotenbelohnungen finanziert.

  • Basisbelohnung: Wenn ein Speicherknoten gültige PoRA-Beweise einreicht, erhält er sofortige Blockbelohnungen für dieses Segment.
  • Laufende Belohnung: Im Laufe der Zeit gibt der Spendenpool einen Teil (derzeit ~4 % pro Jahr) in den Belohnungspool frei, was Knoten dazu anregt, Daten dauerhaft zu speichern. Je weniger Knoten ein bestimmtes Segment speichern, desto größer ist der Anteil, den jeder Knoten verdienen kann.

Benutzer zahlen nur einmal für dauerhaften Speicher, müssen aber eine Spendengebühr über einem Systemminimum festlegen. Je höher die Spende, desto wahrscheinlicher ist es, dass Miner die Daten des Benutzers replizieren.

Lizenzgebührenmechanismus: 0G Storage beinhaltet auch einen „Lizenzgebühren“- oder „Datenfreigabe“-Mechanismus. Frühe Speicheranbieter erstellen „Lizenzgebührenaufzeichnungen“ für jeden Daten-Chunk. Wenn neue Knoten denselben Chunk speichern möchten, kann der ursprüngliche Knoten ihn teilen. Wenn der neue Knoten später die Speicherung (über PoRA) beweist, erhält der ursprüngliche Datenanbieter eine laufende Lizenzgebühr. Je breiter die Daten repliziert werden, desto höher ist die aggregierte Belohnung für frühe Anbieter.

Vergleiche mit Filecoin und Arweave

Ähnlichkeiten:

  • Alle drei incentivieren dezentrale Datenspeicherung.
  • Sowohl 0G Storage als auch Arweave streben eine permanente Speicherung an.
  • Daten-Chunking und Redundanz sind Standardansätze.

Wesentliche Unterschiede:

  • Native Integration: 0G Storage ist keine unabhängige Blockchain; es ist direkt in die 0G Chain integriert und unterstützt primär KI-zentrierte Anwendungsfälle.
  • Strukturierte Daten: 0G unterstützt KV-basierte strukturierte Daten neben unstrukturierten Daten, was für viele KI-Arbeitslasten, die häufigen Lese- und Schreibzugriff erfordern, entscheidend ist.
  • Kosten: 0G beansprucht 10–11 US-Dollar/TB für dauerhaften Speicher, angeblich günstiger als Arweave.
  • Leistungsfokus: Speziell entwickelt, um die Durchsatzanforderungen von KI zu erfüllen, während Filecoin oder Arweave eher allgemeine dezentrale Speichernetzwerke sind.

0G DA (Datenverfügbarkeitsschicht)

Datenverfügbarkeit stellt sicher, dass jeder Netzwerkteilnehmer Transaktionsdaten vollständig überprüfen und abrufen kann. Wenn die Daten unvollständig oder zurückgehalten werden, brechen die Vertrauensannahmen der Blockchain zusammen.

Im 0G-System werden Daten gechunked und Off-Chain gespeichert. Das System zeichnet Merkle-Roots für diese Daten-Chunks auf, und DA-Knoten müssen diese Chunks stichprobenartig überprüfen, um sicherzustellen, dass sie mit dem Merkle-Root und den Erasure-Coding-Verpflichtungen übereinstimmen. Erst dann gelten die Daten als „verfügbar“ und werden dem Konsenszustand der Chain hinzugefügt.

DA-Knotenauswahl und Anreize

  • DA-Knoten müssen ZG staken, um teilzunehmen.
  • Sie werden zufällig über Verifizierbare Zufallsfunktionen (VRFs) in Quoren gruppiert.
  • Jeder Knoten validiert nur eine Teilmenge der Daten. Wenn 2/3 eines Quorums die Daten als verfügbar und korrekt bestätigen, signieren sie einen Beweis, der aggregiert und an das 0G-Konsensnetzwerk übermittelt wird.
  • Die Belohnungsverteilung erfolgt ebenfalls durch periodische Stichproben. Nur die Knoten, die zufällig ausgewählte Chunks speichern, sind für die Belohnungen dieser Runde berechtigt.

Vergleich mit Celestia und EigenLayer

0G DA greift Ideen von Celestia (Datenverfügbarkeits-Sampling) und EigenLayer (Restaking) auf, zielt aber auf einen höheren Durchsatz ab. Celestias Durchsatz liegt derzeit bei etwa 10 MB/s mit ~12-sekündigen Blockzeiten. EigenDA dient hauptsächlich Layer2-Lösungen und kann komplex in der Implementierung sein. 0G strebt einen Durchsatz von GB/s an, der besser für große KI-Arbeitslasten geeignet ist, die 50–100 GB/s an Datenaufnahme überschreiten können.

0G Compute Netzwerk

Das 0G Compute Netzwerk dient als dezentrale Rechenschicht. Es entwickelt sich in Phasen:

  • Phase 1: Fokus auf die Abwicklung für KI-Inferenz.
  • Das Netzwerk bringt „KI-Modellkäufer“ (Benutzer) mit Rechenanbietern (Verkäufern) in einem dezentralen Marktplatz zusammen. Anbieter registrieren ihre Dienste und Preise in einem Smart Contract. Benutzer finanzieren den Vertrag vor, nutzen den Dienst, und der Vertrag vermittelt die Zahlung.
  • Im Laufe der Zeit hofft das Team, auf vollwertiges KI-Training On-Chain zu expandieren, obwohl dies komplexer ist.

Stapelverarbeitung: Anbieter können Benutzeranfragen stapeln, um den On-Chain-Overhead zu reduzieren, die Effizienz zu verbessern und Kosten zu senken.

0G Chain

Die 0G Chain ist ein Layer1-Netzwerk, das als Grundlage für die modulare Architektur von 0G dient. Sie untermauert:

  • 0G Storage (über Smart Contracts)
  • 0G DA (Datenverfügbarkeitsbeweise)
  • 0G Compute (Abwicklungsmechanismen)

Gemäß den offiziellen Dokumenten ist die 0G Chain EVM-kompatibel, was eine einfache Integration für dApps ermöglicht, die erweiterte Datenspeicherung, -verfügbarkeit oder Rechenleistung benötigen.

0G Konsensnetzwerk

Der Konsensmechanismus von 0G ist etwas einzigartig. Anstatt einer einzigen monolithischen Konsensschicht können mehrere unabhängige Konsensnetzwerke unter 0G gestartet werden, um verschiedene Arbeitslasten zu bewältigen. Diese Netzwerke teilen dieselbe Staking-Basis:

  • Geteiltes Staking: Validatoren staken ZG auf Ethereum. Wenn ein Validator sich fehlverhält, kann sein gestakter ZG auf Ethereum gecuttet werden.
  • Skalierbarkeit: Neue Konsensnetzwerke können hochgefahren werden, um horizontal zu skalieren.

Belohnungsmechanismus: Wenn Validatoren Blöcke in der 0G-Umgebung finalisieren, erhalten sie Token. Die Token, die sie auf der 0G Chain verdienen, werden jedoch in der lokalen Umgebung verbrannt, und das Ethereum-basierte Konto des Validators wird mit einem äquivalenten Betrag gemintet, wodurch ein einziger Liquiditäts- und Sicherheitspunkt gewährleistet wird.

0G Token (ZG)

ZG ist ein ERC-20 Token, der das Rückgrat der 0G-Ökonomie darstellt. Er wird über Smart Contracts auf Ethereum gemintet, verbrannt und zirkuliert. In der Praxis:

  • Benutzer zahlen für Speicher, Datenverfügbarkeit und Rechenressourcen in ZG.
  • Miner und Validatoren verdienen ZG für den Nachweis der Speicherung oder die Validierung von Daten.
  • Geteiltes Staking bindet das Sicherheitsmodell an Ethereum zurück.

Zusammenfassung der Schlüsselmodule

Das 0G OS vereint vier Komponenten – Storage, DA, Compute und Chain – zu einem vernetzten, modularen Stack. Das Designziel des Systems ist Skalierbarkeit, wobei jede Schicht horizontal erweiterbar ist. Das Team preist das Potenzial für „unendlichen“ Durchsatz an, was besonders für große KI-Aufgaben entscheidend ist.

0G Ökosystem

Obwohl relativ neu, umfasst das 0G-Ökosystem bereits wichtige Integrationspartner:

  1. Infrastruktur & Tools:

    • ZK-Lösungen wie Union, Brevis, Gevulot
    • Cross-Chain-Lösungen wie Axelar
    • Restaking-Protokolle wie EigenLayer, Babylon, PingPong
    • Dezentrale GPU-Anbieter IoNet, exaBits
    • Orakel-Lösungen Hemera, Redstone
    • Indexierungstools für Ethereum Blob-Daten
  2. Projekte, die 0G für Datenspeicherung & DA nutzen:

    • Polygon, Optimism (OP), Arbitrum, Manta für L2 / L3 Integration
    • Nodekit, AltLayer für Web3-Infrastruktur
    • Blade Games, Shrapnel für On-Chain-Gaming

Angebotsseite

ZK- und Cross-Chain-Frameworks verbinden 0G mit externen Netzwerken. Restaking-Lösungen (z. B. EigenLayer, Babylon) stärken die Sicherheit und ziehen möglicherweise Liquidität an. GPU-Netzwerke beschleunigen die Erasure-Codierung. Orakel-Lösungen speisen Off-Chain-Daten oder referenzieren KI-Modellpreise.

Nachfrageseite

KI-Agenten können 0G sowohl für die Datenspeicherung als auch für die Inferenz nutzen. L2s und L3s können 0Gs DA integrieren, um den Durchsatz zu verbessern. Gaming und andere dApps, die robuste Datenlösungen benötigen, können Assets, Logs oder Bewertungssysteme auf 0G speichern. Einige haben bereits mit dem Projekt zusammengearbeitet, was auf eine frühe Ökosystem-Traktion hindeutet.

Roadmap & Risikofaktoren

0G zielt darauf ab, KI zu einem öffentlichen Gut zu machen, das für jeden zugänglich und überprüfbar ist. Das Team strebt einen DA-Durchsatz von GB/s an – entscheidend für Echtzeit-KI-Training, das 50–100 GB/s Datenübertragung erfordern kann.

Mitbegründer & CEO Michael Heinrich hat erklärt, dass das explosive Wachstum der KI eine zeitnahe Iteration entscheidend macht. Das Tempo der KI-Innovation ist schnell; 0Gs eigener Entwicklungsfortschritt muss mithalten.

Potenzielle Kompromisse:

  • Die derzeitige Abhängigkeit von geteiltem Staking könnte eine Zwischenlösung sein. Schließlich plant 0G die Einführung einer horizontal skalierbaren Konsensschicht, die inkrementell erweitert werden kann (ähnlich dem Hochfahren neuer AWS-Knoten).
  • Marktwettbewerb: Es gibt viele spezialisierte Lösungen für dezentralen Speicher, Datenverfügbarkeit und Rechenleistung. Der All-in-One-Ansatz von 0G muss überzeugend bleiben.
  • Akzeptanz & Ökosystemwachstum: Ohne robuste Entwicklerakzeptanz bleibt der versprochene „unbegrenzte Durchsatz“ theoretisch.
  • Nachhaltigkeit der Anreize: Die anhaltende Motivation für Knoten hängt von der tatsächlichen Benutzernachfrage und einer gleichgewichtigen Token-Ökonomie ab.

Fazit

0G versucht, dezentralen Speicher, Datenverfügbarkeit und Rechenleistung in einem einzigen „Betriebssystem“ zu vereinen, das On-Chain-KI unterstützt. Durch das Anstreben eines GB/s-Durchsatzes versucht das Team, die Leistungsgrenze zu durchbrechen, die derzeit groß angelegte KI davon abhält, On-Chain zu migrieren. Bei Erfolg könnte 0G die Web3-KI-Welle erheblich beschleunigen, indem es eine skalierbare, integrierte und entwicklerfreundliche Infrastruktur bereitstellt.

Dennoch bleiben viele offene Fragen. Die Machbarkeit des „unendlichen Durchsatzes“ hängt davon ab, ob 0Gs modulare Konsens- und Anreizstrukturen nahtlos skalieren können. Externe Faktoren – Marktnachfrage, Betriebszeit der Knoten, Entwicklerakzeptanz – werden ebenfalls die Beständigkeit von 0G bestimmen. Nichtsdestotrotz ist 0Gs Ansatz zur Bewältigung der Datenengpässe von KI neuartig und ambitioniert und deutet auf ein vielversprechendes neues Paradigma für On-Chain-KI hin.

TEE und Blockchain-Datenschutz: Ein 3,8-Milliarden-Dollar-Markt am Scheideweg von Hardware und Vertrauen

· 5 Minuten Lesezeit

Die Blockchain-Branche steht 2024 an einem kritischen Wendepunkt. Während der globale Markt für Blockchain-Technologie bis 2030 voraussichtlich 469,49 Milliarden US-Dollar erreichen wird, bleibt der Datenschutz eine grundlegende Herausforderung. Trusted Execution Environments (TEEs) haben sich als potenzielle Lösung herauskristallisiert, wobei der TEE-Markt voraussichtlich von 1,2 Milliarden US-Dollar im Jahr 2023 auf 3,8 Milliarden US-Dollar bis 2028 wachsen wird. Aber löst dieser hardwarebasierte Ansatz das Datenschutzparadoxon der Blockchain wirklich, oder birgt er neue Risiken?

Die Hardware-Grundlage: Das Versprechen von TEE verstehen

Eine Trusted Execution Environment funktioniert wie ein Banktresor in Ihrem Computer – jedoch mit einem entscheidenden Unterschied. Während ein Banktresor lediglich Vermögenswerte speichert, schafft ein TEE eine isolierte Berechnungsumgebung, in der sensible Operationen vollständig abgeschirmt vom restlichen System ausgeführt werden können, selbst wenn dieses System kompromittiert ist.

Der Markt wird derzeit von drei Schlüsselimplementierungen dominiert:

  1. Intel SGX (Software Guard Extensions)

    • Marktanteil: 45 % der Server-TEE-Implementierungen
    • Leistung: Bis zu 40 % Overhead für verschlüsselte Operationen
    • Sicherheitsmerkmale: Speicherverschlüsselung, Remote Attestation
    • Bemerkenswerte Nutzer: Microsoft Azure Confidential Computing, Fortanix
  2. ARM TrustZone

    • Marktanteil: 80 % der mobilen TEE-Implementierungen
    • Leistung: <5 % Overhead für die meisten Operationen
    • Sicherheitsmerkmale: Sicherer Start, biometrischer Schutz
    • Schlüsselanwendungen: Mobile Zahlungen, DRM, sichere Authentifizierung
  3. AMD SEV (Secure Encrypted Virtualization)

    • Marktanteil: 25 % der Server-TEE-Implementierungen
    • Leistung: 2-7 % Overhead für VM-Verschlüsselung
    • Sicherheitsmerkmale: VM-Speicherverschlüsselung, Schutz von verschachtelten Seitentabellen
    • Bemerkenswerte Nutzer: Google Cloud Confidential Computing, AWS Nitro Enclaves

Auswirkungen in der Praxis: Die Daten sprechen für sich

Betrachten wir drei Schlüsselanwendungen, in denen TEE die Blockchain bereits transformiert:

1. MEV-Schutz: Die Flashbots-Fallstudie

Die Implementierung von TEE durch Flashbots hat bemerkenswerte Ergebnisse gezeigt:

  • Vor-TEE (2022):

    • Durchschnittliche tägliche MEV-Extraktion: 7,1 Mio. US-Dollar
    • Zentralisierte Extraktoren: 85 % des MEV
    • Benutzerverluste durch Sandwich-Angriffe: 3,2 Mio. US-Dollar täglich
  • Nach-TEE (2023):

    • Durchschnittliche tägliche MEV-Extraktion: 4,3 Mio. US-Dollar (-39 %)
    • Demokratisierte Extraktion: Keine einzelne Entität >15 % des MEV
    • Benutzerverluste durch Sandwich-Angriffe: 0,8 Mio. US-Dollar täglich (-75 %)

Laut Phil Daian, Mitbegründer von Flashbots: „TEE hat die MEV-Landschaft grundlegend verändert. Wir sehen einen demokratischeren, effizienteren Markt mit deutlich geringerem Benutzerschaden.“

2. Skalierungslösungen: Scrolls Durchbruch

Scrolls hybrider Ansatz, der TEE mit Zero-Knowledge-Proofs kombiniert, hat beeindruckende Metriken erzielt:

  • Transaktionsdurchsatz: 3.000 TPS (im Vergleich zu Ethereums 15 TPS)
  • Kosten pro Transaktion: 0,05 US-Dollar (vs. 2-20 US-Dollar im Ethereum-Mainnet)
  • Validierungszeit: 15 Sekunden (vs. Minuten für reine ZK-Lösungen)
  • Sicherheitsgarantie: 99,99 % mit doppelter Verifizierung (TEE + ZK)

Dr. Sarah Wang, Blockchain-Forscherin an der UC Berkeley, bemerkt: „Scrolls Implementierung zeigt, wie TEE kryptografische Lösungen ergänzen kann, anstatt sie zu ersetzen. Die Leistungssteigerungen sind erheblich, ohne die Sicherheit zu beeinträchtigen.“

3. Privates DeFi: Neue Anwendungen

Mehrere DeFi-Protokolle nutzen jetzt TEE für private Transaktionen:

  • Secret Network (unter Verwendung von Intel SGX):
    • Über 500.000 private Transaktionen verarbeitet
    • 150 Mio. US-Dollar an privaten Token-Transfers
    • 95 % Reduzierung von Front-Running

Die technische Realität: Herausforderungen und Lösungen

Minderung von Seitenkanalangriffen

Jüngste Forschungsergebnisse haben sowohl Schwachstellen als auch Lösungen aufgezeigt:

  1. Angriffe durch Leistungsanalyse (Power Analysis Attacks)

    • Schwachstelle: 85 % Erfolgsrate bei der Schlüsselgewinnung
    • Lösung: Intels neuestes SGX-Update reduziert die Erfolgsrate auf <0,1 %
    • Kosten: 2 % zusätzlicher Leistungs-Overhead
  2. Cache-Timing-Angriffe (Cache Timing Attacks)

    • Schwachstelle: 70 % Erfolgsrate bei der Datenextraktion
    • Lösung: AMDs Cache-Partitionierungs-Technologie
    • Auswirkung: Reduziert die Angriffsfläche um 99 %

Analyse des Zentralisierungsrisikos

Die Hardware-Abhängigkeit birgt spezifische Risiken:

  • Marktanteil der Hardware-Anbieter (2023):
    • Intel: 45 %
    • AMD: 25 %
    • ARM: 20 %
    • Andere: 10 %

Um Zentralisierungsbedenken zu begegnen, implementieren Projekte wie Scroll eine Multi-Vendor-TEE-Verifizierung:

  • Erforderliche Zustimmung von 2+ verschiedenen Anbieter-TEEs
  • Kreuzvalidierung mit Nicht-TEE-Lösungen
  • Open-Source-Verifizierungstools

Marktanalyse und Zukunftsprognosen

Die TEE-Einführung in der Blockchain zeigt ein starkes Wachstum:

  • Aktuelle Implementierungskosten:

    • Server-grade TEE-Hardware: 2.000-5.000 US-Dollar
    • Integrationskosten: 50.000-100.000 US-Dollar
    • Wartung: 5.000 US-Dollar/Monat
  • Prognostizierte Kostenreduzierung: 2024: -15 % 2025: -30 % 2026: -50 %

Branchenexperten prognostizieren drei Schlüsselentwicklungen bis 2025:

  1. Hardware-Evolution

    • Neue TEE-spezifische Prozessoren
    • Reduzierter Leistungs-Overhead (<1 %)
    • Verbesserter Seitenkanalschutz
  2. Marktkonsolidierung

    • Entstehung von Standards
    • Plattformübergreifende Kompatibilität
    • Vereinfachte Entwicklertools
  3. Anwendungserweiterung

    • Private Smart-Contract-Plattformen
    • Dezentrale Identitätslösungen
    • Cross-Chain-Datenschutzprotokolle

Der Weg nach vorn

Obwohl TEE überzeugende Lösungen bietet, erfordert der Erfolg die Bearbeitung mehrerer Schlüsselbereiche:

  1. Standardentwicklung

    • Bildung von Branchenarbeitsgruppen
    • Offene Protokolle für herstellerübergreifende Kompatibilität
    • Sicherheitszertifizierungsrahmen
  2. Entwickler-Ökosystem

    • Neue Tools und SDKs
    • Schulungs- und Zertifizierungsprogramme
    • Referenzimplementierungen
  3. Hardware-Innovation

    • TEE-Architekturen der nächsten Generation
    • Reduzierte Kosten und Energieverbrauch
    • Verbesserte Sicherheitsfunktionen

Wettbewerbslandschaft

TEE steht im Wettbewerb mit anderen Datenschutzlösungen:

LösungLeistungSicherheitDezentralisierungKosten
TEEHochMittel-HochMittelMittel
MPCMittelHochHochHoch
FHENiedrigHochHochSehr Hoch
ZK ProofsMittel-HochHochHochHoch

Das Fazit

TEE stellt einen pragmatischen Ansatz für den Blockchain-Datenschutz dar, der sofortige Leistungsvorteile bietet und gleichzeitig daran arbeitet, Zentralisierungsbedenken zu begegnen. Die schnelle Akzeptanz der Technologie durch große Projekte wie Flashbots und Scroll, kombiniert mit messbaren Verbesserungen bei Sicherheit und Effizienz, deutet darauf hin, dass TEE eine entscheidende Rolle in der Entwicklung der Blockchain spielen wird.

Der Erfolg ist jedoch nicht garantiert. Die nächsten 24 Monate werden entscheidend sein, da sich die Branche mit Hardware-Abhängigkeiten, Standardisierungsbemühungen und der allgegenwärtigen Herausforderung von Seitenkanalangriffen auseinandersetzt. Für Blockchain-Entwickler und Unternehmen ist es entscheidend, die Stärken und Grenzen von TEE zu verstehen und es als Teil einer umfassenden Datenschutzstrategie zu implementieren, anstatt als Patentlösung.

MEV, entschlüsselt: Wie Wert durch Blockspace fließt – und was Sie dagegen tun können

· 12 Minuten Lesezeit
Dora Noda
Software Engineer

Maximal Extractable Value (MEV) ist nicht nur ein Schreckgespenst für Händler – es ist der wirtschaftliche Motor, der im Stillen die Art und Weise prägt, wie Blöcke gebaut werden, wie Wallets Aufträge weiterleiten und wie Protokolle Märkte gestalten. Hier ist ein pragmatischer Leitfaden für Gründer, Ingenieure, Händler und Validatoren.


Kurz gesagt

  • Was MEV ist: Zusätzlicher Wert, den ein Blockproduzent (Validator/Sequenzer) oder dessen Partner durch das Neuordnen, Einfügen oder Ausschließen von Transaktionen über die Basisbelohnungen und Gasgebühren hinaus extrahieren können.
  • Warum es existiert: Öffentliche Mempools, deterministische Ausführung und Transaktionsreihenfolge-Abhängigkeiten (z. B. AMM-Slippage) schaffen profitable Reihenfolgespiele.
  • Wie modernes MEV funktioniert: Eine Lieferkette – Wallets & Orderflow-Auktionen → Searcher → Builder → Relays → Proposer – formalisiert durch Proposer-Builder Separation (PBS) und MEV-Boost.
  • Benutzerschutz heute: Die private Transaktionsübermittlung und Order Flow Auctions (OFAs) können das Sandwich-Risiko reduzieren und Preisverbesserungen mit den Benutzern teilen.
  • Was als Nächstes kommt (Stand September 2025): Enshrined PBS, Inclusion Lists, MEV-Burn, SUAVE und Shared Sequencers für L2s – alles darauf abzielend, Fairness und Resilienz zu gewährleisten.

Das Fünf-Minuten-Mentalmodell

Stellen Sie sich Blockspace als eine knappe Ressource vor, die auf Ethereum alle 12 Sekunden verkauft wird. Wenn Sie eine Transaktion senden, landet diese in einem öffentlichen Wartebereich, dem sogenannten Mempool. Einige Transaktionen, insbesondere DEX-Swaps, Liquidationen und Arbitrage-Möglichkeiten, haben reihenfolgeabhängige Auszahlungen. Ihr Ergebnis und ihre Rentabilität ändern sich je nachdem, wo sie in einem Block im Verhältnis zu anderen Transaktionen landen. Dies schafft ein Spiel mit hohen Einsätzen für denjenigen, der die Reihenfolge kontrolliert.

Der maximal mögliche Gewinn aus diesem Spiel ist der Maximal Extractable Value (MEV). Eine klare, kanonische Definition lautet:

„Der maximale Wert, der aus der Blockproduktion über die standardmäßige Blockbelohnung und Gasgebühren hinaus extrahiert werden kann, indem Transaktionen eingeschlossen, ausgeschlossen und deren Reihenfolge geändert werden.“

Dieses Phänomen wurde erstmals 2019 in der wissenschaftlichen Arbeit „Flash Boys 2.0“ formalisiert, die die chaotischen „Priority Gas Auctions“ (bei denen Bots die Gasgebühren in die Höhe trieben, um ihre Transaktion zuerst aufnehmen zu lassen) dokumentierte und die Risiken hervorhob, die dies für die Konsensstabilität darstellte.


Eine kurze Taxonomie (mit Beispielen)

MEV ist keine einzelne Aktivität, sondern eine Kategorie von Strategien. Hier sind die häufigsten:

  • DEX-Arbitrage (Backrunning): Stellen Sie sich vor, ein großer Swap auf Uniswap führt dazu, dass der Preis von ETH im Verhältnis zu seinem Preis auf Curve fällt. Ein Arbitrageur kann die günstige ETH auf Uniswap kaufen und auf Curve für einen sofortigen Gewinn verkaufen. Dies ist ein „Backrun“, da er unmittelbar nach der preisbewegenden Transaktion stattfindet. Diese Form von MEV wird im Allgemeinen als vorteilhaft angesehen, da sie dazu beiträgt, die Preise über verschiedene Märkte hinweg konsistent zu halten.
  • Sandwiching: Dies ist die berüchtigtste und direkt schädlichste Form von MEV. Ein Angreifer entdeckt eine große Kauforder eines Benutzers im Mempool. Er frontrunnt den Benutzer, indem er denselben Vermögenswert kurz vor ihm kauft und so den Preis in die Höhe treibt. Der Handel des Opfers wird dann zu diesem schlechteren, höheren Preis ausgeführt. Der Angreifer backrunnt das Opfer dann sofort, indem er den Vermögenswert verkauft und die Preisdifferenz einstreicht. Dies nutzt die vom Benutzer angegebene Slippage-Toleranz aus.
  • Liquidationen: In Lending-Protokollen wie Aave oder Compound werden Positionen unterbesichert, wenn der Wert ihrer Sicherheiten sinkt. Diese Protokolle bieten einen Bonus für denjenigen, der als Erster die Position liquidiert. Dies führt zu einem Wettlauf unter Bots, um als Erster die Liquidationsfunktion aufzurufen und die Belohnung zu beanspruchen.
  • NFT Mint „Gas Wars“ (veraltetes Muster): Bei gehypten NFT-Mints entsteht ein Wettlauf um die Sicherung eines Tokens mit begrenztem Angebot. Bots konkurrierten erbittert um die frühesten Plätze in einem Block und trieben oft die Gaspreise für das gesamte Netzwerk auf astronomische Höhen.
  • Cross-Domain MEV: Da sich die Aktivitäten über Layer 1s, Layer 2s und verschiedene Rollups fragmentieren, ergeben sich Möglichkeiten, von Preisunterschieden zwischen diesen isolierten Umgebungen zu profitieren. Dies ist ein schnell wachsender und komplexer Bereich der MEV-Extraktion.

Die moderne MEV-Lieferkette (nach dem Merge)

Vor dem Merge kontrollierten Miner die Transaktionsreihenfolge. Jetzt tun dies Validatoren. Um zu verhindern, dass Validatoren übermäßig zentralisiert und spezialisiert werden, entwickelte die Ethereum-Community die Proposer-Builder Separation (PBS). Dieses Prinzip trennt die Aufgabe, einen Block für die Kette vorzuschlagen, von der komplexen Aufgabe, den profitabelsten Block zu bauen.

In der Praxis verwenden die meisten Validatoren heute eine Middleware namens MEV-Boost. Diese Software ermöglicht es ihnen, den Blockbau an einen wettbewerbsorientierten Markt auszulagern. Der grobe Ablauf sieht wie folgt aus:

  1. Benutzer/Wallet: Ein Benutzer initiiert eine Transaktion, indem er sie entweder an den öffentlichen Mempool oder an einen privaten RPC-Endpunkt sendet, der Schutz bietet.
  2. Searcher/Solver: Dies sind hochentwickelte Akteure, die den Mempool ständig auf MEV-Möglichkeiten überwachen. Sie erstellen „Bundles“ von Transaktionen (z. B. einen Frontrun, den Handel eines Opfers und einen Backrun), um diesen Wert zu erfassen.
  3. Builder: Dies sind hochspezialisierte Entitäten, die Bundles von Searchern und andere Transaktionen aggregieren, um den profitabelsten Block zu konstruieren. Sie konkurrieren miteinander, um den Block mit dem höchsten Wert zu erstellen.
  4. Relays: Diese fungieren als vertrauenswürdige Mittelsmänner. Builder übermitteln ihre Blöcke an Relays, die diese auf Gültigkeit prüfen und den Inhalt vor dem Proposer verbergen, bis er signiert ist. Dies verhindert, dass der Proposer die harte Arbeit des Builders stiehlt.
  5. Proposer/Validator: Der Validator, der MEV-Boost ausführt, fragt mehrere Relays ab und wählt einfach den profitabelsten angebotenen Block-Header aus. Er signiert ihn blind, ohne den Inhalt zu sehen, und kassiert die Zahlung vom gewinnenden Builder.

Während PBS den Zugang zum Blockbau erfolgreich erweitert hat, hat es auch zu einer Zentralisierung unter einer kleinen Gruppe von Hochleistungs-Buildern und Relays geführt. Jüngste Studien zeigen, dass eine Handvoll Builder die überwiegende Mehrheit der Blöcke auf Ethereum produziert, was ein anhaltendes Problem für die langfristige Dezentralisierung und Zensurresistenz des Netzwerks darstellt.


Warum MEV schädlich sein kann

  • Direkte Benutzerkosten: Sandwich-Angriffe und andere Formen des Frontrunning führen zu einer schlechteren Ausführungsqualität für Benutzer. Sie zahlen mehr für einen Vermögenswert oder erhalten weniger, als Sie sollten, wobei die Differenz von einem Searcher erfasst wird.
  • Konsensrisiko: In extremen Fällen kann MEV die Stabilität der Blockchain selbst bedrohen. Vor dem Merge waren „Time-Bandit“-Angriffe eine theoretische Sorge, bei der Miner Anreize erhalten könnten, die Blockchain neu zu organisieren, um eine vergangene MEV-Möglichkeit zu nutzen, was die Finalität untergraben würde.
  • Marktstrukturrisiko: Die MEV-Lieferkette kann mächtige etablierte Akteure schaffen. Exklusive Orderflow-Deals zwischen Wallets und Buildern können Paywalls für Benutzertransaktionen schaffen, Builder-/Relay-Oligopole festigen und die Kernprinzipien der Neutralität und Zensurresistenz bedrohen.

Was heute tatsächlich funktioniert (praktische Abhilfemaßnahmen)

Sie sind schädlichem MEV nicht hilflos ausgeliefert. Eine Reihe von Tools und Best Practices ist entstanden, um Benutzer zu schützen und das Ökosystem auszurichten.

Für Benutzer und Händler

  • Verwenden Sie einen privaten Übermittlungspfad: Dienste wie Flashbots Protect bieten einen „Protect“-RPC-Endpunkt für Ihr Wallet. Das Senden Ihrer Transaktion darüber hält sie aus dem öffentlichen Mempool fern und macht sie für Sandwich-Bots unsichtbar. Einige Dienste können Ihnen sogar einen Teil des aus Ihrem Handel extrahierten MEV zurückerstatten.
  • Bevorzugen Sie OFA-gestützte Router: Order Flow Auctions (OFAs) sind eine starke Verteidigung. Anstatt Ihren Swap an den Mempool zu senden, leiten Router wie CoW Swap oder UniswapX Ihre Absicht an einen wettbewerbsorientierten Marktplatz von Solvern weiter. Diese Solver konkurrieren darum, Ihnen den bestmöglichen Preis zu bieten, und geben Ihnen so jegliches potenzielle MEV als Preisverbesserung zurück.
  • Slippage straffen: Stellen Sie bei illiquiden Paaren manuell eine geringe Slippage-Toleranz (z. B. 0,1 %) ein, um den maximalen Gewinn zu begrenzen, den ein Sandwich-Angreifer extrahieren kann. Das Aufteilen großer Trades in kleinere Teile kann ebenfalls helfen.

Für Wallets & DApps

  • Integrieren Sie eine OFA: Leiten Sie Benutzertransaktionen standardmäßig über eine Order Flow Auction. Dies ist der effektivste Weg, Benutzer vor Sandwich-Angriffen zu schützen und ihnen eine überlegene Ausführungsqualität zu bieten.
  • Bieten Sie privaten RPC als Standard an: Machen Sie geschützte RPCs zur Standardeinstellung in Ihrem Wallet oder Ihrer DApp. Ermöglichen Sie Power-Usern, ihre Builder- und Relay-Präferenzen zu konfigurieren, um den Kompromiss zwischen Datenschutz und Inklusionsgeschwindigkeit fein abzustimmen.
  • Messen Sie die Ausführungsqualität: Gehen Sie nicht einfach davon aus, dass Ihr Routing optimal ist. Vergleichen Sie Ihre Ausführung mit dem öffentlichen Mempool-Routing und quantifizieren Sie die Preisverbesserung, die durch OFAs und private Übermittlung erzielt wird.

Für Validatoren

  • Führen Sie MEV-Boost aus: Nehmen Sie am PBS-Markt teil, um Ihre Staking-Belohnungen zu maximieren.
  • Diversifizieren Sie: Verbinden Sie sich mit einer Vielzahl von Relays und Buildern, um die Abhängigkeit von einem einzigen Anbieter zu vermeiden und die Netzwerkelastizität zu verbessern. Überwachen Sie Ihre Belohnungen und Block-Inklusionsraten, um sicherzustellen, dass Sie gut verbunden sind.

L2s & der Aufstieg von SEV (Sequencer Extractable Value)

Layer-2-Rollups eliminieren MEV nicht; sie ändern nur seinen Namen. Rollups konzentrieren die Order-Macht in einer einzigen Entität, dem sogenannten Sequenzer, wodurch Sequencer Extractable Value (SEV) entsteht. Empirische Forschung zeigt, dass MEV auf L2s weit verbreitet ist, wenn auch oft mit geringeren Gewinnmargen als auf L1.

Um dem Zentralisierungsrisiko eines einzelnen Sequenzers pro Rollup entgegenzuwirken, entstehen Konzepte wie Shared Sequencers. Dies sind dezentrale Marktplätze, die es mehreren Rollups ermöglichen, eine einzige, neutrale Entität für die Transaktionsreihenfolge zu teilen, mit dem Ziel, Cross-Rollup-MEV fairer zu arbitrieren.


Was als Nächstes kommt (und warum es wichtig ist)

Die Arbeit zur Zähmung von MEV ist noch lange nicht abgeschlossen. Mehrere wichtige Upgrades auf Protokollebene stehen bevor:

  • Enshrined PBS (ePBS): Dies zielt darauf ab, die Proposer-Builder Separation direkt in das Ethereum-Protokoll selbst zu integrieren, wodurch die Abhängigkeit von vertrauenswürdigen, zentralisierten Relays reduziert und die Sicherheitsgarantien des Netzwerks gestärkt werden.
  • Inclusion Lists (EIP-7547): Dieser Vorschlag gibt Proposern eine Möglichkeit, einen Builder zu zwingen, eine bestimmte Reihe von Transaktionen aufzunehmen. Es ist ein mächtiges Werkzeug zur Bekämpfung von Zensur, das sicherstellt, dass selbst Transaktionen mit niedrigen Gebühren letztendlich in die Kette gelangen können.
  • MEV-Burn: Ähnlich wie EIP-1559 einen Teil der Basis-Gasgebühr verbrennt, schlägt MEV-Burn vor, einen Teil der Builder-Zahlungen zu verbrennen. Dies würde MEV-Einnahmespitzen glätten, Anreize für destabilisierendes Verhalten reduzieren und den Wert an alle ETH-Inhaber umverteilen.
  • SUAVE (Single Unifying Auction for Value Expression): Ein Projekt von Flashbots zur Schaffung einer dezentralen, datenschutzfreundlichen Auktionsschicht für Orderflow. Ziel ist es, einen offeneren und faireren Markt für den Blockbau zu schaffen und dem Trend zu exklusiven, zentralisierten Deals entgegenzuwirken.
  • OFA-Standardisierung: Da Auktionen zur Norm werden, wird daran gearbeitet, formale Metriken und offene Tools zu entwickeln, um die von verschiedenen Routern angebotene Preisverbesserung zu quantifizieren und zu vergleichen, wodurch die Messlatte für die Ausführungsqualität im gesamten Ökosystem höher gelegt wird.

Eine Checkliste für Gründer (MEV-bewusste Produkte liefern)

  • Standardmäßig auf Datenschutz: Leiten Sie den Benutzerfluss über private Übermittlung oder verschlüsselte, auf Absichten basierende Systeme.
  • Design für Auktionen, nicht für Rennen: Vermeiden Sie „Wer zuerst kommt, mahlt zuerst“-Mechanismen, die Latenzspiele erzeugen. Nutzen Sie Batch-Auktionen oder OFAs, um faire und effiziente Märkte zu schaffen.
  • Alles instrumentieren: Protokollieren Sie Slippage, effektiven Preis im Vergleich zum Orakelpreis und die Opportunitätskosten Ihrer Routing-Entscheidungen. Seien Sie transparent gegenüber Ihren Benutzern bezüglich ihrer Ausführungsqualität.
  • Abhängigkeiten diversifizieren: Verlassen Sie sich heute auf mehrere Builder und Relays. Bereiten Sie Ihre Infrastruktur auf den Übergang zu Enshrined PBS morgen vor.
  • Planen Sie für L2s: Wenn Sie eine Multichain-Anwendung entwickeln, berücksichtigen Sie SEV und Cross-Domain MEV in Ihrem Design.

Entwickler-FAQ

  • Ist MEV „schlecht“ oder „illegal“? MEV ist ein unvermeidliches Nebenprodukt offener, deterministischer Blockchain-Märkte. Einige Formen, wie Arbitrage und Liquidationen, sind für die Markteffizienz unerlässlich. Andere, wie Sandwiching, sind rein extraktiv und schädlich für Benutzer. Ziel ist es nicht, MEV zu eliminieren, sondern Mechanismen zu entwickeln, die den Schaden minimieren und die Extraktion mit dem Nutzen für den Benutzer und der Netzwerksicherheit in Einklang bringen. Sein rechtlicher Status ist komplex und variiert je nach Gerichtsbarkeit.
  • Garantiert die private Transaktionsübermittlung keine Sandwiches? Es reduziert Ihr Risiko erheblich, indem es Ihre Transaktion aus dem öffentlichen Mempool heraushält, wo die meisten Bots suchen. In Kombination mit einer OFA ist es eine sehr starke Verteidigung. Kein System ist jedoch perfekt, und Garantien hängen von den spezifischen Richtlinien des privaten Relays und der von Ihnen verwendeten Builder ab.
  • Warum MEV nicht einfach „ausschalten“? Das geht nicht. Solange es On-Chain-Märkte mit Preisineffizienzen gibt (was immer der Fall ist), wird es profitabel sein, diese zu korrigieren. Der Versuch, MEV vollständig zu eliminieren, würde wahrscheinlich nützliche Wirtschaftsfunktionen unterbrechen. Der produktivere Weg ist, es durch besseres Mechanismusdesign wie ePBS, Inclusion Lists und MEV-Burn zu verwalten und umzuverteilen.

Weiterführende Literatur

  • Kanonische Definition & Übersicht: Ethereum.org—MEV-Dokumentation
  • Ursprünge & Risiken: Flash Boys 2.0 (Daian et al., 2019)
  • PBS/MEV-Boost Einführung: Flashbots-Dokumentation und MEV-Boost in a Nutshell
  • OFA-Forschung: Uniswap Labs—Quantifying Price Improvement in Order Flow Auctions
  • ePBS & MEV-Burn: Ethereum Research Forum-Diskussionen
  • L2 MEV-Beweise: Empirische Analysen über wichtige Rollups (z. B. „Analyzing the Extraction of MEV Across Layer-2 Rollups“)

Fazit

MEV ist kein Fehler; es ist ein Anreizgefälle, das Blockchains inhärent ist. Der erfolgreiche Ansatz ist nicht Verleugnung – es ist Mechanismusdesign. Ziel ist es, die Wertextraktion anfechtbar, transparent und benutzerorientiert zu gestalten. Wenn Sie entwickeln, integrieren Sie dieses Bewusstsein vom ersten Tag an in Ihr Produkt. Wenn Sie handeln, bestehen Sie darauf, dass Ihre Tools dies für Sie tun. Das Ökosystem konvergiert schnell auf diese reifere, widerstandsfähigere Zukunft – jetzt ist die Zeit, dafür zu entwerfen.

Dezentrale physische Infrastrukturnetzwerke (DePIN): Ökonomie, Anreize und die Ära des KI-Computings

· 49 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung

Dezentrale physische Infrastrukturnetzwerke (DePIN) sind Blockchain-basierte Projekte, die Menschen dazu anregen, reale Hardware bereitzustellen und dafür Krypto-Token zu erhalten. Durch die Nutzung ungenutzter oder unterausgelasteter Ressourcen – von drahtlosen Funkgeräten über Festplatten bis hin zu GPUs – schaffen DePIN-Projekte Crowdsourcing-Netzwerke, die greifbare Dienste (Konnektivität, Speicherung, Computing usw.) bereitstellen. Dieses Modell verwandelt normalerweise ungenutzte Infrastruktur (wie ungenutzte Bandbreite, Festplattenspeicher oder GPU-Leistung) in aktive, einkommensgenerierende Netzwerke, indem Mitwirkende mit Token belohnt werden. Wichtige frühe Beispiele sind Helium (Crowdsourcing-basierte drahtlose Netzwerke) und Filecoin (verteilte Datenspeicherung), und neuere Projekte zielen auf GPU-Computing und die gemeinsame Nutzung von 5G-Abdeckung ab (z. B. Render Network, Akash, io.net).

Das Versprechen von DePIN liegt in der Verteilung der Kosten für den Aufbau und Betrieb physischer Netzwerke durch Token-Anreize, wodurch Netzwerke schneller skaliert werden können als bei traditionellen zentralisierten Modellen. In der Praxis müssen diese Projekte jedoch Wirtschaftsmodelle sorgfältig gestalten, um sicherzustellen, dass Token-Anreize in eine tatsächliche Dienstnutzung und nachhaltigen Wert umgesetzt werden. Im Folgenden analysieren wir die Wirtschaftsmodelle wichtiger DePIN-Netzwerke, bewerten, wie effektiv Token-Belohnungen die tatsächliche Infrastrukturnutzung vorangetrieben haben, und beurteilen, wie diese Projekte mit der boomenden Nachfrage nach KI-bezogenem Computing zusammenwirken.

Wirtschaftsmodelle führender DePIN-Projekte

Helium (Dezentrales drahtloses IoT & 5G)

Helium leistete Pionierarbeit bei einem dezentralen drahtlosen Netzwerk, indem es Einzelpersonen dazu anregte, Funk-Hotspots bereitzustellen. Ursprünglich auf IoT (LoRaWAN) fokussiert und später auf die 5G-Small-Cell-Abdeckung erweitert, konzentriert sich Heliums Modell auf seinen nativen Token HNT. Hotspot-Betreiber verdienen HNT, indem sie an Proof-of-Coverage (PoC) teilnehmen – im Wesentlichen beweisen sie, dass sie an einem bestimmten Ort drahtlose Abdeckung bereitstellen. In Heliums Zwei-Token-System hat HNT Nutzen durch Data Credits (DC): Benutzer müssen HNT verbrennen, um nicht übertragbare DC zu prägen, die zur Bezahlung der tatsächlichen Netzwerknutzung (Gerätekonnektivität) zu einem festen Satz von 0,0001 $ pro 24 Byte verwendet werden. Dieser Verbrennungsmechanismus schafft ein Burn-and-Mint-Gleichgewicht, bei dem eine erhöhte Netzwerknutzung (DC-Ausgaben) zu mehr HNT-Verbrennungen führt, wodurch das Angebot im Laufe der Zeit reduziert wird.

Ursprünglich operierte Helium auf seiner eigenen Blockchain mit einer inflationären Ausgabe von HNT, die alle zwei Jahre halbiert wurde (was zu einem allmählich sinkenden Angebot und einem eventuellen Maximum von etwa 223 Millionen HNT im Umlauf führte). Im Jahr 2023 migrierte Helium zu Solana und führte ein „Netzwerk von Netzwerken“-Framework mit Sub-DAOs ein. Jetzt haben Heliums IoT-Netzwerk und 5G-Mobilfunknetz jeweils ihre eigenen Token (IOT bzw. MOBILE), die an Hotspot-Betreiber vergeben werden, während HNT der zentrale Token für Governance und Wert bleibt. HNT kann über Treasury-Pools gegen SubDAO-Token eingelöst werden (und umgekehrt), und HNT wird auch für das Staking in Heliums veHNT-Governance-Modell verwendet. Diese Struktur zielt darauf ab, Anreize in jedem Sub-Netzwerk auszurichten: Beispielsweise verdienen 5G-Hotspot-Betreiber MOBILE-Token, die in HNT umgewandelt werden können, wodurch Belohnungen effektiv an den Erfolg dieses spezifischen Dienstes gebunden werden.

Wirtschaftliche Wertschöpfung: Heliums Wert entsteht durch die Bereitstellung kostengünstigen drahtlosen Zugangs. Durch die Verteilung von Token-Belohnungen verlagerte Helium die Investitionskosten (Capex) des Netzwerk-Deployments auf Einzelpersonen, die Hotspots kauften und betrieben. Theoretisch sollte die Nachfrage, wenn Unternehmen und IoT-Geräte das Netzwerk nutzen (indem sie DC ausgeben, die das Verbrennen von HNT erfordern), den Wert von HNT stützen und laufende Belohnungen finanzieren. Helium erhält seine Wirtschaft durch einen Burn-and-Spend-Zyklus aufrecht: Netzwerknutzer kaufen HNT (oder nutzen HNT-Belohnungen) und verbrennen es für DC, um das Netzwerk zu nutzen, und das Protokoll prägt HNT (nach einem festen Zeitplan), um Hotspot-Anbieter zu bezahlen. Im Design von Helium wurde ein Teil der HNT-Emissionen auch Gründern und einer Gemeinschaftsreserve zugewiesen, aber der Großteil war immer für Hotspot-Betreiber als Anreiz zum Aufbau der Abdeckung bestimmt. Wie später erörtert, bestand Heliums Herausforderung darin, genügend zahlende Nachfrage zu generieren, um die großzügigen angebotsseitigen Anreize auszugleichen.

Filecoin (Dezentrales Speichernetzwerk)

Filecoin ist ein dezentraler Speichermarkt, auf dem jeder Festplattenspeicher beitragen und Token für die Datenspeicherung verdienen kann. Sein Wirtschaftsmodell basiert auf dem FIL-Token. Filecoins Blockchain belohnt Speicheranbieter (Miner) mit FIL-Blockbelohnungen für die Bereitstellung von Speicher und die korrekte Speicherung von Kundendaten – unter Verwendung kryptografischer Beweise (Proof-of-Replication und Proof-of-Spacetime), um zu überprüfen, ob Daten zuverlässig gespeichert werden. Kunden wiederum zahlen FIL an Miner, um ihre Daten speichern oder abrufen zu lassen, wobei die Preise auf einem offenen Markt ausgehandelt werden. Dies schafft eine Anreizschleife: Miner investieren in Hardware und staken FIL als Sicherheit (um die Servicequalität zu garantieren), verdienen FIL-Belohnungen für das Hinzufügen von Speicherkapazität und das Erfüllen von Speicherverträgen, während Kunden FIL für Speicherdienste ausgeben.

Die Token-Verteilung von Filecoin ist stark darauf ausgerichtet, das Speicherangebot zu fördern. FIL hat ein maximales Angebot von 2 Milliarden, wobei 70 % für Mining-Belohnungen reserviert sind. (Tatsächlich sind etwa 1,4 Milliarden FIL dafür vorgesehen, über viele Jahre hinweg als Blockbelohnungen an Speicher-Miner ausgegeben zu werden.) Die restlichen 30 % wurden an Stakeholder verteilt: 15 % an Protocol Labs (das Gründerteam), 10 % an Investoren und 5 % an die Filecoin Foundation. Die Blockbelohnungsemissionen folgen einem etwas frontlastigen Zeitplan (mit einer Halbwertzeit von sechs Jahren), was bedeutet, dass die Angebotsinflation in den frühen Jahren am höchsten war, um schnell ein großes Speichernetzwerk aufzubauen. Um dies auszugleichen, verlangt Filecoin von Minern, FIL als Sicherheit für jedes Gigabyte Daten zu sperren, das sie zu speichern versprechen – wenn sie nicht nachweisen können, dass die Daten gespeichert bleiben, können sie durch den Verlust eines Teils der Sicherheit bestraft (geslasht) werden. Dieser Mechanismus richtet die Anreize der Miner auf einen zuverlässigen Dienst aus.

Wirtschaftliche Wertschöpfung: Filecoin schafft Wert, indem es zensurresistente, redundante Datenspeicherung zu potenziell geringeren Kosten als zentralisierte Cloud-Anbieter anbietet. Der Wert des FIL-Tokens ist an die Nachfrage nach Speicher und den Nutzen des Netzwerks gebunden: Kunden müssen FIL erwerben, um für die Datenspeicherung zu bezahlen, und Miner benötigen FIL (sowohl als Sicherheit als auch oft zur Deckung von Kosten oder als Einnahmen). Anfangs wurde ein Großteil der Aktivitäten von Filecoin von Minern angetrieben, die darum wetteiferten, Token zu verdienen – sogar das Speichern von wertlosen oder duplizierten Daten, nur um ihre Speicherleistung zu erhöhen und Blockbelohnungen zu erhalten. Um nützliche Speicherung zu fördern, führte Filecoin das Programm Filecoin Plus ein: Kunden mit verifizierten nützlichen Daten (z. B. offene Datensätze, Archive) können Deals als „verifiziert“ registrieren, was Minern die 10-fache effektive Leistung für diese Deals verleiht, was sich in proportional größeren FIL-Belohnungen niederschlägt. Dies hat Miner dazu angeregt, echte Kunden zu suchen, und hat die Menge an nützlichen Daten, die im Netzwerk gespeichert sind, dramatisch erhöht. Ende 2023 war das Filecoin-Netzwerk auf etwa 1.800 PiB aktiver Deals angewachsen, ein Anstieg um das 3,8-fache gegenüber dem Vorjahr, wobei die Speicherauslastung auf etwa 20 % der Gesamtkapazität stieg (von nur etwa 3 % zu Beginn des Jahres 2023). Mit anderen Worten, Token-Anreize haben eine enorme Kapazität aufgebaut, und jetzt wird ein wachsender Teil dieser Kapazität von zahlenden Kunden gefüllt – ein Zeichen dafür, dass das Modell beginnt, sich mit realer Nachfrage selbst zu erhalten. Filecoin expandiert auch in angrenzende Dienste (siehe KI-Computing-Trends unten), die neue Einnahmequellen (z. B. dezentrale Inhaltsbereitstellung und Compute-over-Data-Dienste) schaffen könnten, um die FIL-Wirtschaft über einfache Speichergebühren hinaus zu stärken.

Render Network (Dezentrales GPU-Rendering & Computing)

Render Network ist ein dezentraler Marktplatz für GPU-basiertes Computing, der ursprünglich auf das Rendern von 3D-Grafiken spezialisiert war und nun auch das Training von KI-Modellen und Inferenzaufgaben unterstützt. Sein nativer Token RNDR (kürzlich auf den Ticker RENDER auf Solana aktualisiert) treibt die Wirtschaft an. Ersteller (Benutzer, die GPU-Arbeit benötigen) zahlen in RNDR für Rendering- oder Compute-Aufgaben, und Node-Betreiber (GPU-Anbieter) verdienen RNDR, indem sie diese Aufgaben erledigen. Dieses grundlegende Modell verwandelt ungenutzte GPUs (von einzelnen GPU-Besitzern oder Rechenzentren) in eine verteilte Cloud-Rendering-Farm. Um Qualität und Fairness zu gewährleisten, verwendet Render Escrow-Smart Contracts: Kunden reichen Aufträge ein und verbrennen die entsprechende RNDR-Zahlung, die gehalten wird, bis Node-Betreiber den Nachweis über die Erledigung der Arbeit erbringen, dann wird der RNDR als Belohnung freigegeben. Ursprünglich fungierte RNDR als reiner Utility-/Zahlungstoken, aber das Netzwerk hat seine Tokenomics kürzlich zu einem Burn-and-Mint-Gleichgewichts (BME)-Modell überarbeitet, um Angebot und Nachfrage besser auszugleichen.

Im BME-Modell werden alle Rendering- oder Compute-Aufträge in stabilen Begriffen (USD) bepreist und in RENDER-Token bezahlt, die nach Abschluss des Auftrags verbrannt werden. Parallel dazu prägt das Protokoll neue RENDER-Token nach einem vordefinierten, sinkenden Emissionsplan, um Node-Betreiber und andere Teilnehmer zu entschädigen. Im Endeffekt zerstören Benutzerzahlungen für Arbeit Token, während das Netzwerk Token zu einer kontrollierten Rate als Mining-Belohnungen aufbläht – das Nettoangebot kann im Laufe der Zeit je nach Nutzung steigen oder fallen. Die Community genehmigte eine anfängliche Emission von etwa 9,1 Millionen RENDER im ersten Jahr des BME (Mitte 2023 bis Mitte 2024) als Netzwerkanreize und legte ein langfristiges maximales Angebot von etwa 644 Millionen RENDER fest (gegenüber den ursprünglich 536,9 Millionen RNDR, die beim Start geprägt wurden). Bemerkenswert ist, dass die Token-Verteilung von RENDER das Ökosystemwachstum stark begünstigte: 65 % des anfänglichen Angebots wurden einem Treasury (für zukünftige Netzwerkanreize), 25 % Investoren und 10 % dem Team/Beratern zugewiesen. Mit BME wird dieses Treasury über die kontrollierten Emissionen eingesetzt, um GPU-Anbieter und andere Mitwirkende zu belohnen, während der Verbrennungsmechanismus diese Belohnungen direkt an die Plattformnutzung bindet. RNDR dient auch als Governance-Token (Token-Inhaber können über Render Network-Vorschläge abstimmen). Zusätzlich können Node-Betreiber auf Render RNDR staken, um ihre Zuverlässigkeit zu signalisieren und potenziell mehr Arbeit zu erhalten, was eine weitere Anreizschicht hinzufügt.

Wirtschaftliche Wertschöpfung: Render Network schafft Wert, indem es On-Demand-GPU-Computing zu einem Bruchteil der Kosten traditioneller Cloud-GPU-Instanzen anbietet. Ende 2023 stellte der Gründer von Render fest, dass Studios das Netzwerk bereits genutzt hatten, um Grafiken in Filmqualität mit erheblichen Kosten- und Geschwindigkeitsvorteilen zu rendern – „ein Zehntel der Kosten“ und mit massiver aggregierter Kapazität, die über jeden einzelnen Cloud-Anbieter hinausgeht. Dieser Kostenvorteil ist möglich, weil Render auf weltweit ungenutzte GPUs (von Hobby-Rigs bis hin zu professionellen Render-Farmen) zugreift, die sonst untätig wären. Mit steigender Nachfrage nach GPU-Zeit (sowohl für Grafiken als auch für KI) erfüllt der Marktplatz von Render einen kritischen Bedarf. Entscheidend ist, dass das BME-Token-Modell bedeutet, dass der Token-Wert direkt mit der Dienstnutzung verknüpft ist: Wenn mehr Rendering- und KI-Aufträge durch das Netzwerk fließen, wird mehr RENDER verbrannt (was Kaufdruck erzeugt oder das Angebot reduziert), während die Node-Anreize nur dann steigen, wenn diese Aufträge abgeschlossen sind. Dies hilft, „für nichts zu bezahlen“ zu vermeiden – wenn die Netzwerknutzung stagniert, übertreffen die Token-Emissionen schließlich die Verbrennungen (was das Angebot aufbläht), aber wenn die Nutzung wächst, können die Verbrennungen die Emissionen ausgleichen oder sogar übertreffen, was den Token potenziell deflationär macht, während die Betreiber weiterhin belohnt werden. Das starke Interesse an Renders Modell spiegelte sich im Markt wider: Der Preis von RNDR schoss 2023 in die Höhe und stieg um über 1.000 % im Wert, da Investoren eine steigende Nachfrage nach dezentralen GPU-Diensten inmitten des KI-Booms erwarteten. Unterstützt von OTOY (einem führenden Anbieter von Cloud-Rendering-Software) und von einigen großen Studios in der Produktion eingesetzt, ist Render Network als wichtiger Akteur an der Schnittstelle von Web3 und Hochleistungs-Computing positioniert.

Akash Network (Dezentrales Cloud-Computing)

Akash ist ein dezentraler Cloud-Computing-Marktplatz, der es Benutzern ermöglicht, allgemeine Rechenleistung (VMs, Container usw.) von Anbietern mit freier Serverkapazität zu mieten. Man kann es sich als dezentrale Alternative zu AWS oder Google Cloud vorstellen, angetrieben durch ein Blockchain-basiertes Reverse-Auction-System. Der native Token AKT ist zentral für die Wirtschaft von Akash: Kunden zahlen für Compute-Leases in AKT, und Anbieter verdienen AKT für die Bereitstellung von Ressourcen. Akash basiert auf dem Cosmos SDK und verwendet eine delegated Proof-of-Stake-Blockchain für Sicherheit und Koordination. AKT fungiert somit auch als Staking- und Governance-Token – Validatoren staken AKT (und Benutzer delegieren AKT an Validatoren), um das Netzwerk zu sichern und Staking-Belohnungen zu verdienen.

Der Marktplatz von Akash funktioniert über ein Bietersystem: Ein Kunde definiert eine Bereitstellung (CPU, RAM, Speicher, möglicherweise GPU-Anforderungen) und einen Höchstpreis, und mehrere Anbieter können sich um das Hosting bewerben, wodurch der Preis gesenkt wird. Sobald der Kunde ein Gebot annimmt, wird ein Lease gebildet und die Arbeitslast läuft auf der Infrastruktur des ausgewählten Anbieters. Zahlungen für Leases werden von der Blockchain abgewickelt: Der Kunde hinterlegt AKT, und es wird im Laufe der Zeit an den Anbieter gestreamt, solange die Bereitstellung aktiv ist. Einzigartig ist, dass das Akash-Netzwerk eine Protokoll-„Take Rate“-Gebühr auf jedes Lease erhebt, um das Ökosystem zu finanzieren und AKT-Staker zu belohnen: 10 % des Lease-Betrags, wenn in AKT bezahlt wird (oder 20 %, wenn in einer anderen Währung bezahlt wird), werden als Gebühren an das Netzwerk-Treasury und die Staker umgeleitet. Dies bedeutet, dass AKT-Staker einen Teil aller Nutzungen verdienen, wodurch der Wert des Tokens mit der tatsächlichen Nachfrage auf der Plattform übereinstimmt. Um die Benutzerfreundlichkeit für Mainstream-Benutzer zu verbessern, hat Akash Stablecoin- und Kreditkartenzahlungen (über seine Konsolen-App) integriert: Ein Kunde kann in USD-Stablecoin bezahlen, der unter der Haube in AKT umgewandelt wird (mit einer höheren Gebührenrate). Dies reduziert das Volatilitätsrisiko für Benutzer, während es weiterhin Wert für den AKT-Token schafft (da diese Stablecoin-Zahlungen letztendlich dazu führen, dass AKT gekauft/verbrannt oder an Staker verteilt wird).

Auf der Angebotsseite sind die Tokenomics von AKT darauf ausgelegt, die langfristige Beteiligung zu fördern. Akash begann mit 100 Millionen AKT bei der Genesis und hat ein maximales Angebot von 389 Millionen durch Inflation. Die Inflationsrate ist adaptiv und basiert auf dem Anteil der gestakten AKT: Sie zielt auf eine jährliche Inflation von 20–25 % ab, wenn das Staking-Verhältnis niedrig ist, und auf etwa 15 %, wenn ein hoher Prozentsatz von AKT gestakt ist. Diese adaptive Inflation (ein gängiges Design in Cosmos-basierten Chains) ermutigt Inhaber zum Staking (was zur Netzwerksicherheit beiträgt), indem sie mehr belohnt werden, wenn die Staking-Beteiligung gering ist. Blockbelohnungen aus der Inflation zahlen Validatoren und Delegatoren sowie finanzieren eine Reserve für das Ökosystemwachstum. Die anfängliche Verteilung von AKT sah Zuweisungen für Investoren, das Kernteam (Overclock Labs) und einen Stiftungs-Pool für Ökosystem-Anreize vor (z. B. finanzierte ein frühes Programm im Jahr 2024 GPU-Anbieter, um beizutreten).

Wirtschaftliche Wertschöpfung: Akash schafft Wert, indem es Cloud-Computing zu potenziell viel geringeren Kosten als etablierte Cloud-Anbieter anbietet und dabei ungenutzte Server weltweit nutzt. Durch die Dezentralisierung der Cloud zielt es auch darauf ab, regionale Lücken zu füllen und die Abhängigkeit von einigen wenigen großen Technologieunternehmen zu verringern. Der AKT-Token sammelt Wert aus mehreren Blickwinkeln: nachfrageseitige Gebühren (mehr Workloads = mehr AKT-Gebühren, die an Staker fließen), angebotsseitige Bedürfnisse (Anbieter können Einnahmen halten oder staken und müssen etwas AKT als Sicherheit für die Bereitstellung von Diensten staken) und allgemeines Netzwerk-Wachstum (AKT wird für Governance und als Reservewährung im Ökosystem benötigt). Wichtig ist, dass mit der Ausführung weiterer realer Workloads auf Akash der Anteil der im Umlauf befindlichen AKT, die für Staking und Gebühreneinzahlungen verwendet werden, steigen sollte, was den realen Nutzen widerspiegelt. Anfangs verzeichnete Akash eine moderate Nutzung für Webdienste und das Hosting von Krypto-Infrastruktur, aber Ende 2023 erweiterte es die Unterstützung für GPU-Workloads – was es ermöglichte, KI-Training, maschinelles Lernen und Hochleistungs-Compute-Aufgaben im Netzwerk auszuführen. Dies hat die Nutzung von Akash im Jahr 2024 erheblich gesteigert. Bis zum 3. Quartal 2024 zeigten die Metriken des Netzwerks ein explosives Wachstum: Die Anzahl der aktiven Bereitstellungen („Leases“) wuchs im Jahresvergleich um 1.729 %, und die durchschnittliche Gebühr pro Lease (ein Proxy für die Komplexität der Workloads) stieg um 688 %. In der Praxis bedeutet dies, dass Benutzer weitaus mehr Anwendungen auf Akash bereitstellen und bereit sind, größere, längere Workloads (viele davon mit GPUs) auszuführen – ein Beweis dafür, dass Token-Anreize eine echte zahlende Nachfrage angezogen haben. Das Team von Akash berichtete, dass das Netzwerk bis Ende 2024 über 700 GPUs online mit einer Auslastung von etwa 78 % hatte (d. h. etwa 78 % der GPU-Kapazität waren jederzeit vermietet). Dies ist ein starkes Signal für eine effiziente Umwandlung von Token-Anreizen (siehe nächster Abschnitt). Das integrierte Gebührenbeteiligungsmodell bedeutet auch, dass mit zunehmender Nutzung AKT-Staker Protokolleinnahmen erhalten, wodurch Token-Belohnungen effektiv an tatsächliche Serviceeinnahmen gebunden werden – ein gesünderes langfristiges Wirtschaftsdesign.

io.net (Dezentrale GPU-Cloud für KI)

io.net ist ein neuerer Akteur (auf Solana aufgebaut), der darauf abzielt, das „weltweit größte GPU-Netzwerk“ zu werden, das speziell auf KI- und maschinelles Lernen-Workloads ausgerichtet ist. Sein Wirtschaftsmodell zieht Lehren aus früheren Projekten wie Render und Akash. Der native Token IO hat ein festes Maximalangebot von 800 Millionen. Beim Start wurden 500 Millionen IO vorab geprägt und verschiedenen Stakeholdern zugewiesen, und die verbleibenden 300 Millionen IO werden über einen Zeitraum von 20 Jahren als Mining-Belohnungen ausgegeben (stündlich an GPU-Anbieter und Staker verteilt). Bemerkenswert ist, dass io.net einen umsatzbasierten Verbrennungsmechanismus implementiert: Ein Teil der Netzwerkgebühren/-einnahmen wird verwendet, um IO-Token zu verbrennen, wodurch das Token-Angebot direkt an die Plattformnutzung gebunden wird. Diese Kombination – ein gedeckeltes Angebot mit zeitlich gestaffelten Emissionen und einer durch die Nutzung angetriebenen Verbrennung – soll die langfristige Nachhaltigkeit der Token-Ökonomie gewährleisten.

Um dem Netzwerk als GPU-Node beizutreten, müssen Anbieter einen Mindestbetrag an IO als Sicherheit staken. Dies dient zwei Zwecken: Es schreckt bösartige oder minderwertige Nodes ab (da sie „Skin in the Game“ haben) und reduziert den sofortigen Verkaufsdruck von Belohnungstoken (da Nodes einige Token sperren müssen, um teilzunehmen). Staker (zu denen sowohl Anbieter als auch andere Teilnehmer gehören können) verdienen ebenfalls einen Anteil an den Netzwerkbelohnungen, wodurch die Anreize im gesamten Ökosystem ausgerichtet werden. Auf der Nachfrageseite zahlen Kunden (KI-Entwickler usw.) für GPU-Computing auf io.net, vermutlich in IO-Token oder möglicherweise stabilen Äquivalenten – das Projekt behauptet, Cloud-GPU-Leistung zu bis zu 90 % geringeren Kosten als traditionelle Anbieter wie AWS anzubieten. Diese Nutzungsgebühren treiben den Verbrennungsmechanismus an: Wenn Einnahmen fließen, wird ein Teil der Token verbrannt, wodurch der Plattform-Erfolg mit der Token-Knappheit verknüpft wird.

Wirtschaftliche Wertschöpfung: Das Wertversprechen von io.net besteht darin, GPU-Leistung aus vielen Quellen (Rechenzentren, Krypto-Miner, die Mining-Rigs umfunktionieren usw.) in einem einzigen Netzwerk zu aggregieren, das On-Demand-Computing für KI in massivem Umfang liefern kann. Mit dem Ziel, über 1 Million GPUs weltweit an Bord zu holen, versucht io.net, jeden einzelnen Cloud-Anbieter zu übertreffen und die steigende Nachfrage nach KI-Modelltraining und -Inferenz zu decken. Der IO-Token erfasst Wert durch eine Mischung von Mechanismen: (1) Nachfrage nach KI-Computing – Kunden müssen IO erwerben, um für Aufträge zu bezahlen, und eine höhere Nutzung bedeutet mehr verbrannte Token (was das Angebot reduziert). (2) Mining-Anreize – neue IO, die an GPU-Anbieter verteilt werden, motivieren das Netzwerk-Wachstum, aber die feste Obergrenze begrenzt die langfristige Inflation. (3) Staking – IO wird von Anbietern (und möglicherweise Benutzern oder Delegierten) gesperrt, um Belohnungen zu verdienen, wodurch das liquide Angebot reduziert und die Teilnehmer mit dem Netzwerk-Erfolg in Einklang gebracht werden. Im Wesentlichen ist das Wirtschaftsmodell von io.net ein verfeinerter DePIN-Ansatz, bei dem angebotsseitige Anreize (stündliche IO-Emissionen) erheblich, aber endlich sind und durch Token-Senken (Verbrennungen) ausgeglichen werden, die mit der tatsächlichen Nutzung skalieren. Dies soll die Falle einer übermäßigen Inflation ohne Nachfrage vermeiden. Wie wir sehen werden, bietet der KI-Computing-Trend einen großen und wachsenden Markt für Netzwerke wie io.net, der das gewünschte Gleichgewicht antreiben könnte, bei dem Token-Anreize zu einer robusten Dienstnutzung führen. (io.net ist noch im Entstehen, daher müssen seine realen Metriken noch bewiesen werden, aber sein Design zielt eindeutig auf die Bedürfnisse des KI-Computing-Sektors ab.)

Tabelle 1: Wichtige Merkmale der Wirtschaftsmodelle ausgewählter DePIN-Projekte

ProjektSektorToken (Ticker)Angebot & VerteilungAnreizmechanismusToken-Nutzen & Wertfluss
HeliumDezentrales Wireless (IoT & 5G)Helium Network Token (HNT); plus Sub-Token IOT & MOBILEVariables Angebot, sinkende Emission: HNT-Emissionen halbierten sich alle ~2 Jahre (auf der ursprünglichen Blockchain), Ziel ~223 Mio. HNT im Umlauf nach 50 Jahren. Migration zu Solana mit 2 neuen Sub-Token: IOT und MOBILE, die an IoT- und 5G-Hotspot-Besitzer vergeben werden.Proof-of-Coverage Mining: Hotspots verdienen IOT- oder MOBILE-Token für die Bereitstellung von Abdeckung (LoRaWAN oder 5G). Diese Sub-Token können über Treasury-Pools in HNT umgewandelt werden. HNT wird für Governance (veHNT) gestakt und ist die Basis für Belohnungen über Netzwerke hinweg.Netzwerknutzung über Data Credits: HNT wird verbrannt, um Data Credits (DC) für Gerätekonnektivität zu erstellen (fester Preis 0,0001 $ pro 24 Byte). Alle Netzwerkgebühren (DC-Käufe) verbrennen effektiv HNT (reduzieren das Angebot). Der Token-Wert ist somit an die Nachfrage nach IoT-/Mobilfunk-Datenübertragung gebunden. Der Wert von HNT sichert auch die SubDAO-Token (was ihnen die Konvertierbarkeit in einen knappen Vermögenswert ermöglicht).
FilecoinDezentraler SpeicherFilecoin (FIL)Gedeckeltes Angebot 2 Milliarden: 70 % für Speicher-Mining-Belohnungen (über Jahrzehnte freigegeben); ~30 % an Protocol Labs, Investoren und Stiftung. Blockbelohnungen folgen einer sechsjährigen Halbwertzeit (höhere Inflation früh, später abnehmend).Speicher-Mining: Speicheranbieter verdienen FIL-Blockbelohnungen proportional zum nachgewiesenen Speicherbeitrag. Kunden zahlen FIL für das Speichern oder Abrufen von Daten. Miner hinterlegen FIL als Sicherheit, die bei Fehlern geslasht werden kann. Filecoin Plus gewährt 10-fache Leistungsbelohnung für „nützliche“ Kundendaten, um reale Speicherung zu fördern.Zahlung & Sicherheit: FIL ist die Währung für Speicher-Deals – Kunden geben FIL aus, um Daten zu speichern, wodurch eine organische Nachfrage nach dem Token entsteht. Miner sperren FIL als Sicherheit (reduziert vorübergehend das zirkulierende Angebot) und verdienen FIL für nützliche Dienste. Mit zunehmender Nutzung wird mehr FIL in Deals und Sicherheiten gebunden. Netzwerkgebühren (für Transaktionen) sind minimal (Filecoin konzentriert sich auf Speichergebühren, die an Miner gehen). Langfristig hängt der FIL-Wert von der Datenspeichernachfrage und neuen Anwendungsfällen ab (z. B. Filecoin Virtual Machine, die Smart Contracts für Daten ermöglicht und potenziell neue Gebührensenken generiert).
Render NetworkDezentrales GPU-Computing (Rendering & KI)Render Token (RNDR / RENDER)Anfängliches Angebot ~536,9 Mio. RNDR, erhöht auf max. ~644 Mio. durch neue Emissionen. Burn-and-Mint-Gleichgewicht: Neue RENDER werden nach einem festen Zeitplan emittiert (20 % Inflationspool über ~5 Jahre, dann Tail-Emissionen). Emissionen finanzieren Netzwerkanreize (Node-Belohnungen usw.). Verbrennung: Benutzerzahlungen in RENDER werden für jeden abgeschlossenen Auftrag verbrannt. Verteilung: 65 % Treasury (Netzwerkbetrieb und Belohnungen), 25 % Investoren, 10 % Team/Berater.Marktplatz für GPU-Arbeit: Node-Betreiber führen Rendering-/Compute-Aufgaben aus und verdienen RENDER. Aufträge werden in USD bepreist, aber in RENDER bezahlt; die benötigten Token werden verbrannt, wenn die Arbeit erledigt ist. In jeder Epoche (z. B. wöchentlich) werden neue RENDER geprägt und an Node-Betreiber verteilt, basierend auf der von ihnen erledigten Arbeit. Node-Betreiber können auch RNDR staken, um höheres Vertrauen und potenzielle Auftragspriorität zu signalisieren.Nutzen & Wertfluss: RENDER ist der Gebühren-Token für GPU-Dienste – Content-Ersteller und KI-Entwickler müssen ihn erwerben und ausgeben, um Arbeit erledigen zu lassen. Da diese Token verbrannt werden, reduziert die Nutzung direkt das Angebot. Die Ausgabe neuer Token entschädigt die Arbeiter, aber nach einem sinkenden Zeitplan. Wenn die Netzwerknachfrage hoch ist (Verbrennung > Emission), wird RENDER deflationär; wenn die Nachfrage gering ist, kann die Inflation die Verbrennungen übersteigen (was mehr Angebot anreizt, bis die Nachfrage aufholt). RENDER regiert auch das Netzwerk. Der Wert des Tokens ist somit eng mit der Plattformnutzung verknüpft – tatsächlich stieg RNDR 2023 um ~10×, da die KI-getriebene Nachfrage nach GPU-Computing sprunghaft anstieg, was das Marktvertrauen signalisiert, dass Nutzung (und Verbrennungen) hoch sein werden.
Akash NetworkDezentrale Cloud (allgemeines Computing & GPU)Akash Token (AKT)Anfängliches Angebot 100 Mio.; max. Angebot 389 Mio. Inflationärer PoS-Token: Adaptive Inflation ~15–25 % jährlich (sinkt mit steigendem Staking-Anteil), um Staking zu fördern. Laufende Emissionen zahlen Validatoren und Delegatoren. Verteilung: 34,5 % Investoren, 27 % Team, 19,7 % Stiftung, 8 % Ökosystem, 5 % Testnet (mit Sperrfristen/Vestings).Reverse-Auction-Marktplatz: Anbieter bieten an, Bereitstellungen zu hosten; Kunden zahlen in AKT für Leases. Gebührenpool: 10 % der AKT-Zahlungen (oder 20 % der Zahlungen in anderen Token) gehen als Protokollgebühr an das Netzwerk (Staker). Akash verwendet eine Proof-of-Stake-Chain – Validatoren staken AKT, um das Netzwerk zu sichern und Blockbelohnungen zu verdienen. Kunden können über AKT oder integrierte Stablecoins (mit Umwandlung) bezahlen.Nutzen & Wertfluss: AKT wird für alle Transaktionen verwendet (entweder direkt oder über Umwandlung von stabilen Zahlungen). Kunden kaufen AKT, um für Compute-Leases zu bezahlen, wodurch Nachfrage entsteht, wenn die Netzwerknutzung wächst. Anbieter verdienen AKT und können es verkaufen oder staken. Staking-Belohnungen + Gebühreneinnahmen: Das Halten und Staken von AKT bringt Belohnungen aus der Inflation und einen Anteil an allen Gebühren, sodass die aktive Netzwerknutzung den Stakern direkt zugutekommt. Dieses Modell richtet den Token-Wert an der Cloud-Nachfrage aus: Wenn mehr CPU-/GPU-Workloads auf Akash laufen, fließen mehr Gebühren in AKT an die Inhaber (und mehr AKT könnte als Sicherheit gesperrt oder von Anbietern gestakt werden). Governance erfolgt ebenfalls über AKT-Bestände. Insgesamt verbessert sich die Gesundheit des Tokens mit höherer Auslastung und verfügt über Inflationskontrollen, um die langfristige Beteiligung zu fördern.
io.netDezentrale GPU-Cloud (KI-fokussiert)IO Token (IO)Feste Obergrenze 800 Mio. IO: 500 Mio. vorab geprägt (Team, Investoren, Community usw. zugewiesen), 300 Mio. über ~20 Jahre als Mining-Belohnungen emittiert (stündliche Verteilung). Keine weitere Inflation nach dieser Obergrenze. Eingebaute Verbrennung: Netzwerkeinnahmen lösen Token-Verbrennungen aus, um das Angebot zu reduzieren. Staking: Anbieter müssen ein Minimum an IO als Sicherheit staken, um teilzunehmen (und können mehr für Belohnungen staken).GPU-Sharing-Netzwerk: Hardware-Anbieter (Rechenzentren, Miner) verbinden GPUs und verdienen kontinuierlich (stündlich) IO-Belohnungen für die Bereitstellung von Kapazität. Sie verdienen auch Gebühren aus der Nutzung durch Kunden. Staking-Anforderung: Betreiber staken IO als Sicherheit, um gutes Verhalten zu gewährleisten. Benutzer zahlen wahrscheinlich in IO (oder in stabilem, in IO umgewandeltem) für KI-Compute-Aufgaben; ein Teil jeder Gebühr wird vom Protokoll verbrannt.Nutzen & Wertfluss: IO ist das Tauschmittel für GPU-Rechenleistung im Netzwerk und auch der Sicherheitstoken, den Betreiber staken. Der Token-Wert wird durch ein Dreifaches angetrieben: (1) Nachfrage nach KI-Computing – Kunden müssen IO erwerben, um für Aufträge zu bezahlen, und eine höhere Nutzung bedeutet mehr verbrannte Token (reduziert das Angebot). (2) Mining-Anreize – neue IO, die an GPU-Anbieter verteilt werden, motivieren das Netzwerk-Wachstum, aber die feste Obergrenze begrenzt die langfristige Inflation. (3) Staking – IO wird von Anbietern (und möglicherweise Benutzern oder Delegierten) gesperrt, um Belohnungen zu verdienen, wodurch das liquide Angebot reduziert und die Teilnehmer mit dem Netzwerk-Erfolg in Einklang gebracht werden. Zusammenfassend ist das Token-Modell von io.net so konzipiert, dass, wenn es erfolgreich KI-Workloads in großem Maßstab anzieht, das Token-Angebot zunehmend knapper wird (durch Verbrennungen und Staking), was den Inhabern zugutekommt. Das feste Angebot erzwingt auch Disziplin, verhindert endlose Inflation und strebt ein nachhaltiges „Belohnung-für-Umsatz“-Gleichgewicht an.

Quellen: Offizielle Projektdokumentation und -forschung (siehe obenstehende Inline-Zitate).

Token-Anreize vs. reale Dienstnutzung

Eine entscheidende Frage für DePIN-Projekte ist, wie effektiv Token-Anreize in die Bereitstellung realer Dienste und die tatsächliche Nutzung des Netzwerks umgewandelt werden. In den Anfangsphasen betonten viele DePIN-Protokolle den Aufbau des Angebots (Hardware-Bereitstellung) durch großzügige Token-Belohnungen, selbst wenn die Nachfrage minimal war – eine „Build it and (hopefully) they will come“-Strategie. Dies führte zu Situationen, in denen die Marktkapitalisierung und die Token-Emissionen des Netzwerks die Einnahmen von Kunden weit übertrafen. Ende 2024 hatte der gesamte DePIN-Sektor (~350 Projekte) eine kombinierte Marktkapitalisierung von ~50 Milliarden US-Dollar, generierte aber nur etwa ~0,5 Milliarden US-Dollar an annualisierten Einnahmen – eine Gesamtbewertung von ~100× des Jahresumsatzes. Eine solche Lücke unterstreicht die Ineffizienz in frühen Phasen. Jüngste Trends zeigen jedoch Verbesserungen, da Netzwerke von einem rein angebotsgetriebenen Wachstum zu einer nachfragegetriebenen Akzeptanz übergehen, insbesondere angetrieben durch den Anstieg des Bedarfs an KI-Computing.

Im Folgenden bewerten wir die Effizienz der Token-Anreize jedes Beispielprojekts, wobei wir Nutzungsmetriken im Vergleich zu Token-Ausgaben betrachten:

  • Helium: Heliums IoT-Netzwerk wuchs 2021–2022 explosionsartig, mit fast 1 Million Hotspots weltweit für LoRaWAN-Abdeckung. Dieses Wachstum wurde fast ausschließlich durch die HNT-Mining-Anreize und die Krypto-Begeisterung angetrieben – nicht durch die Kundennachfrage nach IoT-Daten, die gering blieb. Mitte 2022 wurde deutlich, dass Heliums Datenverkehr (Geräte, die das Netzwerk tatsächlich nutzen) im Verhältnis zur enormen angebotsseitigen Investition winzig war. Eine Analyse aus dem Jahr 2022 stellte fest, dass weniger als 1.000 anTokenproMonatfu¨rdieDatennutzungverbranntwurden,obwohldasNetzwerkHNTimWertvonzigMillionenDollarfu¨rHotspotBelohnungenpra¨gteeinkrassesUngleichgewicht(imWesentlichenwurden<1an Token pro Monat für die Datennutzung verbrannt wurden**, obwohl das Netzwerk HNT im Wert von zig Millionen Dollar für Hotspot-Belohnungen prägte – ein krasses Ungleichgewicht (im Wesentlichen wurden <1 % der Token-Emission durch die Netzwerknutzung ausgeglichen). Ende 2022 und 2023 wurden die HNT-Token-Belohnungen planmäßig halbiert (was die Ausgabe reduzierte), aber die Nutzung hinkte immer noch hinterher. Ein Beispiel vom November 2023: Der Dollarwert der verbrannten Helium **Data Credits betrug an diesem Tag nur etwa 156 – während das Netzwerk immer noch geschätzte 55.000 $ pro Tag an Token-Belohnungen an Hotspot-Besitzer auszahlte (in USD bewertet). Mit anderen Worten, die „Kosten“ des Token-Anreizes an diesem Tag überstiegen die tatsächliche Netzwerknutzung um den Faktor 350:1. Dies verdeutlicht die schlechte Umwandlung von Anreizen in Nutzung in Heliums früher IoT-Phase. Heliums Gründer erkannten dieses „Henne-Ei“-Dilemma: Ein Netzwerk benötigt Abdeckung, bevor es Benutzer anziehen kann, aber ohne Benutzer ist die Abdeckung schwer zu monetarisieren.

    Es gibt Anzeichen für Verbesserungen. Ende 2023 aktivierte Helium sein 5G-Mobilfunk-Netzwerk mit einem verbraucherorientierten Mobilfunkdienst (unterstützt durch T-Mobile Roaming) und begann, 5G-Hotspot-Betreiber mit MOBILE-Token zu belohnen. Der Start von Helium Mobile (5G) brachte schnell zahlende Nutzer (z. B. Abonnenten von Heliums 20 /MonatunbegrenzemMobilfunktarif)undneueArtenderNetzwerknutzung.InnerhalbwenigerWochenstiegdieNetzwerknutzungvonHeliumsprunghaftanAnfang2024erreichtedieta¨glicheDataCreditVerbrennung 4.300/Monat unbegrenzem Mobilfunktarif) und neue Arten der Netzwerknutzung. Innerhalb weniger Wochen **stieg die Netzwerknutzung von Helium sprunghaft an** – Anfang 2024 erreichte die tägliche Data Credit-Verbrennung ~4.300 (von fast nichts ein paar Monate zuvor). Darüber hinaus stammten im 1. Quartal 2024 92 % aller verbrauchten Data Credits aus dem Mobilfunknetz (5G), was bedeutet, dass der 5G-Dienst die IoT-Nutzung sofort in den Schatten stellte. Während 4,3 Tausend /TaginabsolutenZahlenimmernochbescheidenist( 1,6Millionen/Tag in absoluten Zahlen immer noch bescheiden ist (~1,6 Millionen annualisiert), stellt es einen bedeutsamen Schritt in Richtung realer Einnahmen dar. Heliums Token-Modell passt sich an: Durch die Isolierung der IoT- und Mobilfunknetze in separate Belohnungstoken wird sichergestellt, dass die 5G-Belohnungen (MOBILE-Token) reduziert werden, wenn die 5G-Nutzung nicht zustande kommt, und ähnlich für IOT-Token – wodurch die Ineffizienz effektiv eingedämmt wird. Das Wachstum von Helium Mobile zeigte auch die Kraft, Token-Anreize mit einem Dienst von unmittelbarem Verbraucherinteresse (günstige Mobilfunkdaten) zu koppeln. Innerhalb von 6 Monaten nach dem Start hatte Helium ~93.000 MOBILE-Hotspots in den USA bereitgestellt (neben ~1 Million IoT-Hotspots weltweit) und Partnerschaften (z. B. mit Telefónica) geschlossen, um die Abdeckung zu erweitern. Die bevorstehende Herausforderung besteht darin, die Nutzerbasis (sowohl IoT-Geräte-Clients als auch 5G-Abonnenten) erheblich zu vergrößern, sodass die Verbrennung von HNT für Data Credits das Ausmaß der HNT-Ausgabe erreicht. Zusammenfassend lässt sich sagen, dass Helium mit einem extremen Angebotsüberschuss (und einem entsprechend überbewerteten Token) begann, aber seine Neuausrichtung auf die Nachfrage (5G und Positionierung als „Infrastrukturschicht“ für andere Netzwerke) verbessert allmählich die Effizienz seiner Token-Anreize.

  • Filecoin: Im Fall von Filecoin bestand das Ungleichgewicht zwischen Speicherkapazität und tatsächlich gespeicherten Daten. Token-Anreize führten zu einem Überangebot an Speicherplatz: Auf seinem Höhepunkt verfügte das Filecoin-Netzwerk über weit über 15 Exbibyte (EiB) an roher Speicherkapazität, die von Minern zugesagt wurde, doch lange Zeit wurden nur wenige Prozent davon für reale Daten genutzt. Ein Großteil des Speichers wurde mit Dummy-Daten gefüllt (Kunden konnten sogar zufällige Mülldaten speichern, um die Nachweisanforderungen zu erfüllen), nur damit Miner FIL-Belohnungen verdienen konnten. Dies bedeutete, dass viel FIL für Speicher geprägt und vergeben wurde, der von Benutzern tatsächlich nicht nachgefragt wurde. Über 2022–2023 machte das Netzwerk jedoch große Fortschritte bei der Steigerung der Nachfrage. Durch Initiativen wie Filecoin Plus und die aggressive Aufnahme offener Datensätze stieg die Auslastungsrate im Jahr 2023 von ~3 % auf über 20 % der Kapazität. Bis zum 4. Quartal 2024 war die Speicherauslastung von Filecoin weiter auf ~30 % gestiegen – was bedeutet, dass fast ein Drittel der enormen Kapazität reale Kundendaten enthielt. Dies ist immer noch weit von 100 % entfernt, aber der Trend ist positiv: Token-Belohnungen gehen zunehmend in Richtung nützlicher Speicherung statt leerer Füllung. Eine weitere Messgröße: Im 1. Quartal 2024 wurden etwa 1.900 PiB (1,9 EiB) Daten in aktiven Deals auf Filecoin gespeichert, ein Anstieg von 200 % gegenüber dem Vorjahr. Bemerkenswert ist, dass die Mehrheit der neuen Deals jetzt über Filecoin Plus (verifizierte Kunden) zustande kommt, was darauf hindeutet, dass Miner es stark bevorzugen, Speicherplatz für Daten zu verwenden, die ihnen Bonus-Belohnungsmultiplikatoren einbringen.

    In Bezug auf die wirtschaftliche Effizienz erlebte auch das Protokoll von Filecoin eine Verschiebung: Anfangs waren die Protokoll-„Einnahmen“ (von Benutzern gezahlte Gebühren) im Vergleich zu den Mining-Belohnungen (die einige Analysen als Einnahmen behandelten und frühe Zahlen aufblähten) vernachlässigbar. Zum Beispiel waren die Blockbelohnungen von Filecoin im Jahr 2021 Hunderte Millionen Dollar wert (bei hohen FIL-Preisen), aber die tatsächlichen Speichergebühren waren winzig; im Jahr 2022, als der FIL-Preis fiel, sanken die gemeldeten Einnahmen um 98 % von 596 Mio. auf13Mio.auf 13 Mio., was widerspiegelt, dass der Großteil der „Einnahmen“ von 2021 der Wert der Token-Ausgabe und nicht die Kundenausgaben waren. Zukünftig verbessert sich das Gleichgewicht: Die Pipeline zahlender Speicherkunden wächst (z. B. wurde Ende 2023 ein Unternehmensdeal von 1 PiB abgeschlossen, einer der ersten großen vollständig bezahlten Deals). Die Einführung der FVM (die Smart Contracts ermöglicht) und die bevorstehenden Speichermärkte und DEXes von Filecoin werden voraussichtlich mehr On-Chain-Gebührenaktivität (und möglicherweise FIL-Verbrennungen oder Sperrungen) mit sich bringen. Zusammenfassend lässt sich sagen, dass die Token-Anreize von Filecoin erfolgreich ein massives globales Speichernetzwerk aufgebaut haben, wenn auch mit einer Effizienz von unter 5 % in der Anfangszeit; bis 2024 verbesserte sich diese Effizienz auf ~20–30 % und wird voraussichtlich weiter steigen, da die reale Nachfrage das subventionierte Angebot einholt. Die Gesamtnachfrage des Sektors nach dezentralem Speicher (Web3-Daten, Archive, NFT-Metadaten, KI-Datensätze usw.) scheint zu steigen, was gut dafür ist, mehr dieser Mining-Belohnungen in tatsächlich nützliche Dienste umzuwandeln.

  • Render Network: Renders Token-Modell verknüpft Anreize dank des Burn-and-Mint-Gleichgewichts enger mit der Nutzung. Im älteren Modell (vor 2023) lag die RNDR-Ausgabe größtenteils in den Händen der Stiftung und basierte auf Netzwerk-Wachstumszielen, während die Nutzung das Sperren von RNDR in einem Escrow für Aufträge beinhaltete. Dies erschwerte die Effizienzanalyse etwas. Mit der vollständigen Implementierung des BME im Jahr 2023 können wir jedoch messen, wie viele Token im Verhältnis zu den geprägten Token verbrannt werden. Da jeder Rendering- oder Compute-Auftrag RNDR proportional zu seinen Kosten verbrennt, entspricht im Wesentlichen jeder als Belohnung emittierte Token einer geleisteten Arbeit (abzüglich einer Nettoinflation, wenn die Emissionen in einer bestimmten Epoche die Verbrennungen übersteigen). Frühe Daten aus dem Render-Netzwerk nach dem Upgrade deuteten darauf hin, dass die Nutzung tatsächlich zunahm: Die Render Foundation stellte fest, dass das Netzwerk in „Spitzenmomenten“ mehr Render-Frames pro Sekunde abschließen konnte, als Ethereum an Transaktionen verarbeiten konnte, was eine signifikante Aktivität unterstreicht. Während detaillierte Nutzungsstatistiken (z. B. Anzahl der Aufträge oder verbrauchte GPU-Stunden) im obigen Ausschnitt nicht öffentlich sind, ist ein starker Indikator der Preis und die Nachfrage nach RNDR. Im Jahr 2023 wurde RNDR zu einem der leistungsstärksten Krypto-Assets, stieg von etwa 0,40 imJanuaraufu¨ber2,50im Januar auf über 2,50 im Mai und kletterte danach weiter. Bis November 2023 war RNDR im Jahresverlauf um über das 10-fache gestiegen, angetrieben durch den Hype um KI-bezogene Rechenleistung. Diese Preisentwicklung deutet darauf hin, dass Benutzer RNDR kauften, um Rendering- und KI-Aufgaben zu erledigen (oder Spekulanten erwarteten, dass sie dies tun müssten). Tatsächlich führte das Interesse an KI-Aufgaben wahrscheinlich zu einer neuen Nachfragewelle – Render berichtete, dass sein Netzwerk über das Medien-Rendering hinaus in das KI-Modelltraining expandierte und dass der GPU-Mangel in traditionellen Clouds bedeutete, dass die Nachfrage in dieser Nische das Angebot bei weitem übertraf. Im Wesentlichen wurde Renders Token-Anreizen (den Emissionen) eine ebenso starke Benutzernachfrage (Verbrennungen) entgegengebracht, was die Umwandlung von Anreizen in Nutzung relativ hoch macht. Es ist erwähnenswert, dass im ersten Jahr des BME das Netzwerk absichtlich einige zusätzliche Token (die 9,1 Mio. RENDER-Emissionen) zugewiesen hat, um die Einnahmen der Node-Betreiber anzukurbeln. Wenn diese die Nutzung übertreffen, könnte dies eine vorübergehende inflationäre Ineffizienz einführen. Angesichts des Netzwerk-Wachstums stieg die Verbrennungsrate von RNDR jedoch an. Das Render Network Dashboard zeigte Mitte 2024 stetige Zunahmen der kumulierten RNDR-Verbrennungen, was auf die Verarbeitung realer Aufträge hindeutet. Ein weiteres qualitatives Erfolgszeichen: Große Studios und Content-Ersteller haben Render für hochkarätige Projekte genutzt, was die reale Akzeptanz beweist (dies sind nicht nur Krypto-Enthusiasten, die Nodes betreiben – es sind Kunden, die für Rendering bezahlen). Alles in allem scheint Render eine der effektivsten Token-zu-Dienst-Umwandlungsmetriken im DePIN-Bereich zu haben: Wenn das Netzwerk ausgelastet ist, wird RNDR verbrannt und Token-Inhaber sehen einen greifbaren Wert; wäre das Netzwerk untätig, wären Token-Emissionen die einzige Ausgabe, aber die Begeisterung um KI hat sichergestellt, dass das Netzwerk alles andere als untätig ist.

  • Akash: Akahs Effizienz lässt sich im Kontext von Cloud-Ausgaben vs. Token-Ausgabe betrachten. Als Proof-of-Stake-Chain hat Akahs AKT Inflation, um Validatoren zu belohnen, aber diese Inflation ist nicht übermäßig hoch (und ein großer Teil wird durch Staking-Sperren ausgeglichen). Der interessantere Teil ist, wie viel reale Nutzung der Token erfasst. Im Jahr 2022 war die Nutzung von Akash relativ gering (jederzeit nur wenige hundert Bereitstellungen, hauptsächlich kleine Apps oder Testnetze). Dies bedeutete, dass der Wert von AKT spekulativ war und nicht durch Gebühren gedeckt. In den Jahren 2023–2024 explodierte die Nutzung jedoch aufgrund von KI. Ende 2024 **verarbeitete Akash Ausgaben von ~11.000 proTaginseinemNetzwerk,gegenu¨bernur 1.300pro Tag** in seinem Netzwerk, gegenüber nur ~1.300 pro Tag im Januar 2024 – ein Anstieg der täglichen Einnahmen um ~749 % innerhalb des Jahres. Im Laufe des Jahres 2024 übertraf Akash **1,6 Millionen ankumuliertenbezahltenAusgabenfu¨rComputing.DieseZahlen,obwohlimVergleichzuGigantenwieAWSimmernochklein,repra¨sentierentatsa¨chlicheKunden,dieWorkloadsaufAkashbereitstellenundinAKToderUSDCbezahlen(wasletztendlichdieAKTNachfrageu¨berdieUmwandlungantreibt).DieTokenAnreize(inflationa¨reBelohnungen)indiesemZeitraumlageninderGro¨ßenordnungvonvielleicht1520an kumulierten bezahlten Ausgaben** für Computing. Diese Zahlen, obwohl im Vergleich zu Giganten wie AWS immer noch klein, repräsentieren tatsächliche Kunden, die Workloads auf Akash bereitstellen und in AKT oder USDC bezahlen (was letztendlich die AKT-Nachfrage über die Umwandlung antreibt). Die Token-Anreize (inflationäre Belohnungen) in diesem Zeitraum lagen in der Größenordnung von vielleicht 15–20 % der 130 Mio. im Umlauf befindlichen AKT (~20–26 Mio. AKT, die 2024 geprägt wurden, was bei 1–3 pro AKT einen Wert von 20–50 Mio. bedeutenko¨nnte).InreinenDollarBegriffengabdasNetzwerkalsoimmernochmehrWertinTokenaus,alsesanGebu¨hreneinnahma¨hnlichwieandereNetzwerkeinfru¨henPhasen.AberderTrendist,dassdieNutzungschnellaufholt.Eineaussagekra¨ftigeStatistik:ImVergleichzum3.Quartal2024zum3.Quartal2023stiegdiedurchschnittlicheGebu¨hrproLeasevon6,42bedeuten könnte). In reinen Dollar-Begriffen gab das Netzwerk also immer noch mehr Wert in Token aus, als es an Gebühren einnahm – ähnlich wie andere Netzwerke in frühen Phasen. Aber der **Trend** ist, dass die Nutzung schnell aufholt. Eine aussagekräftige Statistik: Im Vergleich zum 3. Quartal 2024 zum 3. Quartal 2023 stieg die **durchschnittliche Gebühr pro Lease von 6,42 auf 18,75 .Diesbedeutet,dassBenutzerweitausressourcenintensivere(unddamitteurere)Workloadsausfu¨hren,wahrscheinlichGPUsfu¨rKI,undsiebereitsind,mehrzuzahlen,presumablyweildasNetzwerkWertliefert(z.B.geringereKostenalsAlternativen).DaAkasheineGebu¨hrvon1020**. Dies bedeutet, dass Benutzer weitaus ressourcenintensivere (und damit teurere) Workloads ausführen, wahrscheinlich GPUs für KI, und sie bereit sind, mehr zu zahlen, presumably weil das Netzwerk Wert liefert (z. B. geringere Kosten als Alternativen). Da Akash eine Gebühr von 10–20 % auf Leases an das Protokoll erhebt, gingen 10–20 % dieser kumulierten Ausgaben von 1,6 Mio. an Staker als realer Ertrag. Im 4. Quartal 2024 erreichte der Preis von AKT neue Mehrjahreshöchststände (~4 $, ein 8-facher Anstieg gegenüber den Tiefstständen Mitte 2023), was darauf hindeutet, dass der Markt die verbesserten Fundamentaldaten und die Nutzung anerkannte. On-Chain-Daten vom Jahresende 2024 zeigten über 650 aktive Leases und über 700 GPUs im Netzwerk mit ~78 % Auslastung – effektiv wurden die meisten der durch Anreize hinzugefügten GPUs tatsächlich von Kunden genutzt. Dies ist eine starke Umwandlung von Token-Anreizen in Dienste: Fast 4 von 5 incentivierten GPUs dienten KI-Entwicklern (für Modelltraining usw.). Akahs proaktive Schritte, wie die Ermöglichung von Kreditkartenzahlungen und die Unterstützung beliebter KI-Frameworks, halfen, Krypto-Token mit realen Benutzern zu verbinden (einige Benutzer wissen möglicherweise nicht einmal, dass sie unter der Haube für AKT bezahlen). Insgesamt bewegt sich Akash, obwohl es anfänglich das übliche DePIN-Problem „Angebot > Nachfrage“ hatte, schnell auf einen ausgeglicheneren Zustand zu. Wenn die KI-Nachfrage anhält, könnte Akash sogar ein Regime erreichen, in dem die Nachfrage die Token-Anreize übersteigt – mit anderen Worten, die Nutzung könnte den Wert von AKT stärker antreiben als spekulative Inflation. Das Design des Protokolls, Gebühren mit Stakern zu teilen, bedeutet auch, dass AKT-Inhaber direkt profitieren, wenn sich die Effizienz verbessert (z. B. verdienten Staker Ende 2024 erhebliche Erträge aus tatsächlichen Gebühren, nicht nur aus Inflation).

  • io.net: Als sehr neues Projekt (gestartet 2023/24) ist die Effizienz von io.net noch weitgehend theoretisch, aber sein Modell ist explizit darauf ausgelegt, die Anreizumwandlung zu maximieren. Durch die harte Begrenzung des Angebots und die Einführung stündlicher Belohnungen vermeidet io.net das Szenario einer unkontrollierten, unbegrenzten Inflation. Und durch das Verbrennen von Token basierend auf Einnahmen stellt es sicher, dass, sobald die Nachfrage einsetzt, ein automatisches Gegengewicht zu den Token-Emissionen vorhanden ist. Frühe Berichte behaupteten, io.net habe eine große Anzahl von GPUs aggregiert (möglicherweise durch die Einbindung bestehender Mining-Farmen und Rechenzentren), was ihm ein erhebliches Angebot verschafft. Entscheidend wird sein, ob dieses Angebot eine entsprechende Nachfrage von KI-Kunden findet. Ein positives Zeichen für den Sektor: Ab 2024 waren dezentrale GPU-Netzwerke (einschließlich Render, Akash und io.net) oft kapazitätsbeschränkt, nicht nachfragebeschränkt – was bedeutet, dass es mehr Benutzernachfrage nach Rechenleistung gab, als die Netzwerke zu jedem Zeitpunkt online hatten. Wenn io.net diese ungedeckte Nachfrage nutzt (indem es niedrigere Preise oder einzigartige Integrationen über Solanas Ökosystem anbietet), könnte seine Token-Verbrennung beschleunigt werden. Auf der anderen Seite, wenn es einen großen Teil des anfänglichen Angebots von 500 Mio. IO an Insider oder Anbieter verteilte, besteht das Risiko eines Verkaufsdrucks, wenn die Nutzung hinterherhinkt. Ohne konkrete Nutzungsdaten dient io.net noch als Test des verfeinerten Tokenomic-Ansatzes: Es zielt von Anfang an auf ein nachfragegetriebenes Gleichgewicht ab und versucht, ein Überangebot an Token zu vermeiden. In den kommenden Jahren kann man seinen Erfolg messen, indem man verfolgt, welcher Prozentsatz der 300 Mio. Emission effektiv durch Netzwerkeinnahmen (Verbrennungen) „bezahlt“ wird. Die Entwicklung des DePIN-Sektors deutet darauf hin, dass io.net zu einem günstigen Zeitpunkt eintritt, da die KI-Nachfrage hoch ist, sodass es möglicherweise schneller eine hohe Auslastung erreicht als frühere Projekte did.

Zusammenfassend lässt sich sagen, dass frühe DePIN-Projekte oft mit einer geringen Effizienz der Token-Anreize konfrontiert waren, wobei die Token-Auszahlungen die tatsächliche Nutzung bei weitem überstiegen. Heliums IoT-Netzwerk war ein Paradebeispiel, wo Token-Belohnungen ein riesiges Netzwerk aufbauten, das nur zu wenigen Prozent ausgelastet war. Filecoin hatte ähnlich anfangs ein Überangebot an Speicherplatz mit wenig gespeicherten Daten. Durch Netzwerkverbesserungen und externe Nachfragetrends schließen sich diese Lücken jedoch. Heliums 5G-Wende vervielfachte die Nutzung, Filecoins Auslastung steigt stetig, und sowohl Render als auch Akash haben einen realen Nutzungsanstieg im Einklang mit dem KI-Boom erlebt, wodurch ihre Token-Ökonomie einem nachhaltigen Kreislauf näherkommt. Ein allgemeiner Trend im Jahr 2024 war die Verlagerung hin zum „Nachweis der Nachfrage“: DePIN-Teams begannen, sich auf die Gewinnung von Nutzern und Einnahmen zu konzentrieren, nicht nur auf Hardware und Hype. Dies zeigt sich an Netzwerken wie Helium, die Unternehmenspartner für IoT und Telekommunikation umwerben, Filecoin, das große Web2-Datensätze aufnimmt, und Akash, das seine Plattform für KI-Entwickler benutzerfreundlich gestaltet. Der Nettoeffekt ist, dass Token-Werte zunehmend durch Fundamentaldaten (z. B. gespeicherte Daten, verkaufte GPU-Stunden) untermauert werden und nicht nur durch Spekulation. Obwohl noch ein langer Weg vor uns liegt – der Sektor insgesamt mit einem Preis-/Umsatzverhältnis von 100x impliziert, dass noch viel Spekulation vorhanden ist – geht die Entwicklung in Richtung einer effizienteren Nutzung von Token-Anreizen. Projekte, die es nicht schaffen, Token in Dienste (oder „Hardware vor Ort“) umzuwandeln, werden wahrscheinlich verschwinden, während diejenigen, die eine hohe Konversionsrate erreichen, das Vertrauen von Investoren und der Community gewinnen.

Eine der bedeutendsten Entwicklungen, die DePIN-Projekten zugutekommt, ist das explosive Wachstum der KI-Computing-Nachfrage. In den Jahren 2023–2024 entwickelte sich das Training und die Bereitstellung von KI-Modellen zu einem Multimilliarden-Dollar-Markt, der die Kapazitäten traditioneller Cloud-Anbieter und GPU-Hersteller stark beanspruchte. Dezentrale Infrastrukturnetzwerke haben sich schnell angepasst, um diese Chance zu nutzen, was zu einer Konvergenz führte, die von Futuristen manchmal als „DePIN x KI“ oder sogar „Dezentrale physische KI (DePAI)“ bezeichnet wird. Im Folgenden skizzieren wir, wie unsere Fokusprojekte und der breitere DePIN-Sektor den KI-Trend nutzen:

  • Dezentrale GPU-Netzwerke & KI: Projekte wie Render, Akash, io.net (und andere wie Golem, Vast.ai usw.) stehen an vorderster Front bei der Erfüllung von KI-Bedürfnissen. Wie bereits erwähnt, erweiterte Render seine Aktivitäten über das Rendering hinaus, um KI-Workloads zu unterstützen – z. B. die Vermietung von GPU-Leistung zum Training von Stable Diffusion-Modellen oder anderen ML-Aufgaben. Das Interesse an KI hat die Nutzung dieser Netzwerke direkt angetrieben. Mitte 2023 stieg die Nachfrage nach GPU-Computing zum Training von Bild- und Sprachmodellen sprunghaft an. Render Network profitierte davon, da viele Entwickler und sogar einige Unternehmen sich an Render wandten, um günstigere GPU-Zeit zu erhalten; dies war ein Faktor für den 10-fachen Preisanstieg von RNDR, was die Überzeugung des Marktes widerspiegelte, dass Render GPUs zur Deckung des KI-Bedarfs liefern würde. Ähnlich fiel Akahs GPU-Start Ende 2023 mit dem Boom der generativen KI zusammen – innerhalb weniger Monate wurden Hunderte von GPUs auf Akash gemietet, um Sprachmodelle zu optimieren oder KI-APIs zu bedienen. Die Auslastungsrate der GPUs auf Akash, die bis Ende 2024 ~78 % erreichte, zeigt, dass fast die gesamte incentivierte Hardware von KI-Benutzern nachgefragt wurde. io.net positioniert sich explizit als „KI-fokussiertes dezentrales Computing-Netzwerk“. Es wirbt mit der Integration von KI-Frameworks (sie erwähnen die Verwendung des Ray Distributed Compute Frameworks, das im maschinellen Lernen beliebt ist, um es KI-Entwicklern zu erleichtern, auf io.net zu skalieren). Das Wertversprechen von io.net – die Möglichkeit, einen GPU-Cluster in 90 Sekunden mit 10- bis 20-facher Effizienz der Cloud bereitzustellen – richtet sich direkt an KI-Startups und Forscher, die durch teure oder überlastete Cloud-GPU-Instanzen eingeschränkt sind. Diese Ausrichtung ist strategisch: 2024 gab es extreme GPU-Engpässe (z. B. waren NVIDIAs High-End-KI-Chips ausverkauft), und dezentrale Netzwerke mit Zugang zu jeder Art von GPU (sogar ältere Modelle oder Gaming-GPUs) sprangen ein, um die Lücke zu füllen. Das Weltwirtschaftsforum stellte das Aufkommen von „Dezentraler physischer KI (DePAI)“ fest, bei der alltägliche Menschen Rechenleistung und Daten zu KI-Prozessen beitragen und belohnt werden. Dieses Konzept stimmt mit GPU-DePIN-Projekten überein, die es jedem mit einer anständigen GPU ermöglichen, Token zu verdienen, indem er KI-Workloads unterstützt. Messaris Forschung betonte ebenfalls, dass die intensive Nachfrage der KI-Industrie im Jahr 2024 ein „bedeutender Beschleuniger“ für die Verlagerung des DePIN-Sektors hin zu nachfragegetriebenem Wachstum war.

  • Speichernetzwerke & KI-Daten: Der KI-Boom dreht sich nicht nur um Computing – er erfordert auch die Speicherung massiver Datensätze (für das Training) und die Verteilung trainierter Modelle. Dezentrale Speichernetzwerke wie Filecoin und Arweave haben hier neue Anwendungsfälle gefunden. Insbesondere Filecoin hat KI als wichtigen Wachstumsvektor angenommen: Im Jahr 2024 identifizierte die Filecoin-Community „Compute und KI“ als einen von drei Schwerpunktbereichen. Mit der Einführung der Filecoin Virtual Machine ist es nun möglich, Computing-Dienste in der Nähe der auf Filecoin gespeicherten Daten auszuführen. Projekte wie Bacalhau (ein verteiltes Compute-over-Data-Projekt) und Fluences Compute L2 bauen auf Filecoin auf, um Benutzern die Ausführung von KI-Algorithmen direkt auf im Netzwerk gespeicherten Daten zu ermöglichen. Die Idee ist, beispielsweise das Training eines Modells auf einem großen Datensatz zu ermöglichen, der bereits über Filecoin-Nodes verteilt gespeichert ist, anstatt ihn in einen zentralisierten Cluster verschieben zu müssen. Filecoins technische Innovationen wie InterPlanetary Consensus (IPC) ermöglichen das Hochfahren von Subnetzwerken, die für spezifische Workloads (wie eine KI-spezifische Sidechain, die Filecoins Speichersicherheit nutzt) dediziert werden könnten. Darüber hinaus unterstützt Filecoin dezentrale Daten-Commons, die für KI hochrelevant sind – zum Beispiel können Datensätze von Universitäten, Daten autonomer Fahrzeuge oder Satellitenbilder auf Filecoin gehostet und dann von KI-Modellen abgerufen werden. Das Netzwerk speichert stolz wichtige KI-relevante Datensätze (die referenzierten Daten der UC Berkeley und des Internet Archive zum Beispiel). Auf der Token-Seite bedeutet dies, dass mehr Clients FIL für Daten verwenden – aber noch spannender ist das Potenzial für Sekundärmärkte für Daten: Filecoins Vision beinhaltet die Möglichkeit für Speicherkunden, ihre Daten zu monetarisieren für KI-Trainingsanwendungsfälle. Das deutet auf eine Zukunft hin, in der der Besitz eines großen Datensatzes auf Filecoin Token einbringen könnte, wenn KI-Unternehmen dafür bezahlen, darauf zu trainieren usw., wodurch ein Ökosystem entsteht, in dem FIL nicht nur für die Speicherung, sondern auch für Datennutzungsrechte fließt. Dies ist noch im Entstehen, unterstreicht aber, wie tief Filecoin mit KI-Trends verknüpft ist.

  • Drahtlose Netzwerke & Edge-Daten für KI: Oberflächlich betrachtet sind Helium und ähnliche drahtlose DePINs weniger direkt an KI-Computing gebunden. Es gibt jedoch einige Verbindungen. IoT-Sensornetzwerke (wie Heliums IoT-SubDAO und andere wie Nodle oder WeatherXM) können wertvolle reale Daten liefern, um KI-Modelle zu speisen. Zum Beispiel bietet WeatherXM (ein DePIN für Wetterstationsdaten) einen dezentralen Strom von Wetterdaten, der Klimamodelle oder KI-Vorhersagen verbessern könnte – WeatherXM-Daten werden aus genau diesen Gründen über Filecoins Basin L2 integriert. Nodle, das Smartphones als Nodes zur Datenerfassung verwendet (und als DePIN gilt), entwickelt eine App namens „Click“ für dezentrale Smart-Kamera-Aufnahmen; sie planen, Filecoin zu integrieren, um die Bilder zu speichern und sie potenziell im KI-Computer-Vision-Training zu verwenden. Heliums Rolle könnte darin bestehen, die Konnektivität für solche Edge-Geräte bereitzustellen – zum Beispiel eine Stadt, die Helium-IoT-Sensoren für Luftqualität oder Verkehr einsetzt und diese Datensätze dann zum Training von KI für die Stadtplanung verwendet. Zusätzlich könnte das Helium 5G-Netzwerk in Zukunft als Edge-Infrastruktur für KI dienen: Stellen Sie sich autonome Drohnen oder Fahrzeuge vor, die dezentrales 5G für die Konnektivität nutzen – die Daten, die sie generieren (und verbrauchen), könnten kontinuierlich in KI-Systeme eingespeist werden. Obwohl Helium keine spezifischen „KI-Strategien“ angekündigt hat, hat seine Muttergesellschaft Nova Labs angedeutet, Helium als allgemeine Infrastrukturschicht für andere DePIN-Projekte zu positionieren. Dies könnte auch solche im Bereich KI umfassen. Zum Beispiel könnte Helium die physische drahtlose Schicht für eine KI-gesteuerte Geräteflotte bereitstellen, während die Rechenanforderungen dieser KI-Flotte von Netzwerken wie Akash und die Datenspeicherung von Filecoin übernommen werden – ein miteinander verbundener DePIN-Stack.

  • Synergistisches Wachstum und Investitionen: Sowohl Krypto-Investoren als auch traditionelle Akteure bemerken die DePIN–KI-Synergie. Messaris Bericht 2024 prognostizierte, dass der DePIN-Markt bis 2028 auf 3,5 Billionen US-Dollar (von ~50 Mrd. US-Dollar im Jahr 2024) wachsen könnte, wenn die Trends anhalten. Diese optimistische Prognose basiert größtenteils darauf, dass KI eine „Killer-App“ für dezentrale Infrastruktur ist. Das Konzept von DePAI (Dezentrale physische KI) stellt sich eine Zukunft vor, in der gewöhnliche Menschen nicht nur Hardware, sondern auch Daten zu KI-Systemen beitragen und belohnt werden, wodurch das Monopol von Big Tech auf KI-Datensätze gebrochen wird. Zum Beispiel könnte das autonome Fahrzeug einer Person Straßendaten sammeln, diese über ein Netzwerk wie Helium hochladen, auf Filecoin speichern und von einer KI, die auf Akash trainiert, nutzen lassen – wobei jedes Protokoll die Mitwirkenden mit Token belohnt. Obwohl etwas futuristisch, tauchen erste Bausteine dieser Vision auf (z. B. HiveMapper, ein DePIN-Mapping-Projekt, bei dem Dashcams von Fahrern eine Karte erstellen – diese Karten könnten selbstfahrende KI trainieren; Mitwirkende verdienen Token). Wir sehen auch KI-fokussierte Krypto-Projekte wie Bittensor (TAO) – ein Netzwerk zum dezentralen Training von KI-Modellen – das Multi-Milliarden-Bewertungen erreicht, was auf eine starke Investorenbereitschaft für KI+Krypto-Kombinationen hindeutet.

  • Autonome Agenten und Maschine-zu-Maschine-Wirtschaft: Ein faszinierender Trend am Horizont ist die autonome Nutzung von DePIN-Diensten durch KI-Agenten. Messari spekulierte, dass bis 2025 KI-Agentennetzwerke (wie autonome Bots) dezentrales Computing und Speicher direkt von DePIN-Protokollen beziehen könnten, um Aufgaben für Menschen oder andere Maschinen auszuführen. In einem solchen Szenario könnte ein KI-Agent (z. B. Teil eines dezentralen Netzwerks von KI-Diensten) automatisch GPUs von Render oder io.net mieten, wenn er mehr Rechenleistung benötigt, mit Krypto bezahlen, seine Ergebnisse auf Filecoin speichern und über Helium kommunizieren – alles ohne menschliches Eingreifen, Verhandlungen und Transaktionen über Smart Contracts. Diese Maschine-zu-Maschine-Wirtschaft könnte eine neue Nachfragewelle freisetzen, die nativ für DePIN geeignet ist (da KI-Agenten keine Kreditkarten haben, aber Token verwenden können, um sich gegenseitig zu bezahlen). Es ist noch früh, aber Prototypen wie Fetch.ai und andere deuten in diese Richtung. Wenn es sich materialisiert, würden DePIN-Netzwerke einen direkten Zustrom maschinengesteuerter Nutzung erleben, was ihre Modelle weiter validieren würde.

  • Energie und andere physische Vertikalen: Während unser Fokus auf Konnektivität, Speicherung und Computing lag, berührt der KI-Trend auch andere DePIN-Bereiche. Zum Beispiel könnten dezentrale Energienetze (manchmal als DeGEN – dezentrale Energienetzwerke bezeichnet) davon profitieren, wenn KI die Energieverteilung optimiert: Wenn jemand überschüssige Solarenergie in ein Mikrogrid für Token einspeist, könnte KI diese Energie effizient vorhersagen und leiten. Ein im Binance-Bericht zitiertes Projekt beschreibt Token für die Einspeisung überschüssiger Solarenergie in ein Netz. KI-Algorithmen, die solche Netze verwalten, könnten wiederum auf dezentralem Computing ausgeführt werden. Ebenso kann KI die Leistung dezentraler Netzwerke verbessern – z. B. KI-basierte Optimierung der Funkabdeckung von Helium oder KI-Operationen für die vorausschauende Wartung von Filecoin-Speicherknoten. Hier geht es eher um die Nutzung von KI innerhalb von DePIN, aber es zeigt die gegenseitige Befruchtung von Technologien.

Im Wesentlichen ist KI zu einem Rückenwind für DePIN geworden. Die zuvor getrennten Narrative von „Blockchain trifft reale Welt“ und „KI-Revolution“ konvergieren zu einer gemeinsamen Erzählung: Dezentralisierung kann dazu beitragen, die Infrastrukturanforderungen von KI zu erfüllen, und KI kann wiederum eine massive reale Nutzung für dezentrale Netzwerke antreiben. Diese Konvergenz zieht erhebliches Kapital an – allein im Jahr 2024 wurden über 350 Mio. $ in DePIN-Startups investiert, ein Großteil davon zielte auf KI-bezogene Infrastruktur ab (zum Beispiel waren viele jüngste Kapitalbeschaffungen für dezentrale GPU-Projekte, Edge-Computing für KI usw.). Sie fördert auch die Zusammenarbeit zwischen Projekten (Filecoin arbeitet mit Helium, Akash integriert sich mit anderen KI-Tool-Anbietern usw.).

Fazit

DePIN-Projekte wie Helium, Filecoin, Render und Akash stellen eine kühne Wette dar, dass Krypto-Anreize reale Infrastruktur schneller und gerechter aufbauen können als traditionelle Modelle. Jedes hat ein einzigartiges Wirtschaftsmodell entwickelt: Helium nutzt Token-Verbrennungen und Proof-of-Coverage, um drahtlose Netzwerke per Crowdsourcing aufzubauen, Filecoin nutzt Kryptoökonomie, um einen dezentralen Datenspeichermarkt zu schaffen, Render und Akash verwandeln GPUs und Server durch tokenisierte Zahlungen und Belohnungen in globale gemeinsame Ressourcen. Anfangs zeigten diese Modelle Belastungen – schnelles Angebotswachstum bei schleppender Nachfrage –, aber sie haben die Fähigkeit bewiesen, sich im Laufe der Zeit anzupassen und die Effizienz zu verbessern. Das Token-Anreiz-Schwungrad, obwohl keine Wunderwaffe, hat sich als fähig erwiesen, beeindruckende physische Netzwerke aufzubauen: ein globales IoT-/5G-Netzwerk, ein Exabyte-großes Speicher-Grid und verteilte GPU-Clouds. Jetzt, da die reale Nutzung aufholt (von IoT-Geräten bis zu KI-Laboren), gehen diese Netzwerke zu nachhaltigen Dienstleistungswirtschaften über, in denen Token durch die Bereitstellung von Wert verdient werden, nicht nur durch frühzeitige Beteiligung.

Der Aufstieg der KI hat diesen Übergang beschleunigt. Der unstillbare Appetit der KI auf Rechenleistung und Daten spielt den Stärken von DePIN in die Hände: ungenutzte Ressourcen können erschlossen, ungenutzte Hardware eingesetzt und Teilnehmer weltweit an den Belohnungen teilhaben. Die Ausrichtung von KI-getriebener Nachfrage auf DePIN-Angebot im Jahr 2024 war ein entscheidender Moment, der wohl die „Produkt-Markt-Passung“ lieferte, auf die einige dieser Projekte gewartet hatten. Trends deuten darauf hin, dass dezentrale Infrastruktur weiterhin auf der KI-Welle reiten wird – sei es durch das Hosten von KI-Modellen, das Sammeln von Trainingsdaten oder die Ermöglichung autonomer Agentenökonomien. Dabei könnte der Wert der Token, die diesen Netzwerken zugrunde liegen, zunehmend die tatsächliche Nutzung (z. B. verkaufte GPU-Stunden, gespeicherte TB, verbundene Geräte) widerspiegeln und nicht nur Spekulationen.

Dennoch bleiben Herausforderungen bestehen. DePIN-Projekte müssen die Umwandlung von Investitionen in Nutzen weiter verbessern – sicherstellen, dass das Hinzufügen eines weiteren Hotspots oder einer weiteren GPU den Benutzern tatsächlich proportionalen Wert hinzufügt. Sie stehen auch im Wettbewerb mit traditionellen Anbietern (die keineswegs stillstehen – z. B. senken Cloud-Giganten die Preise für zugesagte KI-Workloads) und müssen Probleme wie regulatorische Hürden (Heliums 5G benötigt Spektrumkonformität usw.), Reibung bei der Benutzererfahrung mit Krypto und die Notwendigkeit einer zuverlässigen Leistung im großen Maßstab überwinden. Auch die Token-Modelle erfordern eine ständige Kalibrierung: zum Beispiel war die Aufteilung von Helium in Sub-Token eine solche Anpassung; Renders BME war eine weitere; andere könnten Gebührenverbrennungen, dynamische Belohnungen oder sogar DAO-Governance-Anpassungen implementieren, um im Gleichgewicht zu bleiben.

Aus Innovations- und Investitionsperspektive ist DePIN einer der spannendsten Bereiche in Web3, da es Krypto direkt an greifbare Dienste bindet. Investoren beobachten Metriken wie Protokolleinnahmen, Auslastungsraten und Token-Wertschöpfung (P/S-Verhältnisse), um Gewinner zu erkennen. Wenn beispielsweise der Token eines Netzwerks eine hohe Marktkapitalisierung, aber eine sehr geringe Nutzung (hohes P/S) aufweist, könnte er überbewertet sein, es sei denn, man erwartet einen Nachfrageschub. Umgekehrt könnte ein Netzwerk, das es schafft, die Einnahmen drastisch zu steigern (wie Akahs 749%iger Anstieg der täglichen Ausgaben), eine fundamentale Neubewertung seines Tokens erleben. Analyseplattformen (Messari, Token Terminal) verfolgen solche Daten jetzt: z. B. ergab Heliums annualisierter Umsatz (~3,5 Mio. )vs.Anreize( 47Mio.) vs. Anreize (~47 Mio. ) ein großes Defizit, während ein Projekt wie Render ein engeres Verhältnis aufweisen könnte, wenn die Verbrennungen beginnen, die Emissionen auszugleichen. Im Laufe der Zeit erwarten wir, dass der Markt diejenigen DePIN-Token belohnt, die reale Cashflows oder Kosteneinsparungen für Benutzer aufweisen – eine Reifung des Sektors von Hype zu Fundamentaldaten.

Zusammenfassend lässt sich sagen, dass etablierte Netzwerke wie Helium und Filecoin die Stärken und Fallstricke tokenisierter Infrastruktur bewiesen haben, und aufstrebende Netzwerke wie Render, Akash und io.net das Modell in den Bereich des hoch nachgefragten KI-Computings vorantreiben. Die Ökonomie hinter jedem Netzwerk unterscheidet sich in der Mechanik, teilt aber ein gemeinsames Ziel: einen sich selbst erhaltenden Kreislauf zu schaffen, in dem Token den Aufbau von Diensten und die Nutzung dieser Dienste wiederum den Wert des Tokens unterstützen. Das Erreichen dieses Gleichgewichts ist komplex, aber die bisherigen Fortschritte – Millionen von Geräten, Exabytes von Daten und Tausende von GPUs, die jetzt in dezentralen Netzwerken online sind – deuten darauf hin, dass das DePIN-Experiment Früchte trägt. Da KI und Web3 weiterhin konvergieren, könnten die nächsten Jahre dazu führen, dass dezentrale Infrastrukturnetzwerke von Nischenalternativen zu wichtigen Säulen des Internets werden und reale Nutzen liefern, angetrieben durch Kryptoökonomie.

Quellen: Offizielle Projektdokumentation und Blogs, Messari-Forschungsberichte sowie Analysedaten von Token Terminal und anderen. Wichtige Referenzen sind Messaris Helium- und Akash-Übersichten, Filecoin Foundation-Updates, Binance Research zu DePIN und io.net sowie CoinGecko-/CoinDesk-Analysen zur Token-Performance im KI-Kontext. Diese bilden die faktische Grundlage für die obige Bewertung, wie durchgehend zitiert.

Sui Network Reliability Engineering (NRE) Tools: Ein vollständiger Leitfaden für Knotenbetreiber

· 6 Minuten Lesezeit
Dora Noda
Software Engineer

Die Sui Blockchain hat schnell Aufmerksamkeit für ihren innovativen Ansatz in Bezug auf Skalierbarkeit und Leistung gewonnen. Für Entwickler und Infrastrukturteams, die Sui-Knoten zuverlässig betreiben möchten, hat Mysten Labs eine umfassende Reihe von Network Reliability Engineering (NRE) Tools entwickelt, die Bereitstellungs-, Konfigurations- und Verwaltungsprozesse optimieren.

In diesem Leitfaden werden wir das Sui NRE Repository erkunden und Ihnen zeigen, wie Sie diese leistungsstarken Tools für Ihren Sui-Knotenbetrieb nutzen können.

ERC-4337: Revolutionierung von Ethereum mit Account Abstraction

· 3 Minuten Lesezeit
Dora Noda
Software Engineer

Hallo und willkommen zurück in unserem Blockchain-Blog! Heute tauchen wir in einen spannenden neuen Vorschlag namens ERC-4337 ein, der Account Abstraction in Ethereum einführt, ohne Änderungen am Konsensschicht-Protokoll zu erfordern. Stattdessen stützt sich dieser Vorschlag auf eine höhere Infrastrukturschicht, um seine Ziele zu erreichen. Lassen Sie uns erkunden, was ERC-4337 zu bieten hat und wie es die Einschränkungen des aktuellen Ethereum-Ökosystems angeht.

Was ist ERC-4337?

ERC-4337 ist ein Vorschlag, der Account Abstraction in Ethereum durch die Verwendung eines separaten Mempools und eines neuen Typs von Pseudo-Transaktionsobjekten, genannt UserOperation, einführt. Benutzer senden UserOperation-Objekte in den alternativen Mempool, wo eine spezielle Klasse von Akteuren, sogenannte Bundler, diese zu einer Transaktion bündeln, die einen handleOps-Aufruf an einen dedizierten Smart Contract tätigt. Diese Transaktionen werden dann in einen Block aufgenommen.

Der Vorschlag verfolgt mehrere Ziele:

  1. Benutzern ermöglichen, Smart-Contract-Wallets mit beliebiger Verifizierungslogik als ihre primären Konten zu verwenden.
  2. Die Notwendigkeit für Benutzer, Externally Owned Accounts (EOAs) zu besitzen, vollständig beseitigen.
  3. Dezentralisierung gewährleisten, indem jeder Bundler am Prozess der Aufnahme von Account-Abstracted User Operations teilnehmen kann.
  4. Ermöglichen, dass alle Aktivitäten über einen öffentlichen Mempool stattfinden, wodurch die Notwendigkeit entfällt, dass Benutzer direkte Kommunikationsadressen bestimmter Akteure kennen.
  5. Vertrauensannahmen gegenüber Bundlern vermeiden.
  6. Keine Ethereum-Konsensänderungen erfordern, um eine schnellere Akzeptanz zu ermöglichen.
  7. Andere Anwendungsfälle unterstützen, wie datenschutzfreundliche Anwendungen, atomare Multi-Operationen, das Bezahlen von Transaktionsgebühren mit ERC-20-Tokens und von Entwicklern gesponserte Transaktionen.

Abwärtskompatibilität

Da ERC-4337 die Konsensschicht nicht ändert, gibt es keine direkten Abwärtskompatibilitätsprobleme für Ethereum. Allerdings sind Konten vor ERC-4337 nicht ohne Weiteres mit dem neuen System kompatibel, da ihnen die erforderliche validateUserOp-Funktion fehlt. Dies kann behoben werden, indem ein ERC-4337-kompatibles Konto erstellt wird, das die Verifizierungslogik als Wrapper neu implementiert und es als vertrauenswürdigen Op-Submitter des ursprünglichen Kontos festlegt.

Referenzimplementierung

Für diejenigen, die tiefer in die technischen Details von ERC-4337 eintauchen möchten, ist eine Referenzimplementierung unter https://github.com/eth-infinitism/account-abstraction/tree/main/contracts verfügbar.

Sicherheitsaspekte

Der Entry Point Contract für ERC-4337 muss umfassend geprüft und formal verifiziert werden, da er als zentraler Vertrauenspunkt für das gesamte System dient. Obwohl dieser Ansatz den Prüf- und formalen Verifizierungsaufwand für einzelne Konten reduziert, konzentriert er das Sicherheitsrisiko im Entry Point Contract, der robust verifiziert werden muss.

Die Verifizierung sollte zwei primäre Behauptungen abdecken:

  1. Sicherheit gegen willkürliche Übernahme: Der Entry Point ruft ein Konto nur generisch auf, wenn validateUserOp für dieses spezifische Konto erfolgreich war.
  2. Sicherheit gegen Gebührenentzug: Wenn der Entry Point validateUserOp aufruft und dies erfolgreich ist, muss er auch den generischen Aufruf mit calldata gleich op.calldata tätigen.

Fazit

ERC-4337 ist ein spannender Vorschlag, der darauf abzielt, Account Abstraction in Ethereum einzuführen, ohne Änderungen am Konsensschicht-Protokoll zu erfordern. Durch die Nutzung einer höheren Infrastrukturschicht eröffnet es neue Möglichkeiten für Dezentralisierung, Flexibilität und verschiedene Anwendungsfälle. Obwohl Sicherheitsaspekte zu berücksichtigen sind, hat dieser Vorschlag das Potenzial, das Ethereum-Ökosystem und die Benutzererfahrung erheblich zu verbessern.