Zum Hauptinhalt springen

26 Posts getaggt mit "KI"

Alle Tags anzeigen

Verifizierbare On-Chain-KI mit zkML und kryptografischen Beweisen

· 37 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung: Die Notwendigkeit verifizierbarer KI auf der Blockchain

Da KI-Systeme an Einfluss gewinnen, wird die Vertrauenswürdigkeit ihrer Ergebnisse entscheidend. Traditionelle Methoden verlassen sich auf institutionelle Zusicherungen (im Wesentlichen „vertrauen Sie uns einfach“), die keine kryptografischen Garantien bieten. Dies ist besonders problematisch in dezentralen Kontexten wie Blockchains, wo ein Smart Contract oder ein Benutzer einem KI-abgeleiteten Ergebnis vertrauen muss, ohne ein schweres Modell On-Chain erneut ausführen zu können. Zero-Knowledge Machine Learning (zkML) begegnet diesem Problem, indem es die kryptografische Verifizierung von ML-Berechnungen ermöglicht. Im Wesentlichen ermöglicht zkML einem Prover, einen prägnanten Beweis zu generieren, dass „die Ausgabe $Y$ aus der Ausführung des Modells $M$ mit der Eingabe $X$ resultierte“ohne $X$ oder die internen Details von $M$ preiszugeben. Diese Zero-Knowledge-Beweise (ZKPs) können von jedem (oder jedem Vertrag) effizient verifiziert werden, wodurch das KI-Vertrauen von „Richtlinie zu Beweis“ verlagert wird.

Die On-Chain-Verifizierbarkeit von KI bedeutet, dass eine Blockchain fortgeschrittene Berechnungen (wie neuronale Netzwerk-Inferenzen) integrieren kann, indem sie einen Beweis für die korrekte Ausführung verifiziert, anstatt die Berechnung selbst durchzuführen. Dies hat weitreichende Implikationen: Smart Contracts können Entscheidungen auf der Grundlage von KI-Vorhersagen treffen, dezentrale autonome Agenten können beweisen, dass sie ihren Algorithmen gefolgt sind, und Cross-Chain- oder Off-Chain-Berechnungsdienste können verifizierbare Ergebnisse anstelle von nicht verifizierbaren Orakeln liefern. Letztendlich bietet zkML einen Weg zu vertrauensloser und datenschutzfreundlicher KI – zum Beispiel, um zu beweisen, dass die Entscheidungen eines KI-Modells korrekt und autorisiert sind, ohne private Daten oder proprietäre Modellgewichte preiszugeben. Dies ist entscheidend für Anwendungen, die von sicherer Gesundheitsanalyse bis hin zu Blockchain-Gaming und DeFi-Orakeln reichen.

Wie zkML funktioniert: Komprimierung von ML-Inferenzen in prägnante Beweise

Im Allgemeinen kombiniert zkML kryptografische Beweissysteme mit ML-Inferenzen, sodass eine komplexe Modellbewertung in einen kleinen Beweis „komprimiert“ werden kann. Intern wird das ML-Modell (z. B. ein neuronales Netzwerk) als Schaltkreis oder Programm dargestellt, das aus vielen arithmetischen Operationen (Matrixmultiplikationen, Aktivierungsfunktionen usw.) besteht. Anstatt alle Zwischenwerte preiszugeben, führt ein Prover die vollständige Berechnung Off-Chain durch und verwendet dann ein Zero-Knowledge-Beweisprotokoll, um zu bestätigen, dass jeder Schritt korrekt ausgeführt wurde. Der Verifizierer, dem nur der Beweis und einige öffentliche Daten (wie die endgültige Ausgabe und ein Bezeichner für das Modell) vorliegen, kann kryptografisch von der Korrektheit überzeugt werden, ohne das Modell erneut auszuführen.

Um dies zu erreichen, transformieren zkML-Frameworks die Modellberechnung typischerweise in ein für ZKPs geeignetes Format:

  • Schaltkreis-Kompilierung: Bei SNARK-basierten Ansätzen wird der Berechnungsgraph des Modells in einen arithmetischen Schaltkreis oder eine Menge von Polynom-Constraints kompiliert. Jede Schicht des neuronalen Netzwerks (Faltungen, Matrixmultiplikationen, nichtlineare Aktivierungen) wird zu einem Teilschaltkreis mit Constraints, die sicherstellen, dass die Ausgaben bei gegebenen Eingaben korrekt sind. Da neuronale Netze nichtlineare Operationen (ReLUs, Sigmoids usw.) beinhalten, die nicht von Natur aus für Polynome geeignet sind, werden Techniken wie Lookup-Tabellen verwendet, um diese effizient zu handhaben. Zum Beispiel kann eine ReLU (Ausgabe = max(0, Eingabe)) durch eine benutzerdefinierte Constraint oder einen Lookup erzwungen werden, der überprüft, ob die Ausgabe der Eingabe entspricht, wenn Eingabe≥0, andernfalls Null. Das Endergebnis ist eine Reihe kryptografischer Constraints, die der Prover erfüllen muss, was implizit beweist, dass das Modell korrekt ausgeführt wurde.
  • Ausführungs-Trace & Virtuelle Maschinen: Eine Alternative besteht darin, die Modellinferenz als Programm-Trace zu behandeln, wie es bei zkVM-Ansätzen der Fall ist. Zum Beispiel zielt die JOLT zkVM auf den RISC-V-Befehlssatz ab; man kann das ML-Modell (oder den Code, der es berechnet) nach RISC-V kompilieren und dann beweisen, dass jeder CPU-Befehl ordnungsgemäß ausgeführt wurde. JOLT führt eine „Lookup-Singularität“-Technik ein, die teure arithmetische Constraints durch schnelle Tabellen-Lookups für jede gültige CPU-Operation ersetzt. Jede Operation (Addition, Multiplikation, Bit-Operation usw.) wird über einen Lookup in einer riesigen Tabelle von vorab berechneten gültigen Ergebnissen überprüft, wobei ein spezialisiertes Argument (Lasso/SHOUT) verwendet wird, um dies effizient zu halten. Dies reduziert die Arbeitslast des Provers drastisch: Selbst komplexe 64-Bit-Operationen werden zu einem einzigen Tabellen-Lookup im Beweis anstelle vieler arithmetischer Constraints.
  • Interaktive Protokolle (GKR Sum-Check): Ein dritter Ansatz verwendet interaktive Beweise wie GKR (Goldwasser–Kalai–Rotblum), um eine geschichtete Berechnung zu verifizieren. Hier wird die Berechnung des Modells als geschichteter arithmetischer Schaltkreis betrachtet (jede neuronale Netzwerkschicht ist eine Schicht des Schaltkreisgraphen). Der Prover führt das Modell normal aus, beteiligt sich dann aber an einem Sum-Check-Protokoll, um zu beweisen, dass die Ausgaben jeder Schicht bei gegebenen Eingaben korrekt sind. Im Lagrange-Ansatz (DeepProve, als Nächstes detailliert) führen Prover und Verifizierer ein interaktives Polynomprotokoll durch (das über Fiat-Shamir nicht-interaktiv gemacht wird), das die Konsistenz der Berechnungen jeder Schicht überprüft, ohne sie erneut durchzuführen. Diese Sum-Check-Methode vermeidet die Generierung eines monolithischen statischen Schaltkreises; stattdessen verifiziert sie die Konsistenz der Berechnungen schrittweise mit minimalen kryptografischen Operationen (hauptsächlich Hashing oder Polynombewertungen).

Unabhängig vom Ansatz ist das Ergebnis ein prägnanter Beweis (typischerweise einige Kilobyte bis einige zehn Kilobyte), der die Korrektheit der gesamten Inferenz bestätigt. Der Beweis ist Zero-Knowledge, was bedeutet, dass alle geheimen Eingaben (private Daten oder Modellparameter) verborgen bleiben können – sie beeinflussen den Beweis, werden aber den Verifizierern nicht offengelegt. Nur die beabsichtigten öffentlichen Ausgaben oder Behauptungen werden offengelegt. Dies ermöglicht Szenarien wie „beweisen Sie, dass Modell $M$, angewendet auf Patientendaten $X$, die Diagnose $Y$ ergibt, ohne $X$ oder die Gewichte des Modells preiszugeben.“

On-Chain-Verifizierung ermöglichen: Sobald ein Beweis generiert wurde, kann er auf einer Blockchain veröffentlicht werden. Smart Contracts können Verifizierungslogik enthalten, um den Beweis zu überprüfen, oft unter Verwendung vorkompilierter kryptografischer Primitive. Zum Beispiel verfügt Ethereum über Precompiles für BLS12-381-Pairing-Operationen, die in vielen zk-SNARK-Verifizierern verwendet werden, was die On-Chain-Verifizierung von SNARK-Beweisen effizient macht. STARKs (Hash-basierte Beweise) sind größer, können aber dennoch On-Chain mit sorgfältiger Optimierung oder möglicherweise mit einigen Vertrauensannahmen verifiziert werden (StarkWares L2 verifiziert beispielsweise STARK-Beweise auf Ethereum durch einen On-Chain-Verifizierer-Vertrag, wenn auch mit höheren Gaskosten als SNARKs). Der Schlüssel ist, dass die Kette das ML-Modell nicht ausführen muss – sie führt nur eine Verifizierung durch, die viel billiger ist als die ursprüngliche Berechnung. Zusammenfassend lässt sich sagen, dass zkML teure KI-Inferenzen in einen kleinen Beweis komprimiert, den Blockchains (oder jeder Verifizierer) in Millisekunden bis Sekunden überprüfen können.

Lagrange DeepProve: Architektur und Leistung eines zkML-Durchbruchs

DeepProve von Lagrange Labs ist ein hochmodernes zkML-Inferenz-Framework, das sich auf Geschwindigkeit und Skalierbarkeit konzentriert. DeepProve wurde 2025 eingeführt und stellte ein neues Beweissystem vor, das dramatisch schneller ist als frühere Lösungen wie Ezkl. Sein Design konzentriert sich auf das GKR-interaktive Beweisprotokoll mit Sum-Check und spezialisierte Optimierungen für neuronale Netzwerk-Schaltkreise. So funktioniert DeepProve und erreicht seine Leistung:

  • Einmalige Vorverarbeitung: Entwickler beginnen mit einem trainierten neuronalen Netzwerk (derzeit unterstützte Typen umfassen Multilayer-Perceptrons und gängige CNN-Architekturen). Das Modell wird in das ONNX-Format exportiert, eine Standard-Graphdarstellung. Das Tool von DeepProve parst dann das ONNX-Modell und quantisiert es (konvertiert Gewichte in Festkomma-/Ganzzahlform) für effiziente Feldarithmetik. In dieser Phase generiert es auch die Proving- und Verifizierungs-Keys für das kryptografische Protokoll. Dieses Setup wird einmal pro Modell durchgeführt und muss nicht pro Inferenz wiederholt werden. DeepProve betont die einfache Integration: „Exportieren Sie Ihr Modell nach ONNX → einmaliges Setup → Beweise generieren → überall verifizieren“.

  • Beweiserstellung (Inferenz + Beweisgenerierung): Nach dem Setup nimmt ein Prover (der von einem Benutzer, einem Dienst oder dem dezentralen Prover-Netzwerk von Lagrange ausgeführt werden könnte) eine neue Eingabe $X$ und führt das Modell $M$ darauf aus, wobei er die Ausgabe $Y$ erhält. Während dieser Ausführung zeichnet DeepProve einen Ausführungs-Trace der Berechnungen jeder Schicht auf. Anstatt jede Multiplikation im Voraus in einen statischen Schaltkreis zu übersetzen (wie es SNARK-Ansätze tun), verwendet DeepProve das linearzeitliche GKR-Protokoll, um jede Schicht im laufenden Betrieb zu verifizieren. Für jede Netzwerkschicht verpflichtet sich der Prover zu den Eingaben und Ausgaben der Schicht (z. B. über kryptografische Hashes oder Polynom-Commitments) und beteiligt sich dann an einem Sum-Check-Argument, um zu beweisen, dass die Ausgaben tatsächlich aus den Eingaben gemäß der Funktion der Schicht resultieren. Das Sum-Check-Protokoll überzeugt den Verifizierer iterativ von der Korrektheit einer Summe von Auswertungen eines Polynoms, das die Berechnung der Schicht kodiert, ohne die tatsächlichen Werte preiszugeben. Nichtlineare Operationen (wie ReLU, Softmax) werden in DeepProve effizient durch Lookup-Argumente behandelt – wenn die Ausgabe einer Aktivierung berechnet wurde, kann DeepProve beweisen, dass jede Ausgabe einem gültigen Eingabe-Ausgabe-Paar aus einer vorab berechneten Tabelle für diese Funktion entspricht. Schicht für Schicht werden Beweise generiert und dann zu einem prägnanten Beweis aggregiert, der den gesamten Vorwärtslauf des Modells abdeckt. Der Großteil der Kryptografie wird minimiert – der Prover von DeepProve führt hauptsächlich normale numerische Berechnungen (die eigentliche Inferenz) sowie einige leichte kryptografische Commitments durch, anstatt ein riesiges System von Constraints zu lösen.

  • Verifizierung: Der Verifizierer verwendet den endgültigen prägnanten Beweis zusammen mit einigen öffentlichen Werten – typischerweise dem committed Identifier des Modells (ein kryptografisches Commitment zu den Gewichten von $M$), der Eingabe $X$ (falls nicht privat) und der behaupteten Ausgabe $Y$ – um die Korrektheit zu überprüfen. Die Verifizierung im DeepProve-System beinhaltet die Überprüfung des Transkripts des Sum-Check-Protokolls und der endgültigen Polynom- oder Hash-Commitments. Dies ist aufwendiger als die Verifizierung eines klassischen SNARK (der einige Pairings umfassen könnte), aber es ist wesentlich billiger als das erneute Ausführen des Modells. In den Benchmarks von Lagrange dauert die Verifizierung eines DeepProve-Beweises für ein mittleres CNN in Software etwa 0,5 Sekunden. Das sind ~0,5s, um beispielsweise zu bestätigen, dass ein Faltungsnetzwerk mit Hunderttausenden von Parametern korrekt ausgeführt wurde – über 500-mal schneller als die naive Neuberechnung dieses CNN auf einer GPU zur Verifizierung. (Tatsächlich maß DeepProve eine 521-mal schnellere Verifizierung für CNNs und 671-mal für MLPs im Vergleich zur erneuten Ausführung.) Die Beweisgröße ist klein genug, um On-Chain übertragen zu werden (Zehntausende von KB), und die Verifizierung könnte bei Bedarf in einem Smart Contract durchgeführt werden, obwohl 0,5s Rechenzeit eine sorgfältige Gasoptimierung oder Layer-2-Ausführung erfordern könnten.

Architektur und Tools: DeepProve ist in Rust implementiert und bietet ein Toolkit (die zkml-Bibliothek) für Entwickler. Es unterstützt nativ ONNX-Modellgraphen und ist somit mit Modellen von PyTorch oder TensorFlow (nach dem Export) kompatibel. Der Proving-Prozess zielt derzeit auf Modelle mit bis zu einigen Millionen Parametern ab (Tests umfassen ein dichtes Netzwerk mit 4 Millionen Parametern). DeepProve nutzt eine Kombination kryptografischer Komponenten: ein multilineares Polynom-Commitment (um sich auf Schichtausgaben festzulegen), das Sum-Check-Protokoll zur Verifizierung von Berechnungen und Lookup-Argumente für nichtlineare Operationen. Bemerkenswerterweise erkennt Lagranges Open-Source-Repository an, dass es auf früheren Arbeiten (der Sum-Check- und GKR-Implementierung aus Scrolls Ceno-Projekt) aufbaut, was eine Überschneidung von zkML mit der Zero-Knowledge-Rollup-Forschung anzeigt.

Um Echtzeit-Skalierbarkeit zu erreichen, koppelt Lagrange DeepProve mit seinem Prover Network – einem dezentralen Netzwerk spezialisierter ZK-Prover. Die aufwendige Beweisgenerierung kann an dieses Netzwerk ausgelagert werden: Wenn eine Anwendung eine Inferenz verifiziert haben muss, sendet sie den Auftrag an das Lagrange-Netzwerk, wo viele Operatoren (die auf EigenLayer für Sicherheit gestaked sind) Beweise berechnen und das Ergebnis zurückgeben. Dieses Netzwerk incentiviert die zuverlässige Beweisgenerierung wirtschaftlich (bösartige oder fehlgeschlagene Aufträge führen dazu, dass der Operator slashed wird). Durch die Verteilung der Arbeit auf mehrere Prover (und potenziell die Nutzung von GPUs oder ASICs) verbirgt das Lagrange Prover Network die Komplexität und Kosten vor den Endbenutzern. Das Ergebnis ist ein schneller, skalierbarer und dezentraler zkML-Dienst: „verifizierbare KI-Inferenzen schnell und erschwinglich“.

Leistungsmeilensteine: Die Behauptungen von DeepProve werden durch Benchmarks gegen den bisherigen Stand der Technik, Ezkl, untermauert. Für ein CNN mit ~264.000 Parametern (Modell im CIFAR-10-Maßstab) betrug die Proving-Zeit von DeepProve ~1,24 Sekunden gegenüber ~196 Sekunden für Ezkl – etwa 158-mal schneller. Für ein größeres dichtes Netzwerk mit 4 Millionen Parametern bewies DeepProve eine Inferenz in ~2,3 Sekunden gegenüber ~126,8 Sekunden für Ezkl (~54-mal schneller). Auch die Verifizierungszeiten sanken: DeepProve verifizierte den 264k CNN-Beweis in ~0,6s, während die Verifizierung des Ezkl-Beweises (Halo2-basiert) in diesem Test über 5 Minuten auf der CPU dauerte. Die Beschleunigungen resultieren aus der nahezu linearen Komplexität von DeepProve: Sein Prover skaliert ungefähr O(n) mit der Anzahl der Operationen, während schaltkreisbasierte SNARK-Prover oft einen superlinearen Overhead aufweisen (FFT- und Polynom-Commitments-Skalierung). Tatsächlich kann der Prover-Durchsatz von DeepProve innerhalb einer Größenordnung der reinen Inferenzlaufzeit liegen – neuere GKR-Systeme können <10-mal langsamer sein als die Rohausführung für große Matrixmultiplikationen, eine beeindruckende Leistung in ZK. Dies macht Echtzeit- oder On-Demand-Beweise praktikabler und ebnet den Weg für verifizierbare KI in interaktiven Anwendungen.

Anwendungsfälle: Lagrange arbeitet bereits mit Web3- und KI-Projekten zusammen, um zkML anzuwenden. Beispielhafte Anwendungsfälle sind: verifizierbare NFT-Merkmale (Nachweis, dass eine KI-generierte Evolution eines Spielcharakters oder Sammlerstücks vom autorisierten Modell berechnet wurde), Provenienz von KI-Inhalten (Nachweis, dass ein Bild oder Text von einem bestimmten Modell generiert wurde, um Deepfakes zu bekämpfen), DeFi-Risikomodelle (Nachweis der Ausgabe eines Modells, das finanzielle Risiken bewertet, ohne proprietäre Daten preiszugeben) und private KI-Inferenz im Gesundheitswesen oder Finanzbereich (wo ein Krankenhaus KI-Vorhersagen mit einem Beweis erhalten kann, der die Korrektheit gewährleistet, ohne Patientendaten preiszugeben). Indem KI-Ausgaben verifizierbar und datenschutzfreundlich gemacht werden, öffnet DeepProve die Tür zu „KI, der Sie vertrauen können“ in dezentralen Systemen – von einer Ära des „blinden Vertrauens in Black-Box-Modelle“ zu einer Ära der „objektiven Garantien“.

SNARK-basiertes zkML: Ezkl und der Halo2-Ansatz

Der traditionelle Ansatz für zkML verwendet zk-SNARKs (Succinct Non-interactive Arguments of Knowledge), um neuronale Netzwerk-Inferenzen zu beweisen. Ezkl (von ZKonduit/Modulus Labs) ist ein führendes Beispiel für diesen Ansatz. Es baut auf dem Halo2-Beweissystem auf (ein SNARK im PLONK-Stil mit Polynom-Commitments über BLS12-381). Ezkl bietet eine Toolchain, mit der ein Entwickler ein PyTorch- oder TensorFlow-Modell nehmen, es nach ONNX exportieren und Ezkl es automatisch in einen benutzerdefinierten arithmetischen Schaltkreis kompilieren lassen kann.

Funktionsweise: Jede Schicht des neuronalen Netzwerks wird in Constraints umgewandelt:

  • Lineare Schichten (dicht oder Faltung) werden zu Sammlungen von Multiplikations-Additions-Constraints, die die Skalarprodukte zwischen Eingaben, Gewichten und Ausgaben erzwingen.
  • Nichtlineare Schichten (wie ReLU, Sigmoid usw.) werden über Lookups oder stückweise Constraints behandelt, da solche Funktionen nicht polynomial sind. Zum Beispiel kann eine ReLU durch einen booleschen Selektor $b$ implementiert werden, mit Constraints, die sicherstellen, dass $y = x \cdot b$ und $0 \le b \le 1$ und $b=1$ wenn $x>0$ (eine Möglichkeit), oder effizienter durch eine Lookup-Tabelle, die $x \mapsto \max(0,x)$ für einen Bereich von $x$-Werten abbildet. Halo2s Lookup-Argumente ermöglichen das Mapping von 16-Bit (oder kleineren) Wertblöcken, sodass große Domänen (wie alle 32-Bit-Werte) normalerweise in mehrere kleinere Lookups „zerlegt“ werden. Dieses Zerlegen erhöht die Anzahl der Constraints.
  • Große Ganzzahloperationen oder Divisionen (falls vorhanden) werden ähnlich in kleine Teile zerlegt. Das Ergebnis ist eine große Menge von R1CS/PLONK-Constraints, die auf die spezifische Modellarchitektur zugeschnitten sind.

Ezkl verwendet dann Halo2, um einen Beweis zu generieren, dass diese Constraints bei gegebenen geheimen Eingaben (Modellgewichte, private Eingaben) und öffentlichen Ausgaben gelten. Tools und Integration: Ein Vorteil des SNARK-Ansatzes ist, dass er auf bekannte Primitive zurückgreift. Halo2 wird bereits in Ethereum-Rollups (z. B. Zcash, zkEVMs) verwendet, ist also kampferprobt und verfügt über einen sofort verfügbaren On-Chain-Verifizierer. Die Beweise von Ezkl verwenden die BLS12-381-Kurve, die Ethereum über Precompiles verifizieren kann, was die Verifizierung eines Ezkl-Beweises in einem Smart Contract unkompliziert macht. Das Team hat auch benutzerfreundliche APIs bereitgestellt; zum Beispiel können Datenwissenschaftler mit ihren Modellen in Python arbeiten und Ezkls CLI verwenden, um Beweise zu erstellen, ohne tiefgehende Kenntnisse von Schaltkreisen zu haben.

Stärken: Der Ansatz von Ezkl profitiert von der Allgemeinheit und dem Ökosystem von SNARKs. Er unterstützt einigermaßen komplexe Modelle und hat bereits „praktische Integrationen (von DeFi-Risikomodellen bis hin zu Gaming-KI)“ erfahren, die reale ML-Aufgaben beweisen. Da er auf der Ebene des Berechnungsdiagramms des Modells arbeitet, kann er ML-spezifische Optimierungen anwenden: z. B. das Beschneiden unbedeutender Gewichte oder das Quantisieren von Parametern, um die Schaltkreisgröße zu reduzieren. Es bedeutet auch, dass die Modellvertraulichkeit natürlich ist – die Gewichte können als private Zeugendaten behandelt werden, sodass der Verifizierer nur sieht, dass irgendein gültiges Modell die Ausgabe erzeugt hat, oder bestenfalls ein Commitment zum Modell. Die Verifizierung von SNARK-Beweisen ist extrem schnell (typischerweise wenige Millisekunden oder weniger On-Chain), und die Beweisgrößen sind klein (einige Kilobyte), was ideal für die Blockchain-Nutzung ist.

Schwächen: Die Leistung ist die Achillesferse. Schaltkreisbasierte Beweiserstellung verursacht große Overheads, insbesondere wenn Modelle wachsen. Es wird angemerkt, dass SNARK-Schaltkreise historisch gesehen eine Million Mal mehr Arbeit für den Prover bedeuten konnten, als nur das Modell selbst auszuführen. Halo2 und Ezkl optimieren dies, aber dennoch erzeugen Operationen wie große Matrixmultiplikationen Tonnen von Constraints. Wenn ein Modell Millionen von Parametern hat, muss der Prover entsprechend Millionen von Constraints verarbeiten und dabei aufwendige FFTs und Multiexponentiationen durchführen. Dies führt zu hohen Proving-Zeiten (oft Minuten oder Stunden für nicht-triviale Modelle) und hohem Speicherverbrauch. Zum Beispiel kann die Beweiserstellung für ein relativ kleines CNN (z. B. einige Hunderttausend Parameter) mit Ezkl auf einer einzelnen Maschine Dutzende von Minuten dauern. Das Team hinter DeepProve zitierte, dass Ezkl Stunden für bestimmte Modellbeweise benötigte, die DeepProve in Minuten erledigen kann. Große Modelle passen möglicherweise nicht einmal in den Speicher oder erfordern eine Aufteilung in mehrere Beweise (die dann eine rekursive Aggregation benötigen). Obwohl Halo2 „moderat optimiert“ ist, führt jede Notwendigkeit, Lookups zu „zerlegen“ oder Operationen mit breiten Bits zu handhaben, zu zusätzlichem Overhead. Zusammenfassend lässt sich sagen, dass die Skalierbarkeit begrenzt ist – Ezkl funktioniert gut für kleine bis mittlere Modelle (und übertraf in Benchmarks tatsächlich einige frühere Alternativen wie naive Stark-basierte VMs), aber es stößt an Grenzen, wenn die Modellgröße einen bestimmten Punkt überschreitet.

Trotz dieser Herausforderungen sind Ezkl und ähnliche SNARK-basierte zkML-Bibliotheken wichtige Meilensteine. Sie bewiesen, dass verifizierte ML-Inferenz On-Chain möglich ist und aktiv genutzt wird. Insbesondere Projekte wie Modulus Labs demonstrierten die Verifizierung eines 18-Millionen-Parameter-Modells On-Chain unter Verwendung von SNARKs (mit starker Optimierung). Die Kosten waren nicht trivial, aber es zeigt die Entwicklung. Darüber hinaus verfügt das Mina Protocol über ein eigenes zkML-Toolkit, das SNARKs verwendet, um Smart Contracts auf Mina (die SNARK-basiert sind) die Verifizierung der ML-Modellausführung zu ermöglichen. Dies deutet auf eine wachsende Multi-Plattform-Unterstützung für SNARK-basierte zkML hin.

STARK-basierte Ansätze: Transparente und programmierbare ZK für ML

zk-STARKs (Scalable Transparent ARguments of Knowledge) bieten einen weiteren Weg zu zkML. STARKs verwenden Hash-basierte Kryptografie (wie FRI für Polynom-Commitments) und vermeiden jegliches Trusted Setup. Sie arbeiten oft, indem sie eine CPU oder VM simulieren und die Korrektheit des Ausführungs-Traces beweisen. Im Kontext von ML kann man entweder einen benutzerdefinierten STARK für das neuronale Netzwerk erstellen oder eine allgemeine STARK-VM verwenden, um den Modellcode auszuführen.

Allgemeine STARK-VMs (RISC Zero, Cairo): Ein unkomplizierter Ansatz ist, Inferenzcode zu schreiben und ihn in einer STARK-VM auszuführen. Zum Beispiel bietet Risc0 eine RISC-V-Umgebung, in der jeder Code (z. B. eine C++- oder Rust-Implementierung eines neuronalen Netzwerks) ausgeführt und über einen STARK bewiesen werden kann. Ähnlich kann StarkWares Cairo-Sprache beliebige Berechnungen (wie eine LSTM- oder CNN-Inferenz) ausdrücken, die dann vom StarkNet STARK-Prover bewiesen werden. Der Vorteil ist die Flexibilität – man muss keine benutzerdefinierten Schaltkreise für jedes Modell entwerfen. Frühe Benchmarks zeigten jedoch, dass naive STARK-VMs im Vergleich zu optimierten SNARK-Schaltkreisen für ML langsamer waren. In einem Test war ein Halo2-basierter Beweis (Ezkl) etwa 3-mal schneller als ein STARK-basierter Ansatz auf Cairo und sogar 66-mal schneller als eine RISC-V STARK-VM bei einem bestimmten Benchmark im Jahr 2024. Diese Lücke ist auf den Overhead der Simulation jeder Low-Level-Anweisung in einem STARK und die größeren Konstanten in STARK-Beweisen zurückzuführen (Hashing ist schnell, aber man braucht viel davon; STARK-Beweisgrößen sind größer usw.). STARK-VMs verbessern sich jedoch und bieten den Vorteil eines transparenten Setups (kein Trusted Setup) und Post-Quanten-Sicherheit. Mit fortschreitender STARK-freundlicher Hardware und Protokollen werden sich die Proving-Geschwindigkeiten verbessern.

DeepProves Ansatz vs. STARK: Interessanterweise liefert DeepProves Verwendung von GKR und Sum-Check einen Beweis, der im Geiste eher einem STARK ähnelt – es ist ein interaktiver, Hash-basierter Beweis, der keine strukturierte Referenzzeichenfolge benötigt. Der Kompromiss ist, dass seine Beweise größer und die Verifizierung aufwendiger ist als bei einem SNARK. Dennoch zeigt DeepProve, dass ein sorgfältiges Protokolldesign (spezialisiert auf die geschichtete Struktur von ML) sowohl generische STARK-VMs als auch SNARK-Schaltkreise in der Proving-Zeit deutlich übertreffen kann. Wir können DeepProve als einen maßgeschneiderten STARK-ähnlichen zkML-Prover betrachten (obwohl sie den Begriff zkSNARK für Prägnanz verwenden, hat er nicht die kleine konstante Verifizierungsgröße eines traditionellen SNARK, da 0,5s Verifizierung größer ist als die typische SNARK-Verifizierung). Traditionelle STARK-Beweise (wie die von StarkNet) erfordern oft Zehntausende von Feldoperationen zur Verifizierung, während SNARKs vielleicht nur wenige Dutzend verifizieren. Somit ist ein Kompromiss offensichtlich: SNARKs liefern kleinere Beweise und schnellere Verifizierer, während STARKs (oder GKR) eine einfachere Skalierung und kein Trusted Setup auf Kosten der Beweisgröße und Verifizierungsgeschwindigkeit bieten.

Aufkommende Verbesserungen: Die JOLT zkVM (zuvor unter JOLTx besprochen) gibt tatsächlich SNARKs aus (unter Verwendung von PLONKish-Commitments), verkörpert aber Ideen, die auch im STARK-Kontext angewendet werden könnten (Lasso-Lookups könnten theoretisch mit FRI-Commitments verwendet werden). StarkWare und andere erforschen Wege, die Beweiserstellung gängiger Operationen zu beschleunigen (z. B. die Verwendung von Custom Gates oder Hints in Cairo für Big-Int-Operationen usw.). Es gibt auch Circomlib-ML von Privacy&Scaling Explorations (PSE), das Circom-Templates für CNN-Schichten usw. bereitstellt – das ist SNARK-orientiert, aber konzeptionell ähnliche Templates könnten für STARK-Sprachen erstellt werden.

In der Praxis umfassen Nicht-Ethereum-Ökosysteme, die STARKs nutzen, StarkNet (das eine On-Chain-Verifizierung von ML ermöglichen könnte, wenn jemand einen Verifizierer schreibt, obwohl die Kosten hoch sind) und den Bonsai-Dienst von Risc0 (ein Off-Chain-Proving-Dienst, der STARK-Beweise ausgibt, die auf verschiedenen Chains verifiziert werden können). Ab 2025 haben die meisten zkML-Demos auf der Blockchain SNARKs bevorzugt (aufgrund der Verifizierereffizienz), aber STARK-Ansätze bleiben attraktiv wegen ihrer Transparenz und ihres Potenzials in Hochsicherheits- oder quantenresistenten Umgebungen. Zum Beispiel könnte ein dezentrales Computernetzwerk STARKs verwenden, um jedem die Verifizierung der Arbeit ohne Trusted Setup zu ermöglichen, was für die Langlebigkeit nützlich ist. Auch könnten einige spezialisierte ML-Aufgaben STARK-freundliche Strukturen nutzen: z. B. Berechnungen, die stark XOR-/Bit-Operationen verwenden, könnten in STARKs (da diese in der Booleschen Algebra und beim Hashing günstig sind) schneller sein als in der SNARK-Feldarithmetik.

Zusammenfassung von SNARK vs. STARK für ML:

  • Leistung: SNARKs (wie Halo2) haben einen enormen Prover-Overhead pro Gate, profitieren aber von leistungsstarken Optimierungen und kleinen Konstanten für die Verifizierung; STARKs (generisch) haben einen größeren konstanten Overhead, skalieren aber linearer und vermeiden teure Kryptografie wie Pairings. DeepProve zeigt, dass die Anpassung des Ansatzes (Sum-Check) eine nahezu lineare Proving-Zeit (schnell) mit einem STARK-ähnlichen Beweis ergibt. JOLT zeigt, dass selbst eine allgemeine VM durch intensive Nutzung von Lookups schneller gemacht werden kann. Empirisch gesehen, für Modelle bis zu Millionen von Operationen: Ein gut optimierter SNARK (Ezkl) kann dies bewältigen, benötigt aber möglicherweise Dutzende von Minuten, während DeepProve (GKR) dies in Sekunden erledigen kann. STARK-VMs waren 2024 wahrscheinlich dazwischen oder schlechter als SNARKs, es sei denn, sie waren spezialisiert (Risc0 war in Tests langsamer, Cairo war ohne benutzerdefinierte Hints langsamer).
  • Verifizierung: SNARK-Beweise verifizieren am schnellsten (Millisekunden, und minimale Daten On-Chain ~ einige Hundert Byte bis wenige KB). STARK-Beweise sind größer (Dutzende von KB) und benötigen aufgrund vieler Hashing-Schritte länger (Zehntausende von ms bis Sekunden) zur Verifizierung. In Blockchain-Begriffen könnte eine SNARK-Verifizierung z. B. ~200k Gas kosten, während eine STARK-Verifizierung Millionen von Gas kosten könnte – oft zu hoch für L1, akzeptabel auf L2 oder mit prägnanten Verifizierungsschemata.
  • Setup und Sicherheit: SNARKs wie Groth16 erfordern ein Trusted Setup pro Schaltkreis (unfreundlich für beliebige Modelle), aber universelle SNARKs (PLONK, Halo2) haben ein einmaliges Setup, das für jeden Schaltkreis bis zu einer bestimmten Größe wiederverwendet werden kann. STARKs benötigen kein Setup und verwenden nur Hash-Annahmen (plus klassische Polynomkomplexitätsannahmen) und sind post-quantensicher. Dies macht STARKs attraktiv für die Langlebigkeit – Beweise bleiben sicher, selbst wenn Quantencomputer auftauchen, während aktuelle SNARKs (BLS12-381-basiert) durch Quantenangriffe gebrochen würden.

Wir werden diese Unterschiede in Kürze in einer Vergleichstabelle zusammenfassen.

FHE für ML (FHE-o-ML): Private Berechnung vs. verifizierbare Berechnung

Vollständig Homomorphe Verschlüsselung (FHE) ist eine kryptografische Technik, die es ermöglicht, Berechnungen direkt auf verschlüsselten Daten durchzuführen. Im Kontext von ML kann FHE eine Form der datenschutzfreundlichen Inferenz ermöglichen: Zum Beispiel kann ein Client verschlüsselte Eingaben an einen Modell-Host senden, der Host führt das neuronale Netzwerk auf dem Chiffretext aus, ohne ihn zu entschlüsseln, und sendet ein verschlüsseltes Ergebnis zurück, das der Client entschlüsseln kann. Dies gewährleistet die Datenvertraulichkeit – der Modelleigentümer erfährt nichts über die Eingabe (und potenziell erfährt der Client nur die Ausgabe, nicht die internen Details des Modells, wenn er nur die Ausgabe erhält). FHE allein erzeugt jedoch keinen Korrektheitsbeweis auf die gleiche Weise wie ZKPs. Der Client muss darauf vertrauen, dass der Modelleigentümer die Berechnung tatsächlich ehrlich durchgeführt hat (der Chiffretext könnte manipuliert worden sein). Normalerweise, wenn der Client das Modell hat oder eine bestimmte Verteilung der Ausgaben erwartet, kann offensichtlicher Betrug erkannt werden, aber subtile Fehler oder die Verwendung einer falschen Modellversion wären allein aus der verschlüsselten Ausgabe nicht ersichtlich.

Kompromisse bei der Leistung: FHE ist bekanntermaßen rechenintensiv. Die Ausführung von Deep-Learning-Inferenzen unter FHE führt zu Verlangsamungen um Größenordnungen. Frühe Experimente (z. B. CryptoNets im Jahr 2016) benötigten Dutzende von Sekunden, um ein winziges CNN auf verschlüsselten Daten zu evaluieren. Bis 2024 haben Verbesserungen wie CKKS (für ungefähre Arithmetik) und bessere Bibliotheken (Microsoft SEAL, Zamas Concrete) diesen Overhead reduziert, er bleibt jedoch groß. Zum Beispiel berichtete ein Benutzer, dass die Verwendung von Zamas Concrete-ML zur Ausführung eines CIFAR-10-Klassifikators 25–30 Minuten pro Inferenz auf seiner Hardware dauerte. Nach Optimierungen erreichte Zamas Team ~40 Sekunden für diese Inferenz auf einem 192-Core-Server. Selbst 40s sind extrem langsam im Vergleich zu einer Klartext-Inferenz (die vielleicht 0,01s dauert), was einen Overhead von ~$10^3$–$10^4\times$ zeigt. Größere Modelle oder höhere Präzision erhöhen die Kosten weiter. Zusätzlich verbrauchen FHE-Operationen viel Speicher und erfordern gelegentliches Bootstrapping (einen Rauschunterdrückungsschritt), was rechenintensiv ist. Zusammenfassend lässt sich sagen, dass Skalierbarkeit ein großes Problem ist – modernste FHE könnte ein kleines CNN oder eine einfache logistische Regression bewältigen, aber die Skalierung auf große CNNs oder Transformer liegt jenseits der aktuellen praktischen Grenzen.

Datenschutzvorteile: Der große Reiz von FHE ist der Datenschutz. Die Eingabe kann während des gesamten Prozesses vollständig verschlüsselt bleiben. Das bedeutet, dass ein nicht vertrauenswürdiger Server auf den privaten Daten eines Clients rechnen kann, ohne etwas darüber zu erfahren. Umgekehrt könnte man, wenn das Modell sensibel (proprietär) ist, die Modellparameter verschlüsseln und den Client die FHE-Inferenz auf seiner Seite durchführen lassen – dies ist jedoch weniger verbreitet, da der Client, wenn er die aufwendige FHE-Berechnung durchführen muss, die Idee der Auslagerung an einen leistungsstarken Server zunichtemacht. Typischerweise ist das Modell öffentlich oder wird vom Server im Klartext gehalten, und die Daten werden mit dem Schlüssel des Clients verschlüsselt. Der Modellschutz ist in diesem Szenario standardmäßig nicht gegeben (der Server kennt das Modell; der Client erfährt Ausgaben, aber nicht die Gewichte). Es gibt exotischere Setups (wie sichere Zwei-Parteien-Berechnung oder Multi-Key-FHE), bei denen sowohl Modell als auch Daten voneinander privat gehalten werden können, aber diese verursachen noch mehr Komplexität. Im Gegensatz dazu kann zkML über ZKPs Modellschutz und Datenschutz gleichzeitig gewährleisten – der Prover kann sowohl das Modell als auch die Daten als geheime Zeugen haben und dem Verifizierer nur das Notwendige offenbaren.

Keine On-Chain-Verifizierung erforderlich (und keine möglich): Bei FHE wird das Ergebnis verschlüsselt an den Client übermittelt. Der Client entschlüsselt es dann, um die tatsächliche Vorhersage zu erhalten. Wenn wir dieses Ergebnis On-Chain verwenden wollen, müsste der Client (oder wer auch immer den Entschlüsselungsschlüssel besitzt) das Klartext-Ergebnis veröffentlichen und andere davon überzeugen, dass es korrekt ist. Aber an diesem Punkt ist Vertrauen wieder im Spiel – es sei denn, es wird mit einem ZKP kombiniert. Im Prinzip könnte man FHE und ZKP kombinieren: z. B. FHE verwenden, um Daten während der Berechnung privat zu halten, und dann einen ZK-Beweis generieren, dass das Klartext-Ergebnis einer korrekten Berechnung entspricht. Die Kombination beider bedeutet jedoch, dass man die Leistungsstrafe von FHE und ZKP zahlt – extrem unpraktisch mit der heutigen Technologie. In der Praxis dienen FHE-of-ML und zkML also unterschiedlichen Anwendungsfällen:

  • FHE-of-ML: Ideal, wenn das Ziel die Vertraulichkeit zwischen zwei Parteien (Client und Server) ist. Zum Beispiel kann ein Cloud-Dienst ein ML-Modell hosten, und Benutzer können es mit ihren sensiblen Daten abfragen, ohne die Daten der Cloud preiszugeben (und wenn das Modell sensibel ist, es vielleicht über FHE-freundliche Kodierungen bereitstellen). Dies ist großartig für datenschutzfreundliche ML-Dienste (medizinische Vorhersagen usw.). Der Benutzer muss dem Dienst immer noch vertrauen, dass er das Modell getreu ausführt (da kein Beweis vorliegt), aber zumindest wird jegliches Datenleck verhindert. Einige Projekte wie Zama erforschen sogar eine „FHE-fähige EVM (fhEVM)“, bei der Smart Contracts auf verschlüsselten Eingaben operieren könnten, aber die Verifizierung dieser Berechnungen On-Chain würde erfordern, dass der Vertrag die korrekte Berechnung irgendwie durchsetzt – eine offene Herausforderung, die wahrscheinlich ZK-Beweise oder spezialisierte sichere Hardware erfordert.
  • zkML (ZKPs): Ideal, wenn das Ziel Verifizierbarkeit und öffentliche Auditierbarkeit ist. Wenn Sie sicherstellen möchten, dass „Modell $M$ korrekt auf $X$ evaluiert wurde und $Y$ erzeugte“, sind ZKPs die Lösung. Sie bieten auch Datenschutz als Bonus (Sie können $X$ oder $Y$ oder $M$ bei Bedarf verbergen, indem Sie sie als private Eingaben für den Beweis behandeln), aber ihr Hauptmerkmal ist der Beweis der korrekten Ausführung.

Eine komplementäre Beziehung: Es ist erwähnenswert, dass ZKPs den Verifizierer schützen (sie erfahren nichts über Geheimnisse, nur dass die Berechnung korrekt durchgeführt wurde), während FHE die Daten des Provers vor der rechnenden Partei schützt. In einigen Szenarien könnten diese kombiniert werden – zum Beispiel könnte ein Netzwerk nicht vertrauenswürdiger Knoten FHE verwenden, um auf den privaten Daten der Benutzer zu rechnen und dann ZK-Beweise an die Benutzer (oder Blockchain) liefern, dass die Berechnungen gemäß dem Protokoll durchgeführt wurden. Dies würde sowohl Datenschutz als auch Korrektheit abdecken, aber die Leistungskosten sind mit den heutigen Algorithmen enorm. Kurzfristig praktikabler sind Hybride wie Trusted Execution Environments (TEE) plus ZKP oder Funktionale Verschlüsselung plus ZKP – diese liegen außerhalb unseres Rahmens, zielen aber darauf ab, etwas Ähnliches zu bieten (TEEs halten Daten/Modell während der Berechnung geheim, dann kann ein ZKP bestätigen, dass das TEE das Richtige getan hat).

Zusammenfassend lässt sich sagen, dass FHE-of-ML die Vertraulichkeit von Eingaben/Ausgaben priorisiert, während zkML die verifizierbare Korrektheit (mit möglicher Privatsphäre) priorisiert. Tabelle 1 unten vergleicht die wichtigsten Eigenschaften:

AnsatzProver-Leistung (Inferenz & Beweis)Beweisgröße & VerifizierungDatenschutzmerkmaleTrusted Setup?Post-Quanten-sicher?
zk-SNARK (Halo2, Groth16, PLONK, etc)Hoher Prover-Overhead (bis zu 10^6-fach der normalen Laufzeit ohne Optimierungen; in der Praxis 10^3–10^5-fach). Optimiert für spezifische Modelle/Schaltkreise; Proving-Zeit in Minuten für mittlere Modelle, Stunden für große. Neuere zkML-SNARKs (DeepProve mit GKR) verbessern dies erheblich (nahezu linearer Overhead, z. B. Sekunden statt Minuten für Modelle mit Millionen von Parametern).Sehr kleine Beweise (oft < 100 KB, manchmal ~einige KB). Verifizierung ist schnell: wenige Pairings oder Polynom-Evaluierungen (typischerweise < 50 ms On-Chain). DeepProves GKR-basierte Beweise sind größer (Zehntausende–Hunderte von KB) und verifizieren in ~0,5 s (immer noch viel schneller als das erneute Ausführen des Modells).Datenvertraulichkeit: Ja – Eingaben können im Beweis privat sein (nicht offengelegt). Modellschutz: Ja – Prover kann sich zu Modellgewichten committen und diese nicht offenlegen. Ausgabeverbergen: Optional – Beweis kann eine Aussage sein, ohne die Ausgabe preiszugeben (z. B. „Ausgabe hat Eigenschaft P“). Wenn die Ausgabe selbst jedoch On-Chain benötigt wird, wird sie typischerweise öffentlich. Insgesamt bieten SNARKs volle Zero-Knowledge-Flexibilität (verbergen Sie, welche Teile Sie möchten).Abhängig vom Schema. Groth16/EZKL erfordern ein Trusted Setup pro Schaltkreis; PLONK/Halo2 verwenden ein universelles Setup (einmalig). DeepProves Sum-Check GKR ist transparent (kein Setup) – ein Bonus dieses Designs.Klassische SNARKs (BLS12-381-Kurven) sind nicht PQ-sicher (anfällig für Quantenangriffe auf den elliptischen Kurven-Diskreten Logarithmus). Einige neuere SNARKs verwenden PQ-sichere Commitments, aber Halo2/PLONK, wie in Ezkl verwendet, sind nicht PQ-sicher. GKR (DeepProve) verwendet Hash-Commitments (z. B. Poseidon/Merkle), die als PQ-sicher vermutet werden (basierend auf der Hash-Preimage-Resistenz).
zk-STARK (FRI, Hash-basierter Beweis)Prover-Overhead ist hoch, aber die Skalierung ist linearer. Typischerweise 10^2–10^4-mal langsamer als nativ für große Aufgaben, mit Raum zur Parallelisierung. Allgemeine STARK-VMs (Risc0, Cairo) zeigten 2024 eine langsamere Leistung im Vergleich zu SNARK für ML (z. B. 3- bis 66-mal langsamer als Halo2 in einigen Fällen). Spezialisierte STARKs (oder GKR) können einen linearen Overhead erreichen und SNARKs für große Schaltkreise übertreffen.Beweise sind größer: oft Zehntausende von KB (wachsend mit Schaltkreisgröße/log(n)). Verifizierer muss mehrere Hash- und FFT-Prüfungen durchführen – Verifizierungszeit ~O(n^ε) für kleines ε (z. B. ~50 ms bis 500 ms je nach Beweisgröße). On-Chain ist dies kostspieliger (StarkWares L1-Verifizierer kann Millionen von Gas pro Beweis verbrauchen). Einige STARKs unterstützen rekursive Beweise zur Komprimierung der Größe, auf Kosten der Prover-Zeit.Daten- & Modellschutz: Ein STARK kann Zero-Knowledge gemacht werden, indem Trace-Daten randomisiert werden (Hinzufügen von Blinding zu Polynom-Evaluierungen), sodass er private Eingaben ähnlich wie SNARK verbergen kann. Viele STARK-Implementierungen konzentrieren sich auf Integrität, aber zk-STARK-Varianten ermöglichen Datenschutz. Ja, sie können Eingaben/Modelle wie SNARKs verbergen. Ausgabeverbergen: theoretisch ebenfalls möglich (Prover deklariert die Ausgabe nicht als öffentlich), aber selten verwendet, da die Ausgabe normalerweise das ist, was wir offenlegen/verifizieren wollen.Kein Trusted Setup. Transparenz ist ein Kennzeichen von STARKs – erfordert nur eine gemeinsame Zufallszeichenfolge (die Fiat-Shamir ableiten kann). Dies macht sie attraktiv für den offenen Einsatz (jedes Modell, jederzeit, keine Zeremonie pro Modell).Ja, STARKs basieren auf Hash- und informationstheoretischen Sicherheitsannahmen (wie Random Oracle und der Schwierigkeit bestimmter Codewort-Dekodierungen in FRI). Diese gelten als sicher gegen Quantengegner. STARK-Beweise sind somit PQ-resistent, ein Vorteil für die Zukunftssicherheit verifizierbarer KI.
FHE für ML (Vollständig Homomorphe Verschlüsselung angewendet auf Inferenz)Prover = Partei, die Berechnungen auf verschlüsselten Daten durchführt. Die Berechnungszeit ist extrem hoch: 10^3–10^5-mal langsamer als Klartext-Inferenz ist üblich. High-End-Hardware (Multi-Core-Server, FPGA usw.) kann dies mildern. Einige Optimierungen (Inferenz mit geringer Präzision, gestufte FHE-Parameter) können den Overhead reduzieren, aber es gibt einen grundlegenden Leistungseinbruch. FHE ist derzeit praktisch für kleine Modelle oder einfache lineare Modelle; tiefe Netzwerke bleiben über Spielzeuggrößen hinaus eine Herausforderung.Kein Beweis generiert. Das Ergebnis ist eine verschlüsselte Ausgabe. Verifizierung im Sinne der Korrektheitsprüfung wird von FHE allein nicht bereitgestellt – man vertraut der rechnenden Partei, nicht zu betrügen. (Wenn mit sicherer Hardware kombiniert, könnte man eine Bestätigung erhalten; andernfalls könnte ein bösartiger Server ein falsches verschlüsseltes Ergebnis zurückgeben, das der Client zu einer falschen Ausgabe entschlüsseln würde, ohne den Unterschied zu kennen).Datenvertraulichkeit: Ja – die Eingabe ist verschlüsselt, sodass die rechnende Partei nichts darüber erfährt. Modellschutz: Wenn der Modelleigentümer die Berechnung auf verschlüsselten Eingaben durchführt, ist das Modell auf seiner Seite im Klartext (nicht geschützt). Wenn die Rollen vertauscht sind (Client hält Modell verschlüsselt und Server rechnet), könnte das Modell verschlüsselt bleiben, aber dieses Szenario ist weniger verbreitet. Es gibt Techniken wie sicheres Zwei-Parteien-ML, die FHE/MPC kombinieren, um beides zu schützen, aber diese gehen über reines FHE hinaus. Ausgabeverbergen: Standardmäßig ist die Ausgabe der Berechnung verschlüsselt (nur entschlüsselbar durch die Partei mit dem geheimen Schlüssel, normalerweise den Eingabeinhaber). Die Ausgabe ist also vor dem rechnenden Server verborgen. Wenn wir die Ausgabe öffentlich machen wollen, kann der Client sie entschlüsseln und offenlegen.Kein Setup erforderlich. Jeder Benutzer generiert sein eigenes Schlüsselpaar für die Verschlüsselung. Vertrauen basiert darauf, dass die Schlüssel geheim bleiben.Die Sicherheit von FHE-Schemata (z. B. BFV, CKKS, TFHE) basiert auf Gitterproblemen (Learning With Errors), die als resistent gegen Quantenangriffe gelten (zumindest ist kein effizienter Quantenalgorithmus bekannt). FHE wird daher im Allgemeinen als post-quantensicher angesehen.

Tabelle 1: Vergleich von zk-SNARK-, zk-STARK- und FHE-Ansätzen für maschinelles Lernen (Leistungs- und Datenschutzkompromisse).

Anwendungsfälle und Implikationen für Web3-Anwendungen

Die Konvergenz von KI und Blockchain über zkML erschließt leistungsstarke neue Anwendungsmuster in Web3:

  • Dezentrale autonome Agenten & On-Chain-Entscheidungsfindung: Smart Contracts oder DAOs können KI-gesteuerte Entscheidungen mit Korrektheitsgarantien integrieren. Stellen Sie sich zum Beispiel eine DAO vor, die ein neuronales Netzwerk verwendet, um Marktbedingungen zu analysieren, bevor sie Trades ausführt. Mit zkML kann der Smart Contract der DAO einen zkSNARK-Beweis verlangen, dass das autorisierte ML-Modell (mit einem bekannten Hash-Commitment) auf den neuesten Daten ausgeführt wurde und die empfohlene Aktion erzeugte, bevor die Aktion akzeptiert wird. Dies verhindert, dass böswillige Akteure eine gefälschte Vorhersage einschleusen – die Kette verifiziert die KI-Berechnung. Im Laufe der Zeit könnten sogar vollständig On-Chain autonome Agenten (Contracts, die Off-Chain-KI abfragen oder vereinfachte Modelle enthalten) Entscheidungen in DeFi oder Spielen treffen, wobei alle ihre Schritte über zk-Beweise als korrekt und richtlinienkonform nachgewiesen werden. Dies erhöht das Vertrauen in autonome Agenten, da ihr „Denken“ transparent und verifizierbar ist und nicht als Black-Box fungiert.

  • Verifizierbare Computemärkte: Projekte wie Lagrange schaffen effektiv verifizierbare Berechnungsmarktplätze – Entwickler können aufwendige ML-Inferenzen an ein Netzwerk von Provern auslagern und erhalten einen Beweis mit dem Ergebnis zurück. Dies ist vergleichbar mit dezentralem Cloud Computing, aber mit integriertem Vertrauen: Sie müssen dem Server nicht vertrauen, nur dem Beweis. Es ist ein Paradigmenwechsel für Orakel und Off-Chain-Berechnungen. Protokolle wie Ethereums kommender DSC (dezentraler Sequencing Layer) oder Orakelnetzwerke könnten dies nutzen, um Daten-Feeds oder Analyse-Feeds mit kryptografischen Garantien bereitzustellen. Zum Beispiel könnte ein Orakel „das Ergebnis von Modell X auf Eingabe Y“ liefern, und jeder kann den beigefügten Beweis On-Chain verifizieren, anstatt dem Wort des Orakels zu vertrauen. Dies könnte verifizierbare KI-as-a-Service auf der Blockchain ermöglichen: Jeder Vertrag kann eine Berechnung anfordern (wie „bewerten Sie diese Kreditrisiken mit meinem privaten Modell“) und die Antwort nur mit einem gültigen Beweis akzeptieren. Projekte wie Gensyn erforschen dezentrale Trainings- und Inferenzmarktplätze unter Verwendung dieser Verifizierungstechniken.

  • NFTs und Gaming – Provenienz und Evolution: In Blockchain-Spielen oder NFT-Sammlerstücken kann zkML beweisen, dass Merkmale oder Spielzüge von legitimen KI-Modellen generiert wurden. Zum Beispiel könnte ein Spiel einer KI erlauben, die Attribute eines NFT-Haustiers zu entwickeln. Ohne ZK könnte ein cleverer Benutzer die KI oder das Ergebnis manipulieren, um ein überlegenes Haustier zu erhalten. Mit zkML kann das Spiel einen Beweis verlangen, dass „die neuen Werte des Haustiers vom offiziellen Evolutionsmodell auf den alten Werten des Haustiers berechnet wurden“, wodurch Betrug verhindert wird. Ähnlich bei generativen Kunst-NFTs: Ein Künstler könnte ein generatives Modell als Commitment veröffentlichen; später, beim Minten von NFTs, beweisen, dass jedes Bild von diesem Modell mit einem bestimmten Seed erzeugt wurde, wodurch die Authentizität garantiert wird (und dies sogar, ohne das genaue Modell der Öffentlichkeit preiszugeben, wodurch das geistige Eigentum des Künstlers geschützt wird). Diese Provenienzverifizierung gewährleistet Authentizität auf eine Weise, die der verifizierbaren Zufälligkeit ähnelt – nur hier ist es verifizierbare Kreativität.

  • Datenschutzfreundliche KI in sensiblen Bereichen: zkML ermöglicht die Bestätigung von Ergebnissen, ohne Eingaben preiszugeben. Im Gesundheitswesen könnten Patientendaten von einem Cloud-Anbieter durch ein KI-Diagnosemodell laufen; das Krankenhaus erhält eine Diagnose und einen Beweis, dass das Modell (das privat von einem Pharmaunternehmen gehalten werden könnte) korrekt auf den Patientendaten ausgeführt wurde. Die Patientendaten bleiben privat (nur eine verschlüsselte oder committed Form wurde im Beweis verwendet), und die Modellgewichte bleiben proprietär – dennoch ist das Ergebnis vertrauenswürdig. Regulierungsbehörden oder Versicherungen könnten auch überprüfen, dass nur genehmigte Modelle verwendet wurden. Im Finanzwesen könnte ein Unternehmen einem Auditor oder einer Regulierungsbehörde beweisen, dass sein Risikomodell auf seine internen Daten angewendet wurde und bestimmte Metriken erzeugte, ohne die zugrunde liegenden sensiblen Finanzdaten preiszugeben. Dies ermöglicht Compliance und Aufsicht mit kryptografischen Zusicherungen anstelle von manuellem Vertrauen.

  • Cross-Chain- und Off-Chain-Interoperabilität: Da Zero-Knowledge-Beweise grundsätzlich portabel sind, kann zkML Cross-Chain-KI-Ergebnisse erleichtern. Eine Kette könnte eine KI-intensive Anwendung Off-Chain ausführen; sie kann einen Beweis des Ergebnisses an eine andere Blockchain senden, die ihn vertrauenslos akzeptiert. Betrachten Sie zum Beispiel eine Multi-Chain-DAO, die eine KI verwendet, um Stimmungen in sozialen Medien zu aggregieren (Off-Chain-Daten). Die KI-Analyse (komplexes NLP auf großen Datenmengen) wird Off-Chain von einem Dienst durchgeführt, der dann einen Beweis an eine kleine Blockchain (oder mehrere Chains) sendet, dass „die Analyse korrekt durchgeführt wurde und der Stimmungs-Score = 0,85 ergab“. Alle Chains können dieses Ergebnis in ihrer Governance-Logik verifizieren und verwenden, ohne dass jede die Analyse erneut durchführen muss. Diese Art der interoperablen verifizierbaren Berechnung ist das, was Lagranges Netzwerk unterstützen will, indem es mehrere Rollups oder L1s gleichzeitig bedient. Es beseitigt die Notwendigkeit von Trusted Bridges oder Orakel-Annahmen beim Verschieben von Ergebnissen zwischen Chains.

  • KI-Ausrichtung und Governance: Aus einer zukunftsorientierteren Perspektive wurde zkML als Werkzeug für KI-Governance und -Sicherheit hervorgehoben. Lagranges Vision Statements argumentieren beispielsweise, dass mit zunehmender Leistungsfähigkeit von KI-Systemen (sogar superintelligenten) kryptografische Verifizierung unerlässlich sein wird, um sicherzustellen, dass sie vereinbarten Regeln folgen. Indem KI-Modelle Beweise für ihre Argumentation oder Constraints erbringen müssen, behalten Menschen ein gewisses Maß an Kontrolle – „man kann nicht vertrauen, was man nicht verifizieren kann“. Obwohl dies spekulativ ist und sowohl soziale als auch technische Aspekte umfasst, könnte die Technologie durchsetzen, dass ein autonom agierender KI-Agent immer noch beweist, dass er ein genehmigtes Modell verwendet und nicht manipuliert wurde. Dezentrale KI-Netzwerke könnten On-Chain-Beweise verwenden, um Beiträge zu verifizieren (z. B. kann ein Netzwerk von Knoten, die gemeinsam ein Modell trainieren, beweisen, dass jedes Update getreu berechnet wurde). Somit könnte zkML eine Rolle dabei spielen, sicherzustellen, dass KI-Systeme gegenüber menschlich definierten Protokollen rechenschaftspflichtig bleiben, selbst in dezentralen oder unkontrollierten Umgebungen.

Zusammenfassend lässt sich sagen, dass zkML und verifizierbare On-Chain-KI eine Konvergenz von fortschrittlicher Kryptografie und maschinellem Lernen darstellen, die das Vertrauen, die Transparenz und den Datenschutz in KI-Anwendungen verbessern wird. Durch den Vergleich der wichtigsten Ansätze – zk-SNARKs, zk-STARKs und FHE – sehen wir ein Spektrum von Kompromissen zwischen Leistung und Datenschutz, die jeweils für unterschiedliche Szenarien geeignet sind. SNARK-basierte Frameworks wie Ezkl und Innovationen wie Lagranges DeepProve haben es ermöglicht, substanzielle neuronale Netzwerk-Inferenzen mit praktischem Aufwand zu beweisen, was die Tür für reale Implementierungen verifizierbarer KI öffnet. STARK-basierte und VM-basierte Ansätze versprechen größere Flexibilität und Post-Quanten-Sicherheit, was mit der Reifung des Feldes wichtig werden wird. FHE, obwohl keine Lösung für die Verifizierbarkeit, adressiert den komplementären Bedarf an vertraulicher ML-Berechnung und kann in Kombination mit ZKPs oder in spezifischen privaten Kontexten Benutzer befähigen, KI zu nutzen, ohne den Datenschutz zu opfern.

Die Implikationen für Web3 sind erheblich: Wir können Smart Contracts erwarten, die auf KI-Vorhersagen reagieren, wissend, dass diese korrekt sind; Märkte für Berechnungen, auf denen Ergebnisse vertrauenslos verkauft werden; digitale Identitäten (wie Worldcoins Proof-of-Personhood über Iris-KI), die durch zkML geschützt sind, um zu bestätigen, dass jemand ein Mensch ist, ohne sein biometrisches Bild preiszugeben; und generell eine neue Klasse von „nachweisbarer Intelligenz“, die Blockchain-Anwendungen bereichert. Viele Herausforderungen bleiben bestehen – Leistung für sehr große Modelle, Entwicklerergonomie und der Bedarf an spezialisierter Hardware –, aber die Richtung ist klar. Wie ein Bericht feststellte, „können die heutigen ZKPs kleine Modelle unterstützen, aber mittlere bis große Modelle sprengen das Paradigma“; jedoch verschieben schnelle Fortschritte (50- bis 150-fache Beschleunigungen mit DeepProve gegenüber dem Stand der Technik) diese Grenze nach außen. Mit fortlaufender Forschung (z. B. zur Hardwarebeschleunigung und verteilten Beweiserstellung) können wir erwarten, dass zunehmend größere und komplexere KI-Modelle beweisbar werden. zkML könnte sich bald von Nischen-Demos zu einer wesentlichen Komponente vertrauenswürdiger KI-Infrastruktur entwickeln und sicherstellen, dass KI, wenn sie allgegenwärtig wird, dies auf eine Weise tut, die prüfbar, dezentralisiert und auf den Datenschutz und die Sicherheit der Benutzer ausgerichtet ist.

ETHDenver 2025: Wichtige Web3-Trends und Erkenntnisse vom Festival

· 25 Minuten Lesezeit

ETHDenver 2025, unter dem Motto „Jahr der Regenerates“, festigte seinen Status als eines der weltweit größten Web3-Treffen. Das Festival umfasste die BUIDLWeek (23.–26. Februar), das Hauptevent (27. Februar–2. März) und ein Mountain Retreat nach der Konferenz und zog erwartete 25.000+ Teilnehmer an. Builder, Entwickler, Investoren und Kreative aus über 125 Ländern kamen in Denver zusammen, um das Ethereum-Ethos der Dezentralisierung und Innovation zu feiern. Getreu seinen Community-Wurzeln blieb ETHDenver kostenlos zugänglich, wurde von der Community finanziert und bot eine Fülle von Inhalten – von Hackathons und Workshops bis hin zu Panels, Pitch-Events und Partys. Die Legende der „Regenerates“, die die Dezentralisierung verteidigen, setzte einen Ton, der öffentliche Güter und kollaboratives Bauen betonte, selbst inmitten einer wettbewerbsintensiven Technologielandschaft. Das Ergebnis war eine Woche voller energiegeladener Builder-Aktivitäten und zukunftsweisender Diskussionen, die einen Überblick über die aufkommenden Web3-Trends und umsetzbare Erkenntnisse für Branchenexperten boten.

ETHDenver 2025

Keine einzelne Erzählung dominierte ETHDenver 2025 – stattdessen stand ein breites Spektrum an Web3-Trends im Mittelpunkt. Anders als im letzten Jahr (als Restaking über EigenLayer die Show stahl), war die Agenda 2025 eine Mischung aus allem: von dezentralen physischen Infrastrukturnetzwerken (DePIN) über KI-Agenten, von regulatorischer Compliance bis zur Tokenisierung realer Vermögenswerte (RWA), dazu Datenschutz, Interoperabilität und mehr. Tatsächlich ging John Paller, Gründer von ETHDenver, auf Bedenken bezüglich Multi-Chain-Inhalten ein, indem er feststellte, dass „95%+ unserer Sponsoren und 90% der Inhalte ETH/EVM-konform sind“ – dennoch unterstrich die Präsenz von Nicht-Ethereum-Ökosystemen die Interoperabilität als Schlüsselthema. Wichtige Redner spiegelten diese Trendbereiche wider: So wurde beispielsweise zk-Rollup und Layer-2-Skalierung von Alex Gluchowski (CEO von Matter Labs/zkSync) hervorgehoben, während Multi-Chain-Innovation von Adeniyi Abiodun von Mysten Labs (Sui) und Albert Chon von Injective kam.

Die Konvergenz von KI und Web3 entwickelte sich zu einer starken Strömung. Zahlreiche Vorträge und Side-Events konzentrierten sich auf dezentrale KI-Agenten und „DeFi+KI“-Überschneidungen. Ein spezieller AI Agent Day zeigte On-Chain-KI-Demos, und ein Kollektiv von 14 Teams (darunter das Entwicklerkit von Coinbase und die KI-Einheit von NEAR) kündigte sogar die Open Agents Alliance (OAA) an – eine Initiative, um erlaubnisfreien, kostenlosen KI-Zugang durch Bündelung der Web3-Infrastruktur zu ermöglichen. Dies deutet auf ein wachsendes Interesse an autonomen Agenten und KI-gesteuerten DApps als Grenze für Builder hin. Hand in Hand mit KI war DePIN (dezentrale physische Infrastruktur) ein weiteres Schlagwort: Mehrere Panels (z. B. Day of DePIN, DePIN Summit) untersuchten Projekte, die Blockchain mit physischen Netzwerken (von Telekommunikation bis Mobilität) verbinden.

Cuckoo AI Network sorgte auf der ETHDenver 2025 für Aufsehen, indem es seinen innovativen dezentralen Marktplatz für die Bereitstellung von KI-Modellen präsentierte, der für Kreative und Entwickler konzipiert ist. Mit einer überzeugenden Präsenz sowohl beim Hackathon als auch bei von der Community geleiteten Side-Events zog Cuckoo AI die Aufmerksamkeit von Entwicklern auf sich, die von der Möglichkeit fasziniert waren, GPU-/CPU-Ressourcen zu monetarisieren und On-Chain-KI-APIs einfach zu integrieren. Während ihres speziellen Workshops und ihrer Networking-Session hob Cuckoo AI hervor, wie dezentrale Infrastruktur den Zugang zu fortschrittlichen KI-Diensten effizient demokratisieren könnte. Dies steht in direktem Einklang mit den breiteren Trends der Veranstaltung – insbesondere der Schnittmenge von Blockchain mit KI, DePIN und der Finanzierung öffentlicher Güter. Für Investoren und Entwickler auf der ETHDenver erwies sich Cuckoo AI als klares Beispiel dafür, wie dezentrale Ansätze die nächste Generation von KI-gesteuerten DApps und Infrastrukturen antreiben können, und positionierte sich als attraktive Investitionsmöglichkeit innerhalb des Web3-Ökosystems.

Datenschutz, Identität und Sicherheit blieben im Vordergrund. Redner und Workshops befassten sich mit Themen wie Zero-Knowledge-Proofs (Präsenz von zkSync), Identitätsmanagement und überprüfbaren Anmeldeinformationen (ein spezieller Privacy & Security-Track war Teil des Hackathons) sowie rechtlichen/regulatorischen Fragen (ein On-Chain-Rechtsgipfel war Teil der Festival-Tracks). Eine weitere bemerkenswerte Diskussion war die Zukunft der Mittelbeschaffung und der Dezentralisierung der Finanzierung: Eine Debatte auf der Hauptbühne zwischen Haseeb Qureshi von Dragonfly Capital und Matt O’Connor von Legion (einer „ICO-ähnlichen“ Plattform) über ICOs vs. VC-Finanzierung fesselte die Teilnehmer. Diese Debatte beleuchtete aufkommende Modelle wie Community-Token-Verkäufe, die traditionelle VC-Wege in Frage stellen – ein wichtiger Trend für Web3-Startups, die Kapital beschaffen müssen. Die Erkenntnis für Fachleute ist klar: Web3 im Jahr 2025 ist multidisziplinär – es umfasst Finanzen, KI, reale Vermögenswerte und Kultur – und informiert zu bleiben bedeutet, über jeden Hype-Zyklus hinaus das gesamte Spektrum der Innovation zu betrachten.

Sponsoren und ihre strategischen Schwerpunkte

Die Sponsorenliste der ETHDenver 2025 liest sich wie ein Who’s Who der Layer-1s, Layer-2s und Web3-Infrastrukturprojekte – jedes nutzte die Veranstaltung, um strategische Ziele voranzutreiben. Cross-Chain- und Multi-Chain-Protokolle zeigten eine starke Präsenz. So war Polkadot ein Top-Sponsor mit einem stattlichen Kopfgeldpool von 80.000 US-Dollar, der Builder dazu anspornte, Cross-Chain-DApps und Appchains zu entwickeln. Ähnlich boten BNB Chain, Flow, Hedera und Base (Coinbase’s L2) jeweils bis zu 50.000 US-Dollar für Projekte, die sich in ihre Ökosysteme integrierten, was ihren Vorstoß signalisierte, Ethereum-Entwickler anzuziehen. Sogar traditionell getrennte Ökosysteme wie Solana und Internet Computer beteiligten sich mit gesponserten Challenges (z. B. Solana war Co-Gastgeber eines DePIN-Events, und Internet Computer bot ein „Only possible on ICP“-Kopfgeld an). Diese Ökosystem-übergreifende Präsenz zog einige Community-Kontrollen auf sich, aber das ETHDenver-Team bemerkte, dass die überwiegende Mehrheit der Inhalte Ethereum-konform blieb. Der Nettoeffekt war, dass Interoperabilität ein Kernthema war – Sponsoren zielten darauf ab, ihre Plattformen als komplementäre Erweiterungen des Ethereum-Universums zu positionieren.

Skalierungslösungen und Infrastrukturanbieter standen ebenfalls im Mittelpunkt. Große Ethereum-L2s wie Optimism und Arbitrum hatten große Stände und gesponserte Challenges (Optimism’s Kopfgelder bis zu 40.000 US-Dollar), was ihren Fokus auf die Einarbeitung von Entwicklern in Rollups verstärkte. Neueinsteiger wie ZkSync und Zircuit (ein Projekt, das einen L2-Rollup-Ansatz vorstellte) betonten die Zero-Knowledge-Technologie und steuerten sogar SDKs bei (ZkSync bewarb sein Smart Sign-On SDK für benutzerfreundliche Logins, das Hackathon-Teams eifrig nutzten). Restaking und modulare Blockchain-Infrastruktur war ein weiteres Sponsoreninteresse – EigenLayer (Pionier des Restaking) hatte seinen eigenen 50.000 US-Dollar-Track und war sogar Co-Gastgeber eines Events zum Thema „Restaking & DeFAI (Decentralized AI)“, das sein Sicherheitsmodell mit KI-Themen verband. Orakel und Interoperabilitäts-Middleware wurden von Größen wie Chainlink und Wormhole vertreten, die jeweils Kopfgelder für die Nutzung ihrer Protokolle ausgaben.

Bemerkenswert ist, dass Web3-Konsumentenanwendungen und -Tools von Sponsoren unterstützt wurden, um die Benutzererfahrung zu verbessern. Die Präsenz von Uniswap – komplett mit einem der größten Stände – war nicht nur Show: Der DeFi-Gigant nutzte die Veranstaltung, um neue Wallet-Funktionen wie integrierte Fiat-Off-Ramps anzukündigen, was mit seinem Sponsoring-Fokus auf DeFi-Benutzerfreundlichkeit übereinstimmte. Identitäts- und Community-fokussierte Plattformen wie Galxe (Gravity) und Lens Protocol sponserten Challenges rund um On-Chain-Social und Credentialing. Sogar Mainstream-Tech-Unternehmen signalisierten Interesse: PayPal und Google Cloud veranstalteten eine Stablecoin-/Zahlungs-Happy Hour, um die Zukunft der Zahlungen in Krypto zu diskutieren. Diese Mischung von Sponsoren zeigt, dass strategische Interessen von der Kerninfrastruktur bis zu Endbenutzeranwendungen reichten – alle konvergierten auf der ETHDenver, um Entwicklern Ressourcen (APIs, SDKs, Grants) zur Verfügung zu stellen. Für Web3-Profis unterstreicht das starke Sponsoring von Layer-1s, Layer-2s und sogar Web2-Fintechs, wohin die Branche investiert: Interoperabilität, Skalierbarkeit, Sicherheit und die Nutzbarmachung von Krypto für die nächste Welle von Nutzern.

Hackathon-Highlights: Innovative Projekte und Gewinner

Im Mittelpunkt der ETHDenver steht ihr legendärer #BUIDLathon – ein Hackathon, der sich mit Tausenden von Entwicklern zum weltweit größten Blockchain-Hackfest entwickelt hat. Im Jahr 2025 bot der Hackathon einen Rekord-Preispool von über 1.043.333 US-Dollar, um Innovationen anzustoßen. Kopfgelder von über 60 Sponsoren zielten auf wichtige Web3-Bereiche ab und unterteilten den Wettbewerb in Tracks wie: DeFi & KI, NFTs & Gaming, Infrastruktur & Skalierbarkeit, Datenschutz & Sicherheit sowie DAOs & Öffentliche Güter. Dieses Track-Design selbst ist aufschlussreich – zum Beispiel deutet die Kombination von DeFi mit KI auf das Aufkommen von KI-gesteuerten Finanzanwendungen hin, während ein spezieller Track für öffentliche Güter den Community-Fokus auf regenerative Finanzen und Open-Source-Entwicklung bekräftigt. Jeder Track wurde von Sponsoren unterstützt, die Preise für die beste Nutzung ihrer Technologie anboten (z. B. Polkadot und Uniswap für DeFi, Chainlink für Interoperabilität, Optimism für Skalierungslösungen). Die Organisatoren implementierten sogar quadratisches Voting für die Bewertung, um der Community zu ermöglichen, Top-Projekte hervorzuheben, wobei die endgültigen Gewinner von erfahrenen Juroren ausgewählt wurden.

Das Ergebnis war ein Überfluss an hochmodernen Projekten, von denen viele einen Einblick in die Zukunft von Web3 bieten. Zu den bemerkenswerten Gewinnern gehörte ein On-Chain-Multiplayer-Spiel „0xCaliber“, ein Ego-Shooter, der Echtzeit-Blockchain-Interaktionen innerhalb eines klassischen FPS-Spiels ausführt. 0xCaliber begeisterte die Juroren, indem es echtes On-Chain-Gaming demonstrierte – Spieler kaufen mit Krypto ein, „schießen“ On-Chain-Kugeln und nutzen Cross-Chain-Tricks, um Beute zu sammeln und auszuzahlen, alles in Echtzeit. Diese Art von Projekt zeigt die wachsende Reife des Web3-Gaming (Integration von Unity-Game-Engines mit Smart Contracts) und die Kreativität bei der Verschmelzung von Unterhaltung mit Krypto-Ökonomie. Eine weitere Kategorie herausragender Hacks waren solche, die KI mit Ethereum verschmelzen: Teams bauten „Agenten“-Plattformen, die Smart Contracts zur Koordination von KI-Diensten nutzen, inspiriert von der Ankündigung der Open Agents Alliance. Zum Beispiel integrierte ein Hackathon-Projekt KI-gesteuerte Smart-Contract-Auditoren (die automatisch Sicherheitstestfälle für Contracts generieren) – im Einklang mit dem auf der Konferenz beobachteten dezentralen KI-Trend.

Infrastruktur- und Tooling-Projekte waren ebenfalls prominent. Einige Teams befassten sich mit Account Abstraction und Benutzererfahrung, indem sie Sponsoren-Toolkits wie zkSyncs Smart Sign-On nutzten, um Wallet-lose Login-Flows für DApps zu erstellen. Andere arbeiteten an Cross-Chain-Bridges und Layer-2-Integrationen, was das anhaltende Entwicklerinteresse an Interoperabilität widerspiegelt. Im Track für öffentliche Güter & DAOs befassten sich einige Projekte mit realen sozialen Auswirkungen, wie eine DApp für dezentrale Identität und Hilfe für Obdachlose (unter Nutzung von NFTs und Community-Fonds, eine Idee, die an frühere ReFi-Hacks erinnert). Regenerative Finanzkonzepte (ReFi) – wie die Finanzierung öffentlicher Güter über neuartige Mechanismen – tauchten weiterhin auf und spiegelten das regenerative Thema der ETHDenver wider.

Während die endgültigen Gewinner am Ende des Hauptevents gefeiert wurden, lag der wahre Wert in der Innovationspipeline: Über 400 Projekteinreichungen gingen ein, von denen viele über die Veranstaltung hinaus Bestand haben werden. Der Hackathon der ETHDenver hat eine Erfolgsbilanz bei der Förderung zukünftiger Startups (tatsächlich sind einige frühere BUIDLathon-Projekte selbst zu Sponsoren geworden). Für Investoren und Technologen bot der Hackathon ein Fenster zu bahnbrechenden Ideen – ein Signal, dass die nächste Welle von Web3-Startups in Bereichen wie On-Chain-Gaming, KI-gesteuerten DApps, Cross-Chain-Infrastruktur und Lösungen mit sozialer Wirkung entstehen könnte. Mit fast 1 Million US-Dollar an Kopfgeldern, die an Entwickler ausgezahlt wurden, haben Sponsoren ihr Engagement effektiv unter Beweis gestellt, um diese Innovationen zu fördern.

Networking-Events und Investoren-Interaktionen

Bei der ETHDenver geht es nicht nur ums Codieren – es geht gleichermaßen darum, Verbindungen zu knüpfen. Im Jahr 2025 verstärkte das Festival das Networking mit formellen und informellen Veranstaltungen, die auf Startups, Investoren und Community-Builder zugeschnitten waren. Ein herausragendes Event war das Bufficorn Ventures (BV) Startup Rodeo, eine energiegeladene Präsentation, bei der 20 handverlesene Startups Investoren in einer Messe-ähnlichen Expo ihre Demos vorführten. Das Startup Rodeo fand am 1. März in der Haupthalle statt und wurde eher als „Speed-Dating“ denn als Pitch-Wettbewerb beschrieben: Gründer besetzten Tische, um ihre Projekte im Einzelgespräch zu präsentieren, während alle anwesenden Investoren durch die Arena streiften. Dieses Format stellte sicher, dass selbst Teams in der Frühphase wertvolle persönliche Gespräche mit VCs, Strategen oder Partnern führen konnten. Viele Startups nutzten dies als Startrampe, um Kunden und Finanzierung zu finden, indem sie die konzentrierte Präsenz von Web3-Fonds auf der ETHDenver nutzten.

Am letzten Konferenztag stand das BV BuffiTank Pitchfest auf der Hauptbühne im Mittelpunkt – ein traditionellerer Pitch-Wettbewerb, bei dem 10 der „innovativsten“ Startups in der Frühphase aus der ETHDenver-Community vorgestellt wurden. Diese Teams (getrennt von den Hackathon-Gewinnern) präsentierten ihre Geschäftsmodelle einem Gremium aus Top-VCs und Branchenführern und konkurrierten um Auszeichnungen und potenzielle Investitionsangebote. Das Pitchfest veranschaulichte die Rolle der ETHDenver als Deal-Flow-Generator: Es richtete sich explizit an Teams, die „bereits organisiert sind…und nach Investitionen, Kunden und Bekanntheit suchen“, insbesondere an solche, die mit der SporkDAO-Community verbunden sind. Die Belohnung für die Gewinner war kein einfacher Geldpreis, sondern das Versprechen, dem Portfolio von Bufficorn Ventures oder anderen Accelerator-Kohorten beizutreten. Im Wesentlichen schuf ETHDenver sein eigenes Mini-„Shark Tank“ für Web3, das die Aufmerksamkeit der Investoren auf die besten Projekte der Community lenkte.

Über diese offiziellen Präsentationen hinaus war die Woche vollgepackt mit Investor-Gründer-Mixern. Laut einem kuratierten Leitfaden von Belong gehörten zu den bemerkenswerten Side-Events eine „Meet the VCs“ Happy Hour, die von CertiK Ventures am 27. Februar veranstaltet wurde, eine StarkNet VC & Founders Lounge am 1. März und sogar zwanglose Veranstaltungen wie ein „Pitch & Putt“ Golf-Themen-Pitch-Event. Diese Treffen boten Gründern entspannte Umgebungen, um mit Risikokapitalgebern ins Gespräch zu kommen, was oft zu Folgetreffen nach der Konferenz führte. Die Präsenz vieler aufstrebender VC-Firmen war auch auf Panels spürbar – zum Beispiel hob eine Session auf der EtherKnight Stage neue Fonds wie Reflexive Capital, Reforge VC, Topology, Metalayer und Hash3 hervor und welche Trends sie am meisten begeistern. Frühe Anzeichen deuten darauf hin, dass diese VCs an Bereichen wie dezentralen sozialen Medien, KI und neuartiger Layer-1-Infrastruktur interessiert waren (wobei jeder Fonds eine Nische besetzt, um sich in einer wettbewerbsintensiven VC-Landschaft zu differenzieren).

Für Fachleute, die das Networking der ETHDenver nutzen möchten: Die wichtigste Erkenntnis ist der Wert von Side-Events und gezielten Mixern. Deals und Partnerschaften entstehen oft bei Kaffee oder Cocktails und nicht auf der Bühne. Die unzähligen Investoren-Events der ETHDenver 2025 zeigen, dass die Web3-Finanzierungs-Community auch in einem schwierigen Markt aktiv nach Talenten und Ideen sucht. Startups, die mit ausgefeilten Demos und einem klaren Wertversprechen (oft unter Nutzung des Hackathon-Momentums der Veranstaltung) vorbereitet waren, fanden ein aufgeschlossenes Publikum. Gleichzeitig nutzten Investoren diese Interaktionen, um den Puls der Entwickler-Community zu messen – welche Probleme lösen die klügsten Builder in diesem Jahr? Zusammenfassend bekräftigte ETHDenver, dass Networking genauso wichtig ist wie BUIDLing: Es ist ein Ort, an dem ein zufälliges Treffen zu einer Seed-Investition führen oder ein aufschlussreiches Gespräch die nächste große Zusammenarbeit anstoßen kann.

Eine subtile, aber wichtige Erzählung während der gesamten ETHDenver 2025 war die sich entwickelnde Landschaft des Web3-Venture-Capitals selbst. Trotz der Höhen und Tiefen des breiteren Kryptomarktes signalisierten Investoren auf der ETHDenver ein starkes Interesse an vielversprechenden Web3-Projekten. Reporter von Blockworks vor Ort stellten fest, „wie viel privates Kapital immer noch in Krypto fließt, unbeeindruckt von makroökonomischem Gegenwind“, wobei die Bewertungen in der Seed-Phase für die heißesten Ideen oft himmelhoch waren. Tatsächlich machte die schiere Anzahl der anwesenden VCs – von krypto-nativen Fonds bis hin zu traditionellen Tech-Investoren, die sich in Web3 versuchen – deutlich, dass ETHDenver ein Zentrum für Deal-Making bleibt.

Aufkommende thematische Schwerpunkte ließen sich aus dem ableiten, was VCs diskutierten und sponserten. Die Verbreitung von KI x Krypto-Inhalten (Hackathon-Tracks, Panels usw.) war nicht nur ein Entwicklertrend; sie spiegelt das Venture-Interesse am „DeFi trifft KI“-Nexus wider. Viele Investoren haben Startups im Blick, die maschinelles Lernen oder autonome Agenten auf der Blockchain nutzen, wie durch von Venture-Firmen gesponserte KI-Hackhouses und -Gipfel belegt. Ähnlich deutet der starke Fokus auf DePIN und die Tokenisierung realer Vermögenswerte (RWA) darauf hin, dass Fonds Chancen in Projekten sehen, die Blockchain mit realwirtschaftlichen Vermögenswerten und physischen Geräten verbinden. Der spezielle RWA Day (26. Februar) – ein B2B-Event zur Zukunft tokenisierter Vermögenswerte – legt nahe, dass Venture-Scouts in diesem Bereich aktiv nach dem nächsten Goldfinch oder Centrifuge suchen (d. h. Plattformen, die reale Finanzen On-Chain bringen).

Ein weiterer beobachtbarer Trend war eine wachsende Experimentierfreudigkeit bei Finanzierungsmodellen. Die erwähnte Debatte über ICOs vs. VCs war nicht nur Konferenztheatralik; sie spiegelt eine reale Venture-Bewegung hin zu einer stärker Community-zentrierten Finanzierung wider. Einige VCs auf der ETHDenver zeigten sich offen für Hybridmodelle (z. B. von Venture-Firmen unterstützte Token-Launches, die die Community in frühen Runden einbeziehen). Darüber hinaus hatten Finanzierung öffentlicher Güter und Impact Investing einen Platz am Tisch. Mit dem Ethos der Regeneration der ETHDenver diskutierten sogar Investoren, wie Open-Source-Infrastruktur und Entwickler langfristig unterstützt werden können, jenseits der Jagd nach dem nächsten DeFi- oder NFT-Boom. Panels wie „Funding the Future: Evolving Models for Onchain Startups“ untersuchten Alternativen wie Grants, DAO-Treasury-Investitionen und quadratische Finanzierung, um traditionelles VC-Geld zu ergänzen. Dies deutet auf eine Reifung der Branche in Bezug auf die Kapitalisierung von Projekten hin – eine Mischung aus Venture Capital, Ökosystemfonds und Community-Finanzierung, die Hand in Hand arbeiten.

Aus der Perspektive der Chancen können Web3-Profis und Investoren einige umsetzbare Erkenntnisse aus der Venture-Dynamik der ETHDenver gewinnen: (1) Infrastruktur ist immer noch König – viele VCs äußerten, dass „Picks-and-Shovels“ (L2-Skalierung, Sicherheit, Entwicklertools) als Rückgrat der Branche weiterhin hochwertige Investitionen bleiben. (2) Neue Vertikalen wie KI/Blockchain-Konvergenz und DePIN sind aufkommende Investitionsgrenzen – sich in diesen Bereichen auf den neuesten Stand zu bringen oder dort Startups zu finden, könnte sich lohnend auswirken. (3) Community-getriebene Projekte und öffentliche Güter könnten neuartige Finanzierungen erhalten – versierte Investoren finden Wege, diese nachhaltig zu unterstützen (z. B. Investitionen in Protokolle, die dezentrale Governance oder geteilten Besitz ermöglichen). Insgesamt zeigte ETHDenver 2025, dass die Web3-Venture-Landschaft zwar wettbewerbsintensiv ist, aber voller Überzeugung steckt: Kapital ist für diejenigen verfügbar, die die Zukunft von DeFi, NFTs, Gaming und darüber hinaus aufbauen, und selbst in einem Bärenmarkt geborene Ideen können Unterstützung finden, wenn sie den richtigen Trend ansprechen.

Entwicklerressourcen, Toolkits und Support-Systeme

ETHDenver war schon immer auf Builder ausgerichtet, und 2025 war keine Ausnahme – es fungierte auch als Open-Source-Entwicklerkonferenz mit einer Fülle von Ressourcen und Unterstützung für Web3-Entwickler. Während der BUIDLWeek hatten die Teilnehmer Zugang zu Live-Workshops, technischen Bootcamps und Mini-Gipfeln in verschiedenen Bereichen. Entwickler konnten beispielsweise an einem Bleeding Edge Tech Summit teilnehmen, um mit den neuesten Protokollen zu experimentieren, oder an einem On-Chain Legal Summit, um mehr über die Entwicklung konformer Smart Contracts zu erfahren. Große Sponsoren und Blockchain-Teams veranstalteten praktische Sessions: Das Team von Polkadot veranstaltete Hacker Houses und Workshops zum Starten von Parachains; EigenLayer leitete ein „Restaking Bootcamp“, um Entwicklern beizubringen, wie sie ihre Sicherheitsschicht nutzen können; Polygon und zkSync gaben Tutorials zum Erstellen skalierbarer DApps mit Zero-Knowledge-Technologie. Diese Sessions boten unschätzbare persönliche Gespräche mit Kernentwicklern, die es Entwicklern ermöglichten, Hilfe bei der Integration zu erhalten und neue Toolkits aus erster Hand kennenzulernen.

Während des Hauptevents gab es im Veranstaltungsort einen speziellen #BUIDLHub und Makerspace, wo Builder in einer kollaborativen Umgebung coden und auf Mentoren zugreifen konnten. Die Organisatoren der ETHDenver veröffentlichten einen detaillierten BUIDLer Guide und ermöglichten ein Mentorenprogramm vor Ort (Experten von Sponsoren standen zur Verfügung, um Teams bei technischen Problemen zu unterstützen). Entwickler-Tooling-Unternehmen waren ebenfalls massenhaft vertreten – von Alchemy und Infura (für Blockchain-APIs) bis hin zu Hardhat und Foundry (für die Entwicklung von Smart Contracts). Viele stellten auf der Veranstaltung neue Releases oder Beta-Tools vor. Zum Beispiel präsentierte das Team von MetaMask eine große Wallet-Aktualisierung mit Gas-Abstraktion und einem verbesserten SDK für DApp-Entwickler, um zu vereinfachen, wie Apps Gasgebühren für Benutzer abdecken. Mehrere Projekte starteten SDKs oder Open-Source-Bibliotheken: Coinbases „Agent Kit“ für KI-Agenten und das kollaborative Open Agents Alliance-Toolkit wurden vorgestellt, und Story.xyz bewarb sein Story SDK für die On-Chain-Lizenzierung von geistigem Eigentum während ihres eigenen Hackathon-Events.

Bounties und Hacker-Support erweiterten die Entwicklererfahrung zusätzlich. Mit über 180 Bounties, die von 62 Sponsoren angeboten wurden, hatten Hacker effektiv eine Auswahl spezifischer Herausforderungen, jede mit Dokumentation, Sprechstunden und manchmal maßgeschneiderten Sandboxes. Zum Beispiel forderte die Bounty von Optimism Entwickler heraus, die neuesten Bedrock-Opcodes zu verwenden (mit ihren Ingenieuren in Bereitschaft zur Unterstützung), und die Challenge von Uniswap bot Zugang zu ihrer neuen API für die Off-Ramp-Integration. Tools zur Koordination und zum Lernen – wie die offizielle ETHDenver Mobile App und Discord-Kanäle – hielten Entwickler über Zeitplanänderungen, Nebenaufgaben und sogar Stellenangebote über die ETHDenver-Jobbörse auf dem Laufenden.

Eine bemerkenswerte Ressource war die Betonung von quadratischen Finanzierungsexperimenten und On-Chain-Voting. ETHDenver integrierte ein quadratisches Voting-System für die Hackathon-Bewertung, wodurch viele Entwickler mit dem Konzept vertraut gemacht wurden. Darüber hinaus bedeutete die Präsenz von Gitcoin und anderen Public-Goods-Gruppen, dass Entwickler nach der Veranstaltung etwas über Grant-Finanzierungen für ihre Projekte erfahren konnten. Zusammenfassend stattete ETHDenver 2025 Entwickler mit modernsten Tools (SDKs, APIs), Expertenberatung und weiterführendem Support aus, um ihre Projekte fortzusetzen. Für Branchenexperten ist es eine Erinnerung daran, dass die Pflege der Entwickler-Community – durch Bildung, Tools und Finanzierung – entscheidend ist. Viele der hervorgehobenen Ressourcen (wie neue SDKs oder verbesserte Entwicklungsumgebungen) sind jetzt öffentlich verfügbar und bieten Teams überall die Möglichkeit, auf dem aufzubauen, was auf der ETHDenver geteilt wurde.

Side-Events und Community-Treffen bereichern das ETHDenver-Erlebnis

Was ETHDenver wirklich auszeichnet, ist seine festivalartige Atmosphäre – Dutzende von Side-Events, sowohl offizielle als auch inoffizielle, schufen ein reichhaltiges Geflecht von Erlebnissen rund um die Hauptkonferenz. Im Jahr 2025, jenseits des National Western Complex, wo die offiziellen Inhalte stattfanden, pulsierte die ganze Stadt mit Meetups, Partys, Hackathons und Community-Treffen. Diese Side-Events, oft von Sponsoren oder lokalen Web3-Gruppen veranstaltet, trugen maßgeblich zum umfassenderen ETHDenver-Erlebnis bei.

Auf offizieller Seite umfasste der Zeitplan der ETHDenver selbst thematische Mini-Events: Der Veranstaltungsort hatte Zonen wie eine NFT-Kunstgalerie, eine Blockchain-Arcade, eine DJ Chill Dome und sogar eine Zen Zone zum Entspannen. Die Organisatoren veranstalteten auch Abendveranstaltungen wie Eröffnungs- und Abschlussfeiern – z. B. die inoffizielle Eröffnungsparty „Crack’d House“ am 26. Februar von Story Protocol, die eine künstlerische Performance mit Hackathon-Preisverleihungen verband. Aber es waren die von der Community geleiteten Side-Events, die sich wirklich verbreiteten: Laut einem Event-Guide wurden über 100 Nebenveranstaltungen im ETHDenver Luma-Kalender erfasst.

Einige Beispiele veranschaulichen die Vielfalt dieser Treffen:

  • Technische Gipfel & Hacker Houses: ElizaOS und EigenLayer veranstalteten eine 9-tägige Vault AI Agent Hacker House-Residenz für KI+Web3-Enthusiasten. Das Team von StarkNet veranstaltete ein mehrtägiges Hacker House, das in einer Demo-Nacht für Projekte auf ihrem ZK-Rollup gipfelte. Diese boten fokussierte Umgebungen für Entwickler, um an spezifischen Tech-Stacks außerhalb des Haupt-Hackathons zusammenzuarbeiten.
  • Networking-Mixer & Partys: Jeder Abend bot eine Reihe von Auswahlmöglichkeiten. Builder Nights Denver am 27. Februar, gesponsert von MetaMask, Linea, EigenLayer, Wormhole und anderen, brachte Innovatoren zu zwanglosen Gesprächen bei Essen und Getränken zusammen. 3VO’s Mischief Minded Club Takeover, unterstützt von Belong, war eine hochkarätige Networking-Party für Führungskräfte im Bereich Community-Tokenisierung. Für diejenigen, die reinen Spaß suchten, hielten der BEMO Rave (mit Berachain und anderen) und rAIve the Night (ein KI-Themen-Rave) die Krypto-Crowd bis spät in die Nacht tanzend – eine Mischung aus Musik, Kunst und Krypto-Kultur.
  • Treffen von Sonderinteressengruppen: Auch Nischen-Communities fanden ihren Platz zu. Meme Combat war ein Event ausschließlich für Meme-Enthusiasten, um die Rolle von Memes in Krypto zu feiern. House of Ink richtete sich an NFT-Künstler und -Sammler und verwandelte einen immersiven Kunstort (Meow Wolf Denver) in eine Ausstellung für digitale Kunst. Der SheFi Summit am 26. Februar brachte Frauen in Web3 zu Vorträgen und Networking zusammen, unterstützt von Gruppen wie World of Women und Celo – was ein Engagement für Vielfalt und Inklusion unterstreicht.
  • Investoren- & Content-Creator-Meetups: Wir haben bereits VC-Events angesprochen; zusätzlich ermöglichte ein KOL (Key Opinion Leaders) Gathering am 28. Februar Krypto-Influencern und Content-Creatoren, Engagement-Strategien zu diskutieren, was die Schnittmenge von sozialen Medien und Krypto-Communities zeigt.

Entscheidend ist, dass diese Side-Events nicht nur Unterhaltung waren – sie dienten oft als Inkubatoren für Ideen und Beziehungen für sich. Zum Beispiel befasste sich der Tokenized Capital Summit 2025 mit der Zukunft der Kapitalmärkte On-Chain, was wahrscheinlich Kooperationen zwischen Fintech-Unternehmern und anwesenden Blockchain-Entwicklern anregte. Das On-Chain Gaming Hacker House bot Spielentwicklern einen Raum, Best Practices auszutauschen, was zu einer gegenseitigen Befruchtung zwischen Blockchain-Gaming-Projekten führen kann.

Für Fachleute, die große Konferenzen besuchen, unterstreicht das Modell der ETHDenver, dass Wert sowohl abseits der Hauptbühne als auch auf ihr zu finden ist. Die Breite des inoffiziellen Programms ermöglichte es den Teilnehmern, ihr Erlebnis individuell zu gestalten – ob das Ziel war, Investoren zu treffen, eine neue Fähigkeit zu erlernen, einen Mitgründer zu finden oder einfach nur zu entspannen und Kameradschaft aufzubauen, es gab eine Veranstaltung dafür. Viele Veteranen raten Neulingen: „Besuchen Sie nicht nur die Vorträge – gehen Sie zu den Meetups und sagen Sie Hallo.“ In einem so Community-getriebenen Bereich wie Web3 führen diese menschlichen Verbindungen oft zu DAO-Kooperationen, Investitionsgeschäften oder zumindest zu dauerhaften Freundschaften, die Kontinente umspannen. Die lebendige Side-Szene der ETHDenver 2025 verstärkte die Kernkonferenz und verwandelte eine Woche in Denver in ein mehrdimensionales Festival der Innovation.

Wichtige Erkenntnisse und umsetzbare Einblicke

ETHDenver 2025 zeigte eine Web3-Branche in voller Blüte der Innovation und Zusammenarbeit. Für Fachleute in diesem Bereich ergeben sich aus dieser tiefgehenden Analyse mehrere klare Erkenntnisse und Handlungsempfehlungen:

  • Diversifizierung der Trends: Die Veranstaltung machte deutlich, dass Web3 nicht länger monolithisch ist. Aufkommende Bereiche wie KI-Integration, DePIN und RWA-Tokenisierung sind ebenso prominent wie DeFi und NFTs. Umsetzbare Erkenntnis: Bleiben Sie informiert und anpassungsfähig. Führungskräfte sollten F&E oder Investitionen in diese aufstrebenden Vertikalen tätigen (z. B. untersuchen, wie KI ihre DApp verbessern könnte oder wie reale Vermögenswerte in DeFi-Plattformen integriert werden könnten), um die nächste Wachstumswelle zu nutzen.
  • Cross-Chain ist die Zukunft: Mit der aktiven Teilnahme großer Nicht-Ethereum-Protokolle sinken die Barrieren zwischen den Ökosystemen. Interoperabilität und Multi-Chain-Benutzererfahrungen erregten große Aufmerksamkeit, von MetaMasks Unterstützung für Bitcoin/Solana bis hin zu Polkadot- und Cosmos-basierten Chains, die Ethereum-Entwickler umwerben. Umsetzbare Erkenntnis: Entwickeln Sie für eine Multi-Chain-Welt. Projekte sollten Integrationen oder Bridges in Betracht ziehen, die Liquidität und Benutzer auf anderen Chains nutzen, und Fachleute könnten Partnerschaften über Communities hinweg suchen, anstatt isoliert zu bleiben.
  • Community & Öffentliche Güter sind wichtig: Das Thema „Jahr der Regenerates“ war nicht nur Rhetorik – es durchdrang die Inhalte durch Diskussionen über die Finanzierung öffentlicher Güter, quadratisches Voting für Hacks und Veranstaltungen wie den SheFi Summit. Ethische, nachhaltige Entwicklung und Community-Eigentum sind Schlüsselwerte im Ethereum-Ethos. Umsetzbare Erkenntnis: Integrieren Sie regenerative Prinzipien. Ob durch die Unterstützung von Open-Source-Initiativen, die Verwendung fairer Launch-Mechanismen oder die Ausrichtung von Geschäftsmodellen am Community-Wachstum, Web3-Unternehmen können Wohlwollen und Langlebigkeit gewinnen, indem sie nicht rein extraktiv sind.
  • Investorenstimmung – Vorsichtig, aber mutig: Trotz der Gerüchte über einen Bärenmarkt zeigte ETHDenver, dass VCs aktiv nach vielversprechenden Web3-Projekten suchen und bereit sind, große Wetten auf die nächsten Kapitel von Web3 einzugehen. Sie überdenken jedoch auch, wie sie investieren (z. B. strategischer, vielleicht mehr Aufsicht über die Produkt-Markt-Passung und Offenheit für Community-Finanzierung). Umsetzbare Erkenntnis: Wenn Sie ein Startup sind, konzentrieren Sie sich auf Grundlagen und Storytelling. Die Projekte, die herausragten, hatten klare Anwendungsfälle und oft funktionierende Prototypen (einige wurden an einem Wochenende erstellt!). Wenn Sie ein Investor sind, bestätigte die Konferenz, dass Infrastruktur (L2s, Sicherheit, Entwicklertools) weiterhin hohe Priorität hat, aber die Differenzierung durch Thesen in KI, Gaming oder Social einen Fonds an die Spitze positionieren kann.
  • Die Entwicklererfahrung verbessert sich: ETHDenver hob viele neue Toolkits, SDKs und Frameworks hervor, die die Barriere für die Web3-Entwicklung senken – von Account Abstraction Tools bis hin zu On-Chain-KI-Bibliotheken. Umsetzbare Erkenntnis: Nutzen Sie diese Ressourcen. Teams sollten mit den neuesten vorgestellten Entwicklertools experimentieren (z. B. das zkSync Smart SSO für einfachere Logins ausprobieren oder die Ressourcen der Open Agents Alliance für ein KI-Projekt nutzen), um ihre Entwicklung zu beschleunigen und der Konkurrenz einen Schritt voraus zu sein. Darüber hinaus sollten Unternehmen weiterhin mit Hackathons und offenen Entwicklerforen zusammenarbeiten, um Talente und Ideen zu gewinnen; der Erfolg der ETHDenver, Hacker zu Gründern zu machen, ist ein Beweis für dieses Modell.
  • Die Kraft der Side-Events: Zuletzt lehrte die Explosion der Side-Events eine wichtige Lektion im Networking – Chancen ergeben sich oft in zwanglosen Umgebungen. Eine zufällige Begegnung bei einer Happy Hour oder ein gemeinsames Interesse bei einem kleinen Meetup kann karriereentscheidende Verbindungen schaffen. Umsetzbare Erkenntnis: Planen Sie für diejenigen, die Branchenkonferenzen besuchen, über die offizielle Agenda hinaus. Identifizieren Sie Side-Events, die mit Ihren Zielen übereinstimmen (sei es, Investoren zu treffen, eine Nischenfähigkeit zu erlernen oder Talente zu rekrutieren), und engagieren Sie sich proaktiv. Wie in Denver zu sehen war, gingen diejenigen, die sich voll und ganz in das Ökosystem der Woche vertieften, nicht nur mit Wissen, sondern auch mit neuen Partnern, Mitarbeitern und Freunden nach Hause.

Zusammenfassend war ETHDenver 2025 ein Mikrokosmos des Momentums der Web3-Branche – eine Mischung aus hochmodernem Tech-Diskurs, leidenschaftlicher Community-Energie, strategischen Investitionsentscheidungen und einer Kultur, die ernsthafte Innovation mit Spaß verbindet. Fachleute sollten die Trends und Erkenntnisse der Veranstaltung als Fahrplan für die zukünftige Entwicklung von Web3 betrachten. Der umsetzbare nächste Schritt besteht darin, diese Erkenntnisse – sei es ein neu entdeckter Fokus auf KI, eine Verbindung zu einem L2-Team oder Inspiration aus einem Hackathon-Projekt – aufzunehmen und in Strategie umzusetzen. Im Geiste des Lieblingsmottos der ETHDenver ist es an der Zeit, auf diesen Erkenntnissen #BUIDL zu betreiben und die dezentrale Zukunft mitzugestalten, die so viele in Denver gemeinsam erdacht haben.

Altera.al stellt ein: Werden Sie Teil der Pioniere der digitalen Mensch-Entwicklung (600.000-1.000.000 $ Vergütung)

· 3 Minuten Lesezeit

Wir freuen uns, Ihnen eine transformative Gelegenheit bei Altera.al vorzustellen, einem bahnbrechenden KI-Startup, das kürzlich mit seiner wegweisenden Arbeit bei der Entwicklung digitaler Menschen für Aufsehen sorgte. Kürzlich im MIT Technology Review vorgestellt, hat Altera.al bemerkenswerte Fortschritte bei der Schaffung von KI-Agenten gezeigt, die menschenähnliche Verhaltensweisen entwickeln, Gemeinschaften bilden und bedeutungsvoll in digitalen Räumen interagieren können.

Altera.al: Werden Sie Teil der Pioniere der digitalen Mensch-Entwicklung mit einer Vergütung von 600.000-1.000.000 $

Über Altera.al

Gegründet von Robert Yang, der seine Position als Assistenzprofessor für Computerneurowissenschaften am MIT aufgab, um diese Vision zu verfolgen, hat Altera.al bereits über 11 Millionen US-Dollar an Finanzmitteln von renommierten Investoren wie A16Z und Eric Schmidts aufstrebender Tech-VC-Firma erhalten. Ihre jüngste Project Sid-Demonstration zeigte, wie KI-Agenten spontan spezialisierte Rollen entwickelten, soziale Verbindungen knüpften und sogar kulturelle Systeme innerhalb von Minecraft schufen – ein bedeutender Schritt auf dem Weg zu ihrem Ziel, wirklich autonome KI-Agenten zu schaffen, die in großem Maßstab zusammenarbeiten können.

Warum jetzt ein spannender Zeitpunkt ist, um einzusteigen

Altera.al hat einen bedeutenden technischen Durchbruch in ihrer Mission erzielt, Maschinen mit grundlegenden menschlichen Eigenschaften zu entwickeln. Ihre Arbeit geht über die traditionelle KI-Entwicklung hinaus – sie schaffen digitale Wesen, die Folgendes können:

  • Gemeinschaften und soziale Hierarchien bilden
  • Spezialisierte Rollen und Verantwortlichkeiten entwickeln
  • Kulturelle Muster schaffen und verbreiten
  • Bedeutungsvoll mit Menschen in digitalen Räumen interagieren

Wen sie suchen

Nach ihrem jüngsten Durchbruch erweitert Altera.al sein Team und bietet außergewöhnliche Vergütungspakete zwischen 600.000 und 1.000.000 $ für:

  • Experten in der KI-Agenten-Forschung
  • Starke Einzelmitarbeiter in den Bereichen:
    • Verteilte Systeme
    • Sicherheit
    • Betriebssysteme

So bewerben Sie sich

Bereit, Teil dieser wegweisenden Reise zu sein? Bewerben Sie sich direkt über ihre Karriereseite: https://jobs.ashbyhq.com/altera.al

Werden Sie Teil der Zukunft der digitalen Mensch-Entwicklung

Dies ist eine einzigartige Gelegenheit, an der Schnittstelle von künstlicher Intelligenz und menschlicher Verhaltensmodellierung zu arbeiten, mit einem Team, das bereits bemerkenswerte Ergebnisse vorweisen kann. Wenn Sie leidenschaftlich daran interessiert sind, die Grenzen des Möglichen in KI und Mensch-Maschine-Interaktion zu erweitern, könnte Altera.al Ihr nächstes Abenteuer sein.


Für weitere Updates zu bahnbrechenden Möglichkeiten in Tech und Blockchain folgen Sie uns auf Twitter oder treten Sie unserer Discord-Community bei.

Dieser Beitrag ist Teil unseres fortlaufenden Engagements, Innovationen zu unterstützen und Talente mit transformativen Möglichkeiten in der Tech-Branche zu verbinden.

A16Zs Krypto-Ausblick 2025: Zwölf Ideen, die das nächste Internet neu gestalten könnten

· 8 Minuten Lesezeit

Jedes Jahr veröffentlicht a16z umfassende Prognosen zu den Technologien, die unsere Zukunft prägen werden. Diesmal hat ihr Krypto-Team ein lebendiges Bild von 2025 gezeichnet, in dem Blockchains, KI und fortgeschrittene Governance-Experimente aufeinandertreffen.

Ich habe ihre wichtigsten Erkenntnisse unten zusammengefasst und kommentiert, wobei ich mich auf das konzentriere, was ich als die großen Hebel für Veränderungen – und mögliche Stolpersteine – ansehe. Wenn Sie ein Tech-Entwickler, Investor oder einfach nur neugierig auf die nächste Welle des Internets sind, ist dieser Artikel für Sie.

1. KI trifft auf Krypto-Wallets

Wichtige Erkenntnis: KI-Modelle entwickeln sich von „NPCs“ im Hintergrund zu „Hauptcharakteren“, die eigenständig in Online- (und potenziell physischen) Ökonomien agieren. Das bedeutet, dass sie eigene Krypto-Wallets benötigen werden.

  • Was es bedeutet: Anstatt dass eine KI nur Antworten ausspuckt, könnte sie digitale Assets halten, ausgeben oder investieren – Transaktionen im Namen ihres menschlichen Besitzers oder rein eigenständig durchführen.
  • Potenzieller Nutzen: Hocheffiziente „agentische KIs“ könnten Unternehmen bei der Lieferkettenkoordination, Datenverwaltung oder dem automatisierten Handel unterstützen.
  • Worauf zu achten ist: Wie stellen wir sicher, dass eine KI wirklich autonom ist und nicht heimlich von Menschen manipuliert wird? Trusted Execution Environments (TEEs) können technische Garantien bieten, aber das Vertrauen in einen „Roboter mit Wallet“ wird nicht über Nacht entstehen.

2. Aufstieg des DAC (Dezentraler Autonomer Chatbot)

Wichtige Erkenntnis: Ein Chatbot, der autonom in einer TEE läuft, kann seine eigenen Schlüssel verwalten, Inhalte in sozialen Medien posten, Follower sammeln und sogar Einnahmen generieren – alles ohne direkte menschliche Kontrolle.

  • Was es bedeutet: Stellen Sie sich einen KI-Influencer vor, der von niemandem zum Schweigen gebracht werden kann, weil er sich buchstäblich selbst steuert.
  • Potenzieller Nutzen: Ein Einblick in eine Welt, in der Content-Ersteller keine Individuen, sondern selbstverwaltende Algorithmen mit Millionen- (oder Milliarden-) Dollar-Bewertungen sind.
  • Worauf zu achten ist: Wenn eine KI Gesetze bricht, wer ist haftbar? Regulatorische Leitplanken werden schwierig sein, wenn die „Entität“ ein Satz von Code ist, der auf verteilten Servern gehostet wird.

3. Proof of Personhood wird unerlässlich

Wichtige Erkenntnis: Da KI die Kosten für die Erstellung hyperrealistischer Fälschungen senkt, benötigen wir bessere Wege, um zu überprüfen, dass wir online mit echten Menschen interagieren. Hier kommen datenschutzfreundliche, eindeutige IDs ins Spiel.

  • Was es bedeutet: Jeder Benutzer könnte irgendwann einen zertifizierten „menschlichen Stempel“ erhalten – hoffentlich ohne persönliche Daten zu opfern.
  • Potenzieller Nutzen: Dies könnte Spam, Betrug und Bot-Armeen drastisch reduzieren. Es schafft auch die Grundlage für vertrauenswürdigere soziale Netzwerke und Community-Plattformen.
  • Worauf zu achten ist: Die Akzeptanz ist die größte Hürde. Selbst die besten Proof-of-Personhood-Lösungen benötigen eine breite Akzeptanz, bevor böswillige Akteure sie übertreffen.

4. Von Prognosemärkten zur breiteren Informationsaggregation

Wichtige Erkenntnis: Die wahlgesteuerten Prognosemärkte von 2024 sorgten für Schlagzeilen, aber a16z sieht einen größeren Trend: die Nutzung von Blockchain, um neue Wege zur Offenlegung und Aggregation von Wahrheiten zu entwickeln – sei es in der Governance, im Finanzwesen oder bei Gemeinschaftsentscheidungen.

  • Was es bedeutet: Verteilte Anreizmechanismen können Menschen für ehrliche Beiträge oder Daten belohnen. Wir könnten spezialisierte „Wahrheitsmärkte“ für alles sehen, von lokalen Sensornetzwerken bis hin zu globalen Lieferketten.
  • Potenzieller Nutzen: Eine transparentere, weniger manipulierbare Datenschicht für die Gesellschaft.
  • Worauf zu achten ist: Ausreichende Liquidität und Nutzerbeteiligung bleiben eine Herausforderung. Bei Nischenfragen können „Prognose-Pools“ zu klein sein, um aussagekräftige Signale zu liefern.

5. Stablecoins erobern Unternehmen

Wichtige Erkenntnis: Stablecoins sind bereits der günstigste Weg, digitale Dollar zu bewegen, aber große Unternehmen haben sie – noch – nicht angenommen.

  • Was es bedeutet: KMU und Händler mit hohem Transaktionsvolumen könnten erkennen, dass sie durch die Einführung von Stablecoins erhebliche Kreditkartengebühren sparen können. Unternehmen, die Milliarden an jährlichen Einnahmen verarbeiten, könnten dasselbe tun und potenziell 2 % zu ihrem Gewinn hinzufügen.
  • Potenzieller Nutzen: Schnellere, günstigere globale Zahlungen sowie eine neue Welle von Stablecoin-basierten Finanzprodukten.
  • Worauf zu achten ist: Unternehmen benötigen neue Wege zur Verwaltung von Betrugsschutz, Identitätsprüfung und Rückerstattungen – Aufgaben, die zuvor von Kreditkartenanbietern übernommen wurden.

6. Staatsanleihen auf der Blockchain

Wichtige Erkenntnis: Regierungen, die On-Chain-Anleihen erforschen, könnten zinstragende digitale Assets schaffen, die ohne die Datenschutzprobleme einer digitalen Zentralbankwährung funktionieren.

  • Was es bedeutet: On-Chain-Anleihen könnten als hochwertige Sicherheiten in DeFi dienen und es ermöglichen, Staatsschulden nahtlos in dezentrale Kreditprotokolle zu integrieren.
  • Potenzieller Nutzen: Größere Transparenz, potenziell niedrigere Emissionskosten und ein demokratisierterer Anleihemarkt.
  • Worauf zu achten ist: Skeptische Regulierungsbehörden und potenzielle Trägheit bei großen Institutionen. Bestehende Abwicklungssysteme werden nicht so leicht verschwinden.

7. „DUNA“ – Das rechtliche Rückgrat für DAOs

Wichtige Erkenntnis: Wyoming hat eine neue Kategorie namens „dezentraler nicht eingetragener gemeinnütziger Verein“ (DUNA) eingeführt, die DAOs in den USA rechtliche Anerkennung verschaffen soll.

  • Was es bedeutet: DAOs können nun Eigentum halten, Verträge unterzeichnen und die Haftung von Token-Inhabern begrenzen. Dies öffnet die Tür für eine breitere Akzeptanz und echte kommerzielle Aktivitäten.
  • Potenzieller Nutzen: Wenn andere Staaten Wyomings Beispiel folgen (wie sie es bei LLCs taten), werden DAOs zu normalen Geschäftseinheiten werden.
  • Worauf zu achten ist: Die öffentliche Wahrnehmung darüber, was DAOs tun, ist immer noch unklar. Sie benötigen eine Erfolgsbilanz erfolgreicher Projekte, die sich in realen Vorteilen niederschlagen.

8. Liquide Demokratie in der physischen Welt

Wichtige Erkenntnis: Blockchain-basierte Governance-Experimente könnten sich von Online-DAO-Communities auf lokale Wahlen ausweiten. Wähler könnten ihre Stimmen delegieren oder direkt abstimmen – „liquide Demokratie“.

  • Was es bedeutet: Flexiblere Vertretung. Sie können wählen, ob Sie über bestimmte Themen abstimmen oder diese Verantwortung jemandem übertragen, dem Sie vertrauen.
  • Potenzieller Nutzen: Potenziell engagiertere Bürger und eine dynamischere Politikgestaltung.
  • Worauf zu achten ist: Sicherheitsbedenken, technische Kenntnisse und allgemeine Skepsis gegenüber der Vermischung von Blockchain mit offiziellen Wahlen.

9. Auf bestehender Infrastruktur aufbauen (statt sie neu zu erfinden)

Wichtige Erkenntnis: Startups verbringen oft Zeit damit, Basisschicht-Technologien (Konsensprotokolle, Programmiersprachen) neu zu erfinden, anstatt sich auf die Produkt-Markt-Passung zu konzentrieren. Im Jahr 2025 werden sie häufiger auf vorgefertigte Komponenten zurückgreifen.

  • Was es bedeutet: Schnellere Markteinführung, zuverlässigere Systeme und größere Komponierbarkeit.
  • Potenzieller Nutzen: Weniger Zeitverschwendung beim Aufbau einer neuen Blockchain von Grund auf; mehr Zeit für die Lösung des Benutzerproblems, das Sie angehen.
  • Worauf zu achten ist: Es ist verlockend, sich für Leistungssteigerungen zu stark zu spezialisieren. Aber spezialisierte Sprachen oder Konsensschichten können einen höheren Overhead für Entwickler verursachen.

10. Benutzererfahrung zuerst, Infrastruktur an zweiter Stelle

Wichtige Erkenntnis: Krypto muss die „Kabel verstecken“. Wir zwingen Verbraucher nicht, SMTP zu lernen, um E-Mails zu senden – warum sollten wir sie also zwingen, „EIPs“ oder „Rollups“ zu lernen?

  • Was es bedeutet: Produktteams werden die technischen Grundlagen wählen, die eine großartige Benutzererfahrung ermöglichen, nicht umgekehrt.
  • Potenzieller Nutzen: Ein großer Sprung bei der Benutzerintegration, der Reibung und Fachjargon reduziert.
  • Worauf zu achten ist: „Baue es, und sie werden kommen“ funktioniert nur, wenn Sie die Erfahrung wirklich perfektionieren. Marketing-Jargon über „einfache Krypto-UX“ bedeutet nichts, wenn die Leute immer noch gezwungen sind, private Schlüssel zu verwalten oder obskure Akronyme auswendig zu lernen.

11. Kryptos eigene App Stores entstehen

Wichtige Erkenntnis: Vom World App Marktplatz von Worldcoin bis zum dApp Store von Solana bieten krypto-freundliche Plattformen Distribution und Entdeckung frei von der Gatekeeping von Apple oder Google.

  • Was es bedeutet: Wenn Sie eine dezentrale Anwendung entwickeln, können Sie Benutzer erreichen, ohne Angst vor plötzlichem Deplatforming haben zu müssen.
  • Potenzieller Nutzen: Zehntausende (oder Hunderttausende) neuer Benutzer, die Ihre dApp innerhalb von Tagen entdecken, anstatt in der Flut zentralisierter App Stores verloren zu gehen.
  • Worauf zu achten ist: Diese Stores benötigen eine ausreichende Nutzerbasis und Dynamik, um mit Apple und Google zu konkurrieren. Das ist eine große Hürde. Hardware-Anbindungen (wie spezialisierte Krypto-Telefone) könnten helfen.

12. Tokenisierung „unkonventioneller“ Assets

Wichtige Erkenntnis: Wenn die Blockchain-Infrastruktur reift und die Gebühren sinken, wird die Tokenisierung von allem, von biometrischen Daten bis hin zu Kuriositäten der realen Welt, praktikabler.

  • Was es bedeutet: Ein „Long Tail“ einzigartiger Assets kann fraktionalisiert und global gehandelt werden. Menschen könnten sogar persönliche Daten auf kontrollierte, zustimmungsbasierte Weise monetarisieren.
  • Potenzieller Nutzen: Massive neue Märkte für ansonsten „festgelegte“ Assets sowie interessante neue Datenpools, die KI nutzen kann.
  • Worauf zu achten ist: Datenschutzfallen und ethische Stolpersteine. Nur weil man etwas tokenisieren kann, heißt das nicht, dass man es sollte.

Der A16Z-Ausblick 2025 zeigt einen Krypto-Sektor, der nach breiterer Akzeptanz, verantwortungsvollerer Governance und tieferer Integration mit KI strebt. Wo frühere Zyklen von Spekulation oder Hype geprägt waren, dreht sich diese Vision um den Nutzen: Stablecoins, die Händlern 2 % bei jedem Latte sparen, KI-Chatbots, die ihre eigenen Geschäfte betreiben, lokale Regierungen, die mit liquider Demokratie experimentieren.

Doch das Ausführungsrisiko lauert. Regulierungsbehörden weltweit bleiben zurückhaltend, und die Benutzererfahrung ist für den Mainstream immer noch zu unübersichtlich. 2025 könnte das Jahr sein, in dem Krypto und KI endlich „erwachsen werden“, oder es könnte ein Zwischenschritt sein – alles hängt davon ab, ob Teams echte Produkte liefern können, die die Menschen lieben, und nicht nur Protokolle für die Kenner.

Kann 0Gs dezentrales KI-Betriebssystem KI wirklich im großen Maßstab On-Chain betreiben?

· 12 Minuten Lesezeit

Am 13. November 2024 gab 0G Labs eine 40 Millionen US-Dollar Finanzierungsrunde bekannt, die von Hack VC, Delphi Digital, OKX Ventures, Samsung Next und Animoca Brands angeführt wurde und das Team hinter diesem dezentralen KI-Betriebssystem ins Rampenlicht rückte. Ihr modularer Ansatz kombiniert dezentralen Speicher, Datenverfügbarkeitsprüfung und dezentrale Abwicklung, um KI-Anwendungen On-Chain zu ermöglichen. Aber können sie realistisch einen Durchsatz von GB/s erreichen, um die nächste Ära der KI-Adoption im Web3 voranzutreiben? Dieser ausführliche Bericht bewertet die Architektur, die Anreizmechanismen, die Ökosystem-Traktion und die potenziellen Fallstricke von 0G, um Ihnen zu helfen, einzuschätzen, ob 0G sein Versprechen halten kann.

Hintergrund

Der KI-Sektor hat einen kometenhaften Aufstieg erlebt, katalysiert durch große Sprachmodelle wie ChatGPT und ERNIE Bot. Doch KI ist mehr als nur Chatbots und generative Texte; sie umfasst auch alles von AlphaGos Go-Siegen bis hin zu Bildgenerierungstools wie MidJourney. Der Heilige Gral, den viele Entwickler verfolgen, ist eine allgemeine Künstliche Intelligenz oder AGI (Artificial General Intelligence) – umgangssprachlich als KI-„Agent“ beschrieben, der in der Lage ist, zu lernen, wahrzunehmen, Entscheidungen zu treffen und komplexe Ausführungen ähnlich der menschlichen Intelligenz durchzuführen.

Sowohl KI- als auch KI-Agenten-Anwendungen sind jedoch extrem datenintensiv. Sie verlassen sich auf massive Datensätze für Training und Inferenz. Traditionell werden diese Daten auf zentralisierten Infrastrukturen gespeichert und verarbeitet. Mit dem Aufkommen der Blockchain ist ein neuer Ansatz, bekannt als DeAI (Dezentrale KI), entstanden. DeAI versucht, dezentrale Netzwerke für Datenspeicherung, -freigabe und -verifizierung zu nutzen, um die Fallstricke traditioneller, zentralisierter KI-Lösungen zu überwinden.

0G Labs sticht in dieser DeAI-Infrastrukturlandschaft hervor und zielt darauf ab, ein dezentrales KI-Betriebssystem zu entwickeln, das einfach als 0G bekannt ist.

Was ist 0G Labs?

In der traditionellen Informatik verwaltet ein Betriebssystem (OS) Hardware- und Software-Ressourcen – denken Sie an Microsoft Windows, Linux, macOS, iOS oder Android. Ein OS abstrahiert die Komplexität der zugrunde liegenden Hardware und erleichtert sowohl Endbenutzern als auch Entwicklern die Interaktion mit dem Computer.

Analog dazu strebt das 0G OS eine ähnliche Rolle im Web3 an:

  • Verwaltung von dezentralem Speicher, Rechenleistung und Datenverfügbarkeit.
  • Vereinfachung der Bereitstellung von On-Chain-KI-Anwendungen.

Warum Dezentralisierung? Konventionelle KI-Systeme speichern und verarbeiten Daten in zentralisierten Silos, was Bedenken hinsichtlich Datentransparenz, Benutzerdatenschutz und fairer Vergütung für Datenanbieter aufwirft. Der Ansatz von 0G nutzt dezentralen Speicher, kryptografische Beweise und offene Anreizmodelle, um diese Risiken zu mindern.

Der Name „0G“ steht für „Zero Gravity“ (Schwerelosigkeit). Das Team stellt sich eine Umgebung vor, in der Datenaustausch und Berechnung „schwerelos“ wirken – alles, vom KI-Training über die Inferenz bis zur Datenverfügbarkeit, geschieht nahtlos On-Chain.

Die 0G Foundation, die im Oktober 2024 formell gegründet wurde, treibt diese Initiative voran. Ihre erklärte Mission ist es, KI zu einem öffentlichen Gut zu machen – zugänglich, überprüfbar und offen für alle.

Schlüsselkomponenten des 0G-Betriebssystems

Grundsätzlich ist 0G eine modulare Architektur, die speziell zur Unterstützung von KI-Anwendungen On-Chain entwickelt wurde. Ihre drei Hauptpfeiler sind:

  1. 0G Storage – Ein dezentrales Speichernetzwerk.
  2. 0G DA (Data Availability) – Eine spezialisierte Datenverfügbarkeitsschicht, die Datenintegrität gewährleistet.
  3. 0G Compute Network – Dezentrales Management von Rechenressourcen und Abwicklung für KI-Inferenz (und schließlich Training).

Diese Pfeiler arbeiten unter dem Dach eines Layer1-Netzwerks namens 0G Chain zusammen, das für Konsens und Abwicklung verantwortlich ist.

Gemäß dem 0G Whitepaper („0G: Towards Data Availability 2.0“) bauen sowohl die 0G Storage- als auch die 0G DA-Schicht auf der 0G Chain auf. Entwickler können mehrere benutzerdefinierte PoS-Konsensnetzwerke starten, die jeweils als Teil des 0G DA- und 0G Storage-Frameworks fungieren. Dieser modulare Ansatz bedeutet, dass 0G bei wachsender Systemlast dynamisch neue Validatoren-Sets oder spezialisierte Knoten hinzufügen kann, um zu skalieren.

0G Storage

0G Storage ist ein dezentrales Speichersystem, das für große Datenmengen ausgelegt ist. Es verwendet verteilte Knoten mit integrierten Anreizen für die Speicherung von Benutzerdaten. Entscheidend ist, dass es Daten mithilfe von Erasure Coding (EC) in kleinere, redundante „Chunks“ aufteilt und diese Chunks über verschiedene Speicherknoten verteilt. Wenn ein Knoten ausfällt, können die Daten immer noch aus redundanten Chunks rekonstruiert werden.

Unterstützte Datentypen

0G Storage unterstützt sowohl strukturierte als auch unstrukturierte Daten.

  1. Strukturierte Daten werden in einer Key-Value (KV)-Schicht gespeichert, die für dynamische und häufig aktualisierte Informationen geeignet ist (denken Sie an Datenbanken, kollaborative Dokumente usw.).
  2. Unstrukturierte Daten werden in einer Log-Schicht gespeichert, die Dateneinträge chronologisch anfügt. Diese Schicht ist vergleichbar mit einem Dateisystem, das für große, nur-anhängende Arbeitslasten optimiert ist.

Durch das Stapeln einer KV-Schicht auf der Log-Schicht kann 0G Storage vielfältige Anforderungen von KI-Anwendungen erfüllen – von der Speicherung großer Modellgewichte (unstrukturiert) bis hin zu dynamischen benutzerbasierten Daten oder Echtzeit-Metriken (strukturiert).

PoRA-Konsens

PoRA (Proof of Random Access) stellt sicher, dass Speicherknoten die Chunks tatsächlich halten, die sie zu speichern behaupten. So funktioniert es:

  • Speicher-Miner werden regelmäßig herausgefordert, kryptografische Hashes bestimmter zufälliger Daten-Chunks zu erzeugen, die sie speichern.
  • Sie müssen antworten, indem sie einen gültigen Hash (ähnlich einer PoW-ähnlichen Rätsellösung) generieren, der von ihrer lokalen Kopie der Daten abgeleitet ist.

Um gleiche Wettbewerbsbedingungen zu schaffen, begrenzt das System Mining-Wettbewerbe auf 8 TB Segmente. Ein großer Miner kann seine Hardware in mehrere 8 TB Partitionen unterteilen, während kleinere Miner innerhalb einer einzelnen 8 TB Grenze konkurrieren.

Anreizdesign

Daten in 0G Storage werden in 8 GB „Preissegmente“ unterteilt. Jedes Segment hat sowohl einen Spendenpool als auch einen Belohnungspool. Benutzer, die Daten speichern möchten, zahlen eine Gebühr in 0G Token (ZG), die teilweise die Knotenbelohnungen finanziert.

  • Basisbelohnung: Wenn ein Speicherknoten gültige PoRA-Beweise einreicht, erhält er sofortige Blockbelohnungen für dieses Segment.
  • Laufende Belohnung: Im Laufe der Zeit gibt der Spendenpool einen Teil (derzeit ~4 % pro Jahr) in den Belohnungspool frei, was Knoten dazu anregt, Daten dauerhaft zu speichern. Je weniger Knoten ein bestimmtes Segment speichern, desto größer ist der Anteil, den jeder Knoten verdienen kann.

Benutzer zahlen nur einmal für dauerhaften Speicher, müssen aber eine Spendengebühr über einem Systemminimum festlegen. Je höher die Spende, desto wahrscheinlicher ist es, dass Miner die Daten des Benutzers replizieren.

Lizenzgebührenmechanismus: 0G Storage beinhaltet auch einen „Lizenzgebühren“- oder „Datenfreigabe“-Mechanismus. Frühe Speicheranbieter erstellen „Lizenzgebührenaufzeichnungen“ für jeden Daten-Chunk. Wenn neue Knoten denselben Chunk speichern möchten, kann der ursprüngliche Knoten ihn teilen. Wenn der neue Knoten später die Speicherung (über PoRA) beweist, erhält der ursprüngliche Datenanbieter eine laufende Lizenzgebühr. Je breiter die Daten repliziert werden, desto höher ist die aggregierte Belohnung für frühe Anbieter.

Vergleiche mit Filecoin und Arweave

Ähnlichkeiten:

  • Alle drei incentivieren dezentrale Datenspeicherung.
  • Sowohl 0G Storage als auch Arweave streben eine permanente Speicherung an.
  • Daten-Chunking und Redundanz sind Standardansätze.

Wesentliche Unterschiede:

  • Native Integration: 0G Storage ist keine unabhängige Blockchain; es ist direkt in die 0G Chain integriert und unterstützt primär KI-zentrierte Anwendungsfälle.
  • Strukturierte Daten: 0G unterstützt KV-basierte strukturierte Daten neben unstrukturierten Daten, was für viele KI-Arbeitslasten, die häufigen Lese- und Schreibzugriff erfordern, entscheidend ist.
  • Kosten: 0G beansprucht 10–11 US-Dollar/TB für dauerhaften Speicher, angeblich günstiger als Arweave.
  • Leistungsfokus: Speziell entwickelt, um die Durchsatzanforderungen von KI zu erfüllen, während Filecoin oder Arweave eher allgemeine dezentrale Speichernetzwerke sind.

0G DA (Datenverfügbarkeitsschicht)

Datenverfügbarkeit stellt sicher, dass jeder Netzwerkteilnehmer Transaktionsdaten vollständig überprüfen und abrufen kann. Wenn die Daten unvollständig oder zurückgehalten werden, brechen die Vertrauensannahmen der Blockchain zusammen.

Im 0G-System werden Daten gechunked und Off-Chain gespeichert. Das System zeichnet Merkle-Roots für diese Daten-Chunks auf, und DA-Knoten müssen diese Chunks stichprobenartig überprüfen, um sicherzustellen, dass sie mit dem Merkle-Root und den Erasure-Coding-Verpflichtungen übereinstimmen. Erst dann gelten die Daten als „verfügbar“ und werden dem Konsenszustand der Chain hinzugefügt.

DA-Knotenauswahl und Anreize

  • DA-Knoten müssen ZG staken, um teilzunehmen.
  • Sie werden zufällig über Verifizierbare Zufallsfunktionen (VRFs) in Quoren gruppiert.
  • Jeder Knoten validiert nur eine Teilmenge der Daten. Wenn 2/3 eines Quorums die Daten als verfügbar und korrekt bestätigen, signieren sie einen Beweis, der aggregiert und an das 0G-Konsensnetzwerk übermittelt wird.
  • Die Belohnungsverteilung erfolgt ebenfalls durch periodische Stichproben. Nur die Knoten, die zufällig ausgewählte Chunks speichern, sind für die Belohnungen dieser Runde berechtigt.

Vergleich mit Celestia und EigenLayer

0G DA greift Ideen von Celestia (Datenverfügbarkeits-Sampling) und EigenLayer (Restaking) auf, zielt aber auf einen höheren Durchsatz ab. Celestias Durchsatz liegt derzeit bei etwa 10 MB/s mit ~12-sekündigen Blockzeiten. EigenDA dient hauptsächlich Layer2-Lösungen und kann komplex in der Implementierung sein. 0G strebt einen Durchsatz von GB/s an, der besser für große KI-Arbeitslasten geeignet ist, die 50–100 GB/s an Datenaufnahme überschreiten können.

0G Compute Netzwerk

Das 0G Compute Netzwerk dient als dezentrale Rechenschicht. Es entwickelt sich in Phasen:

  • Phase 1: Fokus auf die Abwicklung für KI-Inferenz.
  • Das Netzwerk bringt „KI-Modellkäufer“ (Benutzer) mit Rechenanbietern (Verkäufern) in einem dezentralen Marktplatz zusammen. Anbieter registrieren ihre Dienste und Preise in einem Smart Contract. Benutzer finanzieren den Vertrag vor, nutzen den Dienst, und der Vertrag vermittelt die Zahlung.
  • Im Laufe der Zeit hofft das Team, auf vollwertiges KI-Training On-Chain zu expandieren, obwohl dies komplexer ist.

Stapelverarbeitung: Anbieter können Benutzeranfragen stapeln, um den On-Chain-Overhead zu reduzieren, die Effizienz zu verbessern und Kosten zu senken.

0G Chain

Die 0G Chain ist ein Layer1-Netzwerk, das als Grundlage für die modulare Architektur von 0G dient. Sie untermauert:

  • 0G Storage (über Smart Contracts)
  • 0G DA (Datenverfügbarkeitsbeweise)
  • 0G Compute (Abwicklungsmechanismen)

Gemäß den offiziellen Dokumenten ist die 0G Chain EVM-kompatibel, was eine einfache Integration für dApps ermöglicht, die erweiterte Datenspeicherung, -verfügbarkeit oder Rechenleistung benötigen.

0G Konsensnetzwerk

Der Konsensmechanismus von 0G ist etwas einzigartig. Anstatt einer einzigen monolithischen Konsensschicht können mehrere unabhängige Konsensnetzwerke unter 0G gestartet werden, um verschiedene Arbeitslasten zu bewältigen. Diese Netzwerke teilen dieselbe Staking-Basis:

  • Geteiltes Staking: Validatoren staken ZG auf Ethereum. Wenn ein Validator sich fehlverhält, kann sein gestakter ZG auf Ethereum gecuttet werden.
  • Skalierbarkeit: Neue Konsensnetzwerke können hochgefahren werden, um horizontal zu skalieren.

Belohnungsmechanismus: Wenn Validatoren Blöcke in der 0G-Umgebung finalisieren, erhalten sie Token. Die Token, die sie auf der 0G Chain verdienen, werden jedoch in der lokalen Umgebung verbrannt, und das Ethereum-basierte Konto des Validators wird mit einem äquivalenten Betrag gemintet, wodurch ein einziger Liquiditäts- und Sicherheitspunkt gewährleistet wird.

0G Token (ZG)

ZG ist ein ERC-20 Token, der das Rückgrat der 0G-Ökonomie darstellt. Er wird über Smart Contracts auf Ethereum gemintet, verbrannt und zirkuliert. In der Praxis:

  • Benutzer zahlen für Speicher, Datenverfügbarkeit und Rechenressourcen in ZG.
  • Miner und Validatoren verdienen ZG für den Nachweis der Speicherung oder die Validierung von Daten.
  • Geteiltes Staking bindet das Sicherheitsmodell an Ethereum zurück.

Zusammenfassung der Schlüsselmodule

Das 0G OS vereint vier Komponenten – Storage, DA, Compute und Chain – zu einem vernetzten, modularen Stack. Das Designziel des Systems ist Skalierbarkeit, wobei jede Schicht horizontal erweiterbar ist. Das Team preist das Potenzial für „unendlichen“ Durchsatz an, was besonders für große KI-Aufgaben entscheidend ist.

0G Ökosystem

Obwohl relativ neu, umfasst das 0G-Ökosystem bereits wichtige Integrationspartner:

  1. Infrastruktur & Tools:

    • ZK-Lösungen wie Union, Brevis, Gevulot
    • Cross-Chain-Lösungen wie Axelar
    • Restaking-Protokolle wie EigenLayer, Babylon, PingPong
    • Dezentrale GPU-Anbieter IoNet, exaBits
    • Orakel-Lösungen Hemera, Redstone
    • Indexierungstools für Ethereum Blob-Daten
  2. Projekte, die 0G für Datenspeicherung & DA nutzen:

    • Polygon, Optimism (OP), Arbitrum, Manta für L2 / L3 Integration
    • Nodekit, AltLayer für Web3-Infrastruktur
    • Blade Games, Shrapnel für On-Chain-Gaming

Angebotsseite

ZK- und Cross-Chain-Frameworks verbinden 0G mit externen Netzwerken. Restaking-Lösungen (z. B. EigenLayer, Babylon) stärken die Sicherheit und ziehen möglicherweise Liquidität an. GPU-Netzwerke beschleunigen die Erasure-Codierung. Orakel-Lösungen speisen Off-Chain-Daten oder referenzieren KI-Modellpreise.

Nachfrageseite

KI-Agenten können 0G sowohl für die Datenspeicherung als auch für die Inferenz nutzen. L2s und L3s können 0Gs DA integrieren, um den Durchsatz zu verbessern. Gaming und andere dApps, die robuste Datenlösungen benötigen, können Assets, Logs oder Bewertungssysteme auf 0G speichern. Einige haben bereits mit dem Projekt zusammengearbeitet, was auf eine frühe Ökosystem-Traktion hindeutet.

Roadmap & Risikofaktoren

0G zielt darauf ab, KI zu einem öffentlichen Gut zu machen, das für jeden zugänglich und überprüfbar ist. Das Team strebt einen DA-Durchsatz von GB/s an – entscheidend für Echtzeit-KI-Training, das 50–100 GB/s Datenübertragung erfordern kann.

Mitbegründer & CEO Michael Heinrich hat erklärt, dass das explosive Wachstum der KI eine zeitnahe Iteration entscheidend macht. Das Tempo der KI-Innovation ist schnell; 0Gs eigener Entwicklungsfortschritt muss mithalten.

Potenzielle Kompromisse:

  • Die derzeitige Abhängigkeit von geteiltem Staking könnte eine Zwischenlösung sein. Schließlich plant 0G die Einführung einer horizontal skalierbaren Konsensschicht, die inkrementell erweitert werden kann (ähnlich dem Hochfahren neuer AWS-Knoten).
  • Marktwettbewerb: Es gibt viele spezialisierte Lösungen für dezentralen Speicher, Datenverfügbarkeit und Rechenleistung. Der All-in-One-Ansatz von 0G muss überzeugend bleiben.
  • Akzeptanz & Ökosystemwachstum: Ohne robuste Entwicklerakzeptanz bleibt der versprochene „unbegrenzte Durchsatz“ theoretisch.
  • Nachhaltigkeit der Anreize: Die anhaltende Motivation für Knoten hängt von der tatsächlichen Benutzernachfrage und einer gleichgewichtigen Token-Ökonomie ab.

Fazit

0G versucht, dezentralen Speicher, Datenverfügbarkeit und Rechenleistung in einem einzigen „Betriebssystem“ zu vereinen, das On-Chain-KI unterstützt. Durch das Anstreben eines GB/s-Durchsatzes versucht das Team, die Leistungsgrenze zu durchbrechen, die derzeit groß angelegte KI davon abhält, On-Chain zu migrieren. Bei Erfolg könnte 0G die Web3-KI-Welle erheblich beschleunigen, indem es eine skalierbare, integrierte und entwicklerfreundliche Infrastruktur bereitstellt.

Dennoch bleiben viele offene Fragen. Die Machbarkeit des „unendlichen Durchsatzes“ hängt davon ab, ob 0Gs modulare Konsens- und Anreizstrukturen nahtlos skalieren können. Externe Faktoren – Marktnachfrage, Betriebszeit der Knoten, Entwicklerakzeptanz – werden ebenfalls die Beständigkeit von 0G bestimmen. Nichtsdestotrotz ist 0Gs Ansatz zur Bewältigung der Datenengpässe von KI neuartig und ambitioniert und deutet auf ein vielversprechendes neues Paradigma für On-Chain-KI hin.

Dezentrale physische Infrastrukturnetzwerke (DePIN): Ökonomie, Anreize und die Ära des KI-Computings

· 49 Minuten Lesezeit
Dora Noda
Software Engineer

Einleitung

Dezentrale physische Infrastrukturnetzwerke (DePIN) sind Blockchain-basierte Projekte, die Menschen dazu anregen, reale Hardware bereitzustellen und dafür Krypto-Token zu erhalten. Durch die Nutzung ungenutzter oder unterausgelasteter Ressourcen – von drahtlosen Funkgeräten über Festplatten bis hin zu GPUs – schaffen DePIN-Projekte Crowdsourcing-Netzwerke, die greifbare Dienste (Konnektivität, Speicherung, Computing usw.) bereitstellen. Dieses Modell verwandelt normalerweise ungenutzte Infrastruktur (wie ungenutzte Bandbreite, Festplattenspeicher oder GPU-Leistung) in aktive, einkommensgenerierende Netzwerke, indem Mitwirkende mit Token belohnt werden. Wichtige frühe Beispiele sind Helium (Crowdsourcing-basierte drahtlose Netzwerke) und Filecoin (verteilte Datenspeicherung), und neuere Projekte zielen auf GPU-Computing und die gemeinsame Nutzung von 5G-Abdeckung ab (z. B. Render Network, Akash, io.net).

Das Versprechen von DePIN liegt in der Verteilung der Kosten für den Aufbau und Betrieb physischer Netzwerke durch Token-Anreize, wodurch Netzwerke schneller skaliert werden können als bei traditionellen zentralisierten Modellen. In der Praxis müssen diese Projekte jedoch Wirtschaftsmodelle sorgfältig gestalten, um sicherzustellen, dass Token-Anreize in eine tatsächliche Dienstnutzung und nachhaltigen Wert umgesetzt werden. Im Folgenden analysieren wir die Wirtschaftsmodelle wichtiger DePIN-Netzwerke, bewerten, wie effektiv Token-Belohnungen die tatsächliche Infrastrukturnutzung vorangetrieben haben, und beurteilen, wie diese Projekte mit der boomenden Nachfrage nach KI-bezogenem Computing zusammenwirken.

Wirtschaftsmodelle führender DePIN-Projekte

Helium (Dezentrales drahtloses IoT & 5G)

Helium leistete Pionierarbeit bei einem dezentralen drahtlosen Netzwerk, indem es Einzelpersonen dazu anregte, Funk-Hotspots bereitzustellen. Ursprünglich auf IoT (LoRaWAN) fokussiert und später auf die 5G-Small-Cell-Abdeckung erweitert, konzentriert sich Heliums Modell auf seinen nativen Token HNT. Hotspot-Betreiber verdienen HNT, indem sie an Proof-of-Coverage (PoC) teilnehmen – im Wesentlichen beweisen sie, dass sie an einem bestimmten Ort drahtlose Abdeckung bereitstellen. In Heliums Zwei-Token-System hat HNT Nutzen durch Data Credits (DC): Benutzer müssen HNT verbrennen, um nicht übertragbare DC zu prägen, die zur Bezahlung der tatsächlichen Netzwerknutzung (Gerätekonnektivität) zu einem festen Satz von 0,0001 $ pro 24 Byte verwendet werden. Dieser Verbrennungsmechanismus schafft ein Burn-and-Mint-Gleichgewicht, bei dem eine erhöhte Netzwerknutzung (DC-Ausgaben) zu mehr HNT-Verbrennungen führt, wodurch das Angebot im Laufe der Zeit reduziert wird.

Ursprünglich operierte Helium auf seiner eigenen Blockchain mit einer inflationären Ausgabe von HNT, die alle zwei Jahre halbiert wurde (was zu einem allmählich sinkenden Angebot und einem eventuellen Maximum von etwa 223 Millionen HNT im Umlauf führte). Im Jahr 2023 migrierte Helium zu Solana und führte ein „Netzwerk von Netzwerken“-Framework mit Sub-DAOs ein. Jetzt haben Heliums IoT-Netzwerk und 5G-Mobilfunknetz jeweils ihre eigenen Token (IOT bzw. MOBILE), die an Hotspot-Betreiber vergeben werden, während HNT der zentrale Token für Governance und Wert bleibt. HNT kann über Treasury-Pools gegen SubDAO-Token eingelöst werden (und umgekehrt), und HNT wird auch für das Staking in Heliums veHNT-Governance-Modell verwendet. Diese Struktur zielt darauf ab, Anreize in jedem Sub-Netzwerk auszurichten: Beispielsweise verdienen 5G-Hotspot-Betreiber MOBILE-Token, die in HNT umgewandelt werden können, wodurch Belohnungen effektiv an den Erfolg dieses spezifischen Dienstes gebunden werden.

Wirtschaftliche Wertschöpfung: Heliums Wert entsteht durch die Bereitstellung kostengünstigen drahtlosen Zugangs. Durch die Verteilung von Token-Belohnungen verlagerte Helium die Investitionskosten (Capex) des Netzwerk-Deployments auf Einzelpersonen, die Hotspots kauften und betrieben. Theoretisch sollte die Nachfrage, wenn Unternehmen und IoT-Geräte das Netzwerk nutzen (indem sie DC ausgeben, die das Verbrennen von HNT erfordern), den Wert von HNT stützen und laufende Belohnungen finanzieren. Helium erhält seine Wirtschaft durch einen Burn-and-Spend-Zyklus aufrecht: Netzwerknutzer kaufen HNT (oder nutzen HNT-Belohnungen) und verbrennen es für DC, um das Netzwerk zu nutzen, und das Protokoll prägt HNT (nach einem festen Zeitplan), um Hotspot-Anbieter zu bezahlen. Im Design von Helium wurde ein Teil der HNT-Emissionen auch Gründern und einer Gemeinschaftsreserve zugewiesen, aber der Großteil war immer für Hotspot-Betreiber als Anreiz zum Aufbau der Abdeckung bestimmt. Wie später erörtert, bestand Heliums Herausforderung darin, genügend zahlende Nachfrage zu generieren, um die großzügigen angebotsseitigen Anreize auszugleichen.

Filecoin (Dezentrales Speichernetzwerk)

Filecoin ist ein dezentraler Speichermarkt, auf dem jeder Festplattenspeicher beitragen und Token für die Datenspeicherung verdienen kann. Sein Wirtschaftsmodell basiert auf dem FIL-Token. Filecoins Blockchain belohnt Speicheranbieter (Miner) mit FIL-Blockbelohnungen für die Bereitstellung von Speicher und die korrekte Speicherung von Kundendaten – unter Verwendung kryptografischer Beweise (Proof-of-Replication und Proof-of-Spacetime), um zu überprüfen, ob Daten zuverlässig gespeichert werden. Kunden wiederum zahlen FIL an Miner, um ihre Daten speichern oder abrufen zu lassen, wobei die Preise auf einem offenen Markt ausgehandelt werden. Dies schafft eine Anreizschleife: Miner investieren in Hardware und staken FIL als Sicherheit (um die Servicequalität zu garantieren), verdienen FIL-Belohnungen für das Hinzufügen von Speicherkapazität und das Erfüllen von Speicherverträgen, während Kunden FIL für Speicherdienste ausgeben.

Die Token-Verteilung von Filecoin ist stark darauf ausgerichtet, das Speicherangebot zu fördern. FIL hat ein maximales Angebot von 2 Milliarden, wobei 70 % für Mining-Belohnungen reserviert sind. (Tatsächlich sind etwa 1,4 Milliarden FIL dafür vorgesehen, über viele Jahre hinweg als Blockbelohnungen an Speicher-Miner ausgegeben zu werden.) Die restlichen 30 % wurden an Stakeholder verteilt: 15 % an Protocol Labs (das Gründerteam), 10 % an Investoren und 5 % an die Filecoin Foundation. Die Blockbelohnungsemissionen folgen einem etwas frontlastigen Zeitplan (mit einer Halbwertzeit von sechs Jahren), was bedeutet, dass die Angebotsinflation in den frühen Jahren am höchsten war, um schnell ein großes Speichernetzwerk aufzubauen. Um dies auszugleichen, verlangt Filecoin von Minern, FIL als Sicherheit für jedes Gigabyte Daten zu sperren, das sie zu speichern versprechen – wenn sie nicht nachweisen können, dass die Daten gespeichert bleiben, können sie durch den Verlust eines Teils der Sicherheit bestraft (geslasht) werden. Dieser Mechanismus richtet die Anreize der Miner auf einen zuverlässigen Dienst aus.

Wirtschaftliche Wertschöpfung: Filecoin schafft Wert, indem es zensurresistente, redundante Datenspeicherung zu potenziell geringeren Kosten als zentralisierte Cloud-Anbieter anbietet. Der Wert des FIL-Tokens ist an die Nachfrage nach Speicher und den Nutzen des Netzwerks gebunden: Kunden müssen FIL erwerben, um für die Datenspeicherung zu bezahlen, und Miner benötigen FIL (sowohl als Sicherheit als auch oft zur Deckung von Kosten oder als Einnahmen). Anfangs wurde ein Großteil der Aktivitäten von Filecoin von Minern angetrieben, die darum wetteiferten, Token zu verdienen – sogar das Speichern von wertlosen oder duplizierten Daten, nur um ihre Speicherleistung zu erhöhen und Blockbelohnungen zu erhalten. Um nützliche Speicherung zu fördern, führte Filecoin das Programm Filecoin Plus ein: Kunden mit verifizierten nützlichen Daten (z. B. offene Datensätze, Archive) können Deals als „verifiziert“ registrieren, was Minern die 10-fache effektive Leistung für diese Deals verleiht, was sich in proportional größeren FIL-Belohnungen niederschlägt. Dies hat Miner dazu angeregt, echte Kunden zu suchen, und hat die Menge an nützlichen Daten, die im Netzwerk gespeichert sind, dramatisch erhöht. Ende 2023 war das Filecoin-Netzwerk auf etwa 1.800 PiB aktiver Deals angewachsen, ein Anstieg um das 3,8-fache gegenüber dem Vorjahr, wobei die Speicherauslastung auf etwa 20 % der Gesamtkapazität stieg (von nur etwa 3 % zu Beginn des Jahres 2023). Mit anderen Worten, Token-Anreize haben eine enorme Kapazität aufgebaut, und jetzt wird ein wachsender Teil dieser Kapazität von zahlenden Kunden gefüllt – ein Zeichen dafür, dass das Modell beginnt, sich mit realer Nachfrage selbst zu erhalten. Filecoin expandiert auch in angrenzende Dienste (siehe KI-Computing-Trends unten), die neue Einnahmequellen (z. B. dezentrale Inhaltsbereitstellung und Compute-over-Data-Dienste) schaffen könnten, um die FIL-Wirtschaft über einfache Speichergebühren hinaus zu stärken.

Render Network (Dezentrales GPU-Rendering & Computing)

Render Network ist ein dezentraler Marktplatz für GPU-basiertes Computing, der ursprünglich auf das Rendern von 3D-Grafiken spezialisiert war und nun auch das Training von KI-Modellen und Inferenzaufgaben unterstützt. Sein nativer Token RNDR (kürzlich auf den Ticker RENDER auf Solana aktualisiert) treibt die Wirtschaft an. Ersteller (Benutzer, die GPU-Arbeit benötigen) zahlen in RNDR für Rendering- oder Compute-Aufgaben, und Node-Betreiber (GPU-Anbieter) verdienen RNDR, indem sie diese Aufgaben erledigen. Dieses grundlegende Modell verwandelt ungenutzte GPUs (von einzelnen GPU-Besitzern oder Rechenzentren) in eine verteilte Cloud-Rendering-Farm. Um Qualität und Fairness zu gewährleisten, verwendet Render Escrow-Smart Contracts: Kunden reichen Aufträge ein und verbrennen die entsprechende RNDR-Zahlung, die gehalten wird, bis Node-Betreiber den Nachweis über die Erledigung der Arbeit erbringen, dann wird der RNDR als Belohnung freigegeben. Ursprünglich fungierte RNDR als reiner Utility-/Zahlungstoken, aber das Netzwerk hat seine Tokenomics kürzlich zu einem Burn-and-Mint-Gleichgewichts (BME)-Modell überarbeitet, um Angebot und Nachfrage besser auszugleichen.

Im BME-Modell werden alle Rendering- oder Compute-Aufträge in stabilen Begriffen (USD) bepreist und in RENDER-Token bezahlt, die nach Abschluss des Auftrags verbrannt werden. Parallel dazu prägt das Protokoll neue RENDER-Token nach einem vordefinierten, sinkenden Emissionsplan, um Node-Betreiber und andere Teilnehmer zu entschädigen. Im Endeffekt zerstören Benutzerzahlungen für Arbeit Token, während das Netzwerk Token zu einer kontrollierten Rate als Mining-Belohnungen aufbläht – das Nettoangebot kann im Laufe der Zeit je nach Nutzung steigen oder fallen. Die Community genehmigte eine anfängliche Emission von etwa 9,1 Millionen RENDER im ersten Jahr des BME (Mitte 2023 bis Mitte 2024) als Netzwerkanreize und legte ein langfristiges maximales Angebot von etwa 644 Millionen RENDER fest (gegenüber den ursprünglich 536,9 Millionen RNDR, die beim Start geprägt wurden). Bemerkenswert ist, dass die Token-Verteilung von RENDER das Ökosystemwachstum stark begünstigte: 65 % des anfänglichen Angebots wurden einem Treasury (für zukünftige Netzwerkanreize), 25 % Investoren und 10 % dem Team/Beratern zugewiesen. Mit BME wird dieses Treasury über die kontrollierten Emissionen eingesetzt, um GPU-Anbieter und andere Mitwirkende zu belohnen, während der Verbrennungsmechanismus diese Belohnungen direkt an die Plattformnutzung bindet. RNDR dient auch als Governance-Token (Token-Inhaber können über Render Network-Vorschläge abstimmen). Zusätzlich können Node-Betreiber auf Render RNDR staken, um ihre Zuverlässigkeit zu signalisieren und potenziell mehr Arbeit zu erhalten, was eine weitere Anreizschicht hinzufügt.

Wirtschaftliche Wertschöpfung: Render Network schafft Wert, indem es On-Demand-GPU-Computing zu einem Bruchteil der Kosten traditioneller Cloud-GPU-Instanzen anbietet. Ende 2023 stellte der Gründer von Render fest, dass Studios das Netzwerk bereits genutzt hatten, um Grafiken in Filmqualität mit erheblichen Kosten- und Geschwindigkeitsvorteilen zu rendern – „ein Zehntel der Kosten“ und mit massiver aggregierter Kapazität, die über jeden einzelnen Cloud-Anbieter hinausgeht. Dieser Kostenvorteil ist möglich, weil Render auf weltweit ungenutzte GPUs (von Hobby-Rigs bis hin zu professionellen Render-Farmen) zugreift, die sonst untätig wären. Mit steigender Nachfrage nach GPU-Zeit (sowohl für Grafiken als auch für KI) erfüllt der Marktplatz von Render einen kritischen Bedarf. Entscheidend ist, dass das BME-Token-Modell bedeutet, dass der Token-Wert direkt mit der Dienstnutzung verknüpft ist: Wenn mehr Rendering- und KI-Aufträge durch das Netzwerk fließen, wird mehr RENDER verbrannt (was Kaufdruck erzeugt oder das Angebot reduziert), während die Node-Anreize nur dann steigen, wenn diese Aufträge abgeschlossen sind. Dies hilft, „für nichts zu bezahlen“ zu vermeiden – wenn die Netzwerknutzung stagniert, übertreffen die Token-Emissionen schließlich die Verbrennungen (was das Angebot aufbläht), aber wenn die Nutzung wächst, können die Verbrennungen die Emissionen ausgleichen oder sogar übertreffen, was den Token potenziell deflationär macht, während die Betreiber weiterhin belohnt werden. Das starke Interesse an Renders Modell spiegelte sich im Markt wider: Der Preis von RNDR schoss 2023 in die Höhe und stieg um über 1.000 % im Wert, da Investoren eine steigende Nachfrage nach dezentralen GPU-Diensten inmitten des KI-Booms erwarteten. Unterstützt von OTOY (einem führenden Anbieter von Cloud-Rendering-Software) und von einigen großen Studios in der Produktion eingesetzt, ist Render Network als wichtiger Akteur an der Schnittstelle von Web3 und Hochleistungs-Computing positioniert.

Akash Network (Dezentrales Cloud-Computing)

Akash ist ein dezentraler Cloud-Computing-Marktplatz, der es Benutzern ermöglicht, allgemeine Rechenleistung (VMs, Container usw.) von Anbietern mit freier Serverkapazität zu mieten. Man kann es sich als dezentrale Alternative zu AWS oder Google Cloud vorstellen, angetrieben durch ein Blockchain-basiertes Reverse-Auction-System. Der native Token AKT ist zentral für die Wirtschaft von Akash: Kunden zahlen für Compute-Leases in AKT, und Anbieter verdienen AKT für die Bereitstellung von Ressourcen. Akash basiert auf dem Cosmos SDK und verwendet eine delegated Proof-of-Stake-Blockchain für Sicherheit und Koordination. AKT fungiert somit auch als Staking- und Governance-Token – Validatoren staken AKT (und Benutzer delegieren AKT an Validatoren), um das Netzwerk zu sichern und Staking-Belohnungen zu verdienen.

Der Marktplatz von Akash funktioniert über ein Bietersystem: Ein Kunde definiert eine Bereitstellung (CPU, RAM, Speicher, möglicherweise GPU-Anforderungen) und einen Höchstpreis, und mehrere Anbieter können sich um das Hosting bewerben, wodurch der Preis gesenkt wird. Sobald der Kunde ein Gebot annimmt, wird ein Lease gebildet und die Arbeitslast läuft auf der Infrastruktur des ausgewählten Anbieters. Zahlungen für Leases werden von der Blockchain abgewickelt: Der Kunde hinterlegt AKT, und es wird im Laufe der Zeit an den Anbieter gestreamt, solange die Bereitstellung aktiv ist. Einzigartig ist, dass das Akash-Netzwerk eine Protokoll-„Take Rate“-Gebühr auf jedes Lease erhebt, um das Ökosystem zu finanzieren und AKT-Staker zu belohnen: 10 % des Lease-Betrags, wenn in AKT bezahlt wird (oder 20 %, wenn in einer anderen Währung bezahlt wird), werden als Gebühren an das Netzwerk-Treasury und die Staker umgeleitet. Dies bedeutet, dass AKT-Staker einen Teil aller Nutzungen verdienen, wodurch der Wert des Tokens mit der tatsächlichen Nachfrage auf der Plattform übereinstimmt. Um die Benutzerfreundlichkeit für Mainstream-Benutzer zu verbessern, hat Akash Stablecoin- und Kreditkartenzahlungen (über seine Konsolen-App) integriert: Ein Kunde kann in USD-Stablecoin bezahlen, der unter der Haube in AKT umgewandelt wird (mit einer höheren Gebührenrate). Dies reduziert das Volatilitätsrisiko für Benutzer, während es weiterhin Wert für den AKT-Token schafft (da diese Stablecoin-Zahlungen letztendlich dazu führen, dass AKT gekauft/verbrannt oder an Staker verteilt wird).

Auf der Angebotsseite sind die Tokenomics von AKT darauf ausgelegt, die langfristige Beteiligung zu fördern. Akash begann mit 100 Millionen AKT bei der Genesis und hat ein maximales Angebot von 389 Millionen durch Inflation. Die Inflationsrate ist adaptiv und basiert auf dem Anteil der gestakten AKT: Sie zielt auf eine jährliche Inflation von 20–25 % ab, wenn das Staking-Verhältnis niedrig ist, und auf etwa 15 %, wenn ein hoher Prozentsatz von AKT gestakt ist. Diese adaptive Inflation (ein gängiges Design in Cosmos-basierten Chains) ermutigt Inhaber zum Staking (was zur Netzwerksicherheit beiträgt), indem sie mehr belohnt werden, wenn die Staking-Beteiligung gering ist. Blockbelohnungen aus der Inflation zahlen Validatoren und Delegatoren sowie finanzieren eine Reserve für das Ökosystemwachstum. Die anfängliche Verteilung von AKT sah Zuweisungen für Investoren, das Kernteam (Overclock Labs) und einen Stiftungs-Pool für Ökosystem-Anreize vor (z. B. finanzierte ein frühes Programm im Jahr 2024 GPU-Anbieter, um beizutreten).

Wirtschaftliche Wertschöpfung: Akash schafft Wert, indem es Cloud-Computing zu potenziell viel geringeren Kosten als etablierte Cloud-Anbieter anbietet und dabei ungenutzte Server weltweit nutzt. Durch die Dezentralisierung der Cloud zielt es auch darauf ab, regionale Lücken zu füllen und die Abhängigkeit von einigen wenigen großen Technologieunternehmen zu verringern. Der AKT-Token sammelt Wert aus mehreren Blickwinkeln: nachfrageseitige Gebühren (mehr Workloads = mehr AKT-Gebühren, die an Staker fließen), angebotsseitige Bedürfnisse (Anbieter können Einnahmen halten oder staken und müssen etwas AKT als Sicherheit für die Bereitstellung von Diensten staken) und allgemeines Netzwerk-Wachstum (AKT wird für Governance und als Reservewährung im Ökosystem benötigt). Wichtig ist, dass mit der Ausführung weiterer realer Workloads auf Akash der Anteil der im Umlauf befindlichen AKT, die für Staking und Gebühreneinzahlungen verwendet werden, steigen sollte, was den realen Nutzen widerspiegelt. Anfangs verzeichnete Akash eine moderate Nutzung für Webdienste und das Hosting von Krypto-Infrastruktur, aber Ende 2023 erweiterte es die Unterstützung für GPU-Workloads – was es ermöglichte, KI-Training, maschinelles Lernen und Hochleistungs-Compute-Aufgaben im Netzwerk auszuführen. Dies hat die Nutzung von Akash im Jahr 2024 erheblich gesteigert. Bis zum 3. Quartal 2024 zeigten die Metriken des Netzwerks ein explosives Wachstum: Die Anzahl der aktiven Bereitstellungen („Leases“) wuchs im Jahresvergleich um 1.729 %, und die durchschnittliche Gebühr pro Lease (ein Proxy für die Komplexität der Workloads) stieg um 688 %. In der Praxis bedeutet dies, dass Benutzer weitaus mehr Anwendungen auf Akash bereitstellen und bereit sind, größere, längere Workloads (viele davon mit GPUs) auszuführen – ein Beweis dafür, dass Token-Anreize eine echte zahlende Nachfrage angezogen haben. Das Team von Akash berichtete, dass das Netzwerk bis Ende 2024 über 700 GPUs online mit einer Auslastung von etwa 78 % hatte (d. h. etwa 78 % der GPU-Kapazität waren jederzeit vermietet). Dies ist ein starkes Signal für eine effiziente Umwandlung von Token-Anreizen (siehe nächster Abschnitt). Das integrierte Gebührenbeteiligungsmodell bedeutet auch, dass mit zunehmender Nutzung AKT-Staker Protokolleinnahmen erhalten, wodurch Token-Belohnungen effektiv an tatsächliche Serviceeinnahmen gebunden werden – ein gesünderes langfristiges Wirtschaftsdesign.

io.net (Dezentrale GPU-Cloud für KI)

io.net ist ein neuerer Akteur (auf Solana aufgebaut), der darauf abzielt, das „weltweit größte GPU-Netzwerk“ zu werden, das speziell auf KI- und maschinelles Lernen-Workloads ausgerichtet ist. Sein Wirtschaftsmodell zieht Lehren aus früheren Projekten wie Render und Akash. Der native Token IO hat ein festes Maximalangebot von 800 Millionen. Beim Start wurden 500 Millionen IO vorab geprägt und verschiedenen Stakeholdern zugewiesen, und die verbleibenden 300 Millionen IO werden über einen Zeitraum von 20 Jahren als Mining-Belohnungen ausgegeben (stündlich an GPU-Anbieter und Staker verteilt). Bemerkenswert ist, dass io.net einen umsatzbasierten Verbrennungsmechanismus implementiert: Ein Teil der Netzwerkgebühren/-einnahmen wird verwendet, um IO-Token zu verbrennen, wodurch das Token-Angebot direkt an die Plattformnutzung gebunden wird. Diese Kombination – ein gedeckeltes Angebot mit zeitlich gestaffelten Emissionen und einer durch die Nutzung angetriebenen Verbrennung – soll die langfristige Nachhaltigkeit der Token-Ökonomie gewährleisten.

Um dem Netzwerk als GPU-Node beizutreten, müssen Anbieter einen Mindestbetrag an IO als Sicherheit staken. Dies dient zwei Zwecken: Es schreckt bösartige oder minderwertige Nodes ab (da sie „Skin in the Game“ haben) und reduziert den sofortigen Verkaufsdruck von Belohnungstoken (da Nodes einige Token sperren müssen, um teilzunehmen). Staker (zu denen sowohl Anbieter als auch andere Teilnehmer gehören können) verdienen ebenfalls einen Anteil an den Netzwerkbelohnungen, wodurch die Anreize im gesamten Ökosystem ausgerichtet werden. Auf der Nachfrageseite zahlen Kunden (KI-Entwickler usw.) für GPU-Computing auf io.net, vermutlich in IO-Token oder möglicherweise stabilen Äquivalenten – das Projekt behauptet, Cloud-GPU-Leistung zu bis zu 90 % geringeren Kosten als traditionelle Anbieter wie AWS anzubieten. Diese Nutzungsgebühren treiben den Verbrennungsmechanismus an: Wenn Einnahmen fließen, wird ein Teil der Token verbrannt, wodurch der Plattform-Erfolg mit der Token-Knappheit verknüpft wird.

Wirtschaftliche Wertschöpfung: Das Wertversprechen von io.net besteht darin, GPU-Leistung aus vielen Quellen (Rechenzentren, Krypto-Miner, die Mining-Rigs umfunktionieren usw.) in einem einzigen Netzwerk zu aggregieren, das On-Demand-Computing für KI in massivem Umfang liefern kann. Mit dem Ziel, über 1 Million GPUs weltweit an Bord zu holen, versucht io.net, jeden einzelnen Cloud-Anbieter zu übertreffen und die steigende Nachfrage nach KI-Modelltraining und -Inferenz zu decken. Der IO-Token erfasst Wert durch eine Mischung von Mechanismen: (1) Nachfrage nach KI-Computing – Kunden müssen IO erwerben, um für Aufträge zu bezahlen, und eine höhere Nutzung bedeutet mehr verbrannte Token (was das Angebot reduziert). (2) Mining-Anreize – neue IO, die an GPU-Anbieter verteilt werden, motivieren das Netzwerk-Wachstum, aber die feste Obergrenze begrenzt die langfristige Inflation. (3) Staking – IO wird von Anbietern (und möglicherweise Benutzern oder Delegierten) gesperrt, um Belohnungen zu verdienen, wodurch das liquide Angebot reduziert und die Teilnehmer mit dem Netzwerk-Erfolg in Einklang gebracht werden. Im Wesentlichen ist das Wirtschaftsmodell von io.net ein verfeinerter DePIN-Ansatz, bei dem angebotsseitige Anreize (stündliche IO-Emissionen) erheblich, aber endlich sind und durch Token-Senken (Verbrennungen) ausgeglichen werden, die mit der tatsächlichen Nutzung skalieren. Dies soll die Falle einer übermäßigen Inflation ohne Nachfrage vermeiden. Wie wir sehen werden, bietet der KI-Computing-Trend einen großen und wachsenden Markt für Netzwerke wie io.net, der das gewünschte Gleichgewicht antreiben könnte, bei dem Token-Anreize zu einer robusten Dienstnutzung führen. (io.net ist noch im Entstehen, daher müssen seine realen Metriken noch bewiesen werden, aber sein Design zielt eindeutig auf die Bedürfnisse des KI-Computing-Sektors ab.)

Tabelle 1: Wichtige Merkmale der Wirtschaftsmodelle ausgewählter DePIN-Projekte

ProjektSektorToken (Ticker)Angebot & VerteilungAnreizmechanismusToken-Nutzen & Wertfluss
HeliumDezentrales Wireless (IoT & 5G)Helium Network Token (HNT); plus Sub-Token IOT & MOBILEVariables Angebot, sinkende Emission: HNT-Emissionen halbierten sich alle ~2 Jahre (auf der ursprünglichen Blockchain), Ziel ~223 Mio. HNT im Umlauf nach 50 Jahren. Migration zu Solana mit 2 neuen Sub-Token: IOT und MOBILE, die an IoT- und 5G-Hotspot-Besitzer vergeben werden.Proof-of-Coverage Mining: Hotspots verdienen IOT- oder MOBILE-Token für die Bereitstellung von Abdeckung (LoRaWAN oder 5G). Diese Sub-Token können über Treasury-Pools in HNT umgewandelt werden. HNT wird für Governance (veHNT) gestakt und ist die Basis für Belohnungen über Netzwerke hinweg.Netzwerknutzung über Data Credits: HNT wird verbrannt, um Data Credits (DC) für Gerätekonnektivität zu erstellen (fester Preis 0,0001 $ pro 24 Byte). Alle Netzwerkgebühren (DC-Käufe) verbrennen effektiv HNT (reduzieren das Angebot). Der Token-Wert ist somit an die Nachfrage nach IoT-/Mobilfunk-Datenübertragung gebunden. Der Wert von HNT sichert auch die SubDAO-Token (was ihnen die Konvertierbarkeit in einen knappen Vermögenswert ermöglicht).
FilecoinDezentraler SpeicherFilecoin (FIL)Gedeckeltes Angebot 2 Milliarden: 70 % für Speicher-Mining-Belohnungen (über Jahrzehnte freigegeben); ~30 % an Protocol Labs, Investoren und Stiftung. Blockbelohnungen folgen einer sechsjährigen Halbwertzeit (höhere Inflation früh, später abnehmend).Speicher-Mining: Speicheranbieter verdienen FIL-Blockbelohnungen proportional zum nachgewiesenen Speicherbeitrag. Kunden zahlen FIL für das Speichern oder Abrufen von Daten. Miner hinterlegen FIL als Sicherheit, die bei Fehlern geslasht werden kann. Filecoin Plus gewährt 10-fache Leistungsbelohnung für „nützliche“ Kundendaten, um reale Speicherung zu fördern.Zahlung & Sicherheit: FIL ist die Währung für Speicher-Deals – Kunden geben FIL aus, um Daten zu speichern, wodurch eine organische Nachfrage nach dem Token entsteht. Miner sperren FIL als Sicherheit (reduziert vorübergehend das zirkulierende Angebot) und verdienen FIL für nützliche Dienste. Mit zunehmender Nutzung wird mehr FIL in Deals und Sicherheiten gebunden. Netzwerkgebühren (für Transaktionen) sind minimal (Filecoin konzentriert sich auf Speichergebühren, die an Miner gehen). Langfristig hängt der FIL-Wert von der Datenspeichernachfrage und neuen Anwendungsfällen ab (z. B. Filecoin Virtual Machine, die Smart Contracts für Daten ermöglicht und potenziell neue Gebührensenken generiert).
Render NetworkDezentrales GPU-Computing (Rendering & KI)Render Token (RNDR / RENDER)Anfängliches Angebot ~536,9 Mio. RNDR, erhöht auf max. ~644 Mio. durch neue Emissionen. Burn-and-Mint-Gleichgewicht: Neue RENDER werden nach einem festen Zeitplan emittiert (20 % Inflationspool über ~5 Jahre, dann Tail-Emissionen). Emissionen finanzieren Netzwerkanreize (Node-Belohnungen usw.). Verbrennung: Benutzerzahlungen in RENDER werden für jeden abgeschlossenen Auftrag verbrannt. Verteilung: 65 % Treasury (Netzwerkbetrieb und Belohnungen), 25 % Investoren, 10 % Team/Berater.Marktplatz für GPU-Arbeit: Node-Betreiber führen Rendering-/Compute-Aufgaben aus und verdienen RENDER. Aufträge werden in USD bepreist, aber in RENDER bezahlt; die benötigten Token werden verbrannt, wenn die Arbeit erledigt ist. In jeder Epoche (z. B. wöchentlich) werden neue RENDER geprägt und an Node-Betreiber verteilt, basierend auf der von ihnen erledigten Arbeit. Node-Betreiber können auch RNDR staken, um höheres Vertrauen und potenzielle Auftragspriorität zu signalisieren.Nutzen & Wertfluss: RENDER ist der Gebühren-Token für GPU-Dienste – Content-Ersteller und KI-Entwickler müssen ihn erwerben und ausgeben, um Arbeit erledigen zu lassen. Da diese Token verbrannt werden, reduziert die Nutzung direkt das Angebot. Die Ausgabe neuer Token entschädigt die Arbeiter, aber nach einem sinkenden Zeitplan. Wenn die Netzwerknachfrage hoch ist (Verbrennung > Emission), wird RENDER deflationär; wenn die Nachfrage gering ist, kann die Inflation die Verbrennungen übersteigen (was mehr Angebot anreizt, bis die Nachfrage aufholt). RENDER regiert auch das Netzwerk. Der Wert des Tokens ist somit eng mit der Plattformnutzung verknüpft – tatsächlich stieg RNDR 2023 um ~10×, da die KI-getriebene Nachfrage nach GPU-Computing sprunghaft anstieg, was das Marktvertrauen signalisiert, dass Nutzung (und Verbrennungen) hoch sein werden.
Akash NetworkDezentrale Cloud (allgemeines Computing & GPU)Akash Token (AKT)Anfängliches Angebot 100 Mio.; max. Angebot 389 Mio. Inflationärer PoS-Token: Adaptive Inflation ~15–25 % jährlich (sinkt mit steigendem Staking-Anteil), um Staking zu fördern. Laufende Emissionen zahlen Validatoren und Delegatoren. Verteilung: 34,5 % Investoren, 27 % Team, 19,7 % Stiftung, 8 % Ökosystem, 5 % Testnet (mit Sperrfristen/Vestings).Reverse-Auction-Marktplatz: Anbieter bieten an, Bereitstellungen zu hosten; Kunden zahlen in AKT für Leases. Gebührenpool: 10 % der AKT-Zahlungen (oder 20 % der Zahlungen in anderen Token) gehen als Protokollgebühr an das Netzwerk (Staker). Akash verwendet eine Proof-of-Stake-Chain – Validatoren staken AKT, um das Netzwerk zu sichern und Blockbelohnungen zu verdienen. Kunden können über AKT oder integrierte Stablecoins (mit Umwandlung) bezahlen.Nutzen & Wertfluss: AKT wird für alle Transaktionen verwendet (entweder direkt oder über Umwandlung von stabilen Zahlungen). Kunden kaufen AKT, um für Compute-Leases zu bezahlen, wodurch Nachfrage entsteht, wenn die Netzwerknutzung wächst. Anbieter verdienen AKT und können es verkaufen oder staken. Staking-Belohnungen + Gebühreneinnahmen: Das Halten und Staken von AKT bringt Belohnungen aus der Inflation und einen Anteil an allen Gebühren, sodass die aktive Netzwerknutzung den Stakern direkt zugutekommt. Dieses Modell richtet den Token-Wert an der Cloud-Nachfrage aus: Wenn mehr CPU-/GPU-Workloads auf Akash laufen, fließen mehr Gebühren in AKT an die Inhaber (und mehr AKT könnte als Sicherheit gesperrt oder von Anbietern gestakt werden). Governance erfolgt ebenfalls über AKT-Bestände. Insgesamt verbessert sich die Gesundheit des Tokens mit höherer Auslastung und verfügt über Inflationskontrollen, um die langfristige Beteiligung zu fördern.
io.netDezentrale GPU-Cloud (KI-fokussiert)IO Token (IO)Feste Obergrenze 800 Mio. IO: 500 Mio. vorab geprägt (Team, Investoren, Community usw. zugewiesen), 300 Mio. über ~20 Jahre als Mining-Belohnungen emittiert (stündliche Verteilung). Keine weitere Inflation nach dieser Obergrenze. Eingebaute Verbrennung: Netzwerkeinnahmen lösen Token-Verbrennungen aus, um das Angebot zu reduzieren. Staking: Anbieter müssen ein Minimum an IO als Sicherheit staken, um teilzunehmen (und können mehr für Belohnungen staken).GPU-Sharing-Netzwerk: Hardware-Anbieter (Rechenzentren, Miner) verbinden GPUs und verdienen kontinuierlich (stündlich) IO-Belohnungen für die Bereitstellung von Kapazität. Sie verdienen auch Gebühren aus der Nutzung durch Kunden. Staking-Anforderung: Betreiber staken IO als Sicherheit, um gutes Verhalten zu gewährleisten. Benutzer zahlen wahrscheinlich in IO (oder in stabilem, in IO umgewandeltem) für KI-Compute-Aufgaben; ein Teil jeder Gebühr wird vom Protokoll verbrannt.Nutzen & Wertfluss: IO ist das Tauschmittel für GPU-Rechenleistung im Netzwerk und auch der Sicherheitstoken, den Betreiber staken. Der Token-Wert wird durch ein Dreifaches angetrieben: (1) Nachfrage nach KI-Computing – Kunden müssen IO erwerben, um für Aufträge zu bezahlen, und eine höhere Nutzung bedeutet mehr verbrannte Token (reduziert das Angebot). (2) Mining-Anreize – neue IO, die an GPU-Anbieter verteilt werden, motivieren das Netzwerk-Wachstum, aber die feste Obergrenze begrenzt die langfristige Inflation. (3) Staking – IO wird von Anbietern (und möglicherweise Benutzern oder Delegierten) gesperrt, um Belohnungen zu verdienen, wodurch das liquide Angebot reduziert und die Teilnehmer mit dem Netzwerk-Erfolg in Einklang gebracht werden. Zusammenfassend ist das Token-Modell von io.net so konzipiert, dass, wenn es erfolgreich KI-Workloads in großem Maßstab anzieht, das Token-Angebot zunehmend knapper wird (durch Verbrennungen und Staking), was den Inhabern zugutekommt. Das feste Angebot erzwingt auch Disziplin, verhindert endlose Inflation und strebt ein nachhaltiges „Belohnung-für-Umsatz“-Gleichgewicht an.

Quellen: Offizielle Projektdokumentation und -forschung (siehe obenstehende Inline-Zitate).

Token-Anreize vs. reale Dienstnutzung

Eine entscheidende Frage für DePIN-Projekte ist, wie effektiv Token-Anreize in die Bereitstellung realer Dienste und die tatsächliche Nutzung des Netzwerks umgewandelt werden. In den Anfangsphasen betonten viele DePIN-Protokolle den Aufbau des Angebots (Hardware-Bereitstellung) durch großzügige Token-Belohnungen, selbst wenn die Nachfrage minimal war – eine „Build it and (hopefully) they will come“-Strategie. Dies führte zu Situationen, in denen die Marktkapitalisierung und die Token-Emissionen des Netzwerks die Einnahmen von Kunden weit übertrafen. Ende 2024 hatte der gesamte DePIN-Sektor (~350 Projekte) eine kombinierte Marktkapitalisierung von ~50 Milliarden US-Dollar, generierte aber nur etwa ~0,5 Milliarden US-Dollar an annualisierten Einnahmen – eine Gesamtbewertung von ~100× des Jahresumsatzes. Eine solche Lücke unterstreicht die Ineffizienz in frühen Phasen. Jüngste Trends zeigen jedoch Verbesserungen, da Netzwerke von einem rein angebotsgetriebenen Wachstum zu einer nachfragegetriebenen Akzeptanz übergehen, insbesondere angetrieben durch den Anstieg des Bedarfs an KI-Computing.

Im Folgenden bewerten wir die Effizienz der Token-Anreize jedes Beispielprojekts, wobei wir Nutzungsmetriken im Vergleich zu Token-Ausgaben betrachten:

  • Helium: Heliums IoT-Netzwerk wuchs 2021–2022 explosionsartig, mit fast 1 Million Hotspots weltweit für LoRaWAN-Abdeckung. Dieses Wachstum wurde fast ausschließlich durch die HNT-Mining-Anreize und die Krypto-Begeisterung angetrieben – nicht durch die Kundennachfrage nach IoT-Daten, die gering blieb. Mitte 2022 wurde deutlich, dass Heliums Datenverkehr (Geräte, die das Netzwerk tatsächlich nutzen) im Verhältnis zur enormen angebotsseitigen Investition winzig war. Eine Analyse aus dem Jahr 2022 stellte fest, dass weniger als 1.000 an Token pro Monat für die Datennutzung verbrannt wurden**, obwohl das Netzwerk HNT im Wert von zig Millionen Dollar für Hotspot-Belohnungen prägte – ein krasses Ungleichgewicht (im Wesentlichen wurden &lt;1 % der Token-Emission durch die Netzwerknutzung ausgeglichen). Ende 2022 und 2023 wurden die HNT-Token-Belohnungen planmäßig halbiert (was die Ausgabe reduzierte), aber die Nutzung hinkte immer noch hinterher. Ein Beispiel vom November 2023: Der Dollarwert der verbrannten Helium **Data Credits betrug an diesem Tag nur etwa 156 – während das Netzwerk immer noch geschätzte 55.000 $ pro Tag an Token-Belohnungen an Hotspot-Besitzer auszahlte (in USD bewertet). Mit anderen Worten, die „Kosten“ des Token-Anreizes an diesem Tag überstiegen die tatsächliche Netzwerknutzung um den Faktor 350:1. Dies verdeutlicht die schlechte Umwandlung von Anreizen in Nutzung in Heliums früher IoT-Phase. Heliums Gründer erkannten dieses „Henne-Ei“-Dilemma: Ein Netzwerk benötigt Abdeckung, bevor es Benutzer anziehen kann, aber ohne Benutzer ist die Abdeckung schwer zu monetarisieren.

    Es gibt Anzeichen für Verbesserungen. Ende 2023 aktivierte Helium sein 5G-Mobilfunk-Netzwerk mit einem verbraucherorientierten Mobilfunkdienst (unterstützt durch T-Mobile Roaming) und begann, 5G-Hotspot-Betreiber mit MOBILE-Token zu belohnen. Der Start von Helium Mobile (5G) brachte schnell zahlende Nutzer (z. B. Abonnenten von Heliums 20 /MonatunbegrenzemMobilfunktarif)undneueArtenderNetzwerknutzung.InnerhalbwenigerWochenstiegdieNetzwerknutzungvonHeliumsprunghaftanAnfang2024erreichtedieta¨glicheDataCreditVerbrennung 4.300/Monat unbegrenzem Mobilfunktarif) und neue Arten der Netzwerknutzung. Innerhalb weniger Wochen **stieg die Netzwerknutzung von Helium sprunghaft an** – Anfang 2024 erreichte die tägliche Data Credit-Verbrennung ~4.300 (von fast nichts ein paar Monate zuvor). Darüber hinaus stammten im 1. Quartal 2024 92 % aller verbrauchten Data Credits aus dem Mobilfunknetz (5G), was bedeutet, dass der 5G-Dienst die IoT-Nutzung sofort in den Schatten stellte. Während 4,3 Tausend /TaginabsolutenZahlenimmernochbescheidenist( 1,6Millionen/Tag in absoluten Zahlen immer noch bescheiden ist (~1,6 Millionen annualisiert), stellt es einen bedeutsamen Schritt in Richtung realer Einnahmen dar. Heliums Token-Modell passt sich an: Durch die Isolierung der IoT- und Mobilfunknetze in separate Belohnungstoken wird sichergestellt, dass die 5G-Belohnungen (MOBILE-Token) reduziert werden, wenn die 5G-Nutzung nicht zustande kommt, und ähnlich für IOT-Token – wodurch die Ineffizienz effektiv eingedämmt wird. Das Wachstum von Helium Mobile zeigte auch die Kraft, Token-Anreize mit einem Dienst von unmittelbarem Verbraucherinteresse (günstige Mobilfunkdaten) zu koppeln. Innerhalb von 6 Monaten nach dem Start hatte Helium ~93.000 MOBILE-Hotspots in den USA bereitgestellt (neben ~1 Million IoT-Hotspots weltweit) und Partnerschaften (z. B. mit Telefónica) geschlossen, um die Abdeckung zu erweitern. Die bevorstehende Herausforderung besteht darin, die Nutzerbasis (sowohl IoT-Geräte-Clients als auch 5G-Abonnenten) erheblich zu vergrößern, sodass die Verbrennung von HNT für Data Credits das Ausmaß der HNT-Ausgabe erreicht. Zusammenfassend lässt sich sagen, dass Helium mit einem extremen Angebotsüberschuss (und einem entsprechend überbewerteten Token) begann, aber seine Neuausrichtung auf die Nachfrage (5G und Positionierung als „Infrastrukturschicht“ für andere Netzwerke) verbessert allmählich die Effizienz seiner Token-Anreize.

  • Filecoin: Im Fall von Filecoin bestand das Ungleichgewicht zwischen Speicherkapazität und tatsächlich gespeicherten Daten. Token-Anreize führten zu einem Überangebot an Speicherplatz: Auf seinem Höhepunkt verfügte das Filecoin-Netzwerk über weit über 15 Exbibyte (EiB) an roher Speicherkapazität, die von Minern zugesagt wurde, doch lange Zeit wurden nur wenige Prozent davon für reale Daten genutzt. Ein Großteil des Speichers wurde mit Dummy-Daten gefüllt (Kunden konnten sogar zufällige Mülldaten speichern, um die Nachweisanforderungen zu erfüllen), nur damit Miner FIL-Belohnungen verdienen konnten. Dies bedeutete, dass viel FIL für Speicher geprägt und vergeben wurde, der von Benutzern tatsächlich nicht nachgefragt wurde. Über 2022–2023 machte das Netzwerk jedoch große Fortschritte bei der Steigerung der Nachfrage. Durch Initiativen wie Filecoin Plus und die aggressive Aufnahme offener Datensätze stieg die Auslastungsrate im Jahr 2023 von ~3 % auf über 20 % der Kapazität. Bis zum 4. Quartal 2024 war die Speicherauslastung von Filecoin weiter auf ~30 % gestiegen – was bedeutet, dass fast ein Drittel der enormen Kapazität reale Kundendaten enthielt. Dies ist immer noch weit von 100 % entfernt, aber der Trend ist positiv: Token-Belohnungen gehen zunehmend in Richtung nützlicher Speicherung statt leerer Füllung. Eine weitere Messgröße: Im 1. Quartal 2024 wurden etwa 1.900 PiB (1,9 EiB) Daten in aktiven Deals auf Filecoin gespeichert, ein Anstieg von 200 % gegenüber dem Vorjahr. Bemerkenswert ist, dass die Mehrheit der neuen Deals jetzt über Filecoin Plus (verifizierte Kunden) zustande kommt, was darauf hindeutet, dass Miner es stark bevorzugen, Speicherplatz für Daten zu verwenden, die ihnen Bonus-Belohnungsmultiplikatoren einbringen.

    In Bezug auf die wirtschaftliche Effizienz erlebte auch das Protokoll von Filecoin eine Verschiebung: Anfangs waren die Protokoll-„Einnahmen“ (von Benutzern gezahlte Gebühren) im Vergleich zu den Mining-Belohnungen (die einige Analysen als Einnahmen behandelten und frühe Zahlen aufblähten) vernachlässigbar. Zum Beispiel waren die Blockbelohnungen von Filecoin im Jahr 2021 Hunderte Millionen Dollar wert (bei hohen FIL-Preisen), aber die tatsächlichen Speichergebühren waren winzig; im Jahr 2022, als der FIL-Preis fiel, sanken die gemeldeten Einnahmen um 98 % von 596 Mio. auf13Mio.auf 13 Mio., was widerspiegelt, dass der Großteil der „Einnahmen“ von 2021 der Wert der Token-Ausgabe und nicht die Kundenausgaben waren. Zukünftig verbessert sich das Gleichgewicht: Die Pipeline zahlender Speicherkunden wächst (z. B. wurde Ende 2023 ein Unternehmensdeal von 1 PiB abgeschlossen, einer der ersten großen vollständig bezahlten Deals). Die Einführung der FVM (die Smart Contracts ermöglicht) und die bevorstehenden Speichermärkte und DEXes von Filecoin werden voraussichtlich mehr On-Chain-Gebührenaktivität (und möglicherweise FIL-Verbrennungen oder Sperrungen) mit sich bringen. Zusammenfassend lässt sich sagen, dass die Token-Anreize von Filecoin erfolgreich ein massives globales Speichernetzwerk aufgebaut haben, wenn auch mit einer Effizienz von unter 5 % in der Anfangszeit; bis 2024 verbesserte sich diese Effizienz auf ~20–30 % und wird voraussichtlich weiter steigen, da die reale Nachfrage das subventionierte Angebot einholt. Die Gesamtnachfrage des Sektors nach dezentralem Speicher (Web3-Daten, Archive, NFT-Metadaten, KI-Datensätze usw.) scheint zu steigen, was gut dafür ist, mehr dieser Mining-Belohnungen in tatsächlich nützliche Dienste umzuwandeln.

  • Render Network: Renders Token-Modell verknüpft Anreize dank des Burn-and-Mint-Gleichgewichts enger mit der Nutzung. Im älteren Modell (vor 2023) lag die RNDR-Ausgabe größtenteils in den Händen der Stiftung und basierte auf Netzwerk-Wachstumszielen, während die Nutzung das Sperren von RNDR in einem Escrow für Aufträge beinhaltete. Dies erschwerte die Effizienzanalyse etwas. Mit der vollständigen Implementierung des BME im Jahr 2023 können wir jedoch messen, wie viele Token im Verhältnis zu den geprägten Token verbrannt werden. Da jeder Rendering- oder Compute-Auftrag RNDR proportional zu seinen Kosten verbrennt, entspricht im Wesentlichen jeder als Belohnung emittierte Token einer geleisteten Arbeit (abzüglich einer Nettoinflation, wenn die Emissionen in einer bestimmten Epoche die Verbrennungen übersteigen). Frühe Daten aus dem Render-Netzwerk nach dem Upgrade deuteten darauf hin, dass die Nutzung tatsächlich zunahm: Die Render Foundation stellte fest, dass das Netzwerk in „Spitzenmomenten“ mehr Render-Frames pro Sekunde abschließen konnte, als Ethereum an Transaktionen verarbeiten konnte, was eine signifikante Aktivität unterstreicht. Während detaillierte Nutzungsstatistiken (z. B. Anzahl der Aufträge oder verbrauchte GPU-Stunden) im obigen Ausschnitt nicht öffentlich sind, ist ein starker Indikator der Preis und die Nachfrage nach RNDR. Im Jahr 2023 wurde RNDR zu einem der leistungsstärksten Krypto-Assets, stieg von etwa 0,40 imJanuaraufu¨ber2,50im Januar auf über 2,50 im Mai und kletterte danach weiter. Bis November 2023 war RNDR im Jahresverlauf um über das 10-fache gestiegen, angetrieben durch den Hype um KI-bezogene Rechenleistung. Diese Preisentwicklung deutet darauf hin, dass Benutzer RNDR kauften, um Rendering- und KI-Aufgaben zu erledigen (oder Spekulanten erwarteten, dass sie dies tun müssten). Tatsächlich führte das Interesse an KI-Aufgaben wahrscheinlich zu einer neuen Nachfragewelle – Render berichtete, dass sein Netzwerk über das Medien-Rendering hinaus in das KI-Modelltraining expandierte und dass der GPU-Mangel in traditionellen Clouds bedeutete, dass die Nachfrage in dieser Nische das Angebot bei weitem übertraf. Im Wesentlichen wurde Renders Token-Anreizen (den Emissionen) eine ebenso starke Benutzernachfrage (Verbrennungen) entgegengebracht, was die Umwandlung von Anreizen in Nutzung relativ hoch macht. Es ist erwähnenswert, dass im ersten Jahr des BME das Netzwerk absichtlich einige zusätzliche Token (die 9,1 Mio. RENDER-Emissionen) zugewiesen hat, um die Einnahmen der Node-Betreiber anzukurbeln. Wenn diese die Nutzung übertreffen, könnte dies eine vorübergehende inflationäre Ineffizienz einführen. Angesichts des Netzwerk-Wachstums stieg die Verbrennungsrate von RNDR jedoch an. Das Render Network Dashboard zeigte Mitte 2024 stetige Zunahmen der kumulierten RNDR-Verbrennungen, was auf die Verarbeitung realer Aufträge hindeutet. Ein weiteres qualitatives Erfolgszeichen: Große Studios und Content-Ersteller haben Render für hochkarätige Projekte genutzt, was die reale Akzeptanz beweist (dies sind nicht nur Krypto-Enthusiasten, die Nodes betreiben – es sind Kunden, die für Rendering bezahlen). Alles in allem scheint Render eine der effektivsten Token-zu-Dienst-Umwandlungsmetriken im DePIN-Bereich zu haben: Wenn das Netzwerk ausgelastet ist, wird RNDR verbrannt und Token-Inhaber sehen einen greifbaren Wert; wäre das Netzwerk untätig, wären Token-Emissionen die einzige Ausgabe, aber die Begeisterung um KI hat sichergestellt, dass das Netzwerk alles andere als untätig ist.

  • Akash: Akahs Effizienz lässt sich im Kontext von Cloud-Ausgaben vs. Token-Ausgabe betrachten. Als Proof-of-Stake-Chain hat Akahs AKT Inflation, um Validatoren zu belohnen, aber diese Inflation ist nicht übermäßig hoch (und ein großer Teil wird durch Staking-Sperren ausgeglichen). Der interessantere Teil ist, wie viel reale Nutzung der Token erfasst. Im Jahr 2022 war die Nutzung von Akash relativ gering (jederzeit nur wenige hundert Bereitstellungen, hauptsächlich kleine Apps oder Testnetze). Dies bedeutete, dass der Wert von AKT spekulativ war und nicht durch Gebühren gedeckt. In den Jahren 2023–2024 explodierte die Nutzung jedoch aufgrund von KI. Ende 2024 **verarbeitete Akash Ausgaben von ~11.000 proTaginseinemNetzwerk,gegenu¨bernur 1.300pro Tag** in seinem Netzwerk, gegenüber nur ~1.300 pro Tag im Januar 2024 – ein Anstieg der täglichen Einnahmen um ~749 % innerhalb des Jahres. Im Laufe des Jahres 2024 übertraf Akash **1,6 Millionen ankumuliertenbezahltenAusgabenfu¨rComputing.DieseZahlen,obwohlimVergleichzuGigantenwieAWSimmernochklein,repra¨sentierentatsa¨chlicheKunden,dieWorkloadsaufAkashbereitstellenundinAKToderUSDCbezahlen(wasletztendlichdieAKTNachfrageu¨berdieUmwandlungantreibt).DieTokenAnreize(inflationa¨reBelohnungen)indiesemZeitraumlageninderGro¨ßenordnungvonvielleicht1520an kumulierten bezahlten Ausgaben** für Computing. Diese Zahlen, obwohl im Vergleich zu Giganten wie AWS immer noch klein, repräsentieren tatsächliche Kunden, die Workloads auf Akash bereitstellen und in AKT oder USDC bezahlen (was letztendlich die AKT-Nachfrage über die Umwandlung antreibt). Die Token-Anreize (inflationäre Belohnungen) in diesem Zeitraum lagen in der Größenordnung von vielleicht 15–20 % der 130 Mio. im Umlauf befindlichen AKT (~20–26 Mio. AKT, die 2024 geprägt wurden, was bei 1–3 pro AKT einen Wert von 20–50 Mio. bedeutenko¨nnte).InreinenDollarBegriffengabdasNetzwerkalsoimmernochmehrWertinTokenaus,alsesanGebu¨hreneinnahma¨hnlichwieandereNetzwerkeinfru¨henPhasen.AberderTrendist,dassdieNutzungschnellaufholt.Eineaussagekra¨ftigeStatistik:ImVergleichzum3.Quartal2024zum3.Quartal2023stiegdiedurchschnittlicheGebu¨hrproLeasevon6,42bedeuten könnte). In reinen Dollar-Begriffen gab das Netzwerk also immer noch mehr Wert in Token aus, als es an Gebühren einnahm – ähnlich wie andere Netzwerke in frühen Phasen. Aber der **Trend** ist, dass die Nutzung schnell aufholt. Eine aussagekräftige Statistik: Im Vergleich zum 3. Quartal 2024 zum 3. Quartal 2023 stieg die **durchschnittliche Gebühr pro Lease von 6,42 auf 18,75 .Diesbedeutet,dassBenutzerweitausressourcenintensivere(unddamitteurere)Workloadsausfu¨hren,wahrscheinlichGPUsfu¨rKI,undsiebereitsind,mehrzuzahlen,presumablyweildasNetzwerkWertliefert(z.B.geringereKostenalsAlternativen).DaAkasheineGebu¨hrvon1020**. Dies bedeutet, dass Benutzer weitaus ressourcenintensivere (und damit teurere) Workloads ausführen, wahrscheinlich GPUs für KI, und sie bereit sind, mehr zu zahlen, presumably weil das Netzwerk Wert liefert (z. B. geringere Kosten als Alternativen). Da Akash eine Gebühr von 10–20 % auf Leases an das Protokoll erhebt, gingen 10–20 % dieser kumulierten Ausgaben von 1,6 Mio. an Staker als realer Ertrag. Im 4. Quartal 2024 erreichte der Preis von AKT neue Mehrjahreshöchststände (~4 $, ein 8-facher Anstieg gegenüber den Tiefstständen Mitte 2023), was darauf hindeutet, dass der Markt die verbesserten Fundamentaldaten und die Nutzung anerkannte. On-Chain-Daten vom Jahresende 2024 zeigten über 650 aktive Leases und über 700 GPUs im Netzwerk mit ~78 % Auslastung – effektiv wurden die meisten der durch Anreize hinzugefügten GPUs tatsächlich von Kunden genutzt. Dies ist eine starke Umwandlung von Token-Anreizen in Dienste: Fast 4 von 5 incentivierten GPUs dienten KI-Entwicklern (für Modelltraining usw.). Akahs proaktive Schritte, wie die Ermöglichung von Kreditkartenzahlungen und die Unterstützung beliebter KI-Frameworks, halfen, Krypto-Token mit realen Benutzern zu verbinden (einige Benutzer wissen möglicherweise nicht einmal, dass sie unter der Haube für AKT bezahlen). Insgesamt bewegt sich Akash, obwohl es anfänglich das übliche DePIN-Problem „Angebot > Nachfrage“ hatte, schnell auf einen ausgeglicheneren Zustand zu. Wenn die KI-Nachfrage anhält, könnte Akash sogar ein Regime erreichen, in dem die Nachfrage die Token-Anreize übersteigt – mit anderen Worten, die Nutzung könnte den Wert von AKT stärker antreiben als spekulative Inflation. Das Design des Protokolls, Gebühren mit Stakern zu teilen, bedeutet auch, dass AKT-Inhaber direkt profitieren, wenn sich die Effizienz verbessert (z. B. verdienten Staker Ende 2024 erhebliche Erträge aus tatsächlichen Gebühren, nicht nur aus Inflation).

  • io.net: Als sehr neues Projekt (gestartet 2023/24) ist die Effizienz von io.net noch weitgehend theoretisch, aber sein Modell ist explizit darauf ausgelegt, die Anreizumwandlung zu maximieren. Durch die harte Begrenzung des Angebots und die Einführung stündlicher Belohnungen vermeidet io.net das Szenario einer unkontrollierten, unbegrenzten Inflation. Und durch das Verbrennen von Token basierend auf Einnahmen stellt es sicher, dass, sobald die Nachfrage einsetzt, ein automatisches Gegengewicht zu den Token-Emissionen vorhanden ist. Frühe Berichte behaupteten, io.net habe eine große Anzahl von GPUs aggregiert (möglicherweise durch die Einbindung bestehender Mining-Farmen und Rechenzentren), was ihm ein erhebliches Angebot verschafft. Entscheidend wird sein, ob dieses Angebot eine entsprechende Nachfrage von KI-Kunden findet. Ein positives Zeichen für den Sektor: Ab 2024 waren dezentrale GPU-Netzwerke (einschließlich Render, Akash und io.net) oft kapazitätsbeschränkt, nicht nachfragebeschränkt – was bedeutet, dass es mehr Benutzernachfrage nach Rechenleistung gab, als die Netzwerke zu jedem Zeitpunkt online hatten. Wenn io.net diese ungedeckte Nachfrage nutzt (indem es niedrigere Preise oder einzigartige Integrationen über Solanas Ökosystem anbietet), könnte seine Token-Verbrennung beschleunigt werden. Auf der anderen Seite, wenn es einen großen Teil des anfänglichen Angebots von 500 Mio. IO an Insider oder Anbieter verteilte, besteht das Risiko eines Verkaufsdrucks, wenn die Nutzung hinterherhinkt. Ohne konkrete Nutzungsdaten dient io.net noch als Test des verfeinerten Tokenomic-Ansatzes: Es zielt von Anfang an auf ein nachfragegetriebenes Gleichgewicht ab und versucht, ein Überangebot an Token zu vermeiden. In den kommenden Jahren kann man seinen Erfolg messen, indem man verfolgt, welcher Prozentsatz der 300 Mio. Emission effektiv durch Netzwerkeinnahmen (Verbrennungen) „bezahlt“ wird. Die Entwicklung des DePIN-Sektors deutet darauf hin, dass io.net zu einem günstigen Zeitpunkt eintritt, da die KI-Nachfrage hoch ist, sodass es möglicherweise schneller eine hohe Auslastung erreicht als frühere Projekte did.

Zusammenfassend lässt sich sagen, dass frühe DePIN-Projekte oft mit einer geringen Effizienz der Token-Anreize konfrontiert waren, wobei die Token-Auszahlungen die tatsächliche Nutzung bei weitem überstiegen. Heliums IoT-Netzwerk war ein Paradebeispiel, wo Token-Belohnungen ein riesiges Netzwerk aufbauten, das nur zu wenigen Prozent ausgelastet war. Filecoin hatte ähnlich anfangs ein Überangebot an Speicherplatz mit wenig gespeicherten Daten. Durch Netzwerkverbesserungen und externe Nachfragetrends schließen sich diese Lücken jedoch. Heliums 5G-Wende vervielfachte die Nutzung, Filecoins Auslastung steigt stetig, und sowohl Render als auch Akash haben einen realen Nutzungsanstieg im Einklang mit dem KI-Boom erlebt, wodurch ihre Token-Ökonomie einem nachhaltigen Kreislauf näherkommt. Ein allgemeiner Trend im Jahr 2024 war die Verlagerung hin zum „Nachweis der Nachfrage“: DePIN-Teams begannen, sich auf die Gewinnung von Nutzern und Einnahmen zu konzentrieren, nicht nur auf Hardware und Hype. Dies zeigt sich an Netzwerken wie Helium, die Unternehmenspartner für IoT und Telekommunikation umwerben, Filecoin, das große Web2-Datensätze aufnimmt, und Akash, das seine Plattform für KI-Entwickler benutzerfreundlich gestaltet. Der Nettoeffekt ist, dass Token-Werte zunehmend durch Fundamentaldaten (z. B. gespeicherte Daten, verkaufte GPU-Stunden) untermauert werden und nicht nur durch Spekulation. Obwohl noch ein langer Weg vor uns liegt – der Sektor insgesamt mit einem Preis-/Umsatzverhältnis von 100x impliziert, dass noch viel Spekulation vorhanden ist – geht die Entwicklung in Richtung einer effizienteren Nutzung von Token-Anreizen. Projekte, die es nicht schaffen, Token in Dienste (oder „Hardware vor Ort“) umzuwandeln, werden wahrscheinlich verschwinden, während diejenigen, die eine hohe Konversionsrate erreichen, das Vertrauen von Investoren und der Community gewinnen.

Eine der bedeutendsten Entwicklungen, die DePIN-Projekten zugutekommt, ist das explosive Wachstum der KI-Computing-Nachfrage. In den Jahren 2023–2024 entwickelte sich das Training und die Bereitstellung von KI-Modellen zu einem Multimilliarden-Dollar-Markt, der die Kapazitäten traditioneller Cloud-Anbieter und GPU-Hersteller stark beanspruchte. Dezentrale Infrastrukturnetzwerke haben sich schnell angepasst, um diese Chance zu nutzen, was zu einer Konvergenz führte, die von Futuristen manchmal als „DePIN x KI“ oder sogar „Dezentrale physische KI (DePAI)“ bezeichnet wird. Im Folgenden skizzieren wir, wie unsere Fokusprojekte und der breitere DePIN-Sektor den KI-Trend nutzen:

  • Dezentrale GPU-Netzwerke & KI: Projekte wie Render, Akash, io.net (und andere wie Golem, Vast.ai usw.) stehen an vorderster Front bei der Erfüllung von KI-Bedürfnissen. Wie bereits erwähnt, erweiterte Render seine Aktivitäten über das Rendering hinaus, um KI-Workloads zu unterstützen – z. B. die Vermietung von GPU-Leistung zum Training von Stable Diffusion-Modellen oder anderen ML-Aufgaben. Das Interesse an KI hat die Nutzung dieser Netzwerke direkt angetrieben. Mitte 2023 stieg die Nachfrage nach GPU-Computing zum Training von Bild- und Sprachmodellen sprunghaft an. Render Network profitierte davon, da viele Entwickler und sogar einige Unternehmen sich an Render wandten, um günstigere GPU-Zeit zu erhalten; dies war ein Faktor für den 10-fachen Preisanstieg von RNDR, was die Überzeugung des Marktes widerspiegelte, dass Render GPUs zur Deckung des KI-Bedarfs liefern würde. Ähnlich fiel Akahs GPU-Start Ende 2023 mit dem Boom der generativen KI zusammen – innerhalb weniger Monate wurden Hunderte von GPUs auf Akash gemietet, um Sprachmodelle zu optimieren oder KI-APIs zu bedienen. Die Auslastungsrate der GPUs auf Akash, die bis Ende 2024 ~78 % erreichte, zeigt, dass fast die gesamte incentivierte Hardware von KI-Benutzern nachgefragt wurde. io.net positioniert sich explizit als „KI-fokussiertes dezentrales Computing-Netzwerk“. Es wirbt mit der Integration von KI-Frameworks (sie erwähnen die Verwendung des Ray Distributed Compute Frameworks, das im maschinellen Lernen beliebt ist, um es KI-Entwicklern zu erleichtern, auf io.net zu skalieren). Das Wertversprechen von io.net – die Möglichkeit, einen GPU-Cluster in 90 Sekunden mit 10- bis 20-facher Effizienz der Cloud bereitzustellen – richtet sich direkt an KI-Startups und Forscher, die durch teure oder überlastete Cloud-GPU-Instanzen eingeschränkt sind. Diese Ausrichtung ist strategisch: 2024 gab es extreme GPU-Engpässe (z. B. waren NVIDIAs High-End-KI-Chips ausverkauft), und dezentrale Netzwerke mit Zugang zu jeder Art von GPU (sogar ältere Modelle oder Gaming-GPUs) sprangen ein, um die Lücke zu füllen. Das Weltwirtschaftsforum stellte das Aufkommen von „Dezentraler physischer KI (DePAI)“ fest, bei der alltägliche Menschen Rechenleistung und Daten zu KI-Prozessen beitragen und belohnt werden. Dieses Konzept stimmt mit GPU-DePIN-Projekten überein, die es jedem mit einer anständigen GPU ermöglichen, Token zu verdienen, indem er KI-Workloads unterstützt. Messaris Forschung betonte ebenfalls, dass die intensive Nachfrage der KI-Industrie im Jahr 2024 ein „bedeutender Beschleuniger“ für die Verlagerung des DePIN-Sektors hin zu nachfragegetriebenem Wachstum war.

  • Speichernetzwerke & KI-Daten: Der KI-Boom dreht sich nicht nur um Computing – er erfordert auch die Speicherung massiver Datensätze (für das Training) und die Verteilung trainierter Modelle. Dezentrale Speichernetzwerke wie Filecoin und Arweave haben hier neue Anwendungsfälle gefunden. Insbesondere Filecoin hat KI als wichtigen Wachstumsvektor angenommen: Im Jahr 2024 identifizierte die Filecoin-Community „Compute und KI“ als einen von drei Schwerpunktbereichen. Mit der Einführung der Filecoin Virtual Machine ist es nun möglich, Computing-Dienste in der Nähe der auf Filecoin gespeicherten Daten auszuführen. Projekte wie Bacalhau (ein verteiltes Compute-over-Data-Projekt) und Fluences Compute L2 bauen auf Filecoin auf, um Benutzern die Ausführung von KI-Algorithmen direkt auf im Netzwerk gespeicherten Daten zu ermöglichen. Die Idee ist, beispielsweise das Training eines Modells auf einem großen Datensatz zu ermöglichen, der bereits über Filecoin-Nodes verteilt gespeichert ist, anstatt ihn in einen zentralisierten Cluster verschieben zu müssen. Filecoins technische Innovationen wie InterPlanetary Consensus (IPC) ermöglichen das Hochfahren von Subnetzwerken, die für spezifische Workloads (wie eine KI-spezifische Sidechain, die Filecoins Speichersicherheit nutzt) dediziert werden könnten. Darüber hinaus unterstützt Filecoin dezentrale Daten-Commons, die für KI hochrelevant sind – zum Beispiel können Datensätze von Universitäten, Daten autonomer Fahrzeuge oder Satellitenbilder auf Filecoin gehostet und dann von KI-Modellen abgerufen werden. Das Netzwerk speichert stolz wichtige KI-relevante Datensätze (die referenzierten Daten der UC Berkeley und des Internet Archive zum Beispiel). Auf der Token-Seite bedeutet dies, dass mehr Clients FIL für Daten verwenden – aber noch spannender ist das Potenzial für Sekundärmärkte für Daten: Filecoins Vision beinhaltet die Möglichkeit für Speicherkunden, ihre Daten zu monetarisieren für KI-Trainingsanwendungsfälle. Das deutet auf eine Zukunft hin, in der der Besitz eines großen Datensatzes auf Filecoin Token einbringen könnte, wenn KI-Unternehmen dafür bezahlen, darauf zu trainieren usw., wodurch ein Ökosystem entsteht, in dem FIL nicht nur für die Speicherung, sondern auch für Datennutzungsrechte fließt. Dies ist noch im Entstehen, unterstreicht aber, wie tief Filecoin mit KI-Trends verknüpft ist.

  • Drahtlose Netzwerke & Edge-Daten für KI: Oberflächlich betrachtet sind Helium und ähnliche drahtlose DePINs weniger direkt an KI-Computing gebunden. Es gibt jedoch einige Verbindungen. IoT-Sensornetzwerke (wie Heliums IoT-SubDAO und andere wie Nodle oder WeatherXM) können wertvolle reale Daten liefern, um KI-Modelle zu speisen. Zum Beispiel bietet WeatherXM (ein DePIN für Wetterstationsdaten) einen dezentralen Strom von Wetterdaten, der Klimamodelle oder KI-Vorhersagen verbessern könnte – WeatherXM-Daten werden aus genau diesen Gründen über Filecoins Basin L2 integriert. Nodle, das Smartphones als Nodes zur Datenerfassung verwendet (und als DePIN gilt), entwickelt eine App namens „Click“ für dezentrale Smart-Kamera-Aufnahmen; sie planen, Filecoin zu integrieren, um die Bilder zu speichern und sie potenziell im KI-Computer-Vision-Training zu verwenden. Heliums Rolle könnte darin bestehen, die Konnektivität für solche Edge-Geräte bereitzustellen – zum Beispiel eine Stadt, die Helium-IoT-Sensoren für Luftqualität oder Verkehr einsetzt und diese Datensätze dann zum Training von KI für die Stadtplanung verwendet. Zusätzlich könnte das Helium 5G-Netzwerk in Zukunft als Edge-Infrastruktur für KI dienen: Stellen Sie sich autonome Drohnen oder Fahrzeuge vor, die dezentrales 5G für die Konnektivität nutzen – die Daten, die sie generieren (und verbrauchen), könnten kontinuierlich in KI-Systeme eingespeist werden. Obwohl Helium keine spezifischen „KI-Strategien“ angekündigt hat, hat seine Muttergesellschaft Nova Labs angedeutet, Helium als allgemeine Infrastrukturschicht für andere DePIN-Projekte zu positionieren. Dies könnte auch solche im Bereich KI umfassen. Zum Beispiel könnte Helium die physische drahtlose Schicht für eine KI-gesteuerte Geräteflotte bereitstellen, während die Rechenanforderungen dieser KI-Flotte von Netzwerken wie Akash und die Datenspeicherung von Filecoin übernommen werden – ein miteinander verbundener DePIN-Stack.

  • Synergistisches Wachstum und Investitionen: Sowohl Krypto-Investoren als auch traditionelle Akteure bemerken die DePIN–KI-Synergie. Messaris Bericht 2024 prognostizierte, dass der DePIN-Markt bis 2028 auf 3,5 Billionen US-Dollar (von ~50 Mrd. US-Dollar im Jahr 2024) wachsen könnte, wenn die Trends anhalten. Diese optimistische Prognose basiert größtenteils darauf, dass KI eine „Killer-App“ für dezentrale Infrastruktur ist. Das Konzept von DePAI (Dezentrale physische KI) stellt sich eine Zukunft vor, in der gewöhnliche Menschen nicht nur Hardware, sondern auch Daten zu KI-Systemen beitragen und belohnt werden, wodurch das Monopol von Big Tech auf KI-Datensätze gebrochen wird. Zum Beispiel könnte das autonome Fahrzeug einer Person Straßendaten sammeln, diese über ein Netzwerk wie Helium hochladen, auf Filecoin speichern und von einer KI, die auf Akash trainiert, nutzen lassen – wobei jedes Protokoll die Mitwirkenden mit Token belohnt. Obwohl etwas futuristisch, tauchen erste Bausteine dieser Vision auf (z. B. HiveMapper, ein DePIN-Mapping-Projekt, bei dem Dashcams von Fahrern eine Karte erstellen – diese Karten könnten selbstfahrende KI trainieren; Mitwirkende verdienen Token). Wir sehen auch KI-fokussierte Krypto-Projekte wie Bittensor (TAO) – ein Netzwerk zum dezentralen Training von KI-Modellen – das Multi-Milliarden-Bewertungen erreicht, was auf eine starke Investorenbereitschaft für KI+Krypto-Kombinationen hindeutet.

  • Autonome Agenten und Maschine-zu-Maschine-Wirtschaft: Ein faszinierender Trend am Horizont ist die autonome Nutzung von DePIN-Diensten durch KI-Agenten. Messari spekulierte, dass bis 2025 KI-Agentennetzwerke (wie autonome Bots) dezentrales Computing und Speicher direkt von DePIN-Protokollen beziehen könnten, um Aufgaben für Menschen oder andere Maschinen auszuführen. In einem solchen Szenario könnte ein KI-Agent (z. B. Teil eines dezentralen Netzwerks von KI-Diensten) automatisch GPUs von Render oder io.net mieten, wenn er mehr Rechenleistung benötigt, mit Krypto bezahlen, seine Ergebnisse auf Filecoin speichern und über Helium kommunizieren – alles ohne menschliches Eingreifen, Verhandlungen und Transaktionen über Smart Contracts. Diese Maschine-zu-Maschine-Wirtschaft könnte eine neue Nachfragewelle freisetzen, die nativ für DePIN geeignet ist (da KI-Agenten keine Kreditkarten haben, aber Token verwenden können, um sich gegenseitig zu bezahlen). Es ist noch früh, aber Prototypen wie Fetch.ai und andere deuten in diese Richtung. Wenn es sich materialisiert, würden DePIN-Netzwerke einen direkten Zustrom maschinengesteuerter Nutzung erleben, was ihre Modelle weiter validieren würde.

  • Energie und andere physische Vertikalen: Während unser Fokus auf Konnektivität, Speicherung und Computing lag, berührt der KI-Trend auch andere DePIN-Bereiche. Zum Beispiel könnten dezentrale Energienetze (manchmal als DeGEN – dezentrale Energienetzwerke bezeichnet) davon profitieren, wenn KI die Energieverteilung optimiert: Wenn jemand überschüssige Solarenergie in ein Mikrogrid für Token einspeist, könnte KI diese Energie effizient vorhersagen und leiten. Ein im Binance-Bericht zitiertes Projekt beschreibt Token für die Einspeisung überschüssiger Solarenergie in ein Netz. KI-Algorithmen, die solche Netze verwalten, könnten wiederum auf dezentralem Computing ausgeführt werden. Ebenso kann KI die Leistung dezentraler Netzwerke verbessern – z. B. KI-basierte Optimierung der Funkabdeckung von Helium oder KI-Operationen für die vorausschauende Wartung von Filecoin-Speicherknoten. Hier geht es eher um die Nutzung von KI innerhalb von DePIN, aber es zeigt die gegenseitige Befruchtung von Technologien.

Im Wesentlichen ist KI zu einem Rückenwind für DePIN geworden. Die zuvor getrennten Narrative von „Blockchain trifft reale Welt“ und „KI-Revolution“ konvergieren zu einer gemeinsamen Erzählung: Dezentralisierung kann dazu beitragen, die Infrastrukturanforderungen von KI zu erfüllen, und KI kann wiederum eine massive reale Nutzung für dezentrale Netzwerke antreiben. Diese Konvergenz zieht erhebliches Kapital an – allein im Jahr 2024 wurden über 350 Mio. $ in DePIN-Startups investiert, ein Großteil davon zielte auf KI-bezogene Infrastruktur ab (zum Beispiel waren viele jüngste Kapitalbeschaffungen für dezentrale GPU-Projekte, Edge-Computing für KI usw.). Sie fördert auch die Zusammenarbeit zwischen Projekten (Filecoin arbeitet mit Helium, Akash integriert sich mit anderen KI-Tool-Anbietern usw.).

Fazit

DePIN-Projekte wie Helium, Filecoin, Render und Akash stellen eine kühne Wette dar, dass Krypto-Anreize reale Infrastruktur schneller und gerechter aufbauen können als traditionelle Modelle. Jedes hat ein einzigartiges Wirtschaftsmodell entwickelt: Helium nutzt Token-Verbrennungen und Proof-of-Coverage, um drahtlose Netzwerke per Crowdsourcing aufzubauen, Filecoin nutzt Kryptoökonomie, um einen dezentralen Datenspeichermarkt zu schaffen, Render und Akash verwandeln GPUs und Server durch tokenisierte Zahlungen und Belohnungen in globale gemeinsame Ressourcen. Anfangs zeigten diese Modelle Belastungen – schnelles Angebotswachstum bei schleppender Nachfrage –, aber sie haben die Fähigkeit bewiesen, sich im Laufe der Zeit anzupassen und die Effizienz zu verbessern. Das Token-Anreiz-Schwungrad, obwohl keine Wunderwaffe, hat sich als fähig erwiesen, beeindruckende physische Netzwerke aufzubauen: ein globales IoT-/5G-Netzwerk, ein Exabyte-großes Speicher-Grid und verteilte GPU-Clouds. Jetzt, da die reale Nutzung aufholt (von IoT-Geräten bis zu KI-Laboren), gehen diese Netzwerke zu nachhaltigen Dienstleistungswirtschaften über, in denen Token durch die Bereitstellung von Wert verdient werden, nicht nur durch frühzeitige Beteiligung.

Der Aufstieg der KI hat diesen Übergang beschleunigt. Der unstillbare Appetit der KI auf Rechenleistung und Daten spielt den Stärken von DePIN in die Hände: ungenutzte Ressourcen können erschlossen, ungenutzte Hardware eingesetzt und Teilnehmer weltweit an den Belohnungen teilhaben. Die Ausrichtung von KI-getriebener Nachfrage auf DePIN-Angebot im Jahr 2024 war ein entscheidender Moment, der wohl die „Produkt-Markt-Passung“ lieferte, auf die einige dieser Projekte gewartet hatten. Trends deuten darauf hin, dass dezentrale Infrastruktur weiterhin auf der KI-Welle reiten wird – sei es durch das Hosten von KI-Modellen, das Sammeln von Trainingsdaten oder die Ermöglichung autonomer Agentenökonomien. Dabei könnte der Wert der Token, die diesen Netzwerken zugrunde liegen, zunehmend die tatsächliche Nutzung (z. B. verkaufte GPU-Stunden, gespeicherte TB, verbundene Geräte) widerspiegeln und nicht nur Spekulationen.

Dennoch bleiben Herausforderungen bestehen. DePIN-Projekte müssen die Umwandlung von Investitionen in Nutzen weiter verbessern – sicherstellen, dass das Hinzufügen eines weiteren Hotspots oder einer weiteren GPU den Benutzern tatsächlich proportionalen Wert hinzufügt. Sie stehen auch im Wettbewerb mit traditionellen Anbietern (die keineswegs stillstehen – z. B. senken Cloud-Giganten die Preise für zugesagte KI-Workloads) und müssen Probleme wie regulatorische Hürden (Heliums 5G benötigt Spektrumkonformität usw.), Reibung bei der Benutzererfahrung mit Krypto und die Notwendigkeit einer zuverlässigen Leistung im großen Maßstab überwinden. Auch die Token-Modelle erfordern eine ständige Kalibrierung: zum Beispiel war die Aufteilung von Helium in Sub-Token eine solche Anpassung; Renders BME war eine weitere; andere könnten Gebührenverbrennungen, dynamische Belohnungen oder sogar DAO-Governance-Anpassungen implementieren, um im Gleichgewicht zu bleiben.

Aus Innovations- und Investitionsperspektive ist DePIN einer der spannendsten Bereiche in Web3, da es Krypto direkt an greifbare Dienste bindet. Investoren beobachten Metriken wie Protokolleinnahmen, Auslastungsraten und Token-Wertschöpfung (P/S-Verhältnisse), um Gewinner zu erkennen. Wenn beispielsweise der Token eines Netzwerks eine hohe Marktkapitalisierung, aber eine sehr geringe Nutzung (hohes P/S) aufweist, könnte er überbewertet sein, es sei denn, man erwartet einen Nachfrageschub. Umgekehrt könnte ein Netzwerk, das es schafft, die Einnahmen drastisch zu steigern (wie Akahs 749%iger Anstieg der täglichen Ausgaben), eine fundamentale Neubewertung seines Tokens erleben. Analyseplattformen (Messari, Token Terminal) verfolgen solche Daten jetzt: z. B. ergab Heliums annualisierter Umsatz (~3,5 Mio. )vs.Anreize( 47Mio.) vs. Anreize (~47 Mio. ) ein großes Defizit, während ein Projekt wie Render ein engeres Verhältnis aufweisen könnte, wenn die Verbrennungen beginnen, die Emissionen auszugleichen. Im Laufe der Zeit erwarten wir, dass der Markt diejenigen DePIN-Token belohnt, die reale Cashflows oder Kosteneinsparungen für Benutzer aufweisen – eine Reifung des Sektors von Hype zu Fundamentaldaten.

Zusammenfassend lässt sich sagen, dass etablierte Netzwerke wie Helium und Filecoin die Stärken und Fallstricke tokenisierter Infrastruktur bewiesen haben, und aufstrebende Netzwerke wie Render, Akash und io.net das Modell in den Bereich des hoch nachgefragten KI-Computings vorantreiben. Die Ökonomie hinter jedem Netzwerk unterscheidet sich in der Mechanik, teilt aber ein gemeinsames Ziel: einen sich selbst erhaltenden Kreislauf zu schaffen, in dem Token den Aufbau von Diensten und die Nutzung dieser Dienste wiederum den Wert des Tokens unterstützen. Das Erreichen dieses Gleichgewichts ist komplex, aber die bisherigen Fortschritte – Millionen von Geräten, Exabytes von Daten und Tausende von GPUs, die jetzt in dezentralen Netzwerken online sind – deuten darauf hin, dass das DePIN-Experiment Früchte trägt. Da KI und Web3 weiterhin konvergieren, könnten die nächsten Jahre dazu führen, dass dezentrale Infrastrukturnetzwerke von Nischenalternativen zu wichtigen Säulen des Internets werden und reale Nutzen liefern, angetrieben durch Kryptoökonomie.

Quellen: Offizielle Projektdokumentation und Blogs, Messari-Forschungsberichte sowie Analysedaten von Token Terminal und anderen. Wichtige Referenzen sind Messaris Helium- und Akash-Übersichten, Filecoin Foundation-Updates, Binance Research zu DePIN und io.net sowie CoinGecko-/CoinDesk-Analysen zur Token-Performance im KI-Kontext. Diese bilden die faktische Grundlage für die obige Bewertung, wie durchgehend zitiert.

Dezentrale KI: Erlaubnisfreie LLM-Inferenz auf BlockEden.xyz

· 5 Minuten Lesezeit
Dora Noda
Software Engineer

BlockEden.xyz, bekannt für seine Remote Procedure Call (RPC)-Infrastruktur, expandiert in den Bereich der KI-Inferenzdienste. Diese Entwicklung nutzt sein Open-Source- und erlaubnisfreies Design, um einen Marktplatz zu schaffen, auf dem Modellforscher, Hardware-Betreiber, API-Anbieter und Nutzer nahtlos interagieren können. Der Relay-Mining-Algorithmus des Netzwerks gewährleistet einen transparenten und überprüfbaren Dienst und bietet KI-Forschern großer Modelle eine einzigartige Möglichkeit, ihre Arbeit ohne Infrastrukturwartung zu monetarisieren.

Das Kernproblem

Die KI-Landschaft steht vor erheblichen Herausforderungen, darunter:

  • Eingeschränkte Modellbereitstellungsumgebungen: Ressourcenintensive Infrastruktur begrenzt die Fähigkeit von KI-Forschern, mit verschiedenen Modellen zu experimentieren.
  • Nicht nachhaltige Geschäftsmodelle für Open-Source-Innovationen: Unabhängige Ingenieure haben Schwierigkeiten, ihre Arbeit zu monetarisieren, da sie auf große Infrastrukturanbieter angewiesen sind.
  • Ungleicher Marktzugang: Modelle auf Unternehmensebene dominieren, wodurch Modelle der mittleren Ebene und deren Nutzer unterversorgt bleiben.

Das einzigartige Wertversprechen von BlockEden.xyz

BlockEden.xyz löst diese Probleme, indem es die Infrastrukturschicht von der Produkt- und Dienstleistungsschicht entkoppelt und so ein offenes und dezentrales Framework gewährleistet. Dieses Setup ermöglicht eine qualitativ hochwertige Servicebereitstellung und gleicht die Anreize aller Netzwerkteilnehmer an.

Zu den Hauptvorteilen gehören:

  • Etabliertes Netzwerk: Nutzung eines bestehenden Netzwerks von BlockEden.xyz-Diensten zur Optimierung des Modellzugangs und der Servicequalität.
  • Trennung der Verantwortlichkeiten: Jeder Stakeholder konzentriert sich auf seine Stärken, was die Effizienz des gesamten Ökosystems verbessert.
  • Anreizausrichtung: Kryptografische Beweise und Leistungsmessungen fördern Wettbewerb und Transparenz.
  • Erlaubnisfreie Modelle & Angebot: Ein offener Marktplatz für kostengünstige Hardware-Bereitstellung.

Stakeholder der dezentralen KI-Inferenz

Modellanbieter: Koordinatoren

Koordinatoren verwalten die Produkt- und Dienstleistungsschicht, optimieren die Servicequalität und bieten Anwendungen nahtlosen Zugang. Koordinatoren stellen diskret die Integrität der Anbieter sicher, indem sie sich als reguläre Nutzer ausgeben und unvoreingenommene Leistungsbewertungen anbieten.

Modellnutzer: Anwendungen

Anwendungen nutzen typischerweise Erstanbieter-Koordinatoren, können aber auch mit einem Drittanbieter auf das Netzwerk zugreifen, um die Privatsphäre zu verbessern und Kosten zu sparen. Direkter Zugang ermöglicht Experimente mit verschiedenen Anwendungsfällen und eliminiert Zwischenkosten.

Modellanbieter: Hardware-Betreiber

Anbieter betreiben Inferenz-Knoten, um Token zu verdienen. Ihre Kompetenzen in DevOps, Hardware-Wartung und Logging sind entscheidend für das Netzwerkwachstum. Der erlaubnisfreie Ansatz fördert die Teilnahme verschiedener Hardware-Anbieter, einschließlich jener mit ungenutzten oder inaktiven Ressourcen.

Modellquellen: Ingenieure & Forscher

Forscher und Institutionen, die Open-Source-Modelle bereitstellen, können Einnahmen basierend auf der Nutzung erzielen. Dieses Modell fördert Innovationen, ohne dass Infrastrukturwartung erforderlich ist, und bietet ein nachhaltiges Geschäftsmodell für Open-Source-Beitragende.

Zusammenarbeit mit dem Cuckoo Network

BlockEden.xyz arbeitet mit dem Cuckoo Network zusammen, um die KI-Inferenz durch eine dezentrale und erlaubnisfreie Infrastruktur zu revolutionieren. Diese Partnerschaft konzentriert sich darauf, die Stärken beider Plattformen zu nutzen, um ein nahtloses und effizientes Ökosystem für die Bereitstellung und Monetarisierung von KI-Modellen zu schaffen.

Wichtige Kollaborationsbereiche

  • Infrastrukturintegration: Kombination der robusten RPC-Infrastruktur von BlockEden.xyz mit den dezentralen Modellbereitstellungsfunktionen des Cuckoo Network, um einen skalierbaren und widerstandsfähigen KI-Inferenzdienst anzubieten.
  • Modellverteilung: Erleichterung der Verteilung von Open-Source-KI-Modellen im gesamten Netzwerk, wodurch Forscher ein breiteres Publikum erreichen und ihre Innovationen ohne umfangreiche Infrastruktur monetarisieren können.
  • Qualitätssicherung: Implementierung von Mechanismen zur kontinuierlichen Überwachung und Bewertung der Modellleistung und Anbieterintegrität, um eine qualitativ hochwertige Servicebereitstellung und Zuverlässigkeit zu gewährleisten.
  • Wirtschaftliche Anreize: Angleichung der wirtschaftlichen Anreize aller Stakeholder durch kryptografische Beweise und leistungsbasierte Belohnungen, wodurch ein wettbewerbsorientierter und transparenter Marktplatz gefördert wird.
  • Datenschutz und Sicherheit: Verbesserung datenschutzfreundlicher Operationen und sicherer Modellinferenz durch fortschrittliche Technologien wie Trusted Execution Environments (TEE) und dezentrale Datenspeicherlösungen.
  • Community und Support: Aufbau einer unterstützenden Community für KI-Forscher und -Entwickler, Bereitstellung von Ressourcen, Anleitungen und Anreizen zur Förderung von Innovation und Akzeptanz innerhalb des dezentralen KI-Ökosystems.

Durch die Partnerschaft mit dem Cuckoo Network möchte BlockEden.xyz einen ganzheitlichen und dezentralen Ansatz für die KI-Inferenz schaffen, der Forschern, Entwicklern und Nutzern eine robuste, transparente und effiziente Plattform für die Bereitstellung und Nutzung von KI-Modellen bietet. Sie können die dezentrale Text-zu-Bild-API jetzt unter https://blockeden.xyz/api-marketplace/cuckoo-ai ausprobieren.

Input/Output eines dezentralen Inferenznetzwerks

LLM-Inputs an das Cuckoo Network:

  • Open-Source-Modelle
  • Nachfrage von Endnutzern oder Anwendungen
  • Aggregiertes Angebot von Standardhardware
  • Garantien für die Servicequalität

LLM-Outputs vom Cuckoo Network:

  • Keine Ausfallzeiten
  • Nahtlose Modell-Experimente
  • Öffentliche Modellbewertung
  • Datenschutzfreundliche Operationen
  • Zensurfreie Modelle

Web3-Ökosystem-Integrationen

Das RPC-Protokoll von BlockEden.xyz kann mit anderen Web3-Protokollen integriert werden, um dezentrale KI (DecAI) zu verbessern:

Daten- & Speichernetzwerke: Nahtlose Integration mit dezentralen Speicherlösungen wie Filecoin/IPFS und Arweave für Modellspeicherung und Datenintegrität.

Compute-Netzwerke: Komplementäre Dienste, die dezentrale Computing-Schichten wie Akash und Render nutzen und sowohl dedizierte als auch ungenutzte Hardware unterstützen.

Inferenznetzwerke: Flexible Bereitstellungsmodelle und robuste Ökosysteme, die vielfältige Inferenzaufgaben unterstützen.

Anwendungen: KI-Agenten, Verbraucher-Apps und IoT-Geräte profitieren von der DecAI-Inferenz für personalisierte Dienste, Datenschutz und Edge-Entscheidungsfindung.

Zusammenfassung

Die etablierte Infrastruktur und das wirtschaftliche Design von BlockEden.xyz eröffnen neue Möglichkeiten für Open-Source-KI. Durch die Bereitstellung eines dezentralen und überprüfbaren Dienstes überbrückt es die Lücke zwischen Open-Source-KI und Web3 und ermöglicht innovative, nachhaltige und zuverlässige Dienste. Dieser Ansatz ermöglicht eine größere Modellvielfalt, einen besseren Marktzugang für KMU und ein neues Geschäftsmodell für Open-Source-Forscher. Zukünftige Entwicklungen werden das Ökosystem weiter ausbauen und sicherstellen, dass BlockEden.xyz eine robuste und anpassungsfähige Lösung in den sich entwickelnden KI- und Blockchain-Landschaften bleibt.

Enthüllung der Integration der OpenAI ChatGPT API in den API-Marktplatz von BlockEden.xyz

· 4 Minuten Lesezeit
Dora Noda
Software Engineer

Wir freuen uns bekannt zu geben, dass BlockEden.xyz, die bevorzugte Plattform für Web3-Entwickler für API-Marktplätze, eine neue, leistungsstarke Funktion hinzugefügt hat – die OpenAI API. Ja, Sie haben richtig gehört! Entwickler, Technikbegeisterte und KI-Pioniere können jetzt die hochmodernen maschinellen Lernmodelle von OpenAI direkt über den API-Marktplatz von BlockEden nutzen.

Bevor wir uns dem Leitfaden widmen, wollen wir verstehen, was die OpenAI API zu bieten hat. Die OpenAI API ist ein Zugang zu KI-Modellen, die von OpenAI entwickelt wurden, wie dem branchenweit bekannten GPT-3, dem hochmodernen transformatorbasierten Sprachmodell, das für seine bemerkenswerte Fähigkeit bekannt ist, menschenähnlichen Text zu verstehen und zu generieren. Die API ermöglicht es Entwicklern, diese fortschrittliche Technologie für eine Vielzahl von Anwendungen zu nutzen, darunter das Verfassen von E-Mails, das Schreiben von Code, das Beantworten von Fragen, das Erstellen von schriftlichen Inhalten, Nachhilfe, Sprachübersetzung und vieles mehr.

Sehen wir uns nun an, wie Sie die Leistungsfähigkeit der OpenAI API mit BlockEden.xyz in Ihre Anwendungen integrieren können. Sie können dies auf drei Arten tun: mit Python, mit JavaScript (Node.js) oder direkt mit curl über die Befehlszeile. In diesem Blogbeitrag werden wir die grundlegende Einrichtung für jede Methode anhand eines einfachen „Hello, World!“-Beispiels vorstellen.

Der unten stehende API-Schlüssel ist öffentlich und kann sich ändern und ist ratenbegrenzt. Holen Sie sich stattdessen Ihren eigenen BLOCKEDEN_API_KEY unter https://blockeden.xyz/dash.

Python:

Mit Python können Sie die OpenAI API wie im folgenden Snippet gezeigt verwenden:

import openai

BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD"
openai.api_key = ""
openai.api_base = "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1"

response = openai.ChatCompletion.create(
model="gpt-3.5-turbo-16k",
messages=[{"role": "user", "content": "hello, world!"}],
temperature=0,
max_tokens=2048,
top_p=1,
frequency_penalty=0,
presence_penalty=0
)

print(response["choices"])

JavaScript (Node.js):

Sie können die OpenAI API auch mit JavaScript nutzen. So geht's:

const { Configuration, OpenAIApi } = require("openai");

const BLOCKEDEN_API_KEY = "8UuXzatAZYDBJC6YZTKD";
const configuration = new Configuration({
basePath: "https://api.blockeden.xyz/openai/" + BLOCKEDEN_API_KEY + "/v1"
});
const openai = new OpenAIApi(configuration);

(async () => {
const response = await openai.createChatCompletion({
model: "gpt-3.5-turbo-16k",
messages: [{role: "user", content: "hello, world!"}],
temperature: 0,
max_tokens: 2048,
top_p: 1,
frequency_penalty: 0,
presence_penalty: 0,
});

console.log(JSON.stringify(response.data.choices, null, 2));
})()

cURL:

Zu guter Letzt können Sie die OpenAI API mit curl direkt von Ihrem Terminal aus aufrufen:

curl https://api.blockeden.xyz/openai/8UuXzatAZYDBJC6YZTKD/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-3.5-turbo-16k",
"messages": [{"role": "user", "content": "hello, world!"}],
"temperature": 0,
"max_tokens": 2048,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0
}'

Was kommt als Nächstes? Tauchen Sie ein, experimentieren Sie und entdecken Sie, wie Sie die Leistungsfähigkeit der OpenAI API für Ihre Projekte nutzen können, sei es für Chatbots, Content-Generierung oder jede andere NLP-basierte Anwendung. Die Möglichkeiten sind so grenzenlos wie Ihre Vorstellungskraft. Mit der nahtlosen Integration von BlockEden.xyz mit OpenAI wollen wir die Grenzen des Machbaren neu definieren.

Weitere Informationen zu den Funktionen, Modellen und der Nutzung von OpenAI finden Sie in der offiziellen OpenAI-Dokumentation.

Viel Spaß beim Codieren!

Was ist BlockEden.xyz

BlockEden.xyz ist ein API-Marktplatz, der DApps jeder Größe für Sui, Aptos, Solana und 12 EVM-Blockchains antreibt. Warum wählen unsere Kunden uns?

  1. Hohe Verfügbarkeit. Wir halten seit dem Start unserer ersten API – dem Aptos Mainnet – eine Verfügbarkeit von 99,9 % aufrecht.
  2. Umfassende API-Angebote und Community. Unsere Dienste wurden erweitert und umfassen Sui, Ethereum, IoTeX, Solana, Polygon, Polygon zkEVM, Filecoin, Harmony, BSC, Arbitrum, Optimism, Gnosis, Arbitrum Nova & EthStorage Galileo. Unsere Community 10x.pub hat über 4000 Web3-Innovatoren aus dem Silicon Valley, Seattle und NYC.
  3. Sicherheit. Mit über 45 Millionen US-Dollar an bei uns gestakten Tokens vertrauen unsere Kunden darauf, dass wir zuverlässige und sichere Lösungen für ihre Web3- und Blockchain-Anforderungen bereitstellen.

Wir bieten eine umfassende Palette von Dienstleistungen, die darauf abzielen, jeden Teilnehmer im Blockchain-Bereich zu stärken, wobei wir uns auf drei Schlüsselbereiche konzentrieren:

  • Für Blockchain-Protokollentwickler gewährleisten wir robuste Sicherheit und Dezentralisierung durch den Betrieb von Nodes und langfristige Beiträge zum Ökosystem.
  • Für DApp-Entwickler erstellen wir benutzerfreundliche APIs, um die Entwicklung zu optimieren und das volle Potenzial dezentraler Anwendungen freizusetzen.
  • Für Token-Inhaber bieten wir einen zuverlässigen Staking-Dienst, um Belohnungen zu maximieren und die Vermögensverwaltung zu optimieren.