Direkt zum Hauptinhalt

95 Beiträge getaggt mit „Infrastruktur“

Blockchain-Infrastruktur und Node-Services

Alle Tags anzeigen

Das Stromnetz bekommt ein Gehirn: Wie DePIN und KI das Energie-Internet aufbauen

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Ihre Hausbatterie die Strompreise mit den Solarmodulen Ihres Nachbarn aushandeln könnte – autonom, in Millisekunden und On-Chain abgerechnet? Dieses Szenario ist nicht mehr nur theoretisch. Im Jahr 2026 verschmelzen dezentrale physische Infrastrukturnetzwerke (DePIN) mit KI-gesteuerter Netzkoordination, um etwas zu schaffen, worüber die Energiewirtschaft seit Jahrzehnten spricht, aber nie geliefert hat: ein wirklich verteiltes, intelligentes Stromnetz.

Das Weltwirtschaftsforum prognostiziert, dass DePIN bis 2028 zu einem Sektor im Wert von 3,5 Bio. $ anwachsen wird, wobei Energie sich als der greifbarste Anwendungsfall herauskristallisiert. Da KI-Rechenzentren bis 2030 voraussichtlich 9 % des US-Stroms verbrauchen werden und der globale Energiebedarf sprunghaft ansteigt, knickt das zentralisierte Versorgermodell unter einem Druck ein, für den es nie ausgelegt war.

EigenLayer überschreitet 18 Mrd. $ an restaked ETH — Ein Blick in die 'Vertical AVS'-Welle, die Ethereums Sicherheitsökonomie neu gestaltet

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn die größte Veränderung im Sicherheitsmodell von Ethereum kein Protokoll-Upgrade wäre – sondern ein ökonomisches? Im Februar 2026 überschritt EigenLayer geräuschlos die Marke von 18 Milliarden USD an restaked ETH über 1.900 aktive Betreiber hinweg und festigte damit das Restaking als das am schnellsten wachsende Primitiv im DeFi-Bereich. Doch die wahre Geschichte ist nicht die TVL-Zahl. Es ist das, was innerhalb der Actively Validated Services (AVS)-Schicht passiert: eine schnelle Spezialisierung auf zweckgebundene „Vertical AVS“, die das Restaking von einer generischen gemeinsamen Sicherheit in das Rückgrat für dezentrale KI, Datenverfügbarkeit und Cross-Chain-Verifizierung verwandeln.

Dies ist nicht mehr nur ein Yield-Play. Restaking wird zur Infrastruktur.

Die Vera-Rubin-Ära: Die Bewältigung der KI-Rechenleistungs- und Versorgungskrise

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jeder Chip, den NVIDIA in den nächsten zwei Jahren herstellen kann, ist bereits vergeben. Auf der GTC 2026 am 16. März stellte Jensen Huang Vera Rubin vor – eine KI-Plattform mit 336 Milliarden Transistoren, die auf dem 3-nm-Verfahren von TSMC basiert. Gleichzeitig bestätigte er, was die Branche bereits befürchtet hatte: HBM4-Speicher ist bis 2026 komplett ausverkauft, und die GPU-Lieferzeiten erstrecken sich nun auf 36 bis 52 Wochen. Für den 19 Milliarden US-Dollar schweren DePIN-Sektor ist diese Versorgungskrise kein Problem. Sie ist die Chance des Jahrzehnts.

Die Vera-Rubin-Architektur: Ein neues Ausmaß an KI-Rechenleistung

Benannt nach der Astronomin, die die Existenz dunkler Materie bewies, stellt Vera Rubin NVIDIAs ehrgeizigsten Plattformsprung seit Blackwell dar. Die Zahlen sind beeindruckend:

  • 336 Milliarden Transistoren auf dem N3P-Node von TSMC – fast die doppelte Dichte von Blackwell
  • 22 TB/s Speicherbandbreite über HBM4 der nächsten Generation von SK Hynix und Samsung
  • NVL72-Konfiguration: 72 Rubin-GPUs und 36 Vera-CPUs, verbunden über das NVLink 6 Fabric, die 3,6 ExaFLOPS an NVFP4-Inferenz und 2,5 ExaFLOPS an Training liefern
  • 5-fache Steigerung des Inferenz-Durchsatzes durch NVIDIAs neues 4-Bit-Gleitkommaformat (NVFP4)

Huang strukturierte die Keynote um das Thema „KI als fünfschichtige Torte“ – Energie, Chips, Infrastruktur, Modelle und Anwendungen. Die erste Schicht erhielt ungewöhnliche Aufmerksamkeit. Rechenzentren verbrauchen bereits 2–3 % des weltweiten Stroms, und Prognosen deuten darauf hin, dass sich dieser Anteil bis 2030 verdreifachen könnte, wenn KI-Workloads skalieren. Huang hob Partnerschaften für erneuerbare Energien hervor, einschließlich digitaler Zwillinge für die Stromerzeugung aus Meereswellen, und signalisierte damit, dass die Versorgung mit Rechenleistung nicht mehr nur ein Silizium-Problem ist – es ist ein Energieproblem.

Erste Vera-Rubin-Muster werden voraussichtlich Ende 2026 an Tier-1-Cloud-Anbieter ausgeliefert, die volle Produktion folgt Anfang 2027. Die nächste Architektur mit dem Codenamen Feynman steht bereits für 2027 auf der Roadmap.

Die Versorgungskrise, die niemand umgehen kann

Während die Spezifikationen von Vera Rubin Schlagzeilen machten, erzählt die zugrunde liegende Liefergeschichte eine dringlichere Geschichte. Die CEOs von TSMC, SK Hynix, Micron, Intel, NVIDIA und Samsung haben alle die gleiche Botschaft übermittelt: Die Nachfrage nach fortschrittlichen Nodes, fortschrittlichem Packaging und HBM steigt viel schneller, als Kapazitäten aufgebaut werden können.

Der Engpass ist umfassend:

  • HBM-Speicher: SK Hynix bestätigte: „Unser gesamter HBM-Vorrat für 2026 ist ausverkauft.“ Micron kann nur 55–60 % der Kernkundennachfrage decken. Samsung und SK Hynix haben die HBM3E-Preise für Verträge im Jahr 2026 um fast 20 % erhöht.
  • Fortschrittliches Packaging: Die CoWoS-Kapazität (Chip-on-Wafer-on-Substrate) von TSMC – entscheidend für die Montage von HBM-Stacks auf GPU-Gehäusen – bleibt bis 2026 ausverkauft.
  • GPU-Zuteilung: Hyperscaler wie Google, Microsoft, Amazon und Meta haben sich mehrjährige Zuteilungen gesichert. Kleinere Unternehmen stehen vor Lieferzeiten von 36 bis 52 Wochen, was sie faktisch bis 2027 oder später von modernster KI-Hardware ausschließt.

Das Ergebnis ist ein zweigeteilter Markt für Rechenleistung. Eine Handvoll Hyperscaler kontrolliert den überwiegenden Teil der GPU-Kapazität der nächsten Generation, während alle anderen – Start-ups, mittelständische Unternehmen, Forschungseinrichtungen und souveräne KI-Initiativen – um das kämpfen, was übrig bleibt.

DePINs Moment: Vom Randphänomen zum Vorreiter

Hier kommen dezentrale physische Infrastrukturnetzwerke ins Spiel. Während kein DePIN-Netzwerk NVIDIA-GPUs aus dem Nichts herstellen kann, lösen diese Netzwerke ein anderes, ebenso kritisches Problem: die Mobilisierung des enormen Pools an unterausgelasteten GPU-Kapazitäten, die weltweit bereits vorhanden sind.

Der DePIN-Rechenleistungssektor ist innerhalb eines Jahres von 5,2 Milliarden US-Dollar auf über 19 Milliarden US-Dollar Marktkapitalisierung gewachsen, und dieses Wachstum wird durch reale Nutzungsdaten gestützt, nicht nur durch Token-Spekulation.

Render Network hat eine Marktkapitalisierung von über 2 Milliarden US-Dollar überschritten, nachdem es vom GPU-Rendering auf KI-Inferenz-Workloads expandiert hat. Der Start von Dispersed – einem dedizierten Subnetz für KI-Workloads – positioniert das Netzwerk an der Schnittstelle von kreativer und KI-Rechenleistung. Render bietet GPU-Rendering mit Einsparungen von bis zu 85 % im Vergleich zu AWS oder Google Cloud an.

Aethir meldete im Jahr 2025 einen Quartalsumsatz von fast 40 Millionen US-Dollar und über 1,4 Milliarden bereitgestellte Rechenstunden für mehr als 150 Unternehmenskunden. Dies ist keine Testnet-Demo. Es ist eine Produktionsinfrastruktur, die echte Einnahmen generiert.

io.net und Nosana erreichten während ihrer Wachstumszyklen jeweils Marktkapitalisierungen von über 400 Millionen US-Dollar, indem sie ungenutzte GPU-Kapazitäten von Rechenzentren, Krypto-Minern und Consumer-Hardware in On-Demand-Rechenpools bündelten.

Der Preisunterschied ist frappierend. Eine NVIDIA H100 auf einem DePIN-Marktplatz kann für vergleichbare Workloads 18- bis 30-mal weniger kosten als bei AWS. Selbst wenn man die Zuverlässigkeitsschwankungen berücksichtigt, die eine gewisse Überdimensionierung erzwingen, bieten DePIN-Netzwerke Kosteneinsparungen von 50–75 % für Batch-Workloads, Inferenzaufgaben und kurzzeitige Trainingsläufe.

Das Kalkül der Unternehmen verschiebt sich

Die Einführung von DePIN-Rechenleistung in Unternehmen folgt einem vorhersehbaren, aber sich beschleunigenden Muster. Die größten Hindernisse waren die Komplexität der Orchestrierung, das Debugging verteilter Fehler, das Fehlen durchsetzbarer SLAs und krypto-native Beschaffungsprozesse, die IT-Abteilungen in Unternehmen nur schwer integrieren können.

Doch 2026 ändert sich das Kalkül. Da der zentralisierte GPU-Zugang faktisch rationiert ist, setzen Unternehmen zunehmend auf hybride Architekturen:

  • Sensible Modelle mit niedriger Latenz laufen lokal auf Edge-Geräten
  • Massive Trainingsaufgaben verbleiben bei Hyperscalern, die sich GPU-Kontingente gesichert haben
  • Flexible Inferenz mit Spitzenkapazitäten wird zur Kostenarbitrage an dezentrale Netzwerke geleitet

Dieses hybride Modell macht DePIN vom „interessanten Experiment“ zum „pragmatischen Überlaufventil“. Wenn Ihr AWS-GPU-Kontingent erschöpft ist und die Warteliste von NVIDIA über Ihre Produktfrist hinausreicht, ist eine Kosteneinsparung von 50 % in einem dezentralen Netzwerk keine philosophische Entscheidung über Dezentralisierung mehr, sondern eine geschäftliche Notwendigkeit.

Die Prognose des Weltwirtschaftsforums für einen DePIN-Markt von 3,5 Billionen US-Dollar bis 2028 impliziert eine außergewöhnliche Wachstumsrate. Selbst bei halbem Tempo wäre DePIN einer der am schnellsten wachsenden Infrastruktursektoren in jeder Branche.

Energie: Der verborgene Engpass hinter dem Chip-Engpass

Huangs Betonung der Energie auf der GTC 2026 war kein Zufall. Der Stromhunger der KI wächst schneller, als die Halbleiter-Lieferkette bewältigen kann. Der derzeitige Stromverbrauch von Rechenzentren liegt bei 2–3 % der weltweiten Erzeugung, aber Prognosen deuten darauf hin, dass KI-Workloads allein dies bis 2030 auf 6–9 % treiben könnten.

Dieser Energieengpass schafft einen weiteren strukturellen Vorteil für DePIN-Netzwerke. Zentralisierte Hyperscaler müssen riesige Rechenzentren an Standorten mit reichlich vorhandenem, erschwinglichem Strom bauen – ein Prozess, der von der Planung bis zum Betrieb 2–4 Jahre dauert. DePIN-Netzwerke hingegen bündeln vorhandene Hardware an vorhandenen Standorten mit vorhandenen Stromanschlüssen. Die Infrastruktur ist bereits angeschlossen.

Projekte an der Schnittstelle von DePIN und Energie, wie dezentrale virtuelle Kraftwerke und tokenisierte Zertifikate für erneuerbare Energien, positionieren sich so, dass sie beide Seiten der Gleichung bedienen: die Bereitstellung von Rechenkapazität bei gleichzeitiger Koordinierung der für deren Betrieb erforderlichen verteilten Energieressourcen.

Was als Nächstes kommt

Die Vera-Rubin-Ära wird die KI-Infrastruktur für die nächsten zwei bis drei Jahre definieren. Aber die Hardware, auf die es am meisten ankommt, ist nicht nur das, was NVIDIA im Jahr 2027 ausliefert – es sind die Millionen von GPUs, die bereits weltweit im Einsatz sind und jeden Tag erhebliche Zeit ungenutzt bleiben.

Drei Dynamiken werden die nächsten 12 Monate prägen:

  1. Die GPU-Knappheit verschärft sich, bevor sie nachlässt. Die Produktion von Vera Rubin wird erst Anfang 2027 nennenswerte Volumina erreichen. Die aktuelle Blackwell-Generation bleibt lieferbeschränkt. DePIN-Netzwerke, die während dieser Lücke die überschüssige Nachfrage auffangen, haben ein Zeitfenster, um die Zuverlässigkeit für Unternehmen im großen Stil zu beweisen.

  2. Hybride Rechenarchitekturen werden zum Standard. Die binäre Wahl zwischen „Hyperscaler oder gar nichts“ löst sich auf. Unternehmen werden Workloads zunehmend auf zentralisierte, Edge- und dezentrale Infrastrukturen aufteilen, basierend auf Anforderungen an Latenz, Kosten und Verfügbarkeit.

  3. Energie wird zum limitierenden Faktor. Selbst wenn sich das Chipangebot irgendwann entspannt, gilt dies möglicherweise nicht für die Stromverfügbarkeit. Das dezentrale Modell von DePIN – das von Natur aus über verschiedene Energiequellen und Regionen verteilt ist – bietet eine strukturelle Widerstandsfähigkeit gegenüber lokalen Strombeschränkungen, die zentralisierte Rechenzentren nicht bieten können.

Die Ironie von NVIDIAs GTC 2026 mag darin liegen, dass die wichtigste Erkenntnis nicht die atemberaubenden Spezifikationen von Vera Rubin waren. Es war die Bestätigung, dass die zentralisierte KI-Infrastruktur, egal wie leistungsfähig sie ist, an physische Grenzen stößt, die keine Ingenieurskunst sofort lösen kann. Für die dezentralen Rechennetzwerke, die im Stillen die ungenutzten GPUs der Welt bündeln, sind diese Grenzen eine offene Tür.


BlockEden.xyz bietet Hochleistungs-RPC- und API-Infrastrukturen für Blockchain-Netzwerke, die die nächste Generation dezentraler Anwendungen vorantreiben – einschließlich der DePIN-Protokolle, die den Rechenlayer von morgen aufbauen. Erkunden Sie unseren API-Marktplatz, um mit dem Aufbau zu beginnen.

Tethers ehrgeiziger Wandel: Vom Stablecoin-Herausgeber zum KI-gesteuerten Infrastruktur-Konglomerat

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Ein Unternehmen, das jährlich 10 Milliarden durchdasHaltenvonUSStaatsanleihenverdient,hatderWeltgerademitgeteilt,dassseinna¨chsterSchrittdieku¨nstlicheIntelligenzist.Am15.Ma¨rzposteteTetherCEOPaoloArdoinoeineneinzigenTeaseraufX–„truebreakthrough“–unddieKryptoKIDiskussionverschobsichu¨berNacht.DerStablecoinRiese,der58durch das Halten von US-Staatsanleihen verdient, hat der Welt gerade mitgeteilt, dass sein nächster Schritt die künstliche Intelligenz ist. Am 15. März postete Tether-CEO Paolo Ardoino einen einzigen Teaser auf X – „true breakthrough“ – und die Krypto-KI-Diskussion verschob sich über Nacht. Der Stablecoin-Riese, der 58 % des 316 Milliarden schweren Stablecoin-Marktes absichert, gibt sich nicht länger damit zufrieden, ein Unternehmen für Finanz-Infrastruktur zu sein. Er will die Rohre, die Wasseraufbereitungsanlage und die Intelligenz besitzen, die entscheidet, wohin das Wasser fließt.

Solanas Moment der Client-Diversität: Firedancer, Agave und das Rennen um eine Million TPS

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jahrelang fungierte Solana als Single-Client-Netzwerk – eine Tatsache, die Kritiker der Community nie vergessen ließen. Eine einzige Codebasis bedeutete, dass ein einziger Satz von Fehlern die gesamte Chain zum Stillstand bringen konnte, was in den Jahren 2022 und 2023 auch wiederholt geschah. Doch innerhalb von zwölf Monaten geschah etwas Bemerkenswertes: Solana entwickelte sich von einer Monokultur zu einem echten Multi-Client-Ökosystem, in dem nun zwei unabhängige Validator-Implementierungen im Live-Betrieb laufen und eine dritte Konsens-Überholung am Horizont steht. Die Frage ist nicht mehr, ob Solana Client-Diversität erreichen kann – sondern ob diese Diversität schnell genug kommt, um mit dem institutionellen Kapital Schritt zu halten, das nun über Spot-ETFs hereinströmt.

AgentMails 6-Millionen-Dollar-Wette: Warum der erste E-Mail-Provider für KI-Agenten zur Identitätsebene der autonomen Wirtschaft werden könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Ein KI-Agent betritt eine SaaS-Plattform und versucht, sich anzumelden. Es gibt kein CAPTCHA, das er lösen kann, keinen OAuth-Flow, den er navigieren kann, und keinen Posteingang, um einen Verifizierungslink zu empfangen. Er ist ausgesperrt — nicht, weil es ihm an Intelligenz mangelt, sondern weil er keine E-Mail-Adresse hat.

Genau diesen absurden Engpass will AgentMail beheben und hat dafür gerade 6 Millionen US-Dollar eingesammelt. Unterstützt von General Catalyst, Y Combinator und Angel-Investoren wie Paul Graham, Dharmesh Shah (HubSpot-CTO), Paul Copplestone (Supabase-CEO) und Karim Atiyeh (Ramp-CTO), baut das Startup den ersten E-Mail-Anbieter, der vollständig für KI-Agenten konzipiert ist.

Dabei ist das Unternehmen möglicherweise auf etwas gestoßen, das weit über E-Mail hinausgeht: die fehlende Identitäts- und Kommunikationsebene für die 52 Milliarden US-Dollar schwere Wirtschaft autonomer Agenten.

Aptos und Jump Crypto führen Shelby ein: Das verifizierbare Hot-Storage-Netzwerk, das die KI-Dateninfrastruktur neu gestalten könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Jedes KI-Modell ist nur so vertrauenswürdig wie die Daten, auf denen es trainiert wurde – dennoch gibt es heute keine zuverlässige Methode, um zu beweisen, woher diese Daten stammen, wem sie gehören oder ob sie unversehrt angekommen sind. Aptos Labs und Jump Crypto sind davon überzeugt, die fehlende Schicht entwickelt zu haben. Ihr neues Protokoll, Shelby, ist das weltweit erste verifizierbare globale Objekt-Speichernetzwerk, das speziell für KI-Lese-Workloads konzipiert wurde, und sein Early-Access-Testnet ist ab sofort live.

Cryptios 45-Millionen-Dollar Series B signalisiert, dass das langweilige Back-Office von Krypto nun seine wichtigste Ebene ist

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jeder Krypto-Bullenzyklus bringt neue Milliardäre hervor und bringt Tausende von Token auf den Markt. Doch hinter dem On-Chain-Feuerwerk entfaltet sich in Tabellenkalkulationen, Hauptbüchern und Audit-Trails eine leisere Revolution. Cryptio, eine in Paris gegründete Enterprise-Accounting-Plattform für digitale Vermögenswerte, hat gerade 45 Millionen US-Dollar in einer Serie-B-Finanzierungsrunde aufgebracht – und die dahinterstehenden Investoren wetten darauf, dass die unglamouröse Arbeit des Abgleichs von Blockchain-Transaktionen zur unverzichtbarsten Ebene im institutionellen Krypto-Sektor werden wird.

Die Runde wurde von BlackFin Capital Partners und Sentinel Global angeführt, unter Beteiligung der bestehenden Geldgeber 1kx, BlueYard Capital und Ledger Cathay Capital. Cryptio ist im Stillen auf 450 Kunden in 30 Ländern angewachsen und verarbeitet ein kumuliertes Transaktionsvolumen von über 3 Billionen US-Dollar. Zu diesen Kunden gehören: Circle, der Emittent von USDC, und SG-FORGE, die Blockchain-Tochtergesellschaft der Société Générale.

Wenn der weltweit größte Stablecoin-Emittent und eine der ältesten Banken Europas beide auf dieselbe Buchhaltungs-Middleware setzen, will der Markt uns etwas damit sagen.

DTCs dreijähriges Blockchain-Pilotprojekt: Wie Wall Streets 3,8-Billiarden-Dollar-Abwicklungsmaschine auf die Chain umzieht

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Die Instanz, die praktisch jeden US-Aktienhandel abwickelt, hat soeben die Erlaubnis erhalten, diese Geschäfte auf eine Blockchain zu übertragen. Am 11. Dezember 2025 veröffentlichte die SEC-Abteilung für Handel und Märkte ein No-Action-Letter, das der Depository Trust Company — dem Rückgrat der amerikanischen Kapitalmärkte — erlaubt, ein dreijähriges Pilotprojekt zur Tokenisierung der bereits in ihrer Verwahrung befindlichen Wertpapiere durchzuführen. Wenn das System in der zweiten Jahreshälfte 2026 an den Start geht, wird es das erste Mal sein, dass eine auf Blockchain basierende Abwicklungsinfrastruktur direkt in die Kernsysteme integriert wird, die jährlich Transaktionen im Wert von 3,8 Billiarden US - Dollar verarbeiten.

Dies ist nicht die Vision eines Krypto-Startups. Es ist die Institution, die fast alle US-Aktien-, ETF- und Staatsanleihen-Geschäfte cleart und abwickelt und dem Markt signalisiert, dass Blockchain in ihren operativen Stack gehört.