Direkt zum Hauptinhalt

244 Beiträge getaggt mit „Infrastruktur“

Blockchain-Infrastruktur und Node-Services

Alle Tags anzeigen

Ihr Code ist in Ordnung – sie haben es auf Ihre Keys abgesehen: Ein Blick in den 2,2 Milliarden Dollar schweren Strategiewechsel bei Krypto-Infrastruktur-Angriffen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Die teuerste Codezeile in der Geschichte der Kryptowährungen war kein Fehler. Es war ein Phishing-Link.

Im Februar 2025 klickte ein Entwickler bei Safe{Wallet} auf eine Nachricht, die wie eine Routine-Mitteilung aussah. Innerhalb weniger Stunden hatten nordkoreanische Akteure AWS-Sitzungstoken gekapert, die Multi-Faktor-Authentifizierung umgangen und 1,5 Milliarden $ von Bybit abgezogen — der größte Diebstahl in der Geschichte der Kryptowährungen. Es wurde keine Schwachstelle in einem Smart Contract ausgenutzt. Keine On-Chain-Logik versagte. Der Code war in Ordnung. Die Menschen waren es nicht.

Der Crypto Crime Report 2026 von TRM Labs bestätigt, was dieser Raubzug bereits andeutete: Die Ära des Smart-Contract-Exploits als primärer Bedrohungsvektor für Krypto ist vorbei. Angreifer sind „den Stack hinaufgewandert“ und haben die Jagd nach neuartigen Code-Schwachstellen aufgegeben. Stattdessen kompromittieren sie die operative Infrastruktur — Keys, Wallets, Signierer und Cloud-Kontrollebenen —, die ansonsten sichere Protokolle umgibt.

DePIN: Bewertung des realen Nutzens und der Zukunft dezentraler physischer Infrastrukturnetzwerke

· 10 Min. Lesezeit
Dora Noda
Software Engineer

DePIN — Decentralized Physical Infrastructure Networks — ist das lauteste Versprechen von Krypto für einen realen Nutzwert. Über 650 Projekte. Eine kombinierte Marktkapitalisierung, die kurzzeitig 19 Mrd. $ überschritt. Fast neun Millionen Geräte in 199 Ländern im Einsatz. Und dennoch generierte der gesamte Sektor im vergangenen Jahr geschätzte 72 Mio. $ an On-Chain-Umsatz. Das ist ein Umsatzmultiplikator, der so absurd ist, dass selbst der euphorischste SaaS-Investor zusammenzucken würde.

Was passiert also im März 2026 tatsächlich innerhalb von DePIN — und verdient der Sektor den Hype?

Das Stromnetz bekommt ein Gehirn: Wie DePIN und KI das Energie-Internet aufbauen

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Ihre Hausbatterie die Strompreise mit den Solarmodulen Ihres Nachbarn aushandeln könnte – autonom, in Millisekunden und On-Chain abgerechnet? Dieses Szenario ist nicht mehr nur theoretisch. Im Jahr 2026 verschmelzen dezentrale physische Infrastrukturnetzwerke (DePIN) mit KI-gesteuerter Netzkoordination, um etwas zu schaffen, worüber die Energiewirtschaft seit Jahrzehnten spricht, aber nie geliefert hat: ein wirklich verteiltes, intelligentes Stromnetz.

Das Weltwirtschaftsforum prognostiziert, dass DePIN bis 2028 zu einem Sektor im Wert von 3,5 Bio. $ anwachsen wird, wobei Energie sich als der greifbarste Anwendungsfall herauskristallisiert. Da KI-Rechenzentren bis 2030 voraussichtlich 9 % des US-Stroms verbrauchen werden und der globale Energiebedarf sprunghaft ansteigt, knickt das zentralisierte Versorgermodell unter einem Druck ein, für den es nie ausgelegt war.

EigenLayer überschreitet 18 Mrd. $ an restaked ETH — Ein Blick in die 'Vertical AVS'-Welle, die Ethereums Sicherheitsökonomie neu gestaltet

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn die größte Veränderung im Sicherheitsmodell von Ethereum kein Protokoll-Upgrade wäre – sondern ein ökonomisches? Im Februar 2026 überschritt EigenLayer geräuschlos die Marke von 18 Milliarden USD an restaked ETH über 1.900 aktive Betreiber hinweg und festigte damit das Restaking als das am schnellsten wachsende Primitiv im DeFi-Bereich. Doch die wahre Geschichte ist nicht die TVL-Zahl. Es ist das, was innerhalb der Actively Validated Services (AVS)-Schicht passiert: eine schnelle Spezialisierung auf zweckgebundene „Vertical AVS“, die das Restaking von einer generischen gemeinsamen Sicherheit in das Rückgrat für dezentrale KI, Datenverfügbarkeit und Cross-Chain-Verifizierung verwandeln.

Dies ist nicht mehr nur ein Yield-Play. Restaking wird zur Infrastruktur.

Die Vera-Rubin-Ära: Die Bewältigung der KI-Rechenleistungs- und Versorgungskrise

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jeder Chip, den NVIDIA in den nächsten zwei Jahren herstellen kann, ist bereits vergeben. Auf der GTC 2026 am 16. März stellte Jensen Huang Vera Rubin vor – eine KI-Plattform mit 336 Milliarden Transistoren, die auf dem 3-nm-Verfahren von TSMC basiert. Gleichzeitig bestätigte er, was die Branche bereits befürchtet hatte: HBM4-Speicher ist bis 2026 komplett ausverkauft, und die GPU-Lieferzeiten erstrecken sich nun auf 36 bis 52 Wochen. Für den 19 Milliarden US-Dollar schweren DePIN-Sektor ist diese Versorgungskrise kein Problem. Sie ist die Chance des Jahrzehnts.

Die Vera-Rubin-Architektur: Ein neues Ausmaß an KI-Rechenleistung

Benannt nach der Astronomin, die die Existenz dunkler Materie bewies, stellt Vera Rubin NVIDIAs ehrgeizigsten Plattformsprung seit Blackwell dar. Die Zahlen sind beeindruckend:

  • 336 Milliarden Transistoren auf dem N3P-Node von TSMC – fast die doppelte Dichte von Blackwell
  • 22 TB/s Speicherbandbreite über HBM4 der nächsten Generation von SK Hynix und Samsung
  • NVL72-Konfiguration: 72 Rubin-GPUs und 36 Vera-CPUs, verbunden über das NVLink 6 Fabric, die 3,6 ExaFLOPS an NVFP4-Inferenz und 2,5 ExaFLOPS an Training liefern
  • 5-fache Steigerung des Inferenz-Durchsatzes durch NVIDIAs neues 4-Bit-Gleitkommaformat (NVFP4)

Huang strukturierte die Keynote um das Thema „KI als fünfschichtige Torte“ – Energie, Chips, Infrastruktur, Modelle und Anwendungen. Die erste Schicht erhielt ungewöhnliche Aufmerksamkeit. Rechenzentren verbrauchen bereits 2–3 % des weltweiten Stroms, und Prognosen deuten darauf hin, dass sich dieser Anteil bis 2030 verdreifachen könnte, wenn KI-Workloads skalieren. Huang hob Partnerschaften für erneuerbare Energien hervor, einschließlich digitaler Zwillinge für die Stromerzeugung aus Meereswellen, und signalisierte damit, dass die Versorgung mit Rechenleistung nicht mehr nur ein Silizium-Problem ist – es ist ein Energieproblem.

Erste Vera-Rubin-Muster werden voraussichtlich Ende 2026 an Tier-1-Cloud-Anbieter ausgeliefert, die volle Produktion folgt Anfang 2027. Die nächste Architektur mit dem Codenamen Feynman steht bereits für 2027 auf der Roadmap.

Die Versorgungskrise, die niemand umgehen kann

Während die Spezifikationen von Vera Rubin Schlagzeilen machten, erzählt die zugrunde liegende Liefergeschichte eine dringlichere Geschichte. Die CEOs von TSMC, SK Hynix, Micron, Intel, NVIDIA und Samsung haben alle die gleiche Botschaft übermittelt: Die Nachfrage nach fortschrittlichen Nodes, fortschrittlichem Packaging und HBM steigt viel schneller, als Kapazitäten aufgebaut werden können.

Der Engpass ist umfassend:

  • HBM-Speicher: SK Hynix bestätigte: „Unser gesamter HBM-Vorrat für 2026 ist ausverkauft.“ Micron kann nur 55–60 % der Kernkundennachfrage decken. Samsung und SK Hynix haben die HBM3E-Preise für Verträge im Jahr 2026 um fast 20 % erhöht.
  • Fortschrittliches Packaging: Die CoWoS-Kapazität (Chip-on-Wafer-on-Substrate) von TSMC – entscheidend für die Montage von HBM-Stacks auf GPU-Gehäusen – bleibt bis 2026 ausverkauft.
  • GPU-Zuteilung: Hyperscaler wie Google, Microsoft, Amazon und Meta haben sich mehrjährige Zuteilungen gesichert. Kleinere Unternehmen stehen vor Lieferzeiten von 36 bis 52 Wochen, was sie faktisch bis 2027 oder später von modernster KI-Hardware ausschließt.

Das Ergebnis ist ein zweigeteilter Markt für Rechenleistung. Eine Handvoll Hyperscaler kontrolliert den überwiegenden Teil der GPU-Kapazität der nächsten Generation, während alle anderen – Start-ups, mittelständische Unternehmen, Forschungseinrichtungen und souveräne KI-Initiativen – um das kämpfen, was übrig bleibt.

DePINs Moment: Vom Randphänomen zum Vorreiter

Hier kommen dezentrale physische Infrastrukturnetzwerke ins Spiel. Während kein DePIN-Netzwerk NVIDIA-GPUs aus dem Nichts herstellen kann, lösen diese Netzwerke ein anderes, ebenso kritisches Problem: die Mobilisierung des enormen Pools an unterausgelasteten GPU-Kapazitäten, die weltweit bereits vorhanden sind.

Der DePIN-Rechenleistungssektor ist innerhalb eines Jahres von 5,2 Milliarden US-Dollar auf über 19 Milliarden US-Dollar Marktkapitalisierung gewachsen, und dieses Wachstum wird durch reale Nutzungsdaten gestützt, nicht nur durch Token-Spekulation.

Render Network hat eine Marktkapitalisierung von über 2 Milliarden US-Dollar überschritten, nachdem es vom GPU-Rendering auf KI-Inferenz-Workloads expandiert hat. Der Start von Dispersed – einem dedizierten Subnetz für KI-Workloads – positioniert das Netzwerk an der Schnittstelle von kreativer und KI-Rechenleistung. Render bietet GPU-Rendering mit Einsparungen von bis zu 85 % im Vergleich zu AWS oder Google Cloud an.

Aethir meldete im Jahr 2025 einen Quartalsumsatz von fast 40 Millionen US-Dollar und über 1,4 Milliarden bereitgestellte Rechenstunden für mehr als 150 Unternehmenskunden. Dies ist keine Testnet-Demo. Es ist eine Produktionsinfrastruktur, die echte Einnahmen generiert.

io.net und Nosana erreichten während ihrer Wachstumszyklen jeweils Marktkapitalisierungen von über 400 Millionen US-Dollar, indem sie ungenutzte GPU-Kapazitäten von Rechenzentren, Krypto-Minern und Consumer-Hardware in On-Demand-Rechenpools bündelten.

Der Preisunterschied ist frappierend. Eine NVIDIA H100 auf einem DePIN-Marktplatz kann für vergleichbare Workloads 18- bis 30-mal weniger kosten als bei AWS. Selbst wenn man die Zuverlässigkeitsschwankungen berücksichtigt, die eine gewisse Überdimensionierung erzwingen, bieten DePIN-Netzwerke Kosteneinsparungen von 50–75 % für Batch-Workloads, Inferenzaufgaben und kurzzeitige Trainingsläufe.

Das Kalkül der Unternehmen verschiebt sich

Die Einführung von DePIN-Rechenleistung in Unternehmen folgt einem vorhersehbaren, aber sich beschleunigenden Muster. Die größten Hindernisse waren die Komplexität der Orchestrierung, das Debugging verteilter Fehler, das Fehlen durchsetzbarer SLAs und krypto-native Beschaffungsprozesse, die IT-Abteilungen in Unternehmen nur schwer integrieren können.

Doch 2026 ändert sich das Kalkül. Da der zentralisierte GPU-Zugang faktisch rationiert ist, setzen Unternehmen zunehmend auf hybride Architekturen:

  • Sensible Modelle mit niedriger Latenz laufen lokal auf Edge-Geräten
  • Massive Trainingsaufgaben verbleiben bei Hyperscalern, die sich GPU-Kontingente gesichert haben
  • Flexible Inferenz mit Spitzenkapazitäten wird zur Kostenarbitrage an dezentrale Netzwerke geleitet

Dieses hybride Modell macht DePIN vom „interessanten Experiment“ zum „pragmatischen Überlaufventil“. Wenn Ihr AWS-GPU-Kontingent erschöpft ist und die Warteliste von NVIDIA über Ihre Produktfrist hinausreicht, ist eine Kosteneinsparung von 50 % in einem dezentralen Netzwerk keine philosophische Entscheidung über Dezentralisierung mehr, sondern eine geschäftliche Notwendigkeit.

Die Prognose des Weltwirtschaftsforums für einen DePIN-Markt von 3,5 Billionen US-Dollar bis 2028 impliziert eine außergewöhnliche Wachstumsrate. Selbst bei halbem Tempo wäre DePIN einer der am schnellsten wachsenden Infrastruktursektoren in jeder Branche.

Energie: Der verborgene Engpass hinter dem Chip-Engpass

Huangs Betonung der Energie auf der GTC 2026 war kein Zufall. Der Stromhunger der KI wächst schneller, als die Halbleiter-Lieferkette bewältigen kann. Der derzeitige Stromverbrauch von Rechenzentren liegt bei 2–3 % der weltweiten Erzeugung, aber Prognosen deuten darauf hin, dass KI-Workloads allein dies bis 2030 auf 6–9 % treiben könnten.

Dieser Energieengpass schafft einen weiteren strukturellen Vorteil für DePIN-Netzwerke. Zentralisierte Hyperscaler müssen riesige Rechenzentren an Standorten mit reichlich vorhandenem, erschwinglichem Strom bauen – ein Prozess, der von der Planung bis zum Betrieb 2–4 Jahre dauert. DePIN-Netzwerke hingegen bündeln vorhandene Hardware an vorhandenen Standorten mit vorhandenen Stromanschlüssen. Die Infrastruktur ist bereits angeschlossen.

Projekte an der Schnittstelle von DePIN und Energie, wie dezentrale virtuelle Kraftwerke und tokenisierte Zertifikate für erneuerbare Energien, positionieren sich so, dass sie beide Seiten der Gleichung bedienen: die Bereitstellung von Rechenkapazität bei gleichzeitiger Koordinierung der für deren Betrieb erforderlichen verteilten Energieressourcen.

Was als Nächstes kommt

Die Vera-Rubin-Ära wird die KI-Infrastruktur für die nächsten zwei bis drei Jahre definieren. Aber die Hardware, auf die es am meisten ankommt, ist nicht nur das, was NVIDIA im Jahr 2027 ausliefert – es sind die Millionen von GPUs, die bereits weltweit im Einsatz sind und jeden Tag erhebliche Zeit ungenutzt bleiben.

Drei Dynamiken werden die nächsten 12 Monate prägen:

  1. Die GPU-Knappheit verschärft sich, bevor sie nachlässt. Die Produktion von Vera Rubin wird erst Anfang 2027 nennenswerte Volumina erreichen. Die aktuelle Blackwell-Generation bleibt lieferbeschränkt. DePIN-Netzwerke, die während dieser Lücke die überschüssige Nachfrage auffangen, haben ein Zeitfenster, um die Zuverlässigkeit für Unternehmen im großen Stil zu beweisen.

  2. Hybride Rechenarchitekturen werden zum Standard. Die binäre Wahl zwischen „Hyperscaler oder gar nichts“ löst sich auf. Unternehmen werden Workloads zunehmend auf zentralisierte, Edge- und dezentrale Infrastrukturen aufteilen, basierend auf Anforderungen an Latenz, Kosten und Verfügbarkeit.

  3. Energie wird zum limitierenden Faktor. Selbst wenn sich das Chipangebot irgendwann entspannt, gilt dies möglicherweise nicht für die Stromverfügbarkeit. Das dezentrale Modell von DePIN – das von Natur aus über verschiedene Energiequellen und Regionen verteilt ist – bietet eine strukturelle Widerstandsfähigkeit gegenüber lokalen Strombeschränkungen, die zentralisierte Rechenzentren nicht bieten können.

Die Ironie von NVIDIAs GTC 2026 mag darin liegen, dass die wichtigste Erkenntnis nicht die atemberaubenden Spezifikationen von Vera Rubin waren. Es war die Bestätigung, dass die zentralisierte KI-Infrastruktur, egal wie leistungsfähig sie ist, an physische Grenzen stößt, die keine Ingenieurskunst sofort lösen kann. Für die dezentralen Rechennetzwerke, die im Stillen die ungenutzten GPUs der Welt bündeln, sind diese Grenzen eine offene Tür.


BlockEden.xyz bietet Hochleistungs-RPC- und API-Infrastrukturen für Blockchain-Netzwerke, die die nächste Generation dezentraler Anwendungen vorantreiben – einschließlich der DePIN-Protokolle, die den Rechenlayer von morgen aufbauen. Erkunden Sie unseren API-Marktplatz, um mit dem Aufbau zu beginnen.

Tethers ehrgeiziger Wandel: Vom Stablecoin-Herausgeber zum KI-gesteuerten Infrastruktur-Konglomerat

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Ein Unternehmen, das jährlich 10 Milliarden durchdasHaltenvonUSStaatsanleihenverdient,hatderWeltgerademitgeteilt,dassseinna¨chsterSchrittdieku¨nstlicheIntelligenzist.Am15.Ma¨rzposteteTetherCEOPaoloArdoinoeineneinzigenTeaseraufX–„truebreakthrough“–unddieKryptoKIDiskussionverschobsichu¨berNacht.DerStablecoinRiese,der58durch das Halten von US-Staatsanleihen verdient, hat der Welt gerade mitgeteilt, dass sein nächster Schritt die künstliche Intelligenz ist. Am 15. März postete Tether-CEO Paolo Ardoino einen einzigen Teaser auf X – „true breakthrough“ – und die Krypto-KI-Diskussion verschob sich über Nacht. Der Stablecoin-Riese, der 58 % des 316 Milliarden schweren Stablecoin-Marktes absichert, gibt sich nicht länger damit zufrieden, ein Unternehmen für Finanz-Infrastruktur zu sein. Er will die Rohre, die Wasseraufbereitungsanlage und die Intelligenz besitzen, die entscheidet, wohin das Wasser fließt.

Solanas Moment der Client-Diversität: Firedancer, Agave und das Rennen um eine Million TPS

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jahrelang fungierte Solana als Single-Client-Netzwerk – eine Tatsache, die Kritiker der Community nie vergessen ließen. Eine einzige Codebasis bedeutete, dass ein einziger Satz von Fehlern die gesamte Chain zum Stillstand bringen konnte, was in den Jahren 2022 und 2023 auch wiederholt geschah. Doch innerhalb von zwölf Monaten geschah etwas Bemerkenswertes: Solana entwickelte sich von einer Monokultur zu einem echten Multi-Client-Ökosystem, in dem nun zwei unabhängige Validator-Implementierungen im Live-Betrieb laufen und eine dritte Konsens-Überholung am Horizont steht. Die Frage ist nicht mehr, ob Solana Client-Diversität erreichen kann – sondern ob diese Diversität schnell genug kommt, um mit dem institutionellen Kapital Schritt zu halten, das nun über Spot-ETFs hereinströmt.

AgentMails 6-Millionen-Dollar-Wette: Warum der erste E-Mail-Provider für KI-Agenten zur Identitätsebene der autonomen Wirtschaft werden könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Ein KI-Agent betritt eine SaaS-Plattform und versucht, sich anzumelden. Es gibt kein CAPTCHA, das er lösen kann, keinen OAuth-Flow, den er navigieren kann, und keinen Posteingang, um einen Verifizierungslink zu empfangen. Er ist ausgesperrt — nicht, weil es ihm an Intelligenz mangelt, sondern weil er keine E-Mail-Adresse hat.

Genau diesen absurden Engpass will AgentMail beheben und hat dafür gerade 6 Millionen US-Dollar eingesammelt. Unterstützt von General Catalyst, Y Combinator und Angel-Investoren wie Paul Graham, Dharmesh Shah (HubSpot-CTO), Paul Copplestone (Supabase-CEO) und Karim Atiyeh (Ramp-CTO), baut das Startup den ersten E-Mail-Anbieter, der vollständig für KI-Agenten konzipiert ist.

Dabei ist das Unternehmen möglicherweise auf etwas gestoßen, das weit über E-Mail hinausgeht: die fehlende Identitäts- und Kommunikationsebene für die 52 Milliarden US-Dollar schwere Wirtschaft autonomer Agenten.

Aptos und Jump Crypto führen Shelby ein: Das verifizierbare Hot-Storage-Netzwerk, das die KI-Dateninfrastruktur neu gestalten könnte

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Jedes KI-Modell ist nur so vertrauenswürdig wie die Daten, auf denen es trainiert wurde – dennoch gibt es heute keine zuverlässige Methode, um zu beweisen, woher diese Daten stammen, wem sie gehören oder ob sie unversehrt angekommen sind. Aptos Labs und Jump Crypto sind davon überzeugt, die fehlende Schicht entwickelt zu haben. Ihr neues Protokoll, Shelby, ist das weltweit erste verifizierbare globale Objekt-Speichernetzwerk, das speziell für KI-Lese-Workloads konzipiert wurde, und sein Early-Access-Testnet ist ab sofort live.