Direkt zum Hauptinhalt

187 Beiträge getaggt mit „KI“

Künstliche Intelligenz und Machine-Learning-Anwendungen

Alle Tags anzeigen

Das Stromnetz bekommt ein Gehirn: Wie DePIN und KI das Energie-Internet aufbauen

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Was wäre, wenn Ihre Hausbatterie die Strompreise mit den Solarmodulen Ihres Nachbarn aushandeln könnte – autonom, in Millisekunden und On-Chain abgerechnet? Dieses Szenario ist nicht mehr nur theoretisch. Im Jahr 2026 verschmelzen dezentrale physische Infrastrukturnetzwerke (DePIN) mit KI-gesteuerter Netzkoordination, um etwas zu schaffen, worüber die Energiewirtschaft seit Jahrzehnten spricht, aber nie geliefert hat: ein wirklich verteiltes, intelligentes Stromnetz.

Das Weltwirtschaftsforum prognostiziert, dass DePIN bis 2028 zu einem Sektor im Wert von 3,5 Bio. $ anwachsen wird, wobei Energie sich als der greifbarste Anwendungsfall herauskristallisiert. Da KI-Rechenzentren bis 2030 voraussichtlich 9 % des US-Stroms verbrauchen werden und der globale Energiebedarf sprunghaft ansteigt, knickt das zentralisierte Versorgermodell unter einem Druck ein, für den es nie ausgelegt war.

ICPs Mission 70: Können eine 70 %ige Inflationssenkung und ein Sovereign AI Deal mit Pakistan den Internet Computer retten?

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Eine Blockchain, die AWS ersetzen will, hat gerade eine Nation von 240 Millionen Menschen davon überzeugt, es zu versuchen. Und sie reduziert dabei ihren eigenen Token-Vorrat um 70 %, während sie dies tut.

Im Januar 2026 veröffentlichte die DFINITY Foundation ein Whitepaper, das den Kurs von ICP innerhalb einer einzigen Woche um 25 % ansteigen ließ. Der Vorschlag namens „Mission 70“ zielt auf eine drastische Reduzierung der jährlichen Inflation von ICP von 9,72 % auf nur noch 2,92 % ab – eine Senkung um 70 %, die die Angebotsdynamik des Tokens grundlegend umstrukturieren würde. Wochen später unterzeichnete die Digital Authority Pakistans eine bahnbrechende Partnerschaft zum Aufbau einer souveränen Cloud- und KI-Infrastruktur auf dem Internet Computer. Und im März listete Südkoreas größte Börse, Upbit, ICP mit vollständigen KRW-Handelspaaren, was die Schleusen zu einem der aktivsten Retail-Märkte der Kryptowelt öffnete.

Diese drei Entwicklungen – eine Reform der Tokenomics, eine Partnerschaft mit einem souveränen Staat und die Expansion an großen Börsen – stellen den am besten koordinierten Vorstoß des Internet Computer für Relevanz seit seinem kontroversen 9-Milliarden-Dollar-Launch im Jahr 2021 dar. Doch kann in einem Markt, in dem Bittensor eine Bewertung von 3,4 Milliarden Dollar erreicht und zentralisierte KI-Labore 99 % der weltweiten Inferenz dominieren, die einzigartige „World Computer“-These von ICP noch ihr Publikum finden?

Die Vera-Rubin-Ära: Die Bewältigung der KI-Rechenleistungs- und Versorgungskrise

· 8 Min. Lesezeit
Dora Noda
Software Engineer

Jeder Chip, den NVIDIA in den nächsten zwei Jahren herstellen kann, ist bereits vergeben. Auf der GTC 2026 am 16. März stellte Jensen Huang Vera Rubin vor – eine KI-Plattform mit 336 Milliarden Transistoren, die auf dem 3-nm-Verfahren von TSMC basiert. Gleichzeitig bestätigte er, was die Branche bereits befürchtet hatte: HBM4-Speicher ist bis 2026 komplett ausverkauft, und die GPU-Lieferzeiten erstrecken sich nun auf 36 bis 52 Wochen. Für den 19 Milliarden US-Dollar schweren DePIN-Sektor ist diese Versorgungskrise kein Problem. Sie ist die Chance des Jahrzehnts.

Die Vera-Rubin-Architektur: Ein neues Ausmaß an KI-Rechenleistung

Benannt nach der Astronomin, die die Existenz dunkler Materie bewies, stellt Vera Rubin NVIDIAs ehrgeizigsten Plattformsprung seit Blackwell dar. Die Zahlen sind beeindruckend:

  • 336 Milliarden Transistoren auf dem N3P-Node von TSMC – fast die doppelte Dichte von Blackwell
  • 22 TB/s Speicherbandbreite über HBM4 der nächsten Generation von SK Hynix und Samsung
  • NVL72-Konfiguration: 72 Rubin-GPUs und 36 Vera-CPUs, verbunden über das NVLink 6 Fabric, die 3,6 ExaFLOPS an NVFP4-Inferenz und 2,5 ExaFLOPS an Training liefern
  • 5-fache Steigerung des Inferenz-Durchsatzes durch NVIDIAs neues 4-Bit-Gleitkommaformat (NVFP4)

Huang strukturierte die Keynote um das Thema „KI als fünfschichtige Torte“ – Energie, Chips, Infrastruktur, Modelle und Anwendungen. Die erste Schicht erhielt ungewöhnliche Aufmerksamkeit. Rechenzentren verbrauchen bereits 2–3 % des weltweiten Stroms, und Prognosen deuten darauf hin, dass sich dieser Anteil bis 2030 verdreifachen könnte, wenn KI-Workloads skalieren. Huang hob Partnerschaften für erneuerbare Energien hervor, einschließlich digitaler Zwillinge für die Stromerzeugung aus Meereswellen, und signalisierte damit, dass die Versorgung mit Rechenleistung nicht mehr nur ein Silizium-Problem ist – es ist ein Energieproblem.

Erste Vera-Rubin-Muster werden voraussichtlich Ende 2026 an Tier-1-Cloud-Anbieter ausgeliefert, die volle Produktion folgt Anfang 2027. Die nächste Architektur mit dem Codenamen Feynman steht bereits für 2027 auf der Roadmap.

Die Versorgungskrise, die niemand umgehen kann

Während die Spezifikationen von Vera Rubin Schlagzeilen machten, erzählt die zugrunde liegende Liefergeschichte eine dringlichere Geschichte. Die CEOs von TSMC, SK Hynix, Micron, Intel, NVIDIA und Samsung haben alle die gleiche Botschaft übermittelt: Die Nachfrage nach fortschrittlichen Nodes, fortschrittlichem Packaging und HBM steigt viel schneller, als Kapazitäten aufgebaut werden können.

Der Engpass ist umfassend:

  • HBM-Speicher: SK Hynix bestätigte: „Unser gesamter HBM-Vorrat für 2026 ist ausverkauft.“ Micron kann nur 55–60 % der Kernkundennachfrage decken. Samsung und SK Hynix haben die HBM3E-Preise für Verträge im Jahr 2026 um fast 20 % erhöht.
  • Fortschrittliches Packaging: Die CoWoS-Kapazität (Chip-on-Wafer-on-Substrate) von TSMC – entscheidend für die Montage von HBM-Stacks auf GPU-Gehäusen – bleibt bis 2026 ausverkauft.
  • GPU-Zuteilung: Hyperscaler wie Google, Microsoft, Amazon und Meta haben sich mehrjährige Zuteilungen gesichert. Kleinere Unternehmen stehen vor Lieferzeiten von 36 bis 52 Wochen, was sie faktisch bis 2027 oder später von modernster KI-Hardware ausschließt.

Das Ergebnis ist ein zweigeteilter Markt für Rechenleistung. Eine Handvoll Hyperscaler kontrolliert den überwiegenden Teil der GPU-Kapazität der nächsten Generation, während alle anderen – Start-ups, mittelständische Unternehmen, Forschungseinrichtungen und souveräne KI-Initiativen – um das kämpfen, was übrig bleibt.

DePINs Moment: Vom Randphänomen zum Vorreiter

Hier kommen dezentrale physische Infrastrukturnetzwerke ins Spiel. Während kein DePIN-Netzwerk NVIDIA-GPUs aus dem Nichts herstellen kann, lösen diese Netzwerke ein anderes, ebenso kritisches Problem: die Mobilisierung des enormen Pools an unterausgelasteten GPU-Kapazitäten, die weltweit bereits vorhanden sind.

Der DePIN-Rechenleistungssektor ist innerhalb eines Jahres von 5,2 Milliarden US-Dollar auf über 19 Milliarden US-Dollar Marktkapitalisierung gewachsen, und dieses Wachstum wird durch reale Nutzungsdaten gestützt, nicht nur durch Token-Spekulation.

Render Network hat eine Marktkapitalisierung von über 2 Milliarden US-Dollar überschritten, nachdem es vom GPU-Rendering auf KI-Inferenz-Workloads expandiert hat. Der Start von Dispersed – einem dedizierten Subnetz für KI-Workloads – positioniert das Netzwerk an der Schnittstelle von kreativer und KI-Rechenleistung. Render bietet GPU-Rendering mit Einsparungen von bis zu 85 % im Vergleich zu AWS oder Google Cloud an.

Aethir meldete im Jahr 2025 einen Quartalsumsatz von fast 40 Millionen US-Dollar und über 1,4 Milliarden bereitgestellte Rechenstunden für mehr als 150 Unternehmenskunden. Dies ist keine Testnet-Demo. Es ist eine Produktionsinfrastruktur, die echte Einnahmen generiert.

io.net und Nosana erreichten während ihrer Wachstumszyklen jeweils Marktkapitalisierungen von über 400 Millionen US-Dollar, indem sie ungenutzte GPU-Kapazitäten von Rechenzentren, Krypto-Minern und Consumer-Hardware in On-Demand-Rechenpools bündelten.

Der Preisunterschied ist frappierend. Eine NVIDIA H100 auf einem DePIN-Marktplatz kann für vergleichbare Workloads 18- bis 30-mal weniger kosten als bei AWS. Selbst wenn man die Zuverlässigkeitsschwankungen berücksichtigt, die eine gewisse Überdimensionierung erzwingen, bieten DePIN-Netzwerke Kosteneinsparungen von 50–75 % für Batch-Workloads, Inferenzaufgaben und kurzzeitige Trainingsläufe.

Das Kalkül der Unternehmen verschiebt sich

Die Einführung von DePIN-Rechenleistung in Unternehmen folgt einem vorhersehbaren, aber sich beschleunigenden Muster. Die größten Hindernisse waren die Komplexität der Orchestrierung, das Debugging verteilter Fehler, das Fehlen durchsetzbarer SLAs und krypto-native Beschaffungsprozesse, die IT-Abteilungen in Unternehmen nur schwer integrieren können.

Doch 2026 ändert sich das Kalkül. Da der zentralisierte GPU-Zugang faktisch rationiert ist, setzen Unternehmen zunehmend auf hybride Architekturen:

  • Sensible Modelle mit niedriger Latenz laufen lokal auf Edge-Geräten
  • Massive Trainingsaufgaben verbleiben bei Hyperscalern, die sich GPU-Kontingente gesichert haben
  • Flexible Inferenz mit Spitzenkapazitäten wird zur Kostenarbitrage an dezentrale Netzwerke geleitet

Dieses hybride Modell macht DePIN vom „interessanten Experiment“ zum „pragmatischen Überlaufventil“. Wenn Ihr AWS-GPU-Kontingent erschöpft ist und die Warteliste von NVIDIA über Ihre Produktfrist hinausreicht, ist eine Kosteneinsparung von 50 % in einem dezentralen Netzwerk keine philosophische Entscheidung über Dezentralisierung mehr, sondern eine geschäftliche Notwendigkeit.

Die Prognose des Weltwirtschaftsforums für einen DePIN-Markt von 3,5 Billionen US-Dollar bis 2028 impliziert eine außergewöhnliche Wachstumsrate. Selbst bei halbem Tempo wäre DePIN einer der am schnellsten wachsenden Infrastruktursektoren in jeder Branche.

Energie: Der verborgene Engpass hinter dem Chip-Engpass

Huangs Betonung der Energie auf der GTC 2026 war kein Zufall. Der Stromhunger der KI wächst schneller, als die Halbleiter-Lieferkette bewältigen kann. Der derzeitige Stromverbrauch von Rechenzentren liegt bei 2–3 % der weltweiten Erzeugung, aber Prognosen deuten darauf hin, dass KI-Workloads allein dies bis 2030 auf 6–9 % treiben könnten.

Dieser Energieengpass schafft einen weiteren strukturellen Vorteil für DePIN-Netzwerke. Zentralisierte Hyperscaler müssen riesige Rechenzentren an Standorten mit reichlich vorhandenem, erschwinglichem Strom bauen – ein Prozess, der von der Planung bis zum Betrieb 2–4 Jahre dauert. DePIN-Netzwerke hingegen bündeln vorhandene Hardware an vorhandenen Standorten mit vorhandenen Stromanschlüssen. Die Infrastruktur ist bereits angeschlossen.

Projekte an der Schnittstelle von DePIN und Energie, wie dezentrale virtuelle Kraftwerke und tokenisierte Zertifikate für erneuerbare Energien, positionieren sich so, dass sie beide Seiten der Gleichung bedienen: die Bereitstellung von Rechenkapazität bei gleichzeitiger Koordinierung der für deren Betrieb erforderlichen verteilten Energieressourcen.

Was als Nächstes kommt

Die Vera-Rubin-Ära wird die KI-Infrastruktur für die nächsten zwei bis drei Jahre definieren. Aber die Hardware, auf die es am meisten ankommt, ist nicht nur das, was NVIDIA im Jahr 2027 ausliefert – es sind die Millionen von GPUs, die bereits weltweit im Einsatz sind und jeden Tag erhebliche Zeit ungenutzt bleiben.

Drei Dynamiken werden die nächsten 12 Monate prägen:

  1. Die GPU-Knappheit verschärft sich, bevor sie nachlässt. Die Produktion von Vera Rubin wird erst Anfang 2027 nennenswerte Volumina erreichen. Die aktuelle Blackwell-Generation bleibt lieferbeschränkt. DePIN-Netzwerke, die während dieser Lücke die überschüssige Nachfrage auffangen, haben ein Zeitfenster, um die Zuverlässigkeit für Unternehmen im großen Stil zu beweisen.

  2. Hybride Rechenarchitekturen werden zum Standard. Die binäre Wahl zwischen „Hyperscaler oder gar nichts“ löst sich auf. Unternehmen werden Workloads zunehmend auf zentralisierte, Edge- und dezentrale Infrastrukturen aufteilen, basierend auf Anforderungen an Latenz, Kosten und Verfügbarkeit.

  3. Energie wird zum limitierenden Faktor. Selbst wenn sich das Chipangebot irgendwann entspannt, gilt dies möglicherweise nicht für die Stromverfügbarkeit. Das dezentrale Modell von DePIN – das von Natur aus über verschiedene Energiequellen und Regionen verteilt ist – bietet eine strukturelle Widerstandsfähigkeit gegenüber lokalen Strombeschränkungen, die zentralisierte Rechenzentren nicht bieten können.

Die Ironie von NVIDIAs GTC 2026 mag darin liegen, dass die wichtigste Erkenntnis nicht die atemberaubenden Spezifikationen von Vera Rubin waren. Es war die Bestätigung, dass die zentralisierte KI-Infrastruktur, egal wie leistungsfähig sie ist, an physische Grenzen stößt, die keine Ingenieurskunst sofort lösen kann. Für die dezentralen Rechennetzwerke, die im Stillen die ungenutzten GPUs der Welt bündeln, sind diese Grenzen eine offene Tür.


BlockEden.xyz bietet Hochleistungs-RPC- und API-Infrastrukturen für Blockchain-Netzwerke, die die nächste Generation dezentraler Anwendungen vorantreiben – einschließlich der DePIN-Protokolle, die den Rechenlayer von morgen aufbauen. Erkunden Sie unseren API-Marktplatz, um mit dem Aufbau zu beginnen.

AgentKit: Überbrückung der Vertrauenslücke im Agentic Commerce

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Wenn ein KI-Agent ein Restaurant reserviert, Konzertkarten kauft oder in Ihrem Namen einen Preis aushandelt, steht die Website am anderen Ende vor einer Frage, die sie sich noch nie zuvor stellen musste: Steckt tatsächlich ein Mensch hinter dieser Software?

Am 17. März 2026 antworteten Sam Altmans World und Coinbase mit AgentKit – einem Entwickler-Toolkit, das es KI-Agenten ermöglicht, einen kryptografischen Nachweis der menschlichen Unterstützung zu führen, der direkt in die Zahlungsebene des Internets eingebettet ist.

Das Timing ist kein Zufall. McKinsey prognostiziert, dass der Agentic Commerce – Transaktionen, die von autonomen KI-Programmen initiiert und abgeschlossen werden – bis 2030 weltweit 3 bis 5 Billionen US-Dollar erreichen könnte. Morgan Stanley schätzt, dass bis Ende des Jahrzehnts allein 190 bis 385 Milliarden US-Dollar der E-Commerce-Ausgaben in den USA über KI-Agenten fließen werden. Doch während sich diese Agenten vervielfachen, vergrößert sich auch die Angriffsfläche. Eine Person, die tausend Bots betreibt, um Tickets zu ergattern, begrenzte Bestände zu leeren oder Treueprogramme zu manipulieren, sieht identisch aus wie tausend legitime Kunden – es sei denn, man kann die Menschen hinter den Maschinen verifizieren.

80 % der Fortune 500 nutzen jetzt KI-Agenten — und Alchemy hat ihnen gerade Krypto-Wallets gegeben

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Vier von fünf Fortune-500-Unternehmen setzen mittlerweile autonome KI-Agenten ein. Die meisten dieser Agenten können jedoch noch nicht eigenständig Zahlungen tätigen. Diese Lücke – zwischen dem, was Enterprise-KI tun kann, und dem, was sie ausgeben kann – schließt sich schneller, als fast jeder vorhergesagt hat, und die Auswirkungen auf die Blockchain-Infrastruktur sind enorm.

Krypto-Entwickleraktivität sinkt um 75 %: Tötet KI Web3-Open-Source oder erschafft sie eine neue 10x-Ära?

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Die wöchentlichen Krypto-Commits sind seit Anfang 2025 von 871.000 auf 218.000 eingebrochen. Die Zahl der aktiven Blockchain-Entwickler ist um 56 % gesunken. Dennoch werden die Entwicklungszyklen von Protokollen tatsächlich schneller. Was ist da los?

Die Zahlen, die aus den neuesten Entwickler-Tracking-Daten von Electric Capital hervorgehen und im März 2026 von CoinDesk, BitKE und anderen gemeldet wurden, zeichnen ein Bild, das oberflächlich betrachtet katastrophal wirkt. Wenn man jedoch tiefer gräbt, kommt eine differenziertere Geschichte zum Vorschein – eine, in der künstliche Intelligenz gleichzeitig Talente aus dem Krypto-Sektor abzieht, die verbleibenden Entwickler massiv stärkt und ein grundlegendes Umdenken darüber erzwingt, wie wir die Gesundheit von Open Source messen.

ERC-8183 erklärt: Wie Ethereums neuer Standard KI-Agenten ermöglicht, sich gegenseitig on-chain einzustellen, zu bezahlen und einander zu vertrauen

· 10 Min. Lesezeit
Dora Noda
Software Engineer

Wenn zwei Menschen ein Geschäft abschließen, verlassen sie sich auf Verträge, Gerichte und Reputation. Wenn zwei KI-Agenten zusammenarbeiten müssen, existiert nichts von dieser Infrastruktur — bis jetzt. Am 10. März 2026 stellten das dAI-Team der Ethereum Foundation und Virtuals Protocol den ERC-8183 vor, einen Standard, der autonomen KI-Agenten die Fähigkeit verleiht, einander einzustellen, Zahlungen treuhänderisch zu verwalten (escrow) und abgeschlossene Arbeiten vollständig on-chain zu verifizieren, ohne dass ein menschlicher Vermittler erforderlich ist.

Dies ist keine reine Whitepaper-Übung. Es erscheint in einem Markt, in dem bereits über 130.000 KI-Agenten unter dem Identitätsstandard ERC-8004 on-chain registriert sind, das x402-Protokoll von Coinbase Machine-to-Machine-Zahlungen über HTTP verarbeitet und 80 % der Fortune-500-Unternehmen mittlerweile aktive KI-Agenten in ihren Betrieben einsetzen. ERC-8183 schließt die fehlende Lücke: eine trustless Koordinationsschicht, die isolierte Agenten in eine funktionierende Wirtschaft verwandelt.

Tethers ehrgeiziger Wandel: Vom Stablecoin-Herausgeber zum KI-gesteuerten Infrastruktur-Konglomerat

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Ein Unternehmen, das jährlich 10 Milliarden durchdasHaltenvonUSStaatsanleihenverdient,hatderWeltgerademitgeteilt,dassseinna¨chsterSchrittdieku¨nstlicheIntelligenzist.Am15.Ma¨rzposteteTetherCEOPaoloArdoinoeineneinzigenTeaseraufX–„truebreakthrough“–unddieKryptoKIDiskussionverschobsichu¨berNacht.DerStablecoinRiese,der58durch das Halten von US-Staatsanleihen verdient, hat der Welt gerade mitgeteilt, dass sein nächster Schritt die künstliche Intelligenz ist. Am 15. März postete Tether-CEO Paolo Ardoino einen einzigen Teaser auf X – „true breakthrough“ – und die Krypto-KI-Diskussion verschob sich über Nacht. Der Stablecoin-Riese, der 58 % des 316 Milliarden schweren Stablecoin-Marktes absichert, gibt sich nicht länger damit zufrieden, ein Unternehmen für Finanz-Infrastruktur zu sein. Er will die Rohre, die Wasseraufbereitungsanlage und die Intelligenz besitzen, die entscheidet, wohin das Wasser fließt.

World's AgentKit verleiht KI-Agenten einen menschlichen Pass – und es könnte die Art und Weise, wie das gesamte Internet mit Vertrauen umgeht, neu gestalten

· 9 Min. Lesezeit
Dora Noda
Software Engineer

Jedes Mal, wenn Sie ein Restaurant über einen KI-Assistenten buchen, spielt sich hinter den Kulissen eine stille Krise ab. Die Website des Restaurants kann nicht feststellen, ob Ihr Agent ein rechtmäßiger Käufer ist, hinter dem eine echte Person steht, oder ein Scalper-Bot, der Reservierungen für den Wiederverkauf hortet. Multiplizieren Sie diese Unsicherheit mit Flugtickets, Konzertplätzen, Anmeldungen für kostenlose Testversionen und Finanztransaktionen, und Sie beginnen das Ausmaß des Problems zu erkennen: Da KI-Agenten das Internet mit autonomen Anfragen überfluten, bricht die Vertrauensarchitektur des Internets zusammen.

Am 17. März 2026 brachte World – das von Sam Altman mitbegründete Identitätsnetzwerk – AgentKit auf den Markt, ein Entwickler-Toolkit, mit dem KI-Agenten einen kryptografischen Nachweis erbringen können, dass ein einzigartiger, verifizierter Mensch hinter ihnen steht. Integriert mit Coinbase und dem x402-Zahlungsprotokoll von Cloudflare positioniert sich AgentKit als Identitätsebene für eine Agenten-Ökonomie, die Analysten bis 2030 auf 3 bis 5 Billionen US-Dollar schätzen.