メインコンテンツまでスキップ

Vera Rubin時代の幕開け:AI演算と供給危機の克服

· 約 11 分
Dora Noda
Software Engineer

NVIDIA が今後 2 年間に製造できるすべてのチップは、すでに予約済みです。2026 年 3 月 16 日の GTC 2026 において、ジェンスン・フアンは TSMC の 3nm プロセスで構築された 3,360 億個のトランジスタを搭載する AI プラットフォーム「Vera Rubin」を発表しました。同時に、業界が恐れていた事態を認めました。HBM4 メモリは 2026 年まで完全に完売しており、GPU のリードタイムは現在 36 週間から 52 週間に及んでいます。190 億ドル規模の DePIN(分散型物理インフラネットワーク)セクターにとって、この供給危機は問題ではありません。それは、この 10 年で最大のチャンスなのです。

Vera Rubin アーキテクチャ:AI 演算の新たなスケール

暗黒物質の存在を証明した天文学者にちなんで名付けられた Vera Rubin は、Blackwell 以来の NVIDIA の最も野心的なプラットフォームの飛躍を象徴しています。その数値は驚異的です:

  • 3,360 億個のトランジスタ:TSMC の N3P ノードを採用し、Blackwell のほぼ 2 倍の密度を実現
  • 22 TB/s のメモリ帯域幅:SK ハイニックスおよびサムスン電子の次世代 HBM4 経由
  • NVL72 構成:72 基の Rubin GPU と 36 基の Vera CPU が NVLink 6 ファブリックで接続され、3.6 exaFLOPS の NVFP4 推論と 2.5 exaFLOPS の学習性能を提供
  • 5 倍の推論スループット向上:NVIDIA の新しい 4 ビット浮動小数点(NVFP4)フォーマットを使用

フアンは基調講演で「5 層の AI ケーキ」 — エネルギー、チップ、インフラ、モデル、アプリケーション — という概念を提示しました。特に最初の層に異例の重点が置かれました。データセンターはすでに世界の電力の 2 ~ 3% を消費しており、AI ワークロードの拡大に伴い、2030 年までにその割合は 3 倍になると予測されています。フアンは海洋波力発電のデジタルツインを含む再生可能エネルギー・パートナーシップを強調し、演算能力の供給がもはやシリコンだけの問題ではなく、エネルギー問題であることを示唆しました。

Vera Rubin の初期サンプルは 2026 年後半にティア 1 クラウドプロバイダーに出荷され、2027 年初頭にフル生産が開始される予定です。コードネーム「Feynman」と呼ばれる次のアーキテクチャも、すでに 2027 年のロードマップに組み込まれています。

誰もエンジニアリングで回避できない供給危機

Vera Rubin の仕様が注目を集める一方で、その背後にある供給の物語はより深刻な状況を物語っています。TSMC、SK ハイニックス、マイクロン、インテル、NVIDIA、サムスンの CEO たちは一様に、先端プロセス、高度なパッケージング、そして HBM(高帯域幅メモリ)への需要が、生産能力の構築速度をはるかに上回っているというメッセージを発信しています。

ボトルネックは多岐にわたります:

  • HBM メモリ:SK ハイニックスは「2026 年の HBM 供給はすべて完売した」と発表しました。マイクロンは主要顧客の需要の 55 ~ 60% しか満たせません。サムスンと SK ハイニックスは、2026 年の契約において HBM3E の価格を 20% 近く引き上げました。
  • 高度なパッケージング:HBM スタックを GPU パッケージに組み立てるために不可欠な TSMC の CoWoS(Chip-on-Wafer-on-Substrate)容量は、2026 年まで完売したままです。
  • GPU の割り当て:Google、Microsoft、Amazon、Meta といったハイパースケーラーが、数年間にわたる割り当てを確保しています。中小企業や研究機関、国家 AI 構想は 36 ~ 52 週間のリードタイムに直面しており、事実上 2027 年以降まで最先端の AI ハードウェアから締め出されています。

その結果、演算市場は二層化しています。一握りのハイパースケーラーが次世代 GPU 容量の大部分を支配する一方で、スタートアップや中堅企業、研究機関は残されたリソースを奪い合っています。

DePIN の瞬間:非主流から最前線へ

ここで分散型物理インフラネットワーク(DePIN)が登場します。DePIN ネットワークが NVIDIA GPU を何もないところから製造することはできませんが、別の、しかし同様に重要な問題を解決します。それは、世界中にすでに存在する膨大な未利用の GPU 容量を動員することです。

DePIN 演算セクターの時価総額は、わずか 1 年で 52 億ドルから 190 億ドル以上に成長しました。この成長は、単なるトークン投機ではなく、実際の利用指標に裏打ちされています。

Render Network は、GPU レンダリングから AI 推論ワークロードに拡張した後、時価総額 20 億ドルを突破しました。AI ワークロード専用のサブネット「Dispersed」の立ち上げにより、ネットワークはクリエイティブと AI 演算の交差点に位置しています。Render は、AWS や Google Cloud と比較して最大 85% のコスト削減で GPU レンダリングを提供します。

Aethir は、2025 年に約 4,000 万ドルの四半期収益と 14 億時間以上の演算時間を提供し、150 社以上のエンタープライズクライアントにサービスを提供したと報告しました。これはテストネットのデモではなく、実際の収益を生み出している商用インフラです。

io.netNosana は、それぞれの成長サイクルにおいて時価総額 4 億ドルを超え、データセンター、暗号資産マイナー、コンシューマーハードウェアからのアイドル状態の GPU 容量をオンデマンドの演算プールに集約しました。

価格差は顕著です。DePIN マーケットプレイスにおける NVIDIA H100 のコストは、同等のワークロードにおいて AWS の 18 ~ 30 分の 1 になることがあります。信頼性の変動を考慮してオーバープロビジョニングが必要な場合でも、DePIN ネットワークはバッチ処理、推論タスク、短期間のトレーニングにおいて 50 ~ 75% のコスト削減を実現します。

企業の計算が変化する

企業による DePIN 演算の採用は、予測可能ながらも加速するパターンを辿っています。最大の障壁は、オーケストレーションの複雑さ、分散環境でのデバッグの難しさ、強制力のある SLA の欠如、そして企業の IT 部門が統合に苦慮する暗号資産ネイティブな調達ワークフローでした。

しかし、2026 年がその計算を変えています。中央集権的な GPU アクセスが事実上制限される中、企業はますますハイブリッドアーキテクチャを採用しています:

  • 機密性の高い低遅延モデル:エッジデバイス上でローカルに実行
  • 大規模なトレーニング(学習):GPU 割り当てを確保済みのハイパースケーラーを利用
  • 柔軟なバースト容量の推論:コスト裁定のために分散型ネットワークへルーティング

このハイブリッドモデルは、DePIN を「興味深い実験」から「実用的なオーバーフロー弁」へと変貌させます。AWS の GPU 枠が枯渇し、NVIDIA の待機リストが製品のデッドラインを越えて延びているとき、分散型ネットワークによる 50% のコスト削減は、もはや「分散化」という哲学的な選択ではなく、ビジネス上の必然となります。

世界経済フォーラムによる 2028 年までの 3.5 兆ドルの DePIN 市場予測は、並外れた成長率を示唆しています。たとえその半分のペースであっても、DePIN はあらゆる業界で最も急速に成長しているインフラセクターの一つとなるでしょう。

エネルギー:チップ不足の背後に隠れたボトルネック

フアンによる GTC 2026 でのエネルギーの強調は偶然ではありません。AI の電力需要は、半導体のサプライチェーンが対応できる速さを超えて増大しています。現在のデータセンターの電力消費は世界全体の 2 ~ 3% ですが、AI ワークロードだけで 2030 年までに 6 ~ 9% に達する可能性があるとの予測もあります。

このエネルギーのボトルネックは、DePIN ネットワークに別の構造的優位性をもたらします。中央集権的なハイパースケーラーは、豊富で安価な電力がある場所に大規模なデータセンターを建設しなければならず、計画から運用まで 2 ~ 4 年かかります。対照的に、DePIN ネットワークは、既存の場所にある既存の電力接続を備えた既存のハードウェアを集約します。インフラはすでに「接続」されているのです。

分散型仮想発電所やトークン化された再生可能エネルギー・クレジットなど、DePIN とエネルギーの交差点にあるプロジェクトは、演算能力を提供すると同時に、それを動かすために必要な分散型エネルギー資源を調整するという、方程式の両側を担うポジションを確立しようとしています。

次に来るもの

Vera Rubin 時代は、今後 2 ~ 3 年の AI インフラを定義するでしょう。しかし、最も重要なハードウェアは、NVIDIA が 2027 年に出荷するものだけではありません。世界中にすでに導入されており、1 日の大部分をアイドル状態で過ごしている数百万個の GPU です。

今後 12 ヶ月を形作る 3 つの力学:

  1. GPU 不足は緩和される前に激化する。 Vera Rubin の生産が本格化するのは 2027 年初頭です。現在の Blackwell 世代は依然として供給制約にあります。このギャップの間にオーバーフロー需要を取り込む DePIN ネットワークには、エンタープライズ級の信頼性を大規模に証明する好機があります。

  2. ハイブリッド演算アーキテクチャが標準になる。 「ハイパースケーラーか、さもなくばゼロか」という二者択一は消滅しつつあります。企業は遅延、コスト、可用性の要件に基づいて、中央集権型、エッジ、分散型インフラにワークロードをますます分散させるようになります。

  3. エネルギーが最大の制約となる。 チップの供給がいずれ緩和されたとしても、電力の可用性が追いつかない可能性があります。多様なエネルギー源と地域に本質的に分散している DePIN のモデルは、中央集権的なデータセンターでは太刀打ちできない、局所的な電力制約に対する構造的な回復力を提供します。

NVIDIA の GTC 2026 の皮肉な点は、その最も重要な示唆が Vera Rubin の驚異的な仕様ではなかったことかもしれません。それは、中央集権的な AI インフラが、いかに強力であっても、いかなるエンジニアリングもすぐには解決できない物理的な限界に直面しているという事実の裏付けでした。世界のアイドル状態の GPU を静かに集約している分散型演算ネットワークにとって、それらの限界は開かれた扉なのです。


BlockEden.xyz は、次世代の分散型アプリケーションを支えるブロックチェーンネットワーク向けに、高性能な RPC および API インフラを提供しています。これには、明日の演算レイヤーを構築する DePIN プロトコルも含まれます。当社の API マーケットプレイス を探索して、構築を開始しましょう。