DePIN の AI ピボット:分散型インフラがどのようにしてビッグテックの構築しなかった GPU クラウドになったのか
2026 年に最も収益を上げた 3 つの DePIN プロジェクトには、ある共通点があります。それは、すべて AI 企業に GPU コンピューティングを販売しているということです。ストレージでも、ワイヤレス帯域幅でも、センサーデータでもありません。グローバルなテクノロジースタックにおいて最も制約のある単一のリソース、つまり「演算能力(Compute)」です。
その事実こそが、プロダクトマーケットフィット(PMF)を長年模索してきた分散型物理インフラネットワーク(DePIN)が、最終的にどこに辿り着いたかを物語っています。かつてはトークンインセンティブと投機的なフライホイール経済で動いていたこのセクターは、今やテック業界で最も要求の厳しい買い手、すなわち「今すぐにでも GPU を必要としている AI モデル開発者」から 、実質的な収益を上げています。
トークンのフライホイールから収益エンジンへ
DePIN の成り立ちは非常にシンプルでした。トークン報酬を利用して、一社では構築コストが高すぎる物理インフラネットワークをブートストラップするというものです。貢献者はハードウェア(GPU、ルーター、センサー、ストレージドライブ)を提供し、見返りにトークンを受け取ります。ネットワークが拡大するにつれてトークンの価値が上がり、さらに多くの貢献者を惹きつけるという好循環(フライホイール)が期待されていました。
問題は、初期の DePIN プロジェクトの多くが需要側を確保できなかったことです。トークン報酬を求めて貢献者は押し寄せましたが、実際に料金を支払う顧客は不足していました。フライホイールは回っていましたが、一方向にしか進んでいなかったのです。
AI ブームがその方程式を完全に変えました。
世界の AI コンピューティング需要は 2026 年まで前年比 37 % で成長しており、GPU インフラへの支出は 2025 年の 830 億ドルから 2030 年には 3,530 億ドルへと急増すると予測されています。一方、AWS、Azure、Google Cloud などのクラウド GPU の待機リストは、ハイエンドハードウェアの場合、数週間から数ヶ月に及んでいます。大規模なモデルのトレーニングや推論 を行う企業は、深刻な供給制約に直面しており、これこそが分散型ネットワークが解決するために構築された市場の失敗そのものなのです。
転換を裏付ける数字
DePIN セクターは現在、1,500 以上の有効なプロジェクトを擁し、時価総額は合計 300 億ドルから 500 億ドルの間にあります。しかし、収益の集中具合はさらに明確なストーリーを語っています。AI 関連の DePIN プロジェクトがセクター全体の時価総額の 48 % を占めており、収益性の高い上位 3 つのプロジェクト(Aethir、Virtuals Protocol、IONET)は、すべて分散型 AI コンピューティングに焦点を当てています。
ベンチャーキャピタルもこのシグナルに従っています。2024 年 1 月から 2025 年 7 月の間に、165 以上の DePIN スタートアップに 7 億 4,400 万ドル以上が投資され、2025 年単体でのセクター全体の資金調達額は 10 億ドルに迫っています。2026 年 1 月には、Escape Velocity が DePIN の創業者を支援するために 6,200 万ドルのファンドを立ち上げました。これは、インフラレイヤーがエンタープライズ級のワークロードに対応できる準備が整ったという賭けです。
世界経済フォーラム(WEF)はさらに踏み込み、DePIN カテゴリーは 2028 年までに現在の 70 倍にあたる 3 兆 5,000 億ドル規模に成長すると予測しています。WEF のレポートは、この融合を指す新しい用語として「DePAI」(Decentralized Physical AI:分散型物理 AI)を提唱し、AI ワークロードが分散型インフラの主要な商業的推進力となったことを認めています。
Akash Network:マーケットプレイスからハイパースケーラーへ
Akash Network は、分散型マーケットプレイスから AI 対応のコンピューティングプロバイダーへの転換を象徴しています。同プラットフォームは 2025 年後半にかけて前年比 428 % の利用拡大を報告しており、GPU の稼働率は一貫して 80 % を超えています。これは、いかなるクラウドプロバイダーも羨むような指標です。
2025 年第 3 四半期の新規リース作成数は、前四半期比 42 % 増の 19,000 から 27,000 へと急増しました。これは投機的な活動ではなく、真の需要があることを示しています。これらはエアドロップを狙った活動ではなく、対価が支払われたコンピューティングジョブなのです。
最も重要な進展は、プロトコル所有のコンピューティングシステムである Starcluster です。これは Akash にとってこれまでで最も大胆な賭けとなります。Starcluster は、中央管理されたデータセンターと Akash の分散型 GPU マーケットプレイスを組み合わせ、チームが「プラネタリーメッシュ(惑星規模の網)」と呼ぶ、AI のトレーニングと推論に最適化されたネットワークを形成します。この取り組みには、最新世代の最先端 AI モデルを駆動 するのと同等のハードウェアである NVIDIA GB200 GPU を約 7,200 基取得することが含まれており、審査済みのエンタープライズ級データセンター「Nodekeepers」によって運用されます。
このハイブリッドアーキテクチャは、決定論的な遅延と大規模な並列スループットを要求するワークロードにおいて、純粋な分散化には限界があるという現実を認めたものです。Starcluster は、クリプトネイティブな理想主義と企業の要求事項との間のギャップを埋め、これまで AWS や CoreWeave が独占していたハイパースケール AI 契約を Akash が奪い合える位置につけています。
Render Network:推論への注力
Akash がコンピューティングの全領域をターゲットにしているのに対し、Render Network は、2026 年までに AI コンピューティング全体の 3 分の 2 を占めると予測されるワークロードカテゴリである「AI 推論」に戦略的な賭けをしています。
その論理は理にかなっています。大規模モデルのトレーニングには、数週間にわたって稼働する数千個の GPU の集中クラスターが必要です。一方、推論(予測、テキスト、画像を生成するためにトレーニング済みモデルを実行すること)は、はるかに分散化されています。推論はあらゆる場所で、常に発生し、エッジ(端末側)での処理がますます増えています。このワークロードの特性は、各地に散らばった GPU ノードによる分散型ネットワークと自然に適合します。
Render は 2025 年 12 月、AI 推論およびエッジ機械学習専用のコンピューティングサブネットとして「Dispersed」を立ち上げました。このプラットフォームは、全世界で 5,600 以上の有効な GPU ノードに拡大しており、要求の厳しいワークロードに対応するためにエンタープライズ級の NVIDIA H200 ハードウェアを統合しています。
現実社会での採用も、概念実証(PoC)の段階を超えつつあります。AI 金融信託会社である Jember は、非同期推論ワークフローに Render のインフラを使用しており、分散型コンピューティングがいかに規制の厳しい業界で検証可能な AI システムを支えることができるかを示しています。THINK は、オンチェーン AI エージェント構築のためのパーミッションレスなプロトコル「Think Agent Standard」をサポートするために Render ノードを導入しています。これは 1 年前にはほとんど存在しなかったユースケースです。
CES 2026 において、Render はエッジ ML ワークロードに対する爆発的な GPU 需要をターゲットとしたパートナーシップを発表しました。これは、クリエイティブなレンダリングという出自から、汎用的な AI コンピューティングへの拡大に成功したことを示しています。3D レンダリングと AI 推論の両方に対応できるネットワークの二重用途能力は、AI コンピューティングのみを専門とするネットワークにはない収益の多様性を提供しています。
io.net: アグリゲーション・レイヤー
io.net は異なるアーキテクチャ・アプローチを採用しています。垂直統合型のコンピューティング・ネットワークを構築するのではなく、io.net は GPU の供給を大規模に調達・プールし、その容量を買い手に対してクラウドのような抽象化を通じて提供する「アグリゲーション・レイヤー(集約層)」として自らを位置づけています。
このアグリゲーション優先のモデルは、DePIN が抱え続けてきた課題の一つである「供給の断片化」に対処するものです。個々の GPU 貢献者は、アイドル状態の RTX 4090 を持つゲーミング PC 所有者から、A100 のラックを保有する小規模なデータセンター事業者まで多岐にわたります。アグリゲーションがなければ、この供給はエンタープライズ・ワークロードにとってあまりに不均一で信頼性に欠けるものとなります。io.net の抽象化レイヤーは体験を標準化し、分散型の GPU 容量を従来のクラウド API のように感じさせます。
このアプローチは、実用的な使いやすさのために分散化の純粋さをいくらか犠牲にしています。これは、勝利を収める DePIN 戦略をますます定義づけるようになっているトレードオフです。
真に重要なコストの優位性
DePIN の最も説得力のあるバリュープロポジションは、極めてシンプルです。分散型コンピューティングのコストは、中央集権型のクラウドと比較して 50 ~ 85% 低くなります。
これはわずかな節約ではありません。AWS の GPU インスタンスに毎月 500,000 ドルを費やしている AI スタートアップにとって、分散型コンピューティングへの切り替えは、コストを 75,000 ドルから 250,000 ドルにまで削減できる可能性があります。エンタープライズ規模では、この節約が積み重なり、競争上の優位性、あるいは企業の存続に直結します。
このコスト構造が成立するのは、DePIN ネットワークが専用のデータセンターを構築するのではなく、既存のアイドル状態の容量を収益化するためです。貢献者が設備投資(CapEx)を負担し、プロトコルがオーケストレーションを処理します。買い手は消費したコンピューティング分のみを支払います。大規模な先行投資も、不動産コストも、価格に転嫁すべき冷却インフラの減価償却もありません。
このモデルには限界もあります。すべてのワークロードが、分散型コンピューティングのレイテンシの変動や信頼性のトレードオフを許容できるわけではありません。しかし、推論(Inference)、バッチ処理、ファインチューニング、そして多くの学習構成において、その経済性はますます決定的なものとなっています。
投機からインフラへ
DePIN セクターの AI へのピボットは、クリプトの世界では珍しい「投機主導から実用主導の経済」への真の移行を象徴しています。ネットワークの収益が、トークン価格を憶測するトレーダーからではなく、GPU 時間に対して支払う AI 企業から得られるようになると、評価の枠組みは根本的に変わります。
いくつかの構造的なトレンドが、この軌道を後押ししています:
-
推論の優位性: AI が学習からデプロイメントへと移行するにつれ、コンピューティングに占める推論の割合が増加しています。推論は本質的に分散可能であり、多くのアプリケーションでレイテンシを許容できるため、分散型アーキテクチャに適しています。
-
企業へのコスト圧力: 現在のクラウド価格では、ほとんどの企業にとって AI インフラコストは維持不可能です。DePIN ネットワークが提供する 50 ~ 85% のコスト削減は、単なるクリプト・ネイティブな実験ではなく、本物の需要(プル・デマンド)を生み出しています。
-
規制の追い風: EU やインド、その他の法域におけるデータ主権の要件は、データをローカルで処理できる地理的に分散されたコンピューティングを支持しています。DePIN の分散型ノード・アーキテクチャは、これに自然に適合します。
-
ハードウェアの民主化: GPU の各世代交代により、前世代は安価になりますが、依然として高い能力を維持します。DePIN ネットワークは、クラウド・プロバイダーが引退させるようなハードウェアの稼働寿命を延ばし、成長し続ける供給プールを創出します。