Aethir の 94 カ国に及ぶ GPU クラウド:分散型コンピューティングがいかにして地政学的な輸出管理のヘッジ手段となったか
2026 年初頭、米司法省が 1 億 6,000 万ドル規模の NVIDIA チップ中国密輸ルートを解体した際、ある根本的な真実が浮き彫りになりました。それは、中央集権的な GPU サプライチェーンはチョークポイント(急所)であり、チョークポイントは法執行と回避行動の両方を引き寄せるということです。その一方で、94 カ国にまたがり 44 万以上のコンテナを擁する分散型 GPU クラウドが、この議論全体の妥当性を静かに薄めていました。
コンピューティングのための最大の分散型物理インフラストラクチャネットワーク(DePIN)である Aethir は、AWS も密輸ルートも模倣できないものを構築しました。それは、どの政府がデータセンターを管理しているかに関わらず、最も近くにある利用可能な H100 を必要とするクライアントにルーティングする、世界規模で分散された GPU ファブリックです。
誰も解決できなかった GPU 禁輸問題 — 今、解決へ
米中チップ戦争は 2026 年で 4 年目に入り、状況はかつてないほど矛盾を深めています。2025 年 12 月、トランプ大統領は 25% の関税と関係機関の承認を条件に、ケースバイケースで NVIDIA H200 の中国への輸出を許可するよう規制を緩和しました。しかし 2026 年 2 月までに、NVIDIA は依然として出荷を 1 件も確認しておらず、投資家に対し、中国の競合他社が「進歩を遂げており、世界の AI 産業の構造を破壊する可能性がある」と警告しました。
米議会は規制をさらに強化することで応戦しました。共和党議員は先端半導体の輸出を制限する法案を提出し、一方で外交問題評議会は新政策を「戦略的に支離滅裂で執行不能」と批判しました。その結果、GPU へのアクセス環境は以下の要因によって定義されるようになりました:
- データセンター向け GPU の 36 〜 52 週間のリードタイム。2026 年には HBM 価格が 30 〜 40% 上昇すると予測されています。
- 1,010 億ドル規模の AI インフラ市場。年平均成長率(CAGR)14.9% で成長しており、需要が供給を大幅に上回っています。
- 地理的に集中したサプライチェ ーン。これが規制上の単一障害点を生み出しています。
東南アジア、中東、ラテンアメリカ、アフリカの企業にとって、米中の対立に直接関与していない地域であっても、その巻き添え被害は明らかです。輸出規制のために設計された対中制裁が、結果として発展途上国全体の GPU アクセスを制限してしまっています。
Aethir のアーキテクチャ:440K コンテナ、94 カ国、チョークポイントなし
Aethir の答えは、輸出規制を回避することではなく、コンピューティングインフラの地理的な集中を時代遅れにすることです。同ネットワークは、94 カ国の 200 以上の拠点に 440,000 以上の GPU コンテナを展開しており、これには数千台の NVIDIA H100、H200、B200、そして最新の B300 が含まれています。
このアーキテクチャは 3 つの層で機能します:
**コンテナオペレーター(クラウドホスト)**は、エンタープライズグレードの GPU を展開し、ワークロードの処理に対して ATH トークンの報酬を獲得します。大規模な資本支出を通じて数年前から容量が計画される中央集権型クラウドとは異なり、Aethir の供給側は、世界中のオペレーターが GPU をオンラインにすることで有機的に拡張されます。
マッチングレイヤーは、コンピューティング要求を、パフォーマンス要件を満たす最も近い利用可能な GPU にルーティングします。ジャカルタでの AI トレーニングジョブはシンガポールのコンテナに接続され、ラゴスでの推論ワークロードはヨハネスブルグのノードにルーティングされます。クライアントは、ハードウェアの製造国にどの国の輸出法が適用されるかに関わらず、最も近く、最も安価なコンピューティングを利用できます。
エンタープライズ統合により、従来のビジネスでもこれを利用できるようになります。150 社以上のアクティブなクライアント — AI スタートアップから、Xsolla とのパートナーシップを通じて EA、Ubisoft、Activision などの AAA ゲームパブリッシャーに至るまで — が、使い慣れた API を通じてコンピューティングを消費しており、Aethir がその裏で分散型のオーケストレーションを処理しています。
その結果:Aethir は 2025 年第 3 四半期に 3,980 万ドルの収益(前四半期比 22% 増)を報告し、15 億時間以上の計算時間を提供することで、年間経常収益(ARR)は 1 億 4,700 万ドルに達しました。これらはトークン発行で水増しされた見せかけの指標ではなく、実際の GPU サイクルに対して支払いを行っている実際のエンタープライズワークロードを表しています。
地政学的ヘッジというテーゼ
AI コンピュ ーティングの需要が加速するにつれ、Aethir のアーキテクチャの背後にある戦略的洞察はより鮮明になります。IDC は、世界の AI インフラ支出が 2029 年までに 7,580 億ドルに達すると予測しています。AI データセンター市場だけでも、2025 年の 2,360 億ドルから 2030 年には 9,340 億ドルに成長すると予測されています。
中央集権型のモデルでは、この成長のわずかな部分を取り込むだけでも、ますます複雑に絡み合う以下のような課題に対処する必要があります:
- どの GPU をどこに送れるかを制限する米国の輸出規制
- コンピューティング処理の場所を制限するEU のデータ主権規制
- 世界標準を断片化させる中国の並行半導体エコシステム
- 各国がオフショアデータセンターへの依存に抵抗するエネルギー主権への懸念
Aethir の分散型モデルは、構造的にこれらの制約を回避します。ブラジルのコンテナにある GPU は、米国の倉庫を出る GPU と同じ輸出規制の対象にはなりません。3 カ国のコンテナに分割されたトレーニングワークロードは、単一国家のデータ主権ルールに抵触しません。ネットワークは、政策ではなくアーキテクチャを通じて、一種の計算上の「中立性」を生み出します。
Predictive Oncology(NASDAQ: POAI)が ATH デジタルアセットトレジャリーを通じて、世界初の「戦略的コンピューティングリザーブ(Strategic Compute Reserve)」を構築するために 3 億 4,400 万ドルを投じたのはこのためです。そのテーゼは、GPU アクセスがますます政治化する中で、世界中からアクセス可能で、公正な価格設定 がなされ、単一政府の禁輸措置の影響を受けない分散型コンピューティング容量の備蓄を持つことは、エネルギー備蓄に匹敵する戦略的資産になるというものです。
Aethir と他の DePIN コンピュートネットワークの比較
分散型コンピュートの分野は混み合っていますが、その差別化は鮮明です。
Akash Network は、GPU プロバイダーがワークロードを競い合う逆オークションモデルの先駆けとなりました。 430 万ドルの ARR(年間経常収益)を誇る Akash は、その規模に対して DePIN プラットフォームの中で最も高い手数料を生み出していますが、その焦点は依然として開発者向けのコマンドライン主導のワークロードにあります。これは分散型コンピュート界のリナックス(Linux)のような存在であり、強力ですがニッチです。
Render Network(現在は Solana 上の RENDER)は、クリエイティブなレンダリングから汎用 AI コンピュートへと拡大することで、時価総額 20 億ドルを超えました。その強みはレンダリングのパイプラインにありますが、課題はレイテンシと信頼性の要件がより厳しい、より広範な AI 推論市場での競争にあります。
io.net は、138 か国以上にわたる 2,752 個の検証済み GPU と 80,000 個の CPU をカバーするネットワークを報告 しました。同社は「GPU アグリゲーションレイヤー」として位置づけていますが、Aethir のエンタープライズ顧客獲得ペースに追いつくのに苦労しています。
Aethir の差別化は、主に 3 つの要因に集約されます。
- 規模: 440,000 個以上のコンテナに対し、io.net は 2,752 個の検証済み GPU です。この差は桁違いです。
- エンタープライズ収益: ARR 1 億 4,700 万ドルに対し、Akash は 430 万ドルです。Aethir はエンタープライズ向けのゴー・トゥ・マーケット戦略が機能することを証明しました。
- ハードウェア層: 数千台の H100、H200、B200、B300。これらは、多くの DePIN ネットワークで見られるコンシューマーグレードの GPU ではなく、エンタープライズが中央集権型クラウドで使用しているものと同じ GPU です。
すべての DePIN コンピュートプラットフォームは、AWS のオンデマンド料金と比較して 60 ~ 80% のコスト削減を提供します。しかし、ハイパースケールのインフラストラクチャとエンタープライズ向けの営業実行力を、単なる安価な実験ではなく、信頼できる代替手段となるレベルで組み合わせたのは Aethir だけです。
2026 年のビジョン:エージェンティック AI と分散型推論の融合
Aethir の 2026 年に向けたロードマップは、受動的な GPU リースを超えて、エージェンティック AI(Agentic AI)インフラストラクチャへと突き進んでいます。そのビジョンは、人間の介在なしに、自律型 AI エージェントがリアルタイムで GPU 推論を予約、消費、支払いを行うことです。
これは、トレーディング戦略からコードのデプロイ、コンテンツ生成に至るまで、多段階のタスクを自律的に実行する AI エージェントへの広範な市場シフトと一致しています。これらのエージェントはそれぞれ演算能力(コンピュート)を必要としますが、現在のモデル(人間の DevOps エンジニアがクラウドインスタンスをプロビジョニングし、使用状況を監視し、容量を調整する)では、数百万のエージェントがミリ秒レベルの推論ジョブのために GPU を必要とする場合にはスケールしません。
2026 年に計画されている Aethir の V2 メインネットでは、まさにこのユースケース向けに設計された Compute-as-a-Service(CaaS)の料金モデルが導入されます。これは、人間かマシンかを問わず、継続的な収益をもたらすクライアントがプログラム可能なインターフェースを通じて GPU サイクルを消費することを想定しています。
また、同社は Tribe プログラムを 2,000 人以上のメンバーに拡大し、X(旧 Twitter)以外のマルチプラットフォームでのエンゲージメントを強化することで、GPU オペレーター、エンタープライズクライアント、および DePIN ビルダーのコミュニティを育成しています。