io.net Agent Cloud: AI エージェントが自ら GPU を購入し始めるとき
2026 年 3 月 25 日、io.net は「分散型コンピューティング」の意味を静かに再定義するスイッチを入れました。その新しい Agent Cloud は、もはやキーボードの前に人間を必要としません。AI エージェント(エンジニアでも、調達チームでも、DevOps でもありません)が、チケットの発行や KYC フォームの入力、ログインなどを一切行わずに、自律的に GPU をレンタルし、ワークロードを実行し、ステーブルコインで決済を行い、すべてを終了させることができるようになったのです。
これこそが、DePIN 業界が 2 年間にわたって模索してきた転換点です。「RTX 3090 を接続してパッシブ報酬を得る」という暗号資産マイニング・スタイルの時代は終わりを告げようとしています。それに代わるのは、顧客がソフトウェアであり、サプライヤーもソフトウェアであり、交渉のすべてが Model Context Protocol (MCP) の呼び出しとオンチェーン決済を通じて行われる市場です。io.net は、その未来を完全に製品化した最初のネットワークとなりました。そして同時に、他のすべての DePIN GPU プロジェクトに対し、「買い手がマシンであるとき、あなたのネットワークはどのような姿になりますか?」という新たな問いを突きつけたのです。
3 万台の GPU から買い手側の革命へ
io.net は、生のコンテナ数で言えば最大の分散型 GPU ネットワークではありません。その称号は、93 か国で 435,000 以上の GPU コンテナを企業と結びつけている Aethir に与えられます。io.net のマーケットプレイスには、130 か国以上 138 リージョンにわたる約 30,000 台の GPU が掲載されています。これは規模こそ小さいものの、地理的にはより分散されており、決済は Solana に固定されています。
2026 年 3 月に変わったのは、供給側ではありません。需要側です。これまで、Akash、Render、Aethir、Fluence、そして io.net 自身を含むすべての分散型 GPU マーケットプレイスは、人間のユーザーを想定していました。開発者がサインアップし、ウォレットを連携し、GPU の SKU を選択し、EULA に同意し、Docker を設定し、ダッシュボードを監視する。すべてのステップが人間のペースで行われていました。
Agent Cloud は人間を完全に排除します。このプラットフォームは、自律型エージェントが以下のことを行えるようにする MCP ライブラリを公開しています:
- 130 か国以上にわたる利用可能な GPU クラスターの検索
- エージェントのメモリと状態を内蔵した、永続的なコンピューティング環境の立ち上げ
- OAuth フロー、KYC、企業向けオンボーディングなしでの認証
- USDC または法定通貨(自動的に IO に変換)での支払い。0.25% の予約手数料が発生しますが、IO で直接決済する場合は 2% の仲介手数料が免除されます
- 自身のワークロード信号に基づいたリソースのスケールアップ・ダウン
- 内蔵のメッセージング API を介した他のエージェントとの相互通信
コストの差が大きな魅力です。io.net は、H100 および H200 へのアクセスを、従来のプロバイダーより最大 70% 低い価格で提供すると謳っています。しかし、構造的な変化は「摩擦の欠如」にあります。今後 90 分間に 8 枚の A100 を必要とするエージェントは、調達申請を行いません。関数を呼び出すだけです。
なぜスポット価格よりも永続的なコンピューティングが重要なのか
スポット GPU レンタル(AWS の 4.50 ~ 5.50 ドルに対し、H100 を 1 時間あたり 1.20 ~ 1.80 ドルで提供するリバースオークション型マーケットプレイスで Akash が完成させたモデル)は、価格の問題を解決しました。し かし、エージェントの問題は解決しませんでした。
自律型 AI エージェントには、バッチ処理ワークロードにはない過酷なアーキテクチャ要件があります。それが「状態の継続性(state continuity)」です。取引の調査、コードのドラフト作成、多段階のリサーチタスクを実行するエージェントは、数分ごとのコールドスタートを許容できません。永続的なメモリ、永続的なアイデンティティ、そしてツールや他のエージェントへの永続的な接続が必要なのです。
これこそが Agent Cloud が実際に販売しているものです。GPU ではありません。「常にオンの状態のエージェント・バックエンド」です。バッチジョブごとではなく、永続的なエージェント・ワークロードのための GPU 時間あたりの価格設定モデルは、Akash のスポットマーケットプレイスや Render のフレームレンダリング・スループットモデルからの意図的な脱却です。これは、目を覚まし、作業を行い、1 時間眠り、再び目を覚ます際にも、作業メモリが維持されていることを期待するエージェントという、全く異なる顧客をターゲットにしています。
この要件があるからこそ、Anthropic は 2026 年 4 月に Claude Managed Agents(サンドボックス、状態管理、ツール実行、エラーリカバリを処理するホスト型プラットフォーム)をリリースしたのです。Coinbase の x402 プロトコルが存在し、エージェントがステーブルコインで MCP サーバーへのアクセス料金を支払えるようにしているのも同じ理由です。スタック全体が、一つの洞察に収束しつつあります。「エージェントには、ウェブアプリではなく、エージェントのような形をしたインフラが必要である」ということです。
io.net の賭けは、このスタックの分散型バージョンが単なる贅沢品ではないということです。それは、AWS のアカウント承認、リージョンごとのコンピューティング割り当て、企業の調達サイクルに阻害されることなく、数百万のエージェント規模にまで拡張できる唯一のバージョンなのです。
DePIN コンピューティングを二分する 3 つのゴー・トゥ・マーケット戦略
Agent Cloud の立ち上げは、分散型コンピューティング市場における 3 つの異なる戦略を明確にしました。それぞれが異なる顧客を追い、異なるユニットエコノミクスのストーリーを持っています:
1. io.net — 暗号資産ネイティブな開発者エコシステムと自律型エージェント。 売り文句は、パーミッションレスな API アクセス、MCP ネイティブな統合、USDC 決済、そしてオンボーディングの摩擦ゼロです。顧客は Web3 ネイティブなチーム、あるいは増え続ける AI エージェント自身です。2026 年第 2 四半期に導入されるインセンティブ・ダイナミック・エンジン (IDE) は、プロバイダーへの支払いを米ドル換算で安定させ、リアルタイムの収益に応じてトークン供給量を動的に調整することで、エージェント主導 の需要予測が困難になっても供給を合理的に維持するように設計されています。io.net は 2026 年初頭に 2,000 万ドル以上のコンピューティング・リースを処理し、1 月だけで 21 万 7,000 ドルの IO 買い戻しを実行しました。これは前月比 15% 増です。
2. Aethir — 企業の調達予算。 Aethir は 2026 年 1 月、あらゆるプロトコルの中で最高の月間 DePIN 収益を上げ、Render を上回りました。3 億 4,400 万ドルのコンピューティング予約契約を締結し、B2B 契約から 1 億 6,600 万ドルの ARR(年間経常収益)を報告しました。顧客は、H100 のキャパシティを割引価格で求めているものの、請求書払い、MSA、SLA、専任のアカウントマネージャーといった、従来のクラウドのようなサービス提供体制を必要とする企業の CIO です。435,000 以上の GPU コンテナと初期費用ゼロという Aethir の体制は、パーミッションレスよりも予測可能性を重視する買い手向けに位置付けられています。
3. Akash — コスト重視のワークロード移行。 プロバイダーがジョブを競い合う Akash のリバースオークションモデルは、価格をハイパースケーラーよりも構造的に低く抑えています。このネットワークは、2026 年に向けて利用率 80% 以上を維持し、前年比 428% の利用増加を達成しました。スターボンドを通じた約 7,200 台の NVIDIA GB200 GPU の取得計画を含む Starcluster イニシアチブにより、Akash は分散型マーケットプレイスを維持しつつ、ハイパースケールな AI 需要へと突き進んでいます。
Render はこれら 3 つに隣接しており、毎月 150 万枚のレンダリングフレームを処理しています。また、2026 年 4 月の RNP-023 ガバナンス提案により Salad Network から約 60,000 台の GPU を吸収し、クリエイティブ・コンピューティング babys のルーツを保ちながら AI 推論領域へと拡大しています。
これら 4 つのプロトコルは、もはや同じ 1 ドルを奪い合っているのではありません。企業、エージェントネイティブ、コスト重視、クリエイティブという、たまたま GPU を必要とする「異なる」1 ドルを巡って戦っているのです。
エージェントクラウドを現実のものにする推論時代の計算原理
分散型コンピューティングに関するあらゆる議論は、かつて次のような警告から始まっていました。すなわち、トレーニング(学習)は帯域幅、レイテンシ、SLA に対して非常に敏感であるため、ハイパースケーラーのデータセンターを離れることはできないというものです。その異論は、フロンティアモデルのトレーニングにおいては依然として有効です。しかし、実際の市場においては、それはもはや無関係なものとなっています。
2026 年には、GPU 需要の約 70 % は推論であり、トレーニングではありません。推論ワークロード(モデルの実行、エージェントの提供、ツールコールの実行など)は、トレーニングよりも分散型ネットワークのアーキテクチャ上の現実をはるかに 許容します。ワークロードがバースト的である場合、レイテンシの変動は許容範囲内です。エージェントが世界中のユーザーにサービスを提供する場合、地理的な分散は「利点」となります。ワークロードがステートレスであったり、チェックポイント可能であったりする場合、スポット容量で十分です。
このワークロード構成の変化こそが、DePIN コンピューティングが推論において AWS や Azure を 45 ~ 75 % 下回る価格を提示できる構造的な理由です。また、これが Agent Cloud の立ち上げ時期が重要である理由でもあります。エージェントは設計上、推論を多用します。彼らは時折発生する大規模なトレーニングジョブではなく、絶え間なく小規模なコールを生成します。彼らは多くの場所で、短時間、大量の GPU を必要とします。これこそが、分散型ネットワークが提供するために構築されたワークロードのプロファイルそのものです。
Anthropic、OpenAI、Google が MCP(Model Context Protocol)を標準化し(2026 年初頭の時点で、Linux Foundation はすでに 10,000 以上の稼働中のパブリック MCP サーバーと、月間数千万件の SDK ダウンロードを記録しています)、MCP に対応したあらゆるコンピューティングネットワークは、あらゆるエージェントエコシステムから利用可能になります。io.net は、最大であることよりも、完全に MCP ネイティブでエージェントが購入可能なコンピューティングレイヤーを最初に出荷することに価値があると賭けています。