Akave のゼロ・イグレスへの賭け:定額制 DePIN ストレージは AI 向けに AWS S3 を真に置き換えられるのか?
AWS S3 から 2 テラバイトの学習データを GPU クラスターにプルすると、モデルが完成する前に請求書が届きます。ストレージ料金や PUT/GET リクエストに加え、約 184 ドルのエグレス料金(データ転送量)が発生します。これを 1 日に 2 回、十数回の実験で行えば、その予想外の項目はストレージ料金自体に匹敵し始めます。AI チームにとって、クラウドの請求書はインフラ問題に擬態した経済問題となっています。オースティンを拠点とする DePIN スタートアップの Akave は、定額制でエグレス料金無料のストレージこそが、この状況を打破するテコになると考えています。
Akave は 2026 年 3 月に 665 万ドルを調達し、「世界初の AI および分析向け分散型エンタープライズ・データ・レイヤー」と呼ぶものを構築しています。その提案は非常に具体的です。1 テラバイトあたり月額 14.99 ドル、エグレス料金ゼロ、S3 互換、Filecoin によるアーカイブ耐久性の保証、そしてすべての書き込みに対する暗号学的レシート。それだけです。ティア(階層)も、リクエスト手数料も、学習コンテナがデータセットをプルするたびにカチカチと音を立てる帯域幅メーターもありません。問題は、価格が魅力的かどうかではありません。それは明らかです。問題は、AI のワークロードがペタバイト級にスケールしてもそのアーキテクチャが耐えられるか、そして、これまでハイパースケーラーにしか預けてこなかったデータを、企業が DePIN ベースのスタックに信頼して任せるかどうかです。
AI 予算を食いつぶすエグレス税
AWS S3 のステッカー価格(定価)自体は問題ではありません。標準ストレージは us-east-1 で 1 GB あたり月額約 0.023 ドルであり、40 TB の学習コーパスなら月額約 920 ドル程度です。これは厄介ではありますが、許容範囲内です。計算が狂うのはエグレス料金です。最初の 100 GB が無料になった後、インターネットへの S3 エグレス料金は 1 GB あたり 0.09 ドルから始まり、150 TB を超えると徐々に 0.05 ドルまで下がります。10 TB の学習データを外部の GPU プロバイダーにプルすると、転送だけで 921.60 ドルかかります。これを繰り返し行う(実際の AI パイプラインがそうであるように)と、「隠れた」エグレス料金は 1 四半期以内にスト レージ料金を上回ります。
これは価格設定の気まぐれではありません。ストレージとコンピューティングが 1 つのクラウド内に同居することを前提としたアーキテクチャ上の選択です。AI チームがそれらを分離した瞬間(データが S3 にある一方で、GPU キャパシティが CoreWeave や Lambda、あるいはオンプレミスのクラスターにある場合など)、すべてのエポック、すべてのチェックポイントの復元、すべてのデータ並列読み取りが課金対象のイベントとなります。AI データファブリックはこの問題を増幅させます。データセットは前処理、学習、検証、分析の各段階で複製され、それぞれの境界が課金ポイントになる可能性があります。
業界の非公式な回避策は CloudFront でした。リージョン内の S3 から CloudFront への転送は無料であるため、チームは本来その目的のために設計されていない CDN を介してデータをルーティングします。これは一種の兆候です。顧客が特定の項目を避けるためにアーキテクチャを歪めているとき、その項目はもはや価格設定ではなく「税金」なのです。
Akave が実際に販売しているもの
Akave Cloud は、真剣なインフラが必要とする「退屈さ」を意図的に備えています。インターフェースは S3 互換であり、同じ SDK、同じ GET および PUT セマンティクスを使用します。そのため、学習パイプラインの移行は 、コードを書き換えるというよりはエンドポイントを変更する作業に近いです。価格は単一の定額制で、1 テラバイトあたり月額 14.99 ドル。エグレス料金も、リクエストごとの手数料も、取得ペナルティもありません。コンテナが 500 GB または 2 TB の学習データをプルしても、転送コストは正確に 0 ドルです。
使い慣れた API の下にあるアーキテクチャは、S3 とは似ても似つかないものです。データはチャンク化され、クライアント側で暗号化され、32-of-16 のリード・ソロモン(Reed-Solomon)イレイジャーコーディングを使用して Akave ネットワーク全体に分散されます。Akave はこれにより、イレブンナイン(99.999999999%)の耐久性を実現すると主張しています。長期アーカイブは、分散型ストレージ経済の大きなシェアを担う Filecoin ネットワークに固定されています。すべての書き込みはオンチェーンレシートを生成し、すべての取得は暗号学的に検証可能です。これは猫の写真にとってはあまり重要ではありませんが、規制当局や監査人、あるいは下流のモデル利用者が、データが改ざんされていないことを検証する必要がある AI 学習アーティファクトにとっては非常に重要です。
企業向けの目玉は「O3 ゲートウェイ」です。これは S3 互換のフロントドアであり、Akave がホストすることも、顧客自身のインフラ内にセルフホストすることも可能です。セルフホスト版には明確な意図があります。厳格なデータレジデンシー(所在)やデータ主権の要件を持つチームは、O3 をローカルで実行し、独自の暗号化キーを保持し、独自のアクセス制御ポリシーを定義しながら、分散型バックエンドの恩恵を受けるこ とができます。これまで分散型ストレージに触れることができなかったセクター(ヘルスケアデータ、防衛関連の AI、EU 規制対象のワークロードなど)にとって、この構成は大きな意味を持ちます。
顧客リストにはすでに Intuizi、LaserSETI、375ai が名を連ねており、生産環境のワークロードを実行しています。出資者リストは、プロトコルに精通した資本の「Who's Who」のようです。Protocol Labs、Filecoin Foundation、Avalanche、Blockchain Builders Fund、No Limit Holdings、Blockchange、Lightshift、Big Brain Holdings などが名を連ねています。また、Akash Network との提携により、ハイパースケーラーの価格を約 70% 下回る分散型 GPU コンピューティングと、Akave のゼロエグレス・ストレージを組み合わせ、両社はこれを「ソブリン AI インフラストラクチャ」としてマーケティングしています。
状況を読む:ストレージスタックにおける Akave の立ち位置
分散型ストレージの展望は劇的に成熟しました。2026 年 1 月、Filecoin はメインネットで Onchain Cloud をローンチし、コンピューティング、検証可能なリトリーバル、自動決済を備えた AWS に代わるフルスタックの分散型サービスとして自らを位置づけました。初期の Onchain Cloud サービスの一つである Storacha Forge は、1 テラバイトあたり 5.99 ドルでウォームストレージを提供しています。より広範な DePIN セクターの時価総額は、2024 年の約 52 億ドルから 2025 年後半には 190 億ドルを超え、270% 近い成長を遂げました。これは AI 需要、企業の採用、そして DePIN インフラの品質が、ほぼ同時期に実用性の閾値を超えたためです。
そのような背景の中で、Akave は Filecoin も Arweave もネイティブには満たしていない特定のニッチを占めています。
- Filecoin は、ロングテールのアーカーバル(アーカイブ保存)や経済的インセンティブにおいて優れていますが、歴史的には S3 とは異なるディール、リトリーバル市場、およびツールが必要でした。Akave は本質的に、Filecoin の耐久性を S3 互換のインターフェースにパッケージ化し、定額制で提供しています。
- Arweave は永続性を売りにしており、一度の支払いで無期限のストレージを提供しますが、リトリーバルの保証はありません。これは NFT アセット、オンチェーン文書、コンプライアンスアーカイブなどの不変のアーティファクトには適したツールですが、AI 学習パイプラインが大量に生成する、頻繁に変更される(mutable)データセットには不向きです。
- Cloudflare R2 はすでにエグレス料金ゼロを提供しており、Akave が価格設定で明示的にターゲットにしている中央集権型のベンチマークです。R2 はレイテンシ、エコシステムの統合、実績で勝っています。Akave は、主権、検証可能性、そして単一プロバイダーの稼働時間に依存しない信頼モデルで対抗します。これは、2025 年 11 月に発生した世界的な Cloudflare の障害によって、いかに多くの「分散型」アプリが依然として一社のエッジに依存していたかが浮き彫りになったことで、より説得力を増しています。
- MinIO は、オープンソースでセルフホスト可能な S3 代替品ですが、最近ソースコードのみの公開モデルへと移行し、予測可能なコミュニティ版を前提にスタックを構築していた企業を動揺させました。Akave は、運用の負担を負わずにセルフホストの利便性を求める MinIO ユーザーの移行先として、静かにアピールを続けています。
Akave を理解するための最も分かりやすい方法は、**分散型ストレージプリミティブにおける価格とインターフェースのアービトラージ(裁定)**として見ることです。Filecoin の耐久性を利用し、それを S3 のセマンティクスで包み、その上に定額制のメーターを置き、すでにエグレス料金で多額の支出を強いられている AI チームにその結果を販売するのです。
タイミングが重要な理由:電力とデータグラビティの挟み撃ち
NVIDIA GTC 2026 において、ジェンスン・フアン氏は AI を、エネルギーを基盤とする「5 層のケーキ」と表現しました。あらゆるマシンの知能ユニットは、最終的には電気を計算に変換したものです。エネルギー省とローレンス・バークレー国立研究所は、米国のデータセンターの消費電力が 2030 年までに米国全電力の最大 12% に達する可能性があると予測しています(現在は約 4.4%、約 176 TWh)。IEA の 2026 年の予測では、世界のデータセンターの消費電力は今年 1,000 TWh に達する見込みです。これは日本全体の電力消費量に匹敵する規模が、計算専用に充てられることを意味します。
その波及効果として、データがどこにあるかが、コンピューティングを実行できる場所をますます決定するようになります。ハイパースケーラーは電力供給の制約を受けています。GPU のキャパシティは、電力網の相互接続が許す場所、すなわちテキサス、北欧、中東、あるいは米国の二次市場などで次々と立ち上がっています。学習データが us-east-1 に固定されており、GPU がレイキャビクやアブダビにある場合、ビットをシリコンに移動させるためにエグレス料金を支払うことになります。エグレス料金が無料で、コンピューティングに依存しないストレージは、データをマルチクラウド、マルチリージョンの世界における第一級市民へと変貌させます。これこそが、現在の AI 経済が強制している世界そのものです。
これこそが、Akave のような価格モデルが 3 年前ではなく今支持される真の理由です。計算資源が豊富で安価だった頃、エグレス料金は端数に過ぎませんでした。しかし、電力が制約条件となる AI 時代において、エグレス(データ転送)は戦略そのものなのです。