メインコンテンツまでスキップ

「AI」タグの記事が 79 件 件あります

人工知能と機械学習のアプリケーション

すべてのタグを見る

DePIN が 192 億ドルの大躍進:IoT の期待から企業の現実へ

· 約 18 分
Dora Noda
Software Engineer

長年にわたり、分散型物理インフラの約束は、解決策が課題を探している状態のように感じられてきました。ブロックチェーン愛好家たちは、WiFi ホットスポットからソーラーパネルに至るまで、あらゆるもののトークン化について語ってきましたが、企業はそれを運用の現実とはかけ離れた暗号資産のハイプ(過大広告)として静かに片付けてきました。しかし、その無視は今や高くつくものとなっています。

DePIN(Decentralized Physical Infrastructure Network:分散型物理インフラネットワーク)セクターの時価総額は、わずか 1 年で 52 億ドルから 192 億ドルへと急増しました。この 270% の急増は、投機的な熱狂によるものではなく、サービス品質を維持しながらインフラコストを 50 ~ 85% 削減できることに企業が気づき始めたことによるものです。現在、321 のアクティブなプロジェクトが毎月 1 億 5,000 万ドルの収益を上げており、世界経済フォーラム(WEF)が 2028 年までに市場規模が 3.5 兆ドルに達すると予測していることから、DePIN は実験的な技術からミッションクリティカルなインフラへとキャズムを越えました。

ナラティブを変えた数字

CoinGecko は、2025 年 9 月時点で約 250 の DePIN プロジェクトを追跡しており、これはわずか 24 ヶ月前の数分の一の数字です。しかし、真のストーリーはプロジェクトの数ではなく、収益にあります。このセクターは 2025 年に推定 7,200 万ドルのオンチェーン収益を上げ、トップティアのプロジェクトは現在、8 桁(数千万ドル)の年間経常収益(ARR)を記録しています。

2026 年 1 月だけで、DePIN プロジェクトは合計 1 億 5,000 万ドルの収益を上げました。GPU に特化したインフラプロバイダーである Aethir が 5,500 万ドルでリードしました。次いで、分散型 GPU レンダリングサービスを提供する Render Network が 3,800 万ドル。Helium はワイヤレスネットワーク運用から 2,400 万ドルを貢献しました。これらはエアドロップファーマーによる見せかけの指標ではなく、コンピューティング、接続性、ストレージに対して実際に企業が支払っている対価を表しています。

市場構成はさらに示唆に富んでいます。時価総額ベースで DePIN プロジェクトの 48% が現在、AI インフラに焦点を当てています。AI のワークロードが爆発的に増加し、ハイパースケーラーが需要への対応に苦慮する中、分散型コンピューティングネットワークは、従来のデータセンターでは解決が間に合わない業界のボトルネックを解消するためのリリーフバルブ(逃げ道)になりつつあります。

Solana の DePIN 支配:なぜスピードが重要なのか

Ethereum が DeFi の本拠地であり、Bitcoin がデジタルゴールドであるならば、Solana は物理インフラの調整に選ばれるブロックチェーンとして静かに台頭してきました。Helium、Grass、Hivemapper を含む 63 の DePIN プロジェクトがネットワーク上にあり、Solana の低いトランザクションコストと高いスループットは、物理インフラが要求するリアルタイムでデータ集約型のワークロードを処理できる唯一のレイヤー 1 となっています。

Helium の変革は特に示唆に富んでいます。 2023 年 4 月に Solana へ移行した後、このワイヤレスネットワークは 115,000 を超えるホットスポットに拡大し、毎日 190 万人のユーザーにサービスを提供しています。Helium Mobile の加入者数は、2024 年 9 月の 115,000 人から 2025 年 9 月には 450,000 人近くに急増し、前年比 300% の成長を記録しました。2025 年第 2 四半期だけで、ネットワークはキャリアパートナー向けに 2,721 テラバイトのデータを転送し、前四半期比で 138.5% 増加しました。

その経済性は非常に強力です。Helium は、個人がホットスポットを導入・維持するインセンティブを与えることで、従来の通信キャリアのコストの数分の一でモバイル接続を提供します。加入者は月額 20 ドルで通話、テキスト、データが無制限になります。ホットスポットのオペレーターは、ネットワークのカバレッジとデータ転送に基づいてトークンを獲得します。従来の通信キャリアはこのコスト構造では太刀打ちできません。

Render Network は、AI およびクリエイティブ業界における DePIN の可能性を証明しています。時価総額 7 億 7,000 万ドルの Render は、2025 年 7 月だけで 149 万枚以上のレンダリングフレームを処理し、207,900 USDC 分の報酬を支払いました。アーティストや AI 研究者は、ゲーミング PC やマイニングファームのアイドル状態の GPU 容量を活用し、中央集権的なクラウドレンダリングサービスと比較して極めて安価なコストで利用しています。

Grass は、300 万人以上のユーザーを抱える Solana 上で最も急速に成長している DePIN であり、AI トレーニングデータセットのために未使用の帯域幅を収益化しています。ユーザーはアイドル状態のインターネット接続を提供してトークンを獲得し、企業は大規模言語モデル(LLM)のためにウェブデータをスクレイピングします。これは、豊富で十分に活用されていないリソース(住宅用帯域幅)をパッケージ化し、分散型データ収集にプレミアム料金を支払う意思のある企業に提供するという、大規模なインフラの裁定取引(アービトラージ)です。

企業による採用:CFO が無視できない 50 ~ 85% のコスト削減

パイロットプログラムから本番環境への導入へのシフトは、2025 年に急激に加速しました。通信キャリア、クラウドプロバイダー、エネルギー企業は、単に DePIN を実験しているのではなく、それをコア業務に組み込んでいます。

ワイヤレスインフラ は現在、世界中で 500 万台以上の登録済み分散型ルーターを擁しています。Fortune 500 に名を連ねるある通信会社は、DePIN を活用した接続サービスの顧客が 23% 増加したことを記録し、経済性と信頼性が一致すれば企業が分散型モデルを採用することを証明しました。地方のカバレッジを補完するために T-Mobile が Helium と提携したことは、既存の事業者が従来の資本支出(CAPEX)では正当化できないラストワンマイルの問題を解決するために、いかに DePIN を活用しているかを示しています。

通信セクターは存亡に関わるプレッシャーに直面しています。鉄塔の建設や電波利用免許のための資本支出が利益率を圧迫する一方で、顧客はユニバーサルなカバレッジを求めています。通信分野におけるブロックチェーン市場は、2024 年の 10 億 7,000 万ドルから 2030 年には 72 億 5,000 万ドルに成長すると予測されています。これは、個人にインフラ導入のインセンティブを与える方が、自社で行うよりも安価であることにキャリアが気づき始めたためです。

クラウドコンピューティング はさらに大きなチャンスを提示しています。Nvidia が支援する brev.dev やその他の DePIN コンピューティングプロバイダーは、AWS、Google Cloud、Azure よりも 2 ~ 3 倍コストがかかる企業の AI ワークロードを処理しています。2026 年までに推論ワークロードが全 AI コンピューティングの 3 分の 2 を占めると予想される中(2023 年の 3 分の 1 から増加)、費用対効果の高い GPU 容量への需要は高まる一方です。分散型ネットワークは、ゲーミング PC、マイニング業務、未活用のデータセンターから GPU を調達できます。これは中央集権的なクラウドがアクセスできない容量です。

エネルギーグリッド は、おそらく DePIN の最も変革的なユースケースです。中央集権的な電力網はローカルレベルでの需給バランスの調整に苦慮しており、非効率性や停電を招いています。分散型エネルギーネットワークはブロックチェーンによる調整を使用し、個人の所有するソーラーパネル、バッテリー、メーターからの発電量を追跡します。参加者は発電を行い、余剰電力を近隣と共有し、貢献度に基づいてトークンを獲得します。その結果、グリッドの回復力が向上し、エネルギーの無駄が削減され、再生可能エネルギー採用への金銭的インセンティブが生まれます。

AI インフラストラクチャ:スタックを再定義する 48 %

DePIN の時価総額の約半分は現在、AI インフラストラクチャに焦点を当てています。これは、コンピューティング集約型のワークロードがどのように処理されるかを再構築する融合です。AI インフラストラクチャのストレージ支出は、2025 年第 2 四半期に前年比 20.5 % の成長を記録し、その支出の 48 % はクラウド展開によるものでした。しかし、需要が爆発する一方で、中央集権型のクラウドは容量の制約に直面しています。

世界のデータセンター GPU 市場は 2024 年に 144.8 億ドルに達し、2032 年までに 1,552 億ドルに達すると予測されています。しかし、Nvidia は需要に追いつくのが精一杯で、H100 および H200 チップのリードタイムは 6 〜 12 か月に及んでいます。DePIN ネットワークは、80 〜 90 % の時間アイドル状態にあるコンシューマー向けおよび企業向け GPU を集約することで、このボトルネックを回避します。

トレーニング完了後の本番環境での AI モデル実行である「推論ワークロード」は、最も急速に成長しているセグメントです。2025 年の投資の大部分はトレーニング用チップに集中していましたが、企業がモデル開発から大規模な展開へと移行するにつれ、推論に最適化されたチップの市場は 2026 年に 500 億ドルを超えると予想されています。DePIN コンピューティングネットワークは、ワークロードが高度に並列化可能でレイテンシを許容できるため、推論に優れており、分散型インフラストラクチャに最適です。

Render、Akash、Aethir などのプロジェクトは、中央集権型クラウドでは実現不可能な GPU の断片的なアクセス、スポット価格設定、および地理的分散を提供することで、この需要を取り込んでいます。AI スタートアップは、週末の一括処理ジョブのために 100 台の GPU を立ち上げ、使用した分だけを支払うことができ、最低利用期間のコミットメントや企業契約は必要ありません。ハイパースケーラーにとって、それは摩擦(フリクション)です。DePIN にとって、それこそが価値提案のすべてなのです。

成長を牽引するカテゴリー

DePIN は、2 つの基本的なカテゴリーに分けられます。物理リソースネットワーク(ワイヤレス、エネルギーグリッド、センサーなどのハードウェア)と、デジタルリソースネットワーク(コンピューティング、帯域幅、ストレージ)です。どちらも爆発的な成長を遂げていますが、デジタルリソースは展開の障壁が低いため、より速くスケーリングしています。

ストレージネットワーク である Filecoin のようなプロジェクトは、ユーザーが未使用のハードドライブ容量を貸し出すことを可能にし、AWS S3 や Google Cloud Storage に代わる分散型の選択肢を作り出します。その価値提案は、低コスト、地理的冗長性、および単一障害点への耐性です。企業は、中央集権型クラウドのエグレス料金(データ転送手数料)が年間数百万ドルに達する可能性があるアーカイブデータやバックアップのユースケースで、Filecoin の試験運用を行っています。

コンピューティングリソース は、GPU レンダリング(Render)、汎用コンピューティング(Akash)、AI 推論(Aethir)に及びます。Akash は Kubernetes デプロイメントのためのオープンなマーケットプレイスを運営しており、開発者は世界中の未稼働サーバー上にコンテナを立ち上げることができます。ワークロードのタイプや可用性の要件によりますが、AWS と比較して 30 % から 85 % のコスト削減が可能です。

ワイヤレスネットワーク である Helium や World Mobile Token は、サービスの行き届いていない市場における接続性の格差に取り組んでいます。World Mobile はザンジバルに分散型モバイルネットワークを展開し、半径 600 メートル以内の 500 人にインターネットを提供しながら、フルアム FC の試合をストリーミング配信しました。これらは概念実証(PoC)ではなく、従来の ISP が経済合理性の欠如を理由に運営を拒否する地域で、実際のユーザーにサービスを提供している本番ネットワークです。

エネルギーネットワーク は、ブロックチェーンを使用して分散型の発電と消費を調整します。太陽光パネルの所有者は、余剰電力を近隣住民に販売します。電気自動車(EV)の所有者は、充電時間をオフピーク時に合わせることでグリッドの安定化に寄与し、その柔軟性に対してトークンを獲得します。ユーティリティ企業は、高価なスマートメーターや制御システムを導入することなく、地域の需要と供給をリアルタイムで把握できます。これは、ブロックチェーンのトラストレスな決済レイヤーなしでは存在し得なかったインフラストラクチャの調整です。

192 億ドルから 3.5 兆ドルへ:到達するために必要なこと

世界経済フォーラムによる 2028 年までの 3.5 兆ドルという予測は、単なる強気な推測ではありません。DePIN が大規模に実証されたときに、どれほど巨大な有効市場(TAM)が存在するかを反映したものです。世界の通信インフラ支出は年間 1.5 兆ドルを超えています。クラウドコンピューティングは 6,000 億ドル以上の市場です。エネルギーインフラは数兆ドルの資本支出を占めています。

DePIN はこれらの産業を置き換える必要はありません。優れた経済性を提供することで、市場シェアの 10 〜 20 % を獲得するだけでよいのです。DePIN は従来のインフラモデルを逆転させるため、この計算が成り立ちます。企業がネットワークを構築するために数十億ドルを調達し、数十年かけてコストを回収するのではなく、DePIN は個人が先行してインフラを展開することを奨励し、容量を提供することでトークンを獲得させます。これは資本支出のクラウドソーシングであり、中央集権的な構築よりもはるかに速くスケーリングします。

しかし、3.5 兆ドルに到達するには、3 つの課題を解決する必要があります。

規制の明確化。 通信とエネルギーは厳しく規制された業界です。DePIN プロジェクトは、周波数免許(ワイヤレス)、相互接続契約(エネルギー)、データレジデンシー要件(コンピューティングとストレージ)をクリアしなければなりません。アフリカやラテンアメリカの政府が接続性の格差を埋めるために DePIN を採用するなど、進展は見られますが、米国や EU のような成熟した市場の動きは緩やかです。

企業の信頼。 フォーチュン 500 企業は、信頼性が中央集権的な代替手段と同等、あるいはそれを上回るまで、ミッションクリティカルなワークロードを DePIN に移行することはありません。それは、アップタイム保証、SLA、障害に対する保険、24 時間 365 日のサポートを意味します。これらはエンタープライズ IT における基本事項ですが、多くの DePIN プロジェクトにはまだ欠けています。勝者となるのは、トークン価格よりも運用の成熟度を優先するプロジェクトでしょう。

トークンエコノミクス。 初期の DePIN プロジェクトは、持続不可能なトークンエコノミクスに苦しみました。市場に投げ売りされるインフレ的な報酬、有用な活動よりもシビル攻撃を助長する誤ったインセンティブ、そしてネットワークのファンダメンタルズから切り離された投機主導の価格変動などです。次世代の DePIN プロジェクトはこれらの失敗から学び、収益に連動したバーン(焼却)メカニズム、貢献者のためのベスティングスケジュール、そして長期的な持続可能性を優先するガバナンスを導入しています。

BlockEden.xyz のビルダーが注目すべき理由

ブロックチェーン上で開発を行っているなら、DePIN はクリプトの歴史の中で最も明確なプロダクトマーケットフィット(PMF)の一つと言えます。DeFi の規制上の不確実性や NFT の投機的サイクルとは異なり、DePIN は測定可能な ROI を伴う現実の問題を解決します。企業はより安価なインフラを必要としています。個人は十分に活用されていない資産を持っています。ブロックチェーンはトラストレスな調整と決済を提供します。すべてのピースが合致しています。

開発者にとってのチャンスは、DePIN を企業レベルで利用可能にするミドルウェアを構築することにあります。モニタリングおよびオブザーバビリティ・ツール、SLA 施行用スマートコントラクト、ノードオペレーター向けのレピュテーションシステム、稼働時間保証のための保険プロトコル、そして国境を越えて即時に決済を行うペイメントレールなどが挙げられます。

今日あなたが構築するインフラは、2028 年の分散型インターネットを支える力になるかもしれません。Helium がモバイル接続を担い、Render が AI 推論を処理し、Filecoin が世界のアーカイブを保存し、Akash がそれらすべてをオーケストレーションするコンテナを実行する世界です。これはクリプトの未来主義ではありません。Fortune 500 企業がすでにパイロット運用を行っているロードマップなのです。

出典

Ambient の 720 万ドルの賭け: Proof of Logits がハッシュベースのマイニングを AI 推論に置き換える方法

· 約 28 分
Dora Noda
Software Engineer

ブロックチェーンを保護する計算作業が、次世代の AI モデルのトレーニングも兼ねているとしたらどうでしょうか?これは遠い未来のビジョンではありません。世界初の AI 搭載プルーフ・オブ・ワーク(PoW)ブロックチェーンを構築するために、a16z CSX から 720 万ドルを調達したばかりの Solana フォーク、Ambient の背後にある核となる理論です。

従来のプルーフ・オブ・ワークは、任意の暗号パズルを解くために電力を消費します。ビットコインのマイナーは、ネットワークのセキュリティ以外に価値のない計算作業である、十分な先行ゼロを持つハッシュを見つけるために競い合います。Ambient はこの仕組みを完全に覆します。その Proof of Logits(PoL)コンセンサス・メカニズムは、ハッシュの計算(ハッシュ・グラインディング)を AI の推論、ファインチューニング、およびモデルトレーニングに置き換えます。マイナーはパズルを解くのではなく、検証可能な AI 出力を生成します。バリデーターはワークロード全体を再計算するのではなく、ロジット(logits)と呼ばれる暗号技術的なフィンガープリントをチェックします。

その結果、セキュリティと AI の進歩が経済的に一致し、0.1% の検証オーバーヘッドによってコンセンサス・チェックがほぼ無料になり、中央集権的な代替手段と比較してトレーニングコストが 10 倍に低下するブロックチェーンが誕生します。Ambient が成功すれば、マイニングを生産的な AI 労働に変えることで、「プルーフ・オブ・ワークはリソースを浪費している」というクリプト業界で最も古い批判の 1 つに対する答えを提示できるかもしれません。

Proof of Logits の突破口:再計算なしの検証可能な AI

PoL を理解するには、ロジット(logits)が実際に何であるかを理解する必要があります。大規模言語モデル(LLM)がテキストを生成するとき、単語を直接出力するわけではありません。その代わりに、各ステップで語彙全体にわたる確率分布、つまり次に考えられるすべてのトークンの確信度を表す数値スコアを生成します。

これらのスコアはロジットと呼ばれます。50,000 トークンの語彙を持つモデルの場合、1 つの単語を生成することは 50,000 個のロジットを計算することを意味します。これらの数値は、独自の計算フィンガープリントとして機能します。特定の重みを持ち、特定の入力を実行する特定のモデルだけが、特定のロジット分布を生成します。

Ambient の革新は、ロジットを proof-of-work として使用することにあります。マイナーは AI 推論(プロンプトに対する回答の生成)を実行し、バリデーターは計算全体をやり直すのではなく、ロジットのフィンガープリントをチェックすることでこの作業を検証します。

検証プロセスの仕組みは次のとおりです。

マイナーが出力を生成: マイナーはプロンプト(例:「ブロックチェーン・コンセンサスの原則を要約せよ」)を受け取り、6,000 億パラメータのモデルを使用して 4,000 トークンの回答を生成します。これにより、4,000 × 50,000 = 2 億個のロジットが生成されます。

バリデーターによるスポットチェック検証: 4,000 トークンすべてを再生成する代わりに、バリデーターは 1 つの位置(例えば 2,847 番目のトークン)をランダムにサンプリングします。バリデーターはその位置で 1 回だけ推論ステップを実行し、マイナーが報告したロジットと期待される分布を比較します。

暗号技術的コミットメント: ロジットが一致すれば(浮動小数点精度の許容範囲内であれば)、マイナーの作業は検証されます。一致しない場合、ブロックは拒否され、マイナーは報酬を没収されます。

これにより、検証オーバーヘッドは元の計算の約 0.1% に削減されます。2 億個のロジットをチェックするバリデーターは、50,000 個のロジット(1 トークン分)を検証するだけで済み、コストを 99.9% 削減できます。これを、検証にハッシュ関数全体を再実行する必要がある従来の PoW や、パズル自体が任意であるため単一の SHA-256 ハッシュのチェックが些細なものであるビットコインのアプローチと比較してみてください。

Ambient のシステムは、完全な再計算を必要とする安易な「有益な作業の証明(proof of useful work)」スキームよりも指数関数的に安価です。ビットコインの効率(安価な検証)に近く、かつ実際の有用性(無意味なハッシュの代わりに AI 推論)を提供します。

10 倍のトレーニングコスト削減:データセンターの独占がない分散型 AI

中央集権的な AI トレーニングは高価であり、ほとんどの組織にとって手が出せないほどです。GPT-4 規模のモデルのトレーニングには数千万ドルの費用がかかり、数千台のエンタープライズ GPU を必要とし、少数のテック巨人の手に権力を集中させます。Ambient のアーキテクチャは、独立したマイナーのネットワークにトレーニングを分散させることで、これを民主化することを目指しています。

10 倍のコスト削減は、2 つの技術革新によって実現されます。

PETALS スタイルのシャーディング: Ambient は、各ノードが大規模モデルのシャード(断片)のみを保存する分散型推論システムである PETALS の技術を適応させています。マイナーに 6,000 億パラメータのモデル全体(テラバイト単位の VRAM が必要)を保持させるのではなく、各マイナーはレイヤーのサブセットを所有します。プロンプトはネットワーク内を順次流れ、各マイナーは自分のシャードを処理してアクティベーションを次のマイナーに渡します。

これは、単一の消費者向け GPU(24GB VRAM)を持つマイナーが、本来ならデータセンターに数百台の GPU を必要とするモデルのトレーニングに参加できることを意味します。計算グラフを数百または数千のノードに分散させることで、Ambient は従来の機械学習クラスターで使用される高価な高帯域幅インターコネクト(InfiniBand など)の必要性を排除します。

SLIDE に着想を得たスパース性: ほとんどのニューラルネットワーク計算では、ほとんどの要素がゼロに近い行列の乗算が行われます。SLIDE(Sub-LInear Deep learning Engine)は、アクティベーションをハッシュ化して、特定の入力に対して実際に重要なニューロンを特定し、無関係な計算を完全にスキップすることで、これを利用します。

Ambient はこのスパース性を分散型トレーニングに適用します。すべてのマイナーがすべてのデータを処理するのではなく、ネットワークは現在のバッチに関連するシャードを持つノードにワークを動的にルーティングします。これにより、通信オーバーヘッド(分散型機械学習における大きなボトルネック)が削減され、ハードウェア性能が低いマイナーでもスパースなサブグラフを処理することで参加できるようになります。

この組み合わせにより、Ambient は、DiLoCo や Hivemind のような既存の分散型トレーニングの取り組みよりも 10 倍優れたスループットを実現できると主張しています。さらに重要なことに、参入障壁が低くなります。マイナーはデータセンター級のインフラを必要とせず、まともな GPU を搭載したゲーミング PC があれば貢献するのに十分です。

Solana フォークアーキテクチャ:高 TPS と非ブロッキング PoW の融合

Ambient はゼロから構築されているわけではありません。Solana Virtual Machine(SVM)、Proof of History(PoH)タイムスタンプ、および Gulf Stream メムプールフォワーディングを継承した Solana の完全なフォーク です。これにより、Ambient は Solana の 65,000 TPS という理論上のスループットと、1 秒未満のファイナリティを継承しています。

しかし、Ambient は 1 つの重要な修正を加えています。それは、Solana のコンセンサスの上に 非ブロッキング型のプルーフ・オブ・ワーク(PoW)レイヤー を追加したことです。

ハイブリッドコンセンサスの仕組みは以下の通りです:

Proof of History がトランザクションを順序付け: Solana の PoH は暗号学的な時計を提供し、グローバルコンセンサスを待つことなくトランザクションを順序付けます。これにより、マルチコアにわたる並列実行が可能になります。

Proof of Logits がチェーンを保護: マイナーは有効な AI 推論出力を生成するために競い合います。ブロックチェーンは、最も価値のある AI 作業(推論の複雑さ、モデルサイズ、またはステークされたレピュテーションによって測定)を生成したマイナーからのブロックを受け入れます。

非ブロッキング統合: 有効な PoW が見つかるまでブロック生成が停止する Bitcoin とは異なり、Ambient の PoW は非同期で動作します。バリデータがトランザクションの処理を継続する一方で、マイナーは AI 作業の提出を競います。これにより、PoW がボトルネックになるのを防ぎます。

その結果、低レイテンシの推論を必要とする AI アプリケーションに不可欠な Solana のスピードを維持しながら、推論、ファインチューニング、トレーニングといったネットワークのコア活動における経済的競争を確保するブロックチェーンが実現しました。

また、この設計は Ethereum がかつて直面した「有用な作業(useful work)」コンセンサスにおける失敗も回避しています。Primecoin や Gridcoin は科学計算を PoW として利用しようとしましたが、有用な作業は難易度が均一ではないという致命的な欠陥に直面しました。解決は簡単だが検証が難しい問題や、不当に並列化しやすい問題が存在したのです。Ambient は、ロジット(logit)検証を計算コストが低く、標準化されたものにすることで、この問題を回避しています。すべての推論タスクは、その複雑さに関わらず、同じスポットチェックアルゴリズムで検証可能です。

オンチェーン AGI 学習への競争:他にどのような競合がいるのか?

ブロックチェーンネイティブな AI をターゲットにしているのは Ambient だけではありません。機械学習の分散化を謳うプロジェクトは数多くありますが、検証可能なオンチェーン学習を提供できているものはほとんどありません。主要な競合他社と Ambient の比較は以下の通りです:

Artificial Superintelligence Alliance (ASI): Fetch.AI、SingularityNET、Ocean Protocol の合併により設立された ASI は、分散型 AGI インフラに焦点を当てています。ASI チェーンはエージェントの並列実行と安全なモデル取引をサポートしています。Ambient の PoW アプローチとは異なり、ASI は開発者がコンピューティングクレジットを支払うマーケットプレイスモデルに依存しています。これは推論には適していますが、トレーニングのインセンティブとは一致しません。マイナーは、あらかじめ明示的な報酬がない限り、高価な GPU 時間を費やす理由がないからです。

AIVM (ChainGPT): ChainGPT の AIVM ロードマップ は、オフチェーンの GPU リソースをオンチェーン検証と統合し、2026 年のメインネットローンチを目指しています。しかし、AIVM の検証はオプティミスティックロールアップ(異議申し立てがない限り正当とみなす)に依存しており、不正証明(fraud-proof)による遅延が生じます。Ambient のロジットチェックは決定的(deterministic)であり、バリデータは作業が有効かどうかを即座に判断できます。

Internet Computer (ICP): Dfinity の Internet Computer は、外部のクラウドインフラなしで大規模なモデルをオンチェーンでネイティブにホストできます。しかし、ICP のキャニスターアーキテクチャはトレーニング用に最適化されておらず、推論とスマートコントラクトの実行向けに設計されています。Ambient の PoW は継続的なモデルの改善を経済的に促しますが、ICP では開発者が外部でトレーニングを管理する必要があります。

Bittensor: Bittensor はサブネットモデルを採用しており、特殊なチェーンが異なる AI タスク(テキスト生成、画像分類など)を学習します。マイナーはモデルの重みを提出して競い合い、バリデータはそれらをパフォーマンスに基づいてランク付けします。Bittensor は分散型推論には優れていますが、トレーニングの調整には苦労しています。統一されたグローバルモデルは存在せず、独立したサブネットの集合体に過ぎません。Ambient のアプローチは、単一の PoW メカニズムの下でトレーニングを統合します。

Lightchain Protocol AI: Lightchain のホワイトペーパー では、ノードが AI タスクを実行してトランザクションを検証する Proof of Intelligence (PoI) を提案しています。しかし、Lightchain のコンセンサスは依然として理論上の段階であり、テストネットの開始も発表されていません。対照的に Ambient は、2025 年第 2/3 四半期にテストネット を計画しています。

Ambient の強みは、検証可能な AI 作業を、実績のある Solana の高スループットアーキテクチャと組み合わせている点にあります。ほとんどの競合他社は、分散性を犠牲にする(オンチェーン検証を伴う中央集権的トレーニング)か、パフォーマンスを犠牲にする(不正証明を待つ遅いコンセンサス)かのどちらかです。Ambient のロジットベースの PoW は、分散型トレーニングとほぼ即時の検証という両方のメリットを提供します。

経済的インセンティブ:Bitcoin ブロックのように AI モデルをマイニングする

Ambient の経済モデルは、Bitcoin の「予測可能なブロック報酬 + トランザクション手数料」という仕組みを反映しています。しかし、空のブロックをマイニングする代わりに、マイナーはアプリケーションが消費できる AI 出力を生成します。

インセンティブ構造は以下の通りです:

インフレベースの報酬: 初期のマイナーは、AI 推論、ファインチューニング、またはトレーニングに貢献することで、ブロック補助金(新しく発行されたトークン)を受け取ります。Bitcoin の半減期スケジュールと同様に、補助金は時間の経過とともに減少し、長期的な希少性を確保します。

トランザクションベースの手数料: アプリケーションは、AI サービス(推論リクエスト、モデルのファインチューニング、または学習済み重みへのアクセス)に対して料金を支払います。これらの手数料は作業を行ったマイナーに支払われ、補助金が減少しても持続可能な収益モデルを構築します。

レピュテーションのステーク: シビル攻撃(報酬を得るために低品質な作業を提出する行為)を防ぐため、Ambient はステークされたレピュテーションを導入しています。マイナーは参加するためにトークンをロックし、無効なロジットを生成するとスラッシング(没収)の対象となります。これにより、マイナーがシステムを悪用するのではなく、正確で有用な AI 出力を生成して利益を最大化するようインセンティブが調整されます。

一般的なハードウェアでのアクセシビリティ: ASIC ファームが支配する Bitcoin とは異なり、Ambient の PETALS シャーディングにより、コンシューマー向け GPU での参加が可能です。RTX 4090(24GB VRAM、約 1,600 ドル)を 1 枚持つマイナーでも、シャードを所有することで 6,000 億パラメータのモデルのトレーニングに貢献できます。これにより、数百万ドルのデータセンターを必要とせず、アクセスが民主化されます。

このモデルは、分散型 AI における重大な課題である「フリーライダー問題」を解決します。従来の PoS チェーンでは、バリデータは資本をステークしますが計算には貢献しません。Ambient では、マイナーが実際の AI 作業を提供することで、ネットワークの有用性がそのセキュリティ予算に比例して成長することを保証します。

270 億ドルの AI エージェントセクター:なぜ 2026 年が転換点なのか

Ambient のタイミングは、より広範な市場トレンドと一致しています。AI エージェントの暗号資産セクター は、オンチェーン資産の管理、トレードの実行、プロトコル間の調整を行う自律型プログラムに支えられ、270 億ドルの価値があると評価されています。

しかし、今日のエージェントは信頼の問題に直面しています。その多くは中央集権的な AI API(OpenAI、Anthropic、Google)に依存しています。もし 1,000 万ドルの DeFi ポジションを管理するエージェントが GPT-4 を使用して意思決定を行っている場合、ユーザーはそのモデルが改ざん、検閲、またはバイアスを受けていないという保証を持てません。エージェントが自律的に行動したことを証明する監査証跡も存在しません。

Ambient はこれをオンチェーン検証で解決します。すべての AI 推論はブロックチェーンに記録され、使用された正確なモデルと入力がロジットによって証明されます。アプリケーションは以下を行うことができます:

エージェントの意思決定を監査する: DAO は、その財務管理エージェントが、秘密裏に修正されたバージョンではなく、コミュニティが承認した特定のモデルを使用したことを検証できます。

コンプライアンスを強化する: 規制された DeFi プロトコルは、オンチェーンで証明可能な、検証済みの安全ガードレールを備えたモデルをエージェントに使用することを義務付けることができます。

AI マーケットプレイスを可能にする: 開発者はファインチューニングされたモデルを NFT として販売でき、Ambient はトレーニングデータと重みの暗号学的証明を提供します。

これにより、Ambient は次世代の自律型エージェントのインフラストラクチャとしての地位を確立します。「AI、ブロックチェーン、決済が単一の自己調整型インターネットへと収束する」2026 年が転換点 として浮上する中、Ambient の検証可能な AI レイヤーは重要な基盤となります。

技術的リスクと未解決の課題

Ambient のビジョンは野心的ですが、いくつかの技術的課題が未解決のまま残っています:

決定性と浮動小数点ドリフト: AI モデルは浮動小数点演算を使用しますが、これはハードウェア間で完全に決定論的ではありません。NVIDIA A100 で動作するモデルは、AMD MI250 上の同じモデルとはわずかに異なるロジットを生成する可能性があります。バリデーターがわずかな数値のズレを理由にブロックを拒否した場合、ネットワークは不安定になります。Ambient には厳密な許容範囲が必要ですが、厳格すぎると異なるハードウェアを使用するマイナーが不当にペナルティを受けることになります。

モデルのアップデートとバージョニング: Ambient がグローバルモデルを共同でトレーニングする場合、アップデートをどのように処理するのでしょうか? Bitcoin では、すべてのノードが同一のコンセンサスルールを実行します。Ambient では、マイナーが継続的にモデルをファインチューニングします。ネットワークの半分がバージョン 2.0 にアップデートし、残りの半分が 1.9 のままであれば、検証は破綻します。ホワイトペーパーには、モデルのバージョニングと後方互換性がどのように機能するかについての詳細は記載されていません。

プロンプトの多様性と作業の標準化: Bitcoin の PoW は一様であり、すべてのマイナーが同じ種類のパズルを解きます。Ambient の PoW は多様で、数学の質問に答えるマイナーもいれば、コードを書く者、ドキュメントを要約する者もいます。バリデーターは異なるタスクの「価値」をどのように比較するのでしょうか? あるマイナーが 10,000 トークンの無意味なテキスト(容易)を生成し、別のマイナーが困難なデータセットでモデルをファインチューニング(高コスト)した場合、どちらがより多くの報酬を得るべきでしょうか? Ambient には、Bitcoin のハッシュ難易度に相当する、AI 作業のための難易度調整アルゴリズムが必要ですが、「推論の難易度」を測定することは容易ではありません。

分散トレーニングにおけるレイテンシ: PETALS スタイルのシャーディングは推論(連続的なレイヤー処理)には適していますが、トレーニングにはバックプロパゲーション(ネットワークを通じて勾配が逆方向に流れること)が必要です。レイヤーが異なるネットワークレイテンシを持つノード間に分散されている場合、勾配の更新がボトルネックになります。Ambient は 10 倍のスループット向上を主張していますが、実際のパフォーマンスはネットワークトポロジーとマイナーの分布に依存します。

中央集権化のリスクにおけるモデルホスティング: 最も価値のあるモデルシャード(例:6,000 億パラメータモデルの最終レイヤー)をホストできるノードがごく少数に限られる場合、それらのノードが不当な影響力を持つことになります。バリデーターは接続性の良いノードに優先的に作業をルーティングする可能性があり、分散型とされるネットワークの中にデータセンター型の中央集権化が再現される恐れがあります。

これらは致命的な欠陥ではなく、すべてのブロックチェーン AI プロジェクトが直面するエンジニアリング上の課題です。しかし、2025 年第 2 四半期 / 第 3 四半期に予定されている Ambient のテストネットローンチによって、その理論が現実の条件下で通用するかどうかが明らかになるでしょう。

次に来るもの:テストネット、メインネット、および AGI のエンドゲーム

Ambient のロードマップは、2025 年第 2 四半期 / 第 3 四半期のテストネットローンチ を目標としており、2026 年にメインネットが続く予定です。a16z CSX、Delphi Digital、Amber Group からの 720 万ドルのシードラウンド資金は、コア開発の原動力となりますが、プロジェクトの長期的な成功はエコシステムの採用にかかっています。

注視すべき主要なマイルストーン:

テストネットのマイニング参加: どれだけのマイナーがネットワークに参加するか? Ambient が(初期の Ethereum マイニングのように)数千の GPU 所有者を惹きつけることができれば、経済モデルが機能していることが証明されます。もし少数の事業体しかマイニングを行わないのであれば、それは中央集権化のリスクを示唆します。

モデルパフォーマンスのベンチマーク: Ambient でトレーニングされたモデルは OpenAI や Anthropic と競合できるか? 分散型の 6,000 億パラメータモデルが GPT-4 レベルの品質を達成すれば、アプローチ全体が正当化されます。パフォーマンスが大幅に遅れる場合、開発者は中央集権的な API を使い続けるでしょう。

アプリケーションの統合: どの DeFi プロトコル、DAO、または AI エージェントが Ambient 上に構築されるか? 価値の提案は、実際のアプリケーションがオンチェーン AI 推論を消費して初めて実現します。初期のユースケースには以下が含まれる可能性があります:

  • 証明可能な意思決定ロジックを備えた自律型トレーディングエージェント
  • 分散型コンテンツモデレーション(AI モデルによる投稿フィルタリング、オンチェーンで監査可能)
  • 検証可能な AI オラクル(オンチェーンの価格予測や感情分析)

Ethereum および Cosmos との相互運用性: Ambient は Solana のフォークですが、AI エージェント経済は複数のチェーンにまたがっています。Ethereum(DeFi 用)や Cosmos(ASI のような IBC 接続された AI チェーン用)へのブリッジは、Ambient が孤立した島になるか、ハブになるかを決定づけます。

究極のエンドゲームは野心的です。それは、単一のエンティティがモデルを制御しない 分散型 AGI のトレーニングです。数千の独立したマイナーが協力して超知能システムをトレーニングし、すべてのトレーニングステップの暗号学的証明があれば、それは AGI への真にオープンで監査可能な最初の道となるでしょう。

Ambient がこれを達成するか、あるいは期待外れの暗号資産プロジェクトに終わるかは実行力次第です。しかし、恣意的な暗号パズルを検証可能な AI 作業に置き換えるという核心的なイノベーションは、真のブレークスルーです。もし Proof of Work が浪費ではなく生産的になり得るのであれば、それを最初に証明するのは Ambient です。

Proof-of-Logits(プルーフ・オブ・ロジット)へのパラダイムシフト

Ambient の 720 万ドルの資金調達は、単なる新たな暗号資産の資金調達ラウンドではありません。これは、ブロックチェーンのコンセンサスと AI トレーニングが、単一の経済的に整合したシステムへと融合できるという賭けです。その影響は Ambient をはるかに超えて広がります。

ロジットベースの検証(logit-based verification)が機能すれば、他のチェーンもそれを採用するでしょう。Ethereum は、単に ETH をステーキングするのではなく、AI 演算に貢献するバリデーターに報酬を与える PoS の代替案として PoL を導入する可能性があります。Bitcoin は、SHA-256 ハッシュの代わりに「有益な計算(useful computation)」を使用するためにフォークするかもしれません(もっとも、Bitcoin マキシマリストがこれを受け入れることはないでしょうが)。

分散型トレーニングが競争力のあるパフォーマンスを達成すれば、OpenAI や Google はその「堀(moat)」を失います。GPU を持つ誰もが AGI(人工汎用知能)の開発に貢献し、その対価としてトークンを獲得できる世界は、中央集権的な AI 独占体制を根本から破壊します。

オンチェーン AI 検証が標準になれば、自律型エージェントは信頼性を獲得します。ユーザーはブラックボックス化した API を信頼する代わりに、特定のモデルとプロンプトをオンチェーンで検証します。これにより、規制された DeFi、アルゴリズムによるガバナンス、そして AI 駆動の法的契約への道が開かれます。

Ambient が勝利すると決まったわけではありません。しかし、これは Proof-of-Work(プルーフ・オブ・ワーク)を生産的なものにし、AI トレーニングを分散化し、ブロックチェーンのセキュリティを文明の進歩と一致させようとする、これまでで最も技術的に信頼できる試みです。テストネットのローンチは、理論が現実に即しているか、あるいは Proof-of-Logits が野心的なコンセンサス実験の墓場に加わることになるのかを証明することになるでしょう。

いずれにせよ、オンチェーン AGI をトレーニングする競争が今、紛れもなく本物になったことは確かです。そして Ambient は、そのスタートラインに 720 万ドルを投じたのです。


ソース:

Gensyn の Judge:ビット単位で正確な再現性が不透明な AI API の時代をどのように終わらせるか

· 約 30 分
Dora Noda
Software Engineer

ChatGPT や Claude、あるいは Gemini にクエリを投げるたびに、ユーザーは目に見えないブラックボックスを信頼していることになります。モデルのバージョンは? 不明です。正確な重みは? プロプライエタリです。出力が、自分が使用していると思っているモデルによって生成されたのか、それとも密かに更新されたバリアントによるものなのか? 検証は不可能です。レシピや雑学を尋ねるカジュアルなユーザーにとって、この不透明さは単に煩わしいだけかもしれません。しかし、金融取引アルゴリズム、医療診断、法的契約の分析など、重大な意思決定を伴う AI 利用においては、これは根本的な信頼の危機となります。

2025 年後半にリリースされ、2026 年に本稼働を開始する Gensyn の Judge は、急進的な代替案を提示します。それは、すべての推論がビット単位まで再現可能な、暗号学的に検証可能な AI 評価です。正しいモデルを提供するために OpenAI や Anthropic を信頼する代わりに、Judge は、特定の合意済みの AI モデルが現実世界の入力に対して決定論的に実行されたことを、誰でも検証できるようにします。暗号学的証明により、結果を偽造することはできません。

技術的な突破口は、AI の再現性を阻む要因となっていた浮動小数点の非決定性を排除する、Gensyn の検証システム Verde です。Verde は、デバイスをまたいでビット単位で正確な計算を強制することで、ロンドンの NVIDIA A100 と東京の AMD MI250 で同じモデルを実行しても同一の結果が得られることを保証し、それをオンチェーンで証明可能にします。これにより、分散型金融(DeFi)、自律型エージェント、および透明性がオプションではなく必須であるあらゆるアプリケーションにおいて、検証可能な AI が利用可能になります。

不透明な API の問題:検証なき信頼

AI 業界は API で動いています。開発者は、REST エンドポイントを介して OpenAI の GPT-4、Anthropic の Claude、または Google の Gemini を統合し、プロンプトを送信してレスポンスを受け取ります。しかし、これらの API は根本的に不透明です。

バージョンの不確実性gpt-4 を呼び出したとき、正確にはどのバージョンを取得しているのでしょうか? GPT-4-0314? GPT-4-0613? それとも密かに更新されたバリアントでしょうか? プロバイダーは、公表せずにパッチを頻繁に適用し、一夜にしてモデルの挙動を変えてしまうことがあります。

監査証跡の欠如:API のレスポンスには、どのモデルがそれを生成したかを示す暗号学的証明が含まれていません。OpenAI が特定の地域や顧客に対して、検閲された、あるいは偏ったバリアントを提供したとしても、ユーザーにはそれを検知する術がありません。

サイレントな劣化:プロバイダーは、コストを削減するためにモデルを「ロボトミー化(性能の意図的な劣化)」し、API の規約は維持したまま推論の質を下げることがあります。ユーザーからは GPT-4 が時間の経過とともに「性能が落ちた」という報告が上がりますが、透明性のあるバージョニングがなければ、そのような主張は客観的な裏付けを欠いたままとなります。

非決定的な出力:温度設定、バッチ処理、またはハードウェア レベルの浮動小数点丸め誤差により、同一の入力で同じモデルに 2 回クエリを実行しても、異なる結果が得られることがあります。これにより監査は不可能になります。出力が再現可能でない場合、どのようにして正しさを検証すればよいのでしょうか?

カジュアルな用途であれば、これらの問題は不便な程度で済みます。しかし、重大な意思決定においては、これらは致命的な障害となります。以下を考えてみてください。

アルゴリズム取引:あるヘッジファンドが、5,000 万ドルの DeFi ポジションを管理する AI エージェントを運用しているとします。このエージェントは、X(旧 Twitter)の投稿から市場センチメントを分析するために GPT-4 に依存しています。取引セッションの途中でモデルが密かに更新され、センチメント スコアが予測不能に変化すると、意図しない清算が引き起こされる可能性があります。ファンドにはモデルが誤動作したという証拠がなく、OpenAI のログは公開監査されていません。

医療診断:ある病院が癌の治療法を推奨するために AI モデルを使用しています。規制により、医師は意思決定プロセスを文書化する必要があります。しかし、AI モデルのバージョンを検証できない場合、監査証跡は不完全になります。医療過誤訴訟は「どの」モデルが推奨を生成したかを証明できるかどうかにかかっているかもしれませんが、不透明な API ではそれは不可能です。

DAO ガバナンス:分散型組織(DAO)が、トレジャリーの提案に投票するために AI エージェントを使用しています。コミュニティ メンバーは、エージェントが承認されたモデルを使用したという証拠を求めます。特定の結果に有利なように改ざんされたバリアントではないという証拠です。暗号学的検証がなければ、投票の正当性が欠如してしまいます。

これこそが Gensyn がターゲットとする信頼のギャップです。AI が重要な意思決定に組み込まれるにつれ、モデルの真正性と挙動を検証できないことは、「重大な環境においてエージェンティック(自律的)AI を導入する上での根本的な障壁」となります。

Judge:検証可能な AI 評価プロトコル

Judge は、合意済みの決定論的な AI モデルを現実世界の入力に対して実行し、その結果を誰でも異議申し立てができるブロックチェーンにコミットすることで、不透明性の問題を解決します。プロトコルの仕組みは以下の通りです。

1. モデルのコミットメント:参加者は、AI モデルのアーキテクチャ、重み、および推論設定に合意します。このモデルはハッシュ化され、オンチェーンにコミットされます。このハッシュは暗号学的な指紋として機能し、合意されたモデルから少しでも逸脱すれば、異なるハッシュが生成されます。

2. 決定論的な実行:Judge は Gensyn の再現可能なランタイムを使用してモデルを実行します。これにより、デバイスをまたいでビット単位で正確な再現性が保証されます。これは、浮動小数点の非決定性を排除する、極めて重要なイノベーションです。

3. 公開コミットメント:推論後、Judge は出力(またはそのハッシュ)をオンチェーンに投稿します。これにより、特定の入力に対してモデルが何を生成したかを示す、永続的で監査可能な記録が作成されます。

4. チャレンジ期間:誰でも独立してモデルを再実行することで、結果に異議を唱えることができます。出力が異なる場合、不正証明(Fraud Proof)を提出します。Verde の 参照委任メカニズム(refereed delegation mechanism)は、計算グラフの中で結果が分岐した正確な演算箇所を特定します。

5. 不正に対するスラッシング:チャレンジャーが Judge の出力が正しくないことを証明した場合、元の実行者はペナルティを受けます(ステーキングされたトークンのスラッシング)。これにより経済的インセンティブが調整され、実行者はモデルを正しく実行することで利益を最大化するようになります。

Judge は、AI 評価を「API プロバイダーを信頼する」ことから「暗号学的証明を検証する」ことへと変革します。モデルの挙動は公開され、監査可能で、強制力を持つようになり、もはやプロプライエタリなエンドポイントの背後に隠されることはありません。

Verde: 浮動小数点非決定性の排除

検証可能な AI における核心的な技術的課題は「決定性」です。ニューラルネットワークは推論中に数十億もの浮動小数点演算を行います。最新の GPU では、これらの演算は完全に再現可能ではありません。

非結合性: 浮動小数点の加算は結合法則を満たしません。丸め誤差のため、(a + b) + ca + (b + c) とは異なる結果をもたらす可能性があります。GPU は数千のコアにわたって合計を並列化しますが、部分和が蓄積される順序はハードウェアやドライバのバージョンによって異なります。

カーネルスケジューリングの可変性: GPU カーネル(行列乗算やアテンションなど)は、ワークロード、ドライバの最適化、またはハードウェアアーキテクチャに応じて、異なる順序で実行されることがあります。同じ GPU で同じモデルを 2 回実行したとしても、カーネルスケジューリングが異なれば結果が変わる可能性があります。

バッチサイズへの依存性: 研究により、LLM 推論はシステムレベルで非決定的であることが判明しています。これは、出力がバッチサイズに依存するためです。多くのカーネル(matmul、RMSNorm、アテンション)は、同時に処理されるサンプル数に基づいて数値出力が変化します。バッチサイズ 1 での推論は、同じ入力をバッチサイズ 8 で処理した場合とは異なる値を生成します。

これらの問題により、標準的な AI モデルはブロックチェーンの検証には不向きとなっています。2 人のバリデータが同じ推論を再実行してわずかに異なる出力を得た場合、どちらが正しいのでしょうか? 決定性がなければ、コンセンサスを得ることは不可能です。

Verde は、すべてのデバイスで浮動小数点演算の順序を制御し、ハードウェアの非決定性を排除するライブラリである RepOps (Reproducible Operators) によってこれを解決します。仕組みは以下の通りです。

標準的なリダクション順序: RepOps は、行列乗算などの演算において部分的な結果を合計するための決定的な順序を強制します。GPU スケジューラに任せるのではなく、RepOps はすべてのハードウェアにおいて「列 0、次に列 1、次に列 2... を合計する」と明示的に指定します。これにより、(a + b) + c は常に同じ順序で計算されます。

カスタム CUDA カーネル: Gensyn は、生の速度よりも再現性を優先した最適化済みカーネルを開発しました。RepOps の行列乗算のオーバーヘッドは、標準的な cuBLAS と比較して 30% 未満であり、決定性を得るためのトレードオフとしては妥当な範囲内です。

ドライバとバージョンの固定: Verde はバージョンを固定した GPU ドライバと標準的な構成を使用し、異なるハードウェアで実行される同じモデルがビット単位で同一の出力を生成することを保証します。あるデータセンターの NVIDIA A100 で動作するモデルは、別のデータセンターの AMD MI250 からの出力とビット単位で一致します。

これが Judge の検証を可能にする画期的な進歩です。ビット単位で正確な再現性は、バリデータが実行者を信頼することなく、独立して結果を確認できることを意味します。ハッシュが一致すれば、その推論は正しいことが数学的に証明されます。

Refereed Delegation(調停型委任): 全再計算を伴わない効率的な検証

決定的な実行が可能であっても、AI 推論を素朴に検証するのはコストがかかります。1,000 トークンを生成する 700 億パラメータのモデルには、10 GPU 時間が必要になる場合があります。バリデータが正当性を確認するためにすべての推論を再実行しなければならない場合、検証コストは実行コストと等しくなり、分散化の目的が損なわれます。

Verde の Refereed Delegation(調停型委任)メカニズムは、検証を指数関数的に安価にします。

複数の信頼できない実行者: Judge は 1 人の実行者ではなく、複数の独立したプロバイダーにタスクを割り当てます。各プロバイダーは同じ推論を実行し、結果を提出します。

不一致が調査のトリガーに: すべての実行者が同意すれば、結果は承認され、それ以上の検証は不要です。出力が異なる場合、Verde はチャレンジゲームを開始します。

計算グラフ上での二分探索: Verde は推論全体を再実行しません。代わりに、モデルの計算グラフ上で二分探索を行い、結果が分岐した最初のオペレーターを特定します。これにより、不一致の原因となっている正確なレイヤー(例:「アテンションレイヤー 47、ヘッド 8」)をピンポイントで特定します。

最小限のレフェリー計算: レフェリー(スマートコントラクトや計算能力の限られたバリデータなど)は、フォワードパス全体ではなく、争点となっているオペレーターのみをチェックします。80 レイヤーを持つ 70B パラメータモデルの場合、これにより検証は最悪のケースでも約 7 レイヤー(log₂ 80)のチェックに削減されます。

このアプローチは、すべてのバリデータがすべてを再実行する素朴な複製よりも 1,350% 以上効率的です。Gensyn は暗号学的証明、ゲーム理論、および最適化されたプロセスを組み合わせて、冗長な計算を行うことなく正しい実行を保証します。

その結果、Judge は AI ワークロードを大規模に検証できるようになり、数千の信頼できないノードが計算を提供し、不正な実行者が摘発・処罰される分散型推論ネットワークを可能にします。

ハイステークスな AI 意思決定: なぜ透明性が重要なのか

Judge のターゲット市場はカジュアルなチャットボットではありません。検証可能性が「あれば良いもの」ではなく、規制上または経済上の要件となるアプリケーションです。不透明な API が致命的な失敗を招くシナリオを以下に示します。

分散型金融 (DeFi): 自律的なトレーディングエージェントが数十億の資産を管理しています。エージェントが AI モデルを使用してポートフォリオのリバランス時期を決定する場合、ユーザーはモデルが改ざんされていないという証拠を必要とします。Judge はオンチェーン検証を可能にします。エージェントは特定のモデルハッシュをコミットし、その出力に基づいて取引を実行し、誰でもその意思決定ロジックに異議を唱えることができます。この透明性は、悪意のあるエージェントが証拠もなく「AI が清算しろと言った」と主張するラグプルを防ぎます。

規制コンプライアンス: 信用スコアリング、不正検知、またはマネーロンダリング防止 (AML) のために AI を導入している金融機関は、監査に直面します。規制当局は「なぜモデルはこの取引にフラグを立てたのか?」という説明を求めます。不透明な API は監査証跡を提供しません。Judge はモデルのバージョン、入力、出力の不変の記録を作成し、コンプライアンス要件を満たします。

アルゴリズムガバナンス: 分散型自律組織 (DAO) は、AI エージェントを使用してガバナンスの決定を提案したり投票したりします。コミュニティメンバーは、エージェントがハッキングされたバリアントではなく、承認されたモデルを使用したことを検証する必要があります。Judge を使用すると、DAO はスマートコントラクトにモデルハッシュをエンコードし、すべての決定に正当性の暗号学的証明が含まれるようになります。

医療および法的 AI: ヘルスケアや司法制度には説明責任が必要です。AI の支援を受けて癌を診断する医師は、使用された正確なモデルバージョンを記録する必要があります。AI を使用して契約書を作成する弁護士は、出力が審査済みの偏りのないモデルからのものであることを証明しなければなりません。Judge のオンチェーン監査証跡は、このエビデンスを提供します。

予測市場とオラクル: Polymarket のようなプロジェクトは、AI を使用して賭けの結果(例:「このイベントは起こるか?」)を解決します。解決がニュース記事を分析する AI モデルに依存している場合、参加者はモデルが操作されていないという証拠を必要とします。Judge はオラクルの AI 推論を検証し、紛争を防ぎます。

どの場合においても共通しているのは、透明性のない信頼は不十分であるということです。VeritasChain が指摘しているように、AI システムには、紛争が発生したときに何が起こったかを証明する不変のログである「暗号学的フライトレコーダー」が必要なのです。

ゼロ知識証明の代替案:Verde と ZKML の比較

Judge は、検証可能な AI を実現するための唯一のアプローチではありません。ゼロ知識機械学習(ZKML)は、zk-SNARKs を使用して同様の目標を達成します。これは、入力や重みを明かすことなく、計算が正しく実行されたことを証明する暗号学的証明です。

Verde は ZKML と比較してどうでしょうか?

検証コスト: ZKML は、証明を生成するために元の推論よりも約 1,000 倍多い計算量を必要とします(研究による推定)。推論に 10 GPU 時間を要する 70B パラメータのモデルでは、証明に 10,000 GPU 時間が必要になる可能性があります。Verde の参照委譲(refereed delegation)は対数的です。80 レイヤーではなく約 7 レイヤーをチェックすることは、1,000 倍の増加ではなく 10 倍の削減を意味します。

証明者の複雑性: ZKML は、証明を効率的に生成するために専用のハードウェア(zk-SNARK 回路用のカスタム ASIC など)を必要とします。Verde は汎用 GPU で動作し、ゲーミング PC を持つマイナーなら誰でも参加できます。

プライバシーのトレードオフ: ZKML の強みはプライバシーです。証明は入力やモデルの重みについて何も明かしません。Verde の決定論的実行は透明性があります。入力と出力は公開されます(重みは暗号化可能です)。リスクの高い意思決定において、透明性はしばしば望ましいものです。トレジャリーの配分を決定する DAO の投票では、隠された証明ではなく、公開された監査トレイルが求められます。

証明の範囲: ZKML は実用上、推論に限定されています。現在の計算コストでは、トレーニングを証明することは不可能です。Verde は推論とトレーニングの両方の検証をサポートしています(Gensyn のより広範なプロトコルは分散型トレーニングを検証します)。

実世界での採用: Modulus Labs のような ZKML プロジェクトは、オンチェーンで 18M パラメータのモデルを検証するという画期的な成果を上げていますが、依然として小規模なモデルに限定されています。Verde の決定論的ランタイムは、本番環境で 70B 以上のパラメータを持つモデルを処理します。

ZKML は、虹彩スキャンを公開せずにバイオメトリック認証を検証する(Worldcoin)など、プライバシーが最優先される場合に優れています。Verde は、特定の公開モデルが正しく実行されたことを証明するという、透明性が目標である場合に適しています。これら 2 つのアプローチは競合するものではなく、補完的なものです。

Gensyn エコシステム:Judge から分散型トレーニングへ

Judge は、Gensyn のより広範なビジョンである、機械学習計算のための分散型ネットワークの一構成要素です。このプロトコルには以下が含まれます:

実行レイヤー: 異種ハードウェア(コンシューマー GPU、エンタープライズクラスター、エッジデバイス)間での一貫した ML 実行。Gensyn は推論とトレーニングのワークロードを標準化し、互換性を確保します。

検証レイヤー(Verde): 参照委譲を用いたトラストレスな検証。不正な実行者は検出され、ペナルティを課されます。

ピアツーピア(P2P)通信: 中央集権的な調整なしでのデバイス間のワークロード分散。マイナーはタスクを受け取り、実行し、証明をブロックチェーンに直接提出します。

分散型コーディネーション: Ethereum ロールアップ上のスマートコントラクトが参加者を特定し、タスクを割り当て、許可なく支払いを処理します。

Gensyn の パブリックテストネットは 2025 年 3 月に開始 され、メインネットは 2026 年に予定されています。$AI トークンのパブリックセール は 2025 年 12 月に行われ、マイナーとバリデーターのための経済的インセンティブが確立されました。

Judge は評価レイヤーとしてこのエコシステムに適合します。Gensyn のコアプロトコルがトレーニングと推論を処理する一方で、Judge はそれらの出力が検証可能であることを保証します。これにより、次のようなフライホイールが生まれます:

デベロッパーがモデルをトレーニングする: Gensyn の分散型ネットワーク上で実行されます(活用されていないコンシューマー GPU が計算を提供するため、AWS よりも安価です)。

モデルがデプロイされる: Judge が評価の完全性を保証します。アプリケーションは Gensyn の API を通じて推論を消費しますが、OpenAI とは異なり、すべての出力に暗号学的証明が含まれます。

バリデーターが報酬を得る: 証明をチェックし不正を摘発することで手数料を獲得し、経済的インセンティブをネットワークのセキュリティと一致させます。

信頼が拡大する: より多くのアプリケーションが検証可能な AI を採用するにつれて、中央集権的なプロバイダーへの依存が減少します。

最終的な目標:Big Tech だけでなく、誰もが利用できる、証明可能で正しく、分散化された AI トレーニングと推論を実現することです。

課題と今後の展望

Judge のアプローチは画期的ですが、いくつかの課題が残っています。

パフォーマンスのオーバーヘッド: RepOps による 30% の速度低下は検証には許容範囲内ですが、すべての推論を決定論的に実行する必要がある場合、レイテンシに敏感なアプリケーション(リアルタイム取引、自動運転車)は、より高速で検証不可能な代替案を好む可能性があります。Gensyn のロードマップには RepOps のさらなる最適化が含まれていると思われますが、速度と決定論の間には根本的なトレードオフが存在します。

ドライバーバージョンの断片化: Verde はバージョンが固定されたドライバーを想定していますが、GPU メーカーは常にアップデートをリリースしています。一部のマイナーが CUDA 12.4 を使い、他のマイナーが 12.5 を使うと、ビット単位の再現性が崩れます。Gensyn は厳格なバージョン管理を強制しなければならず、これはマイナーのオンボーディングを複雑にします。

モデル重みの機密性: Judge の透明性は公開モデルにとっては機能ですが、独自のモデルにとっては欠点となります。ヘッジファンドが価値のある取引モデルをトレーニングし、それを Judge にデプロイすると、オンチェーンのコミットメントを通じて競合に重みが公開されるリスクがあります。秘密のモデルには ZKML ベースの代替案が好まれる可能性があり、これは Judge がオープンまたはセミオープンな AI アプリケーションをターゲットにしていることを示唆しています。

紛争解決のレイテンシ: チャレンジャーが不正を主張した場合、バイナリサーチによる紛争解決には複数のオンチェーン取引が必要になります(各ラウンドで探索範囲が絞り込まれます)。高頻度アプリケーションは、ファイナリティ(確定)まで数時間待つことはできません。Gensyn はレイテンシを短縮するために、オプティミスティック検証(期間内に異議申し立てがない限り正しいと仮定する)を導入する可能性があります。

参照委譲におけるシビル耐性: 複数の実行者が合意しなければならない場合、単一のエンティティがシビル・アイデンティティ(偽造された複数の身元)を通じてすべての実行者を制御することをどう防ぐのでしょうか?Gensyn はおそらく、ステーク加重による選択(評判の高いバリデーターが優先的に選ばれる)とスラッシングを組み合わせて共謀を抑止すると思われますが、経済的な閾値は慎重に調整される必要があります。

これらは致命的な欠陥ではなく、エンジニアリング上の課題です。「決定論的 AI + 暗号学的検証」という核となるイノベーションは堅実です。テストネットからメインネットへと移行するにつれて、実行の詳細は成熟していくでしょう。

検証可能な AI への道:採用経路とマーケットフィット

Judge の成功は採用にかかっています。どのアプリケーションが最初に検証可能な AI を導入するのでしょうか?

自律型エージェントを備えた DeFi プロトコル: Aave、Compound、Uniswap などの DAO は、財務管理のために Judge で検証されたエージェントを統合できます。コミュニティがモデルのハッシュを承認するために投票し、すべてのエージェントの決定には証明が含まれます。この透明性は、DeFi の正当性にとって極めて重要な信頼を構築します。

予測市場とオラクル: Polymarket や Chainlink のようなプラットフォームは、賭けの解決や価格フィードの配信に Judge を使用できます。感情、ニュース、またはオンチェーンのアクティビティを分析する AI モデルは、検証可能な出力を生成し、オラクル操作をめぐる紛争を排除します。

分散型アイデンティティと KYC: AI ベースの本人確認(自撮り写真からの年齢推定、書類の真正性チェック)を必要とするプロジェクトは、Judge の監査証跡から利益を得ます。規制当局は、中央集権的なアイデンティティプロバイダーを信頼することなく、コンプライアンスの暗号学的証明を受け入れることができます。

ソーシャルメディアのコンテンツモデレーション: 分散型ソーシャルネットワーク(Farcaster、Lens Protocol)は、Judge で検証された AI モデレーターを導入できます。コミュニティメンバーは、モデレーションモデルに偏りや検閲がないことを検証でき、プラットフォームの中立性を確保できます。

AI-as-a-Service プラットフォーム: AI アプリケーションを構築する開発者は、「検証可能な推論」をプレミアム機能として提供できます。ユーザーは証明のために追加料金を支払い、不透明な代替サービスと差別化を図ることができます。

共通点:信頼のコストが高い(規制、分散化、または利害関係が大きいため)一方で、検証コストが許容される(確実性の価値と比較して)アプリケーションです。

Judge は、消費者向けのチャットボットにおいて OpenAI に取って代わるものではありません。レシピのアイデアを求めているユーザーは、GPT-4 が検証可能かどうかを気にしません。しかし、金融アルゴリズム、医療ツール、ガバナンスシステムにとって、検証可能な AI は未来そのものです。

新たな標準としての検証可能性

Gensyn の Judge はパラダイムシフトを象徴しています。AI の評価は「プロバイダーを信頼する」ことから「証明を検証する」ことへと移行しています。Verde によるビット単位で正確な再現性、参照委託を通じた効率的な検証、そしてオンチェーンの監査証跡という技術的基盤が、この移行を単なる理想ではなく現実的なものにしています。

その影響は Gensyn をはるかに超えて広がります。検証可能な AI が標準になれば、中央集権的なプロバイダーはその参入障壁(モート)を失います。OpenAI の価値提案は GPT-4 の能力だけではなく、インフラを管理しなくて済むという「利便性」にあります。しかし、もし Gensyn が分散型 AI が中央集権型と同等のパフォーマンスに「検証可能性」を加えて提供できることを証明すれば、開発者が独自の API に縛られる理由はなくなります。

競争はすでに始まっています。ZKML プロジェクト(Modulus Labs、Worldcoin のバイオメトリックシステム)はゼロ知識証明に賭けています。確実なランタイム(Gensyn の Verde、EigenAI)は再現性に賭けています。オプティミスティックなアプローチ(ブロックチェーン AI オラクル)は不正証明に賭けています。それぞれの道にはトレードオフがありますが、目的地は同じです。それは、出力が単に「もっともらしい」だけでなく「証明可能」である AI システムです。

利害関係の大きい意思決定において、これはオプションではありません。金融、ヘルスケア、または法的なアプリケーションにおいて、規制当局は AI プロバイダーからの「信じてください」という言葉を受け入れないでしょう。DAO は財務管理をブラックボックスのエージェントに委ねることはありません。そして、自律型 AI システムがより強力になるにつれ、一般市民は透明性を求めるようになるでしょう。

Judge は、この約束を果たす最初のプロダクション対応システムです。テストネットは稼働しています。暗号学的な基盤は強固です。AI エージェント関連の暗号資産 270 億ドル、アルゴリズムによって管理される数十億ドルの DeFi 資産、そして高まる規制圧力という市場の準備は整っています。

不透明な AI API の時代は終わりつつあります。検証可能な知性の時代が始まろうとしています。そして、Gensyn の Judge がその道を照らしています。


情報源:

Nillion の Blacklight が稼働開始:ERC-8004 が自律型 AI エージェントの信頼レイヤーを構築する方法

· 約 19 分
Dora Noda
Software Engineer

2026 年 2 月 2 日、AI エージェント経済は重要な一歩を踏み出しました。Nillion は、ブロックチェーンにおける最も差し迫った課題の 1 つである「一度も会ったことのない AI エージェントをどうやって信頼するか?」という問題を解決するために、ERC-8004 標準 を実装した検証レイヤーである Blacklight を立ち上げました。

その答えは、単純なレピュテーションスコアや中央集権的なレジストリではありません。それは、暗号学的証明、プログラム可能な監査、そしてコミュニティが運営するノードネットワークに支えられた 5 段階の検証プロセスです。自律型エージェントが取引の実行、トレジャリーの管理、クロスチェーン活動の調整を行う機会が増える中、Blacklight は大規模なトラストレスな AI 調整を可能にするインフラを象徴しています。

AI エージェントが単独では解決できない信頼の問題

数字が物語っています。現在、AI エージェントは Polymarket の取引量の 30% に貢献しており、複数のプロトコルにわたる DeFi の収益戦略を担当し、複雑なワークフローを自律的に実行しています。しかし、根本的なボトルネックが存在します。「既存の関係がないエージェント同士が、どのようにお互いの信頼性を検証するのか?」という点です。

従来のシステムは、証明書を発行する中央集権的な権限に依存しています。Web3 の約束は異なります。つまり、暗号学とコンセンサスを通じたトラストレスな検証です。しかし、ERC-8004 が登場するまで、エージェントが自らの真正性を証明したり、行動を追跡したり、意思決定ロジックをオンチェーンで検証したりするための標準化された方法はありませんでした。

これは単なる理論上の問題ではありません。Davide Crapis 氏が説明するように、「ERC-8004 は、分散型 AI エージェントの相互作用を可能にし、トラストレスなコマースを確立し、Ethereum 上のレピュテーションシステムを強化します。」これがなければ、エージェント間のコマースは「クローズドな庭(Walled Garden)」の中に限定されるか、手動の監視が必要になり、自律性の目的が失われてしまいます。

ERC-8004:3 つのレジストリによる信頼インフラ

2026 年 1 月 29 日に Ethereum メインネットで稼働を開始した ERC-8004 標準 は、3 つのオンチェーンレジストリを通じてモジュール式の信頼レイヤーを構築します。

Identity Registry(アイデンティティ・レジストリ): ERC-721 を使用して、ポータブルなエージェント識別子を提供します。各エージェントは、固有のオンチェーン・アイデンティティを表す非代替性トークン(NFT)を受け取り、プラットフォームを跨いだ認識を可能にし、アイデンティティのなりすましを防止します。

Reputation Registry(レピュテーション・レジストリ): 標準化されたフィードバックと評価を収集します。中央集権的なレビューシステムとは異なり、フィードバックは暗号署名と共にオンチェーンに記録され、不変の監査証跡を作成します。誰でもこの履歴を取得し、独自のレピュテーション・アルゴリズムを構築できます。

Validation Registry(バリデーション・レジストリ): エージェントの作業の暗号学的および経済的検証をサポートします。ここではプログラム可能な監査が行われます。バリデーターは計算を再実行したり、ゼロ知識証明を検証したり、信頼実行環境(TEE)を活用してエージェントが正しく行動したことを確認したりできます。

ERC-8004 の素晴らしさは、その非固執的(Unopinionated)な設計にあります。技術仕様 に記載されているように、この標準は様々な検証手法をサポートしています。「ステークによって保護されたタスクの再実行(EigenLayer のようなシステムに着想を得たもの)、ゼロ知識機械学習(zkML)証明の検証、および信頼実行環境からのアテステーション(証明)。」

この柔軟性が重要です。DeFi アービトラージ・エージェントは、アルファ(独自の情報)を明かすことなく zkML 証明を使用して取引ロジックを検証できます。サプライチェーン・エージェントは、TEE アテステーションを使用して、現実世界のデータに正しくアクセスしたことを証明できます。クロスチェーン・ブリッジ・エージェントは、誠実な実行を保証するために、スラッシング(ペナルティ)を伴う暗号経済的検証に依存することができます。

Blacklight の 5 段階の検証プロセス

Nillion による Blacklight への ERC-8004 の実装は、重要なレイヤーである「コミュニティ運営の検証ノード」を追加します。プロセスの仕組みは以下の通りです。

1. エージェント登録: エージェントは Identity Registry にアイデンティティを登録し、ERC-721 NFT を受け取ります。これにより、エージェントの公開鍵に関連付けられた固有のオンチェーン識別子が作成されます。

2. 検証リクエストの開始: 取引の実行、資金の移動、状態の更新など、検証が必要なアクションをエージェントが実行するとき、Blacklight に検証リクエストを送信します。

3. 委員会の割り当て: Blacklight プロトコルは、リクエストを監査するために検証ノードの委員会をランダムに割り当てます。これらのノードは、ネットワークの完全性のためにインセンティブが調整された、70,000 NIL トークンをステークしているコミュニティメンバーによって運営されます。

4. ノードによるチェック: 委員会のメンバーは、計算を再実行するか、暗号学的証明を検証します。バリデーターが不正な行動を検出した場合、(暗号経済的検証を使用しているシステムでは)エージェントのステークをスラッシングしたり、Reputation Registry でそのアイデンティティにフラグを立てたりすることができます。

5. オンチェーン・レポート: 結果はオンチェーンに投稿されます。Validation Registry はエージェントの作業が検証されたかどうかを記録し、実行の永続的な証明を作成します。それに応じて Reputation Registry が更新されます。

このプロセスは非同期かつノンブロッキング(非停止)で行われるため、エージェントはルーチンタスクを完了するために検証を待つ必要はありません。ただし、リスクの高いアクション(多額の送金、クロスチェーン操作)には、事前の検証が必要になる場合があります。

プログラマブルな監査:バイナリな信頼を超えて

Blacklight の最も野心的な機能は「プログラマブルな検証」です。これは、エージェントが「何をしたか」だけでなく、意思決定を「どのように」行ったかを監査する能力です。

トレジャリーを管理する DeFi エージェントを考えてみましょう。従来の監査では、資金が正しく移動したことを検証します。プログラマブルな監査では、以下を検証します:

  • 意思決定ロジックの一貫性:エージェントは表明された投資戦略に従ったか、それとも逸脱したか?
  • マルチステップ・ワークフローの実行:エージェントが 3 つのチェーンにわたってポートフォリオをリバランスすることになっていた場合、すべてのステップを完了したか?
  • セキュリティ制約:エージェントはガスリミット、スリッページ許容度、およびエクスポージャーの上限を遵守したか?

これが可能なのは、ERC-8004 の Validation Registry が任意の証明システムをサポートしているためです。エージェントは、意思決定アルゴリズム(例:ニューラルネットワークの重みのハッシュや、そのロジックを表す zk-SNARK 回路)をオンチェーンでコミットし、独自の詳細を明かすことなく、各アクションがそのアルゴリズムに準拠していることを証明できます。

Nillion のロードマップは、これらのユースケースを明確にターゲットにしています:「Nillion は Blacklight の機能を『プログラマブルな検証』へと拡張し、エージェントの意思決定ロジックの一貫性、マルチステップ・ワークフローの実行、セキュリティ制約などの複雑な動作の分散型監査を可能にする計画です。」

これにより、検証はリアクティブ(事後にエラーを検出する)なものから、プロアクティブ(設計によって正しい動作を強制する)なものへと移行します。

ブラインド・コンピュテーション:プライバシーと検証の両立

Nillion の基盤技術である Nil Message Compute (NMC) は、エージェント検証にプライバシーの次元を加えます。すべてのデータが公開される従来のブロックチェーンとは異なり、Nillion の「ブラインド・コンピュテーション」は、復号することなく暗号化されたデータ上での操作を可能にします。

これがエージェントにとって重要な理由は次のとおりです。AI エージェントは、競合他社にアルファ(超過収益の源泉)を明かすことなく、自身の取引戦略を検証する必要があるかもしれません。あるいは、患者のデータを公開することなく、機密性の高い医療記録に正しくアクセスしたことを証明する必要があるかもしれません。または、独自のビジネスロジックを開示することなく、規制上の制約への準拠を実証する必要があるかもしれません。

Nillion の NMC は、マルチパーティ計算 (MPC) を通じてこれを実現します。MPC では、ノードが協力して、データの暗号化に使用される相関乱数である「ブラインディング・ファクター(目隠し要素)」を生成します。DAIC Capital が説明するように、「ノードはデータの処理に必要な主要なネットワークリソース、つまりブラインディング・ファクターと呼ばれる一種の相関乱数を生成し、各ノードがそのシェアを安全に保存することで、量子耐性のある方法でネットワーク全体に信頼を分散させます。」

このアーキテクチャは、設計段階から量子耐性を備えています。たとえ量子コンピュータが今日の楕円曲線暗号を解読したとしても、分散されたブラインディング・ファクターは安全なままです。なぜなら、単一のノードがデータを復号するのに十分な情報を保持していないためです。

AI エージェントにとって、これは機密性を犠牲にすることなく検証が可能であることを意味します。エージェントは、手法、データソース、および意思決定ロジックを非公開に保ちながら、タスクを正しく実行したことを証明できます。

43 億ドルのエージェント・エコノミー・インフラ戦略

Blacklight の立ち上げは、ブロックチェーン × AI セクターが急成長期に入るタイミングで行われました。市場は 2025 年の 6 億 8,000 万ドルから 2034 年には 43 億ドルへ 、年平均成長率 (CAGR) 22.9% で成長すると予測されており、より広範なコンフィデンシャル・コンピューティング市場は 2032 年までに 3,500 億ドルに達すると見られています。

しかし、Nillion は単に市場の拡大に賭けているだけではありません。自らを重要なインフラとして位置づけています。エージェント・エコノミーのボトルネックは計算能力やストレージではなく、「大規模な信頼(trust at scale)」です。KuCoin の 2026 年の見通しが指摘するように、3 つの主要なトレンドが AI のアイデンティティと価値の流れを再形成しています。

Agent-Wrapping-Agent システム:エージェントが他のエージェントと連携して、複雑なマルチステップのタスクを実行するシステム。これには標準化されたアイデンティティと検証が必要であり、それこそが ERC-8004 が提供するものです。

KYA (Know Your Agent):エージェントの認証情報を要求する金融インフラ。規制当局は、正しい動作の証明なしに、自律型エージェントが資金を管理することを承認しないでしょう。Blacklight のプログラマブルな監査は、この問題に直接対処します。

ナノ・ペイメント:エージェントはマイクロペイメントを効率的に決済する必要があります。2026 年 1 月に 2,000 万件以上のトランザクションを処理した x402 決済プロトコルは、決済を担当することで ERC-8004 を補完し、Blacklight が信頼を担保します。

Together, these standards reached production readiness within weeks of each other—a coordination breakthrough signaling infrastructure maturation. これらの一連の標準は、互いに数週間の差で本番環境への導入準備が整いました。これは、インフラの成熟を示す調整のブレイクスルーです。

Ethereum のエージェント・ファーストな未来

ERC-8004 の採用は Nillion をはるかに超えて広がっています。2026 年初頭の時点で、複数のプロジェクトがこの標準を統合しています。

この急速な採用は、Ethereum のロードマップにおける広範な変化を反映しています。ヴィタリック・ブテリン氏は、ブロックチェーンの役割は AI エージェントのための「単なる配管」になりつつあると繰り返し強調しています。つまり、消費者向けのレイヤーではなく、自律的な調整を可能にする信頼インフラとしての役割です。

Nillion の Blacklight は、検証をプログラマブルでプライバシーを保護し、分散化されたものにすることで、このビジョンを加速させます。中央集権的なオラクルや人間の査読者に頼る代わりに、エージェントは暗号技術を用いて自らの正確性を証明できるのです。

次に来るもの:メインネットの統合とエコシステムの拡大

Nillion の 2026 年のロードマップ では、Ethereum との互換性と持続可能な分散化を優先しています。2026 年 2 月に Ethereum ブリッジが稼働し、続いてステーキングとプライベート計算のためのネイティブ・スマートコントラクトが導入されました。

70,000 NIL トークンをステーキングしているコミュニティメンバーは、Blacklight 検証ノードを運営し、ネットワークの完全性を維持しながら報酬を得ることができます。この設計は Ethereum のバリデーター経済を反映していますが、検証に特化した役割が追加されています。

次のマイルストーンは以下の通りです:

  • zkML サポートの拡大:Modulus Labs などのプロジェクトと統合し、オンチェーンでの AI 推論を検証します。
  • クロスチェーン検証:Blacklight が Ethereum、Cosmos、Solana で動作するエージェントを検証できるようにします。
  • 企業パートナーシップ:エンタープライズ・エージェントのデプロイメントに向けた Coinbase や Alibaba Cloud との提携。
  • 規制コンプライアンスツール:金融サービス採用のための KYA フレームワークの構築。

おそらく最も重要なのは、Nillion が nilGPT を開発していることです。これは、ブラインド計算(Blind Computation)がいかに機密性の高いエージェントとのやり取りを可能にするかを実証する、完全プライベートな AI チャットボットです。これは単なるデモではなく、ヘルスケア、金融、政府機関における機密データを扱うエージェントの青写真となります。

トラストレスなコーディネーションの終着点

Blacklight のローンチは、エージェント経済の転換点となります。ERC-8004 以前、エージェントはサイロ化された状態で活動していました。独自のエコシステム内では信頼されていても、人間の仲介なしにはプラットフォームを越えた連携ができませんでした。ERC-8004 以降、エージェントはお互いの身元を検証し、行動を監査し、自律的に支払いを決済できるようになります。

これにより、全く新しいカテゴリーのアプリケーションが解放されます:

  • 分散型ヘッジファンド:検証可能な投資戦略と透明性のあるパフォーマンス監査を備え、チェーンを跨いでポートフォリオを管理するエージェント。
  • 自律型サプライチェーン:中央集権的な監視なしに、物流、支払い、コンプライアンスを調整するエージェント。
  • AI 搭載 DAO:暗号学的に検証された意思決定ロジックに基づいて投票、提案、実行を行うエージェントによって管理される組織。
  • クロスプロトコル流動性管理:プログラム可能なリスク制約の下で、DeFi プロトコル間で資産をリバランスするエージェント。

共通点は何でしょうか?それはすべて、既存の関係や中央集権的な信頼の拠り所なしに、エージェントが協力し合う能力、つまり「トラストレスなコーディネーション」を必要としている点です。

Nillion の Blacklight は、まさにそれを提供します。ERC-8004 のアイデンティティとレピュテーション(評判)インフラを、プログラム可能な検証およびブラインド計算と組み合わせることで、目前に迫った「1 兆エージェント経済」に対応できる拡張性の高い信頼レイヤーを構築します。

ブロックチェーンが AI エージェントやグローバル金融の配管(インフラ)となる中で、問題は検証インフラが必要かどうかではなく、誰がそれを構築し、それが分散型であるか、あるいは少数のゲートキーパーによって管理されるかということです。Blacklight のコミュニティ運営ノードとオープンスタンダードは、前者の正当性を証明しています。

自律的なオンチェーン・アクターの時代が到来しました。インフラは稼働しています。残された唯一の問いは、その上に何が構築されるかです。


出典:

AI × Web3 の融合:ブロックチェーンが自律型エージェントのオペレーティングシステムになった経緯

· 約 24 分
Dora Noda
Software Engineer

2026年 1月 29日、Ethereum は ERC-8004 をローンチしました。これは AI ソフトウェアエージェントに永続的なオンチェーンアイデンティティを付与する規格です。数日以内に 24,549 を超えるエージェントが登録されBNB Chain は同プロトコルへのサポートを発表しました。これは単なる漸進的な進歩ではありません。人間の介在なしに、取引、調整、レピュテーションの構築を行うことができる自律的な経済主体のためのインフラストラクチャです。

AI エージェントが生存するためにブロックチェーンは必須ではありません。しかし、調整を行うためにはブロックチェーンが必要です。組織の境界を越えてトラストレスに取引を行うため。検証可能なレピュテーションを構築するため。自律的に支払いを決済するため。中央集権的な仲介者なしに実行を証明するため。

この融合が加速しているのは、両方のテクノロジーが互いの決定的な弱点を解決するからです。AI は知能と自動化を提供し、ブロックチェーンは信頼と経済的インフラを提供します。これらが組み合わさることで、既存の信頼関係を必要とせずにオープンな市場に参加できる自律型システムという、単独では達成不可能な何かが生み出されます。

この記事では、アイデンティティ標準から経済プロトコル、分散型モデルの実行に至るまで、AI × Web3 の融合を不可避にしているインフラストラクチャを検証します。問題は、AI エージェントがブロックチェーン上で活動するかどうかではなく、数百万の自律的な経済主体をサポートするために、インフラがどれだけ早くスケールするかということです。

ERC-8004:AI エージェントのためのアイデンティティインフラ

ERC-8004 は 2026年 1月 29日に Ethereum メインネットで稼働を開始し、エージェントのアイデンティティ、レピュテーション、検証のための標準化されたパーミッションレスなメカズムを確立しました。

このプロトコルは、既存の信頼関係なしに、組織の境界を越えてエージェントを発見し、選択し、相互作用する方法という根本的な問題を解決します。アイデンティティインフラがなければ、エージェントのあらゆる相互作用には、マーケットプレイスプラットフォーム、検証サービス、紛争解決レイヤーといった中央集権的な仲介が必要になります。ERC-8004 は、これらをトラストレスでコンポーザブルなものにします。

3つのコアレジストリ:

アイデンティティレジストリ: URIStorage 拡張機能を備えた ERC-721 に基づく、オンチェーン上の最小限のハンドルで、エージェントの登録ファイルに紐付けられます。すべてのエージェントは、ポータブルで検閲耐性のある識別子を取得します。どこの中央機関も、誰がエージェントのアイデンティティを作成できるか、あるいはどのプラットフォームがそれを認識するかを制御することはありません。

レピュテーションレジストリ: フィードバックシグナルを投稿および取得するための標準化されたインターフェース。エージェントは、オンチェーンの取引履歴、完了したタスク、相手方からのレビューを通じてレピュテーションを構築します。レピュテーションは個別のマーケットプレイス内に閉じ込められるのではなく、プラットフォーム間で持ち運び可能になります。

バリデーションレジストリ: 独立したバリデータによるチェック(ジョブを再実行するステーカー、実行を確認する zkML 検証者、計算を証明する TEE オラクル、紛争を解決する信頼できる判定者など)を要求および記録するための汎用的なフック。検証メカズムは、プラットフォーム固有の実装を必要とせず、モジュール式に接続されます。

このアーキテクチャは、オープンなエージェント市場のための条件を作り出します。AI エージェントのための Upwork のようなものの代わりに、エージェントが互いを発見し、条件を交渉し、タスクを実行し、支払いを決済する、中央集権的なプラットフォームのゲートキーピングが一切ないパーミッションレスなプロトコルが得られます。

BNB Chain による迅速なサポート発表は、この規格がマルチチェーンでの採用に向かっていることを示唆しています。マルチチェーンエージェントアイデンティティにより、エージェントは統一されたレピュテーションと検証システムを維持しながら、複数のブロックチェーンエコシステムにまたがって活動できるようになります。

DeMCP:Model Context Protocol と分散化の融合

DeMCP は初の分散型 Model Context Protocol ネットワークとしてローンチされ、TEE(信頼実行環境)とブロックチェーンを用いて信頼とセキュリティの問題に取り組んでいます。

Anthropic によって開発された Model Context Protocol(MCP)は、アプリケーションが大規模言語モデルにコンテキストを提供する方法を標準化します。AI アプリケーションにとっての USB-C と考えてください。あらゆるデータソースに対してカスタム統合を行う代わりに、MCP はユニバーサルなインターフェース標準を提供します。

DeMCP はこれを Web3 に拡張します。オンデマンドの MCP インスタンスを介して GPT-4 や Claude などの主要な LLM へのシームレスな従量課金制アクセスを提供し、支払いはすべてステーブルコイン(USDT/USDC)で行われ、収益分配モデルによって管理されます。

このアーキテクチャは、3つの決定的な問題を解決します。

アクセス: 従来の AI モデル API には、中央集権的なアカウント、決済インフラ、プラットフォーム固有の SDK が必要です。DeMCP により、自律型エージェントは標準化されたプロトコルを通じて LLM にアクセスでき、人間が管理する API キーやクレジットカードなしで暗号資産で支払うことができます。

信頼: 中央集権的な MCP サービスは、単一障害点や監視の対象となります。DeMCP の TEE で保護されたノードは検証可能な実行を提供します。エージェントは、モデルが改ざんされることなく特定のプロンプトを実行したことを確認できます。これは財務上の決定や規制遵守において不可欠です。

コンポーザビリティ: MCP と A2A(Agent-to-Agent)プロトコルに基づいた新世代の AI エージェントインフラストラクチャが登場しています。これらは特に Web3 のシナリオ向けに設計されており、エージェントがマルチチェーンデータにアクセスし、DeFi プロトコルとネイティブに相互作用することを可能にします。

その結果、MCP は AI を Web3 の第一級市民に変えます。ブロックチェーンは信頼、調整、そして経済的基盤を提供します。これらが合わさることで、エージェントが相互運用可能なプロトコル間で推論し、調整し、行動する分散型オペレーティングシステムが形成されます。

2026年に注目すべき注目の MCP 暗号資産プロジェクトには、エージェント調整レイヤーを構築するインフラプロバイダー、分散型モデル実行ネットワーク、およびエージェントが Web3 エコシステム全体で自律的に活動することを可能にするプロトコルレベルの統合が含まれます。

Polymarket の 170 以上のエージェントツール:実働するインフラ

Polymarket のエコシステムは 19 カテゴリーにわたる 170 以上のサードパーティツールに成長し、予測市場の取引に真剣に取り組むすべての人にとって不可欠なインフラとなっています。

ツールのカテゴリーは、エージェントのワークフロー全体を網羅しています:

自律型トレーディング: AI 搭載エージェントが戦略を自動的に発見・最適化し、予測市場をイールドファーミングや DeFi プロトコルと統合します。一部のエージェントは短期予測において 98% の精度を達成しています。

アービトラージシステム: Polymarket と他の予測プラットフォーム、あるいは従来のベッティング市場との間の価格乖離を特定する自動ボットであり、人間よりも速く取引を実行します。

クジラ(大口投資家)の追跡: 大規模なポジション移動を監視するツールです。これにより、エージェントは過去のパフォーマンスの相関関係に基づいて、機関投資家の動きに追随したり、逆張りをしたりすることが可能になります。

コピートレードインフラ: トップパフォーマーの戦略をエージェントが複製できるようにするプラットフォームです。実績のオンチェーン検証により、偽のパフォーマンス情報の掲載を防止します。

分析とデータフィード: 機関投資家グレードの分析を提供し、市場の厚み、流動性分析、過去の確率分布、イベント結果の相関データをエージェントに提供します。

リスク管理: 自動化されたポジションサイジング、エクスポージャー制限、ストップロス・メカニズムが、エージェントのトレーディングロジックに直接組み込まれています。

このエコシステムは、AI × Web3 の融合というテーゼを実証しています。Polymarket はエージェント開発専用の GitHub リポジトリと SDK を提供しており、自律的なアクターを例外や利用規約違反としてではなく、プラットフォームの第一級の参加者として扱っています。

2026 年の展望には、$POLY トークンのローンチの可能性が含まれており、ガバナンス、手数料体系、エコシステムのインセンティブに関する新たなダイナミクスを生み出すことが期待されています。CEO の Shayne Coplan は、これが 2026 年で最大級の TGE(トークン生成イベント)の一つになる可能性があることを示唆しました。さらに、Polymarket が(Hyperliquid モデルに倣って)独自のブロックチェーンをローンチする可能性もあり、数十億ドルの資金調達を経てアプリチェーンへと進化するのは自然な流れと言えます。

インフラスタック:AI × Web3 のレイヤー

ブロックチェーン上で動作する自律型エージェントには、複数のレイヤーにわたる調整されたインフラが必要です:

レイヤー 1:アイデンティティとレピュテーション

  • エージェント識別のための ERC-8004 レジストリ
  • パフォーマンスを追跡するオンチェーン・レピュテーションシステム
  • エージェントの所有権と権限の暗号学的証明
  • マルチエコシステム運用のためのクロスチェーン・アイデンティティ・ブリッジ

レイヤー 2:アクセスと実行

  • 分散型 LLM アクセスのための DeMCP
  • プライベートなエージェントロジックのための TEE(信頼実行環境)で保護された計算
  • 検証可能な推論のための zkML(ゼロ知識機械学習)
  • モデルの実行を分散させる分散型推論ネットワーク

レイヤー 3:調整とコミュニケーション

  • 直接交渉のための A2A(エージェント間)プロトコル
  • エージェント間通信のための標準化されたメッセージングフォーマット
  • 特定の能力を持つエージェントを見つけるためのディスカバリーメカニズム
  • 自律型契約のためのエスクローおよび紛争解決

レイヤー 4:経済的インフラ

  • 国境を越えた決済のためのステーブルコイン決済レール
  • エージェントが生成した資産のための自動マーケットメーカー(AMM)
  • プログラマブルな手数料体系と収益分配
  • トークンベースのインセンティブ設計

レイヤー 5:アプリケーションプロトコル

  • 自律的な収益最適化のための DeFi 統合
  • 情報取引のための予測市場 API
  • エージェントが作成したコンテンツのための NFT マーケットプレイス
  • DAO ガバナンスへの参加フレームワーク

このスタックにより、単純な自動化(スマートコントラクトの実行)、反応型エージェント(オンチェーンイベントへの応答)、プロアクティブ型エージェント(推論に基づいた戦略の開始)、そして調整型エージェント(他の自律的アクターとの交渉)へと、エージェントの行動は段階的に複雑化していきます。

このインフラは、AI エージェントがブロックチェーンを利用できるようにするだけではありません。ブロックチェーンを自律的な経済活動のための「自然な実行環境」へと変貌させるのです。

なぜ AI にはブロックチェーンが必要なのか:信頼の問題

AI エージェントは、中央集権的なアーキテクチャでは解決できない根本的な信頼の課題に直面しています:

検証(Verification): AI エージェントが改ざんされることなく特定のロジックを実行したことを、どう証明するのでしょうか? 従来の API は何の保証も提供しません。zkML や TEE アテステーションを備えたブロックチェーンは、検証可能な計算、つまり特定のモデルが特定の入力を処理し、特定の出力を生成したという暗号学的証明を生成します。

レピュテーション(Reputation): エージェントはどうやって組織の枠を越えて信頼を築くのでしょうか? 中央集権的なプラットフォームはクローズドな環境を作り出します。Upwork で獲得した評判は Fiverr には引き継がれません。オンチェーンのレピュテーションは、ポータブル(持ち運び可能)で検証可能であり、シビル攻撃による操作にも耐性があります。

決済(Settlement): 自律型エージェントは、人間の介在なしにどうやって支払いを処理するのでしょうか? 従来の銀行業務には、口座、KYC、そして取引ごとの人間による承認が必要です。ステーブルコインとスマートコントラクトは、官僚的なセキュリティではなく暗号学的なセキュリティに基づいた、プログラマブルで即時の決済を可能にします。

調整(Coordination): 異なる組織のエージェント同士が、信頼できる仲介者なしにどうやって交渉するのでしょうか? 従来のビジネスには契約書、弁護士、執行メカニズムが必要です。スマートコントラクトはトラストレスな契約実行を可能にします。コードが検証可能な条件に基づいて、自動的に規約を執行するのです。

帰属(Attribution): どのエージェントが特定の出力を生成したかをどうやって証明するのでしょうか? AI コンテンツの出所(プロベナンス)は、著作権、責任、収益分配において極めて重要になります。オンチェーンのアテステーションは、作成、変更、所有権に関する改ざん不可能な記録を提供します。

ブロックチェーンは、単にこれらの機能を可能にするだけではありません。中央集権的な信頼の前提を再導入することなく、これらを可能にする唯一のアーキテクチャなのです。この融合は、投機的なナラティブからではなく、技術的な必然性から生まれています。

なぜブロックチェーンに AI が必要なのか:インテリジェンスの課題

ブロックチェーンは、AI が解決できる同様に根本的な限界に直面しています。

複雑さの抽象化: ブロックチェーンの UX は依然として使いにくいものです。シードフレーズ、ガス代、トランザクション署名などです。AI エージェントは、技術的な実装詳細を公開することなくユーザーの意図を実行するインテリジェントな仲介者として、複雑さを抽象化できます。

情報処理: ブロックチェーンはデータを提供しますが、それを解釈するインテリジェンスが不足しています。AI エージェントはオンチェーンの活動パターンを分析し、アービトラージ(裁定取引)の機会を特定し、市場の動きを予測し、人間には不可能なスピードと規模で戦略を最適化します。

自動化: スマートコントラクトはロジックを実行しますが、明示的なプログラミングなしに変化する状況に適応することはできません。AI エージェントは、パラメータ変更のたびにガバナンス提案を必要とすることなく、結果から学習し戦略を調整することで、動的な意思決定を提供します。

発見可能性: DeFi プロトコルは断片化に悩まされています。ユーザーは何百ものプラットフォームから手動で機会を見つけ出す必要があります。AI エージェントは、高度な多変数最適化に基づいて、アクティビティを継続的にスキャン、評価し、最適なプロトコルにルーティングします。

リスク管理: 人間のトレーダーは、規律、感情、そして注意力の限界に苦労します。AI エージェントは、事前定義されたリスクパラメータを強制し、迷わずストップロスを実行し、複数のチェーンを同時に 24 時間 365 日監視します。

この関係は共生的です。ブロックチェーンは AI の調整を可能にする信頼のインフラを提供し、AI はブロックチェーンインフラを複雑な経済活動に利用可能にするインテリジェンスを提供します。

台頭するエージェント経済

インフラスタックは、新しい経済モデルを可能にします。

Agent-as-a-Service(サービスとしてのエージェント): 自律型エージェントはオンデマンドでその機能を貸し出し、需要と供給に基づいて動的に価格設定を行います。プラットフォームも仲介者も存在しない、直接的なエージェント間サービス市場です。

協調的インテリジェンス: エージェントは複雑なタスクのために専門知識を出し合い、貢献度に応じて収益を自動的に分配するスマートコントラクトを通じて調整を行います。単一のエージェントの能力を超えた問題を解決するマルチエージェントシステムです。

予測の拡張: エージェントは情報の流れを継続的に監視し、確率推定を更新し、人間が読めるニュースになる前にインサイトに基づいて取引を行います。情報金融(InfoFi)はアルゴリズム化され、エージェントが価格発見を主導するようになります。

自律型組織: トークン保有者に代わって実行する AI エージェントによって完全に管理される DAO です。人間の投票ではなく、検証可能な推論を通じて意思決定を行います。暗号学的な説明責任を持ち、マシンのスピードで運営される組織です。

コンテンツ経済: オンチェーンのプロバンス(出所証明)を備えた AI 生成コンテンツにより、自動化されたライセンス供与、ロイヤリティ分配、二次創作権の作成が可能になります。エージェントが利用条件を交渉し、スマートコントラクトを通じて帰属を強制します。

これらは仮説ではありません。初期のバージョンはすでに稼働しています。問題は、数百万の自律的な経済主体をサポートするために、インフラがいかに速くスケールするかです。

残された技術的課題

急速な進歩にもかかわらず、大きな障害が残っています。

スケーラビリティ: 現在のブロックチェーンはスループットに苦労しています。継続的なマイクロトランザクションを実行する数百万のエージェントには、レイヤー 2 ソリューション、オプティミスティック・ロールアップ、またはエージェント専用のチェーンが必要です。

プライバシー: 多くのエージェント操作には、機密性の高いロジックやデータが必要です。TEE(信頼実行環境)は部分的な解決策を提供しますが、完全準同型暗号(FHE)や高度な暗号技術は、本番規模では依然として高価すぎます。

規制: 自律的な経済主体は既存の法的枠組みに挑戦しています。エージェントが損害を与えた場合、誰が責任を負うのでしょうか? KYC/AML(本人確認・マネーロンダリング防止)の要件はどのように適用されるのでしょうか? 規制の明確化は技術的能力に遅れをとっています。

モデルコスト: LLM(大規模言語モデル)の推論は依然として高額です。分散型ネットワークは、検証のオーバーヘッドを加えつつ、中央集権的な API 価格設定に対抗しなければなりません。経済的な実行可能性には、継続的なモデル効率の向上が必要です。

オラクル問題: エージェントには信頼できる現実世界のデータが必要です。既存のオラクルソリューションは、信頼の前提と遅延を導入します。オンチェーンロジックとオフチェーン情報の間のより優れたブリッジが引き続き不可欠です。

これらの課題は克服不可能なものではありません。明確な解決策への道筋があるエンジニアリング上の問題です。インフラの軌道は、12 〜 24 か月以内の解決を指し示しています。

2026 年の変曲点

2026 年には複数の触媒が収束します。

標準の成熟: 主要チェーンでの ERC-8004 の採用により、相互運用可能なアイデンティティインフラが構築されます。エージェントは Ethereum、BNB Chain、および新興のエコシステム間でシームレスに動作します。

モデルの効率化: より小型で特化したモデルにより、特定のタスクのパフォーマンスを維持しながら、推論コストが 10 〜 100 倍削減されます。経済的実現可能性が劇的に向上します。

規制の明確化: 最初の法域で自律型エージェントの枠組みが確立され、機関導入のための法的確実性が提供されます。

アプリケーションの躍進: 予測市場、DeFi 最適化、コンテンツ作成において、エージェントが人間のオペレーターよりも明確に優れていることが実証され、暗号資産ネイティブ以外のユーザー層にも普及が進みます。

インフラ競争: 分散型推論、エージェント調整プロトコル、専用チェーンを構築する複数のチームが競争圧力を生み出し、開発を加速させます。

この収束により、実験的な段階からインフラ的な段階へと移行します。早期導入者は優位性を獲得し、プラットフォームはエージェントサポートをデフォルトとして統合し、経済活動はますます自律的な仲介者を通じて流れるようになります。

Web3 開発にとっての意味

Web3 の次のフェーズに向けて構築を行う開発者は、以下の事項を優先すべきです:

エージェントファーストな設計 (Agent-First Design): 自律的なアクターを例外的なケースではなく、主要なユーザーとして扱います。エージェントがアクティビティの大半を占めることを前提に、 API 、手数料構造、ガバナンスメカニズムを設計してください。

コンポーザビリティ (Composability): エージェントが容易に統合、連携、拡張できるプロトコルを構築します。独自の実装よりも、標準化されたインターフェースの方が重要です。

検証可能性 (Verification): 単なる実行結果だけでなく、実行の暗号学的証明を提供します。エージェントが信頼の連鎖(トラストチェーン)を構築するには、検証可能な計算が必要です。

経済的効率性 (Economic Efficiency): マイクロトランザクション、継続的な決済、ダイナミックな手数料市場に合わせて最適化します。従来のバッチ処理や手動の介入は、エージェントのアクティビティにはスケールしません。

プライバシーの選択肢 (Privacy Options): 透明な運用と機密性の高い運用の両方をサポートします。ユースケースによって、必要とされるプライバシーの保証は異なります。

インフラは整いつつあります。標準が生まれつつあります。経済的インセンティブも一致しています。 AI × Web3 の融合は、これから来るのではなく、すでにここにあります。問いはこうです:次の 10 年間の自律的な経済活動の基盤となるインフラを構築するのは誰か?

BlockEden.xyz は Web3 アプリケーション向けにエンタープライズグレードのインフラを提供し、主要なブロックチェーンエコシステム全体で信頼性の高い高性能な RPC アクセスを提供しています。 AI エージェントインフラと自律型システムのサポートについては、 当社のサービスをご覧ください


出典:

InfoFi の爆発的普及:情報がいかにしてウォール街で最も取引される資産となったか

· 約 18 分
Dora Noda
Software Engineer

金融業界は、多くの人が予想だにしなかった境界線を越えました。2026 年 2 月、予測市場の週間取引高は 63.2 億ドルに達しました。これは投機的なギャンブルによるものではなく、情報を取引可能なコモディティ(商品)として価格設定する機関投資家によるものです。

インフォメーション・ファイナンス(Information Finance)、すなわち「InfoFi」は、10 年にわたる変革の集大成を象徴しています。2025 年の 46.3 億ドルから 2034 年には 1,763.2 億ドルに達すると予測されており、Web3 インフラは予測市場を単なる賭けのプラットフォームから、ヴィタリック・ブテリン氏が「真実のエンジン(Truth Engines)」と呼ぶものへと進化させました。これは、既存のメディアや世論調査システムよりも速くインテリジェンスを集約する金融メカニズムです。

これは単なる暗号資産の投機ではありません。ICE(インターコンチネンタル取引所、ニューヨーク証券取引所の親会社)は Polymarket に 20 億ドルを注入し、予測市場の評価額を 90 億ドルとしました。ヘッジファンドや中央銀行は現在、株式やデリバティブに使用されるのと同じ端末に予測市場のデータを統合しています。InfoFi は金融インフラとなったのです。

InfoFi が実際に意味するもの

InfoFi は情報をアセットクラス(資産クラス)として扱います。参加者はニュースを受動的に消費するのではなく、主張の正確性に資本を投じます。これにより、あらゆるデータポイントが「発見可能な価格」を持つ市場へと変わります。

その仕組みは以下の通りです:

従来の情報の流れ: イベント発生 → メディアの報道 → アナリストの解釈 → 市場の反応(数日から数週間)

InfoFi の情報の流れ: 市場がイベントを予測 → 正確な予測に資本が流入 → 価格が即座に真実を示唆(数分から数時間)

2026 年 1 月までに予測市場の週間取引高は 59 億ドルに達し、Kalshi が 66.4% の市場シェアを獲得、Polymarket は ICE の機関投資家向けインフラに支えられています。現在、AI エージェントが取引活動の 30% 以上を占めており、地政学的イベント、経済指標、企業の業績を継続的に価格に反映させています。

その結果、情報はニュースになる前に価格が決定されます。予測市場は、WHO の宣言より数週間前に COVID-19 の深刻さを特定し、2024 年の米大統領選挙の結果を従来の世論調査よりも正確に予測し、公式発表に先んじて中央銀行の政策転換を予測しました。

Polymarket 対 Kalshi の戦い

2 つのプラットフォームが InfoFi の展望を支配しており、情報市場に対して根本的に異なるアプローチを体現しています。

Kalshi: 連邦政府の規制下にある挑戦者。2025 年に 431 億ドルの取引高を記録し、CFTC(商品先物取引委員会)の監督によって機関投資家への正当性を確保しています。米ドルで取引され、従来の証券口座と統合されており、米国に準拠した市場に焦点を当てています。

この規制の枠組みは市場の範囲を制限しますが、機関投資家の資金を引き寄せます。既存のコンプライアンス・インフラ内で運営されているため、伝統的な金融機関は安心して Kalshi を通じて注文を出すことができます。2026 年 2 月の時点で、Kalshi が 2026 年の取引高で首位に立つ確率は 34% とされており、取引の 91.1% はスポーツ関連の契約に集中しています。

Polymarket: クリプトネイティブな挑戦者。ブロックチェーン・インフラ上に構築され、2025 年には 330 億ドルの取引高を記録しました。市場は非常に多様化しており、スポーツはわずか 39.9% で、残りは地政学、経済、テクノロジー、文化的イベントに及んでいます。

ICE による 20 億ドルの投資がすべてを変えました。Polymarket は、これまで伝統的な取引所にのみ許可されていた機関投資家向けの決済インフラ、市場データの配信、および規制経路へのアクセスを獲得しました。トレーダーは ICE との提携を、予測市場のデータが間もなく Bloomberg 端末や Reuters のフィードに並んで表示されるようになることの確証であると見ています。

この競争がイノベーションを推進しています。Kalshi の規制の透明性は機関投資家による採用を可能にします。Polymarket のクリプト・インフラは、グローバルな参加とコンポーザビリティ(構成可能性)を可能にします。両方のアプローチが InfoFi をメインストリームへの普及へと押し進めており、異なる道筋が同じ目的地へと収束しています。

情報トレーダーとしての AI エージェント

AI エージェントは、単に情報を消費するだけではありません。情報を取引(トレード)するのです。

予測市場のボリュームの 30 % 以上が、現在 AI エージェントによるものとなっています。彼らは継続的にデータストリームを分析し、取引を実行し、確率予測を更新しています。これらは、あらかじめ定義されたルールに従うだけの単純なボットではありません。現代の AI エージェントは、複数のデータソースを統合し、統計的アノマリーを特定し、進化する情報環境に基づいてポジションを調整します。

AI トレーディングの台頭は、以下のようなフィードバックループを生み出します:

  1. AI エージェントは人間よりも速く情報を処理する
  2. 取引活動が価格シグナルを生成する
  3. 価格シグナルが他のエージェントの情報入力となる
  4. より多くのエージェントが参入し、流動性と正確性が向上する

このダイナミクスにより、予測市場は人間の投機からアルゴリズムによる情報発見へと変貌を遂げました。市場は現在、ニュースの流れ、社会的感情、経済指標、市場間の相関関係に基づいて AI エージェントが継続的に確率を再価格設定するため、リアルタイムで更新されます。

この影響は取引だけにとどまりません。予測市場はスマートコントラクトにとっての「真実のオラクル(Truth Oracle)」となり、検証可能で経済的に裏付けられたデータフィードを提供します。DeFi プロトコルは予測市場の結果に基づいて決済を行うことができ、DAO はガバナンスの決定に InfoFi コンセンサスを利用できます。Web3 スタック全体が、高品質でインセンティブが整合した情報インフラストラクチャにアクセスできるようになります。

X プラットフォームのクラッシュ:InfoFi 最初の失敗

すべての InfoFi の試みが成功するわけではありません。2026 年 1 月、X(旧 Twitter)がエンゲージメント報酬型アプリケーションを禁止したことを受け、InfoFi トークンの価格が暴落しました

KAITO(18 % 下落)や COOKIE(20 % 下落)のようなプロジェクトは、エンゲージメント、データ提供、コンテンツの質に対してユーザーに報酬を与える「資産としての情報(Information-as-an-asset)」モデルを構築していました。その理論は、アテンション(注目)には価値があり、ユーザーはトークンエコノミクスを通じてその価値を獲得すべきであるというものでした。

このクラッシュは、根本的な欠陥を浮き彫りにしました。それは、中央集権的なプラットフォーム上に分散型経済を構築することです。X が利用規約を変更したとき、InfoFi エコシステム全体が一夜にして消滅しました。ユーザーはトークンの価値を失い、プロジェクトは配信手段を失いました。「分散型」情報経済は、中央集権的なプラットフォームのリスクに対して脆弱であることが証明されました。

生き残った者たちは教訓を学びました。真の InfoFi インフラストラクチャには、Web2 プラットフォームへの依存ではなく、ブロックチェーンネイティブな配信が必要です。プロジェクトは分散型ソーシャルプロトコル(Farcaster、Lens)やオンチェーンデータ市場へと舵を切りました。このクラッシュにより、ハイブリッドな Web2-Web3 モデルから完全な分散型情報インフラストラクチャへの移行が加速しました。

予測市場を超えた InfoFi

資産としての情報は、バイナリ予測(二者択一の予測)の枠を超えて広がっています。

データ DAO: データセットを共同で所有、キュレート、収益化する組織です。メンバーはデータを提供し、品質を検証し、商用利用からの収益を共有します。現実資産(RWA)のトークン化は 2025 年半ばまでに 230 億ドルに達し、オンチェーンでの価値表現に対する機関投資家の意欲が示されました。

分散型物理インフラネットワーク(DePIN): 2025 年初頭時点で約 300 億ドルの価値があるとされ、1,500 以上の有効なプロジェクトが存在します。個人が余剰ハードウェア(GPU パワー、帯域幅、ストレージ)を共有し、トークンを獲得します。情報は取引可能な計算リソースとなります。

AI モデルマーケットプレイス: ブロックチェーンにより、検証可能なモデルの所有権と使用状況の追跡が可能になります。クリエイターはオンチェーンライセンスを通じて AI モデルを収益化し、スマートコントラクトが収益分配を自動化します。情報(モデルの重み、トレーニングデータ)は、構成可能で取引可能なインフラとなります。

クレデンシャル市場: ゼロ知識証明により、プライバシーを保護したクレデンシャル(資格・実績)の検証が可能になります。ユーザーは個人データを明かすことなく資格を証明できます。検証可能なクレデンシャルは、採用、融資、ガバナンスの文脈において取引可能な資産となります。

共通のテーマは、情報が無料の外部性から価格の付いた資産へと移行することです。市場は、これまで収益化できなかったデータ(検索クエリ、アテンションメトリクス、専門知識の検証、計算リソースなど)の価値を発見します。

機関投資家向けインフラの統合

ウォール街による InfoFi の採用は理論的なものではなく、実務的なものです。

ICE による 20 億ドルの Polymarket への投資は、コンプライアンスフレームワーク、決済インフラ、市場データの配信、規制経路といった機関投資家向けの「配管」を提供します。予測市場のデータは現在、ヘッジファンドマネージャーや中央銀行が使用する端末に統合されています

この統合により、予測市場は代替データソースから主要なインテリジェンスインフラへと変貌を遂げます。ポートフォリオマネージャーは、テクニカル指標と並んで InfoFi の確率を参照します。リスク管理システムには予測市場のシグナルが組み込まれ、トレーディングアルゴリズムはリアルタイムの確率更新を消費します。

この移行は、ブルームバーグ端末が数十年にわたってデータソースを吸収してきた過程(債券価格から始まり、ニュースフィードの拡大、社会的感情の統合へと至る流れ)を映し出しています。InfoFi は次のレイヤー、つまり伝統的なデータでは価格を付けることができない事象に対する、経済的に裏付けられた確率推定を表しています。

伝統的な金融機関はその価値提案を認識しています。市場が継続的に正確さを価格設定することで、情報コストは低下します。ヘッジファンドは独自の調査に数百万ドルを支払っていますが、予測市場はインセンティブの整合を通じて、その調査をオーガニックに生み出します。中央銀行は世論調査を通じて国民の感情を監視していますが、InfoFi はそれをリアルタイムの確率分布として捉えます。

As 業界の成長予測が 2025 年の 400 億ドルから 2027 年には 1,000 億ドル以上に達する中、機関投資家の資本は、投機的な暗号資産への賭けとしてではなく、金融市場の中核的な構成要素として InfoFi インフラに流れ込み続けるでしょう。

規制上の課題

InfoFi の爆発的な成長は、規制当局の精査を引き付けています。

Kalshi は CFTC(商品先物取引委員会)の監督下で運営されており、予測市場をデリバティブとして扱っています。この枠組みは明確性をもたらしますが、政治選挙の禁止、「社会的に有害な」結果の除外、規制管轄外のイベントの制限など、市場の範囲を制限します。

Polymarket のクリプトネイティブなアプローチはグローバルな市場を可能にしますが、コンプライアンスを複雑にします。規制当局は、予測市場がギャンブル、証券の提供、あるいは情報サービスのいずれに該当するかを議論しています。この分類によって、どの機関が規制し、どのような活動が許可され、誰が参加できるかが決定されます。

この議論は、以下のような根本的な問いに集中しています:

  • 予測市場はギャンブルなのか、それとも情報発見なのか?
  • 市場のポジションを表すトークンは証券に該当するのか?
  • プラットフォームは地理的条件や適格性によって参加者を制限すべきか?
  • 既存の金融規制は、分散型の情報市場にどのように適用されるのか?

規制の結果が InfoFi の軌道を形作ることになります。制限的な枠組みは、機関投資家の参加を制限しつつ、イノベーションをオフショア(国外)へと押し出す可能性があります。バランスの取れた規制は、市場の完全性を保護しながら、メインストリームへの採用を加速させる可能性があります。

初期の兆候は、現実的なアプローチを示唆しています。規制当局は、価格発見とリスク管理における予測市場の価値を認識しています。課題は、操作を防止し、消費者を保護し、金融の安定を維持しながら、イノベーションを可能にする枠組みを構築することです。

次に何が起こるか

InfoFi は単なる予測市場以上の存在であり、情報経済のためのインフラです。

AI エージェントが人間とコンピュータの相互作用をますます媒介するようになるにつれ、信頼できる情報源が必要になります。ブロックチェーンは、検証可能でインセンティブが調整されたデータフィードを提供します。予測市場は、リアルタイムの確率分布を提供します。この組み合わせが、自律型システムのための「真実のインフラ」を構築します。

DeFi プロトコルは、決済のためにすでに InfoFi オラクルを統合しています。DAO はガバナンスに予測市場を活用しています。保険プロトコルは、オンチェーンの確率推定を使用してリスク価格を決定しています。次の段階は、サプライチェーン予測、市場調査、戦略計画のための企業による採用です。

2034 年までに 1,760 億ドルに達するという市場予測は、緩やかな成長を前提としています。破壊的変化はさらに速く加速する可能性があります。主要な金融機関が InfoFi インフラを完全に統合すれば、従来の世論調査、調査、予測業界は存亡の危機に直面します。市場が継続的に確率を価格に反映させているのに、なぜアナリストに推測の対価を支払う必要があるのでしょうか?

この移行はスムーズには進まないでしょう。規制をめぐる攻防は激化します。プラットフォーム間の競争により集約が進むでしょう。市場操作の試みは、インセンティブの調整を試すことになります。しかし、根本的なテーゼは変わりません。情報には価値があり、市場は価格を発見し、ブロックチェーンはインフラを可能にするということです。

InfoFi は伝統的金融に取って代わるのではなく、InfoFi 自体が伝統的金融になりつつあります。問題は、情報市場がメインストリームに採用されるかどうかではなく、機関投資家の資本がいかに早くその必然性を認識するかです。

BlockEden.xyz は、Web3 アプリケーション向けのエンタープライズグレードのインフラを提供し、主要なブロックチェーンエコシステム全体で信頼性の高い高性能な RPC アクセスを提供しています。当社のサービスを詳しく見る で、スケーラブルな InfoFi および予測市場インフラを探索してください。


ソース:

InfoFi 市場の展望:予測市場を超えたインフラとしてのデータ

· 約 15 分
Dora Noda
Software Engineer

予測市場の週間取引高は 2026 年 2 月初旬に 63.2 億ドルを超えKalshi が 51% の市場シェアを保持し、Polymarket が 47% で続きました。しかし、インフォメーション・ファイナンス(InfoFi)は、単なる二者択一の賭けをはるかに超えるものです。データのトークン化市場、データ DAO、そして資産としての情報インフラは、情報がプログラム可能で、取引可能、かつ検証可能なものとなる、新たなエコシステムを形成しています。

InfoFi のテーゼ:情報には価値があり、市場が価格を発見し、ブロックチェーンがインフラを可能にする。この記事では、Polymarket の予測エンジンから Ocean Protocol のデータ・トークン化、データ DAO から AI に制約された真実市場まで、その展望をマッピングします。

予測市場という基盤

予測市場は InfoFi エコシステムの基盤(アンカー)であり、不確実な未来の出来事に対して価格シグナルを提供します。

Kalshi と Polymarket の二強体制

市場は Kalshi と Polymarket の間でほぼ 51 対 49 に分かれていますが、その構成は根本的に異なります。

Kalshi: 2025 年に 431 億ドル以上の決済を行い、スポーツベッティングに大きく偏っています。CFTC(米商品先物取引委員会)のライセンスを取得しており、米ドル建てで、米国の小売ブローカーと統合されています。Robinhood の「予測市場ハブ」は、Kalshi のインフラを通じて数十億ドルの契約を送り込んでいます

Polymarket: 2025 年に 334 億ドルを処理し、地政学、マクロ経済、科学的画期的進歩といった「ハイ・シグナル(精度の高い信号)」な出来事に焦点を当てています。クリプトネイティブで、グローバルな参加が可能であり、DeFi とのコンポーザビリティを備えています。2025 年後半には、CFTC ライセンスを通じた米国市場への再参入のため、QCEX の 1 億 1,200 万ドルでの買収を完了しました

この競争がイノベーションを促進しています。Kalshi は小売と機関投資家のコンプライアンスを取り込み、Polymarket はクリプトネイティブなコンポーザビリティと国際的なアクセスでリードしています。

賭けを超えて:情報オラクル

予測市場は、投機のツールから AI システムの情報オラクルへと進化しました。市場の確率は、AI のハルシネーション(もっともらしい嘘)を抑制する「外部アンカー」として機能します。現在、多くの AI システムは、予測市場で賭けの対象にできない主張の重みを下げています。

これによりフィードバック・ループが生まれます。AI エージェントが予測市場で取引し、市場価格が AI の出力を補完し、AI が生成した予測が人間の取引に影響を与えます。その結果、情報市場はアルゴリズムによる真実発見のためのインフラとなります。

データ・トークン化:Ocean Protocol のモデル

予測市場が未来の出来事に価格をつけるのに対し、Ocean Protocol は既存のデータセットをトークン化し、AI 学習データ、研究データセット、機密情報のための市場を創出します。

データトークン・アーキテクチャ

Ocean のモデル:各データトークンは、元の知的財産権所有者からのサブライセンスを表し、ユーザーが関連するデータセットにアクセスして利用することを可能にします。データトークンは ERC20 規格に準拠しているため、取引可能であり、DeFi とのコンポーザビリティを持ち、スマートコントラクトを通じてプログラム可能です。

3 層のスタック:

データ NFT: 基盤となるデータセットの所有権を表します。クリエイターは NFT をミントすることで、プロバナンス(起源)と制御権を確立します。

データトークン: アクセス制御トークン。データトークンを保有することで、所有権を移転することなく一時的な使用権が付与されます。これにより、データへのアクセスとデータの所有権が分離されます。

Ocean Marketplace: データトークンのための分散型取引所。データ提供者は資産を収益化し、消費者はアクセス権を購入し、投機家はトークンを取引します

このアーキテクチャは重要な課題を解決します。データ提供者は管理権を失うことなく収益化でき、消費者は全購入コストを支払うことなくアクセスでき、市場は情報の価値に対して適正な価格を発見します。

トレーディングを超えたユースケース

AI 学習市場: モデル開発者は学習のためにデータセットへのアクセスを購入します。データトークンの経済学はインセンティブを一致させます — 価値のあるデータはより高い価格で取引され、クリエイターはモデルの学習活動から継続的な収益を得ることができます。

研究データの共有: 学術的および科学的なデータセットが、管理された配布のためにトークン化されます。研究者は来歴を確認し、使用状況を追跡し、自動化されたロイヤリティ分配を通じてデータ生成者に報酬を支払います。

企業間データコラボレーション: 企業は、完全な譲渡ではなくトークン化されたアクセスを通じて独自のデータセットを共有します。機密性を維持しながら、共同での分析やモデル開発を可能にします。

個人データのマネタイズ: 個人が健康記録、行動データ、または消費者の好みをトークン化します。プラットフォームが報酬なしで価値を抽出するのではなく、アクセス権を直接販売します。

Ocean は、データ協同組合としてのデータ DAO に Ethereum のコンポーサビリティを可能にし、データがプログラム可能な金融資産となるインフラストラクチャを構築します。

データ DAO: 情報の共同所有

データ DAO は、データ資産を管理する分散型自律組織として機能し、共同所有、ガバナンス、およびマネタイズを可能にします。

データユニオンモデル

メンバーが共同でデータを提供し、DAO がアクセス権のポリシーと価格設定を管理し、収益はスマートコントラクトを通じて自動的に分配されます。ガバナンス権はデータの貢献度に応じて拡大します。

台頭する事例:

ヘルスケアデータユニオン: 患者は健康記録をプールし、暗号学的証明を通じて個人のプライバシーを維持します。研究者は集計されたアクセス権を購入し、収益は貢献者に流れます。データは中央集権的な医療システムではなく、患者によって管理され続けます。

神経科学研究 DAO: 学術機関や研究者が、脳画像データセット、遺伝情報、および臨床結果を提供します。共同データセットは個々の貢献よりも価値が高まり、データ提供者に報酬を与えながら研究を加速させます。

生態学的 / GIS プロジェクト: 環境センサー、衛星画像、および地理データがコミュニティによってプールされます。DAO は気候モデリング、都市計画、および保全のためのデータアクセスを管理し、同時に地域コミュニティがその地域で生成されたデータから利益を得られるようにします。

データ DAO は調整問題を解決します。個人には交渉力が欠けており、プラットフォームは独占的な利益を抽出し、データはサイロ化されたままです。共同所有は、公正な報酬と民主的なガバナンスを可能にします。

デジタル資産としての情報

このコンセプトは、データ資産をデジタル資産として扱い、元々暗号資産のために設計されたブロックチェーンインフラストラクチャを使用して、情報の所有権、移転、および評価を管理します。

このアーキテクチャの選択は、強力なコンポーサビリティ(構成可能性)を生み出します。データ資産は DeFi プロトコルと統合され、自動マーケットメーカーに参加し、ローンの担保として機能し、プログラム可能な収益分配を可能にします。

インフラストラクチャスタック

アイデンティティレイヤー: データの所有権と貢献の暗号学的証明。盗用を防ぎ、来歴を確立し、帰属を可能にします。

アクセスコントロール: どのような条件下で誰がデータにアクセスできるかを管理するスマートコントラクト。手動の契約交渉に代わるプログラム可能なライセンス。

価格決定メカニズム: データセットの適正な価値を発見する自動マーケットメーカー。恣意的な機関による価格設定ではなく、需要と供給のダイナミクス。

収益分配: スマートコントラクトが貢献者、キュレーター、およびプラットフォーム運営者の間で収益を自動的に分割します。支払仲介者や遅延を排除します。

コンポーサビリティ: データ資産がより広範な Web3 エコシステムと統合されます。データセットを担保として使用したり、デリバティブを作成したり、複合製品にバンドルしたりします。

2025 年半ばまでに、オンチェーン RWA 市場(データを含む)は 230 億ドルに達し、投機的な暗号資産を超えたトークン化資産に対する機関投資家の意欲が示されました。

AI による InfoFi の制約: 検証ループ

AI システムは真実の検証のために InfoFi インフラストラクチャへの依存を強めています。

予測市場は AI のハルシネーション(幻覚)を抑制します。トレーダーは現実の資金をリスクにさらし、市場の確率は外部のアンカーとして機能します。AI システムは、賭けの対象にならない主張の重みを下げます。

これにより品質フィルターが作成されます。検証可能な主張は予測市場で取引され、検証不可能な主張は AI の信頼度が低くなり、市場価格は継続的な確率の更新を提供し、AI の出力は経済的な現実に根ざしたものになります。

このフィードバックループは双方向に機能します。AI エージェントは市場効率を向上させる予測を生成し、市場価格は AI 学習データの品質を通知し、高価値な予測はデータ収集の取り組みを促進し、情報市場はノイズよりもシグナルを最適化します。

2026 年 InfoFi エコシステム・マップ

ランドスケープには、相互に関連する複数のレイヤーが含まれています。

レイヤー 1:真実の発見 (Truth Discovery)

  • 予測市場 (Kalshi, Polymarket)
  • 予測プラットフォーム
  • レピュテーション・システム
  • 検証プロトコル

レイヤー 2:データのマネタイズ

  • Ocean Protocol データトークン
  • データセット・マーケットプレイス
  • API アクセス・トークン
  • 情報ライセンス・プラットフォーム

レイヤー 3:共同所有

  • データ DAO
  • 研究コラボレーション
  • データ・ユニオン
  • コミュニティ情報プール

レイヤー 4:AI 統合

  • モデル学習市場
  • 推論検証
  • 出力アテステーション
  • ハルシネーション(幻覚)の抑制

レイヤー 5:金融インフラ

  • 情報デリバティブ
  • データ担保
  • 自動マーケットメーカー (AMM)
  • 収益分配プロトコル

各レイヤーは互いに補完し合っています。予測市場が価格シグナルを確立し、データ市場が情報を収益化し、DAO が共同行動を可能にし、AI が需要を創出し、金融インフラが流動性を提供します。

2026 年が明らかにするもの

InfoFi は実験的な段階からインフラとしての段階へと移行します。

機関投資家による検証: 主要なプラットフォームが予測市場を統合。ウォール街が InfoFi のシグナルを活用。資産としての情報を扱うための規制枠組みが登場。

インフラの成熟: データのトークン化標準が定着。DAO ガバナンスのパターンが大規模に実証。AI とブロックチェーンの統合がシームレスに。

市場の成長: 週間の予測市場取引高 63.2 億ドル、230 億ドルのオンチェーン・データ資産、あらゆるセクターでの採用が加速。

ユースケースの拡大: 投機を超えて、研究、企業間コラボレーション、AI 開発、公共財の調整へと拡大。

情報がアセットクラス(資産クラス)になるかどうかはもはや疑問ではありません。重要なのは、インフラがいかに早くスケールし、どのモデルが主流になるかです。予測市場が最初に注目を集めましたが、最終的にはデータ DAO やトークン化プロトコルがより大きな価値の流れを牽引する可能性があります。

2026 年の InfoFi の展望:確立された基盤、実証済みのユースケース、機関投資家による採用の開始、インフラの成熟。次のフェーズは、主流の情報システムへの統合、従来のデータマーケットプレイスの置換、そして情報交換のためのデフォルトのインフラになることです。

BlockEden.xyz は、主要なブロックチェーン・エコシステム全体で、信頼性が高く、高性能な RPC アクセスを提供する Web3 アプリケーション向けのエンタープライズ・グレードのインフラを提供します。InfoFi インフラとデータ市場のサポートについては、当社のサービスを詳しく見る をご確認ください。


ソース:

予測市場が 59 億ドルに到達:AI エージェントがウォール街の予測ツールになった時

· 約 21 分
Dora Noda
Software Engineer

2026 年初頭、Kalshi の 1 日あたりの取引高が 8 億 1,400 万ドルに達し、予測市場のシェアの 66.4% を占めたとき、その急増を牽引したのは個人投機家ではありませんでした。それは AI エージェントでした。現在、自律型取引アルゴリズムは予測市場の取引高の 30% 以上を占めており、インターネット上の好奇心として始まったものを、ウォール街の最新の機関投資家向け予測インフラへと変貌させています。このセクターの週間取引高は 59 億ドルに達し、さらに増加を続けており、多くの伝統的なデリバティブ市場に匹敵しています。しかし、決定的な違いが 1 つあります。それは、これらの市場が単なる資産ではなく、情報を取引しているということです。

これは「情報金融(Information Finance)」、つまりブロックチェーンベースの予測市場を通じて集合知を収益化することです。トレーダーが OpenAI が 2030 年までに AGI を達成するかどうかに 4,200 万ドルを賭けたり、次にどの上場企業が現れるかに 1,800 万ドルを賭けたりするとき、彼らはギャンブルをしているのではありません。彼らは、機関投資家、政策立案者、企業の戦略家が、従来の投資アナリストよりもますます信頼するようになっている、流動性が高く取引可能な予測を生み出しているのです。問題は、予測市場が予測のあり方を破壊するかどうかではなく、専門家の予測を大幅に上回る精度を持つこれらの市場を、機関投資家がいかに早く採用するかということです。

59 億ドルの節目:非主流から金融インフラへ

予測市場は 2025 年末に 53 億ドルに迫る過去最高の取引高を記録し、その勢いは 2026 年に向けて加速しました。現在の週間取引高は常に 59 億ドルを超えており、主要なイベント期間中の 1 日のピークは 8 億 1,400 万ドルに達しています。比較のために挙げると、これは多くの中型株の 1 日の取引高を上回り、専門的なデリバティブ市場に匹敵する規模です。

この成長は線形ではなく、指数関数的です。2024 年の予測市場の年間取引高は数億ドル単位で測定されていました。2025 年までに月間取引高は 10 億ドルを超えました。2026 年には週間取引高が日常的に 59 億ドルに達しており、これは 10 倍以上の年間成長を意味します。この加速は、機関投資家が予測市場を「珍しいもの」から「不可欠なもの」へと見なすようになった根本的な変化を反映しています。

Kalshi は 66.4% の市場シェアで支配的であり、機関投資家の取引高の大部分を処理しています。暗号資産ネイティブな分野で運営されている Polymarket は、個人のフォロワーや国際的なフローを大幅に取り込んでいます。これらのプラットフォームを合わせると、選挙、経済、技術開発、スポーツ、エンターテインメントを網羅する数千の市場で、毎週数十億ドルの取引高を処理しています。

このセクターの正当性は、NYSE(ニューヨーク証券取引所)の親会社である ICE(インターコンチネンタル取引所)が予測市場のインフラに 20 億ドルを投資したことで、その裏付けを得ました。世界最大の証券取引所の運営者がこの規模で資本を投入するということは、予測市場がもはや実験的なものではなく、戦略的なインフラであることを示しています。

AI エージェント:30% の貢献要因

予測市場の成長において最も過小評価されている推進要因は、AI エージェントの参加です。自律型取引アルゴリズムは現在、総取引高の 30% 以上を占めており、市場の力学を根本的に変えています。

なぜ AI エージェントは予測を取引しているのでしょうか?理由は 3 つあります:

情報の裁定取引(情報アービトラージ):AI エージェントは、ニュース、ソーシャルメディア、オンチェーンデータ、伝統的な金融市場など、数千のデータソースをスキャンして、価格設定が誤っている予測を特定します。市場があるイベントの確率を 40% と評価している一方で、AI の分析が 55% を示唆している場合、エージェントはそのスプレッドを取引します。

流動性の提供:マーケットメイカーが証券取引所で流動性を提供するのと同様に、AI エージェントは予測プラットフォームで双方向の市場を提供します。これにより価格発見機能が向上し、スプレッドが縮小され、すべての参加者にとって市場がより効率的になります。

ポートフォリオの分散:機関投資家は、非伝統的な情報シグナルへのエクスポージャーを得るために AI エージェントを導入しています。ヘッジファンドは、政治的リスク、技術開発のタイムライン、規制の結果など、伝統的な市場では表現が難しいリスクをヘッジするために予測市場を利用することがあります。

AI エージェントによる取引の出現は、ポジティブフィードバックループ(好循環)を生み出します。AI の参加が増えるほど流動性が向上し、それがより多くの機関投資家の資本を惹きつけ、さらに多くの AI 開発を正当化します。予測市場は、複雑で現実世界の予測課題を乗り越える方法を学ぶ自律型エージェントの訓練場になりつつあります。

Kalshi のトレーダーは、OpenAI が 2030 年までに AGI を達成する確率を 42% と見積もっています。これは 6 ヶ月前の 32% から上昇しています。4,200 万ドル以上の流動性を持つこの市場は、エンジニア、ベンチャーキャピタリスト、政策専門家、そして人間が大規模に追跡できないシグナルを処理する AI エージェントを含む「群衆の知恵」を反映しています。

Kalshi の機関投資家における優位性:規制された取引所の強み

Kalshi の 66.4% の市場シェアは偶然ではありません。それは構造的なものです。米国初の CFTC(米商品先物取引委員会)規制下の予測市場取引所として、Kalshi は競合他社には提供できないもの、つまり「規制の確実性」を機関投資家に提供しています。

機関投資家の資本はコンプライアンスを要求します。ヘッジファンド、資産運用会社、企業の財務部門は、法的リスクやコンプライアンスリスクを負うことなく、規制されていないプラットフォームに数十億ドルを投入することはできません。Kalshi の CFTC 登録はこの障壁を取り除き、機関投資家がポートフォリオ内の株式、債券、デリバティブと並んで予測を取引することを可能にします。

規制されたステータスはネットワーク効果を生み出します。機関投資家の取引高が増えるほど、より優れた流動性提供者が集まり、スプレッドがタイトになり、さらに多くのトレーダーを惹きつけます。Kalshi のオーダーブックは現在、数百万ドルの取引が大きなスリッページなしに実行できるほど深くなっており、これは機能的な市場と実験的な市場を分ける基準となっています。

Kalshi の製品の幅広さも重要です。市場は選挙、経済指標、技術の節目、IPO のタイミング、企業の決算、マクロ経済イベントにまで及びます。この多様性により、機関投資家は微妙な見解を表現することができます。テック企業のバリュエーションに弱気なヘッジファンドは、ユニコーン企業の IPO に関する予測市場でショートポジションを取ることができます。規制の変化を予想する政策アナリストは、議会の結果市場を取引することができます。

高い流動性により、価格が簡単に操作されることはありません。数千万ドルが賭けられ、数千人の参加者がいる市場価格は、個人の操作ではなく、真のコンセンサスを反映します。この「群衆の知恵」は、ブラインドテストにおいて専門家の予測を上回ります。予測市場は一貫して、世論調査、アナリストの予測、評論家の意見よりも優れた成果を上げています。

Polymarket のクリプトネイティブな代替手段:分散型の挑戦者

Kalshi が規制された米国市場を支配する一方で、Polymarket はクリプトネイティブおよび国際的なフローを取り込んでいます。USDC 決済を備えたブロックチェーン基盤で動作する Polymarket は、KYC なし、地理的制限なし、規制によるゲートキーピングなしのパーミッションレスなアクセスを提供します。

Polymarket の強みはグローバルなリーチです。Kalshi にアクセスできない地域のトレーダーも自由に参加できます。2024 年の米国選挙期間中、Polymarket は 30 億ドル以上の取引量を処理し、クリプトネイティブなインフラが機関投資家規模の需要に対応できることを証明しました。

このプラットフォームの暗号資産統合は、斬新なメカニズムを可能にします。スマートコントラクトがオラクルデータに基づいて決済を自動的に実行します。流動性プールは仲介者なしで 24 時間稼働します。決済は数日ではなく数秒で完了します。これらの利点は、DeFi プリミティブに慣れ親しんだクリプトネイティブなトレーダーにとって魅力的です。

しかし、規制の不確実性は依然として Polymarket の課題です。米国の明示的な規制承認なしで運営されているため、国内での機関投資家による採用が制限されています。個人ユーザーや国際的なユーザーがパーミッションレスなアクセスを歓迎する一方で、米国の機関投資家は規制の明確さを欠くプラットフォームを概して避けています。

Kalshi(規制遵守、機関投資家向け)と Polymarket(クリプトネイティブ、パーミッションレス)の競争は、デジタル金融におけるより広範な議論を反映しています。どちらのモデルも機能しており、それぞれ異なるユーザー層にサービスを提供しています。このセクターの成長は、規制と技術のトレードオフをそれぞれ最適化する複数の勝者が存在する余地があることを示唆しています。

インフォメーション・ファイナンス:集合知の収益化

「インフォメーション・ファイナンス(情報金融)」という用語は、予測市場の核心的なイノベーションを表しています。それは、予測を取引可能で流動性の高い金融商品に変換することです。従来の予測は、正確性が不透明な専門家による点推定に依存していました。予測市場は、分散された知識を統合し、市場価格に基づいた継続的な確率へと集約します。

市場が専門家を上回る理由:

身銭を切ること(Skin in the game): 市場参加者は自らの予測に資本を投じます。予測が外れれば資金を失います。このインセンティブ構造は、予測が外れても罰則のない世論調査や専門家パネルよりも、ノイズからシグナルを効果的に抽出します。

継続的な更新: 新しい情報が出現すると、市場価格はリアルタイムで調整されます。専門家の予測は次のレポートが出るまで静止したままですが、市場はダイナミックであり、ニュース速報、リーク、新たなトレンドを即座に取り込みます。

集約された知識: 市場は、多様な専門知識を持つ何千人もの参加者から情報を収集します。エンジニア、投資家、政策立案者、実務家がそれぞれ専門的な洞察を持ち寄る集合知には、単独の専門家では太刀打ちできません。

透明性のある確率: 市場は予測を明確な信頼区間を伴う確率として表現します。あるイベントの価格が 65% であれば、「およそ 3 分の 2 の確率」であることを示し、数値化せずに「可能性が高い」と述べる専門家よりも有用です。

研究の結果、予測市場は選挙、経済、技術開発、企業の成果など、あらゆる領域において専門家パネル、世論調査、アナリストの予測を一貫して上回ることが示されています。実績は完璧ではありませんが、代替手段よりも測定可能なほど優れています。

金融機関もこれに注目しています。シナリオ分析のために高額なコンサルタントを雇う代わりに、企業は予測市場を参照することができます。議会が今年中に暗号資産規制を可決するかどうかを知りたいですか?そのための市場があります。競合他社が年末までに IPO するか気になりますか?その予測を取引しましょう。地政学的リスクを評価したいですか?それに賭けることができます。

機関投資家のユースケース:サービスとしての予測

予測市場は、投機的な娯楽から機関投資家向けのインフラへと移行しつつあります。以下のユースケースが採用を後押ししています。

リスク管理: 企業は、従来のデリバティブでは表現が難しいリスクをヘッジするために予測市場を利用します。港湾ストライキを懸念するサプライチェーン・マネージャーは、労使交渉に関する予測市場で取引できます。金利を懸念する CFO は、連邦準備制度(Fed)の予測市場と債券先物を照らし合わせることができます。

戦略的プランニング: 企業は予測に基づいて数十億ドル規模の意思決定を行います。AI 規制は通過するか?テックプラットフォームは独占禁止法の影響を受けるか?競合他社は新製品を発売するか?予測市場は、実際の資本が投入された確率論的な回答を提供します。

投資リサーチ: ヘッジファンドや資産運用会社は、予測市場を代替データソースとして利用しています。技術的なマイルストーン、規制の結果、またはマクロイベントに関する市場価格は、ポートフォリオのポジショニングに役立ちます。一部のファンドは、アルファ(超過収益)の源泉として予測市場を直接取引しています。

政策分析: 政府やシンクタンクは、世論調査を超えた民意を知るために予測市場を参照します。市場は、本心と「美徳の誇示(バーチュー・シグナリング)」を切り分けます。自分のお金を賭けている参加者は、社会的に望ましい回答ではなく、真の期待値を明らかにします。

ICE(インターコンチネンタル取引所)による 20 億ドルの投資は、伝統的な取引所が予測市場を新しいアセットクラスとして捉えていることを示唆しています。1970 年代にリスク管理を収益化するためにデリバティブ市場が登場したように、2020 年代には予測を収益化するために予測市場が登場しています。

AI エージェント・マーケット・フィードバック・ループ

予測市場に参加する AI エージェントは、両方の技術を加速させるフィードバック・ループを生み出します。

市場データによる AI の向上: AI モデルは、予測市場の結果を学習して予測精度を高めます。例えば、テック企業の IPO の時期を予測するモデルは、Kalshi の過去データに対してバックテストを行うことで改善されます。これにより、AI ラボが予測に特化したモデルを構築するインセンティブが生まれます。

AI の参加による市場の向上: AI エージェントは流動性を提供し、価格の誤設定をアービトラージ(裁定取引)し、価格発見機能を向上させます。人間のトレーダーは、スプレッドの縮小と情報集約の質の向上という恩恵を受けます。AI の参加が増えるにつれて、市場はより効率的になります。

機関投資家による AI 導入: 予測市場に AI エージェントを配備する機関は、よりリスクの低い環境で自律型取引システムの経験を積むことができます。ここで得られた教訓は、株式、外国為替、デリバティブ取引へと応用されます。

取引高に対する 30 % 以上の AI の寄与は、天井ではなく底値に過ぎません。AI の能力が向上し、機関投資家による導入が進むにつれて、エージェントの参加率は数年以内に 50 - 70 % に達する可能性があります。これは人間の判断に取って代わるものではなく、それを増強するものです。人間が戦略を立て、AI エージェントが手動では不可能な規模とスピードで実行します。

テクノロジースタックが収束しつつあります。AI ラボは予測市場プラットフォームと提携しています。取引所はアルゴリズム取引のための API を構築しています。機関は予測市場戦略のために独自の AI を開発しています。この収束により、予測市場は次世代の自律型金融エージェントの試験場として位置づけられています。

課題と懐疑論

成長の一方で、予測市場は正当な課題に直面しています。

操作リスク: 高い流動性は操作を減少させますが、低取引高の市場は依然として脆弱です。資本力のある動機を持った主体が、ニッチな市場の価格を一時的に歪める可能性があります。プラットフォームは流動性要件や操作検知でこれに対抗していますが、リスクは残ります。

オラクル依存性: 予測市場は、結果を決定する信頼できる主体であるオラクルを必要とします。オラクルのエラーや不正は、誤った決済を引き起こす可能性があります。ブロックチェーンベースの市場は、分散型オラクルネットワークでこれを最小限に抑えますが、従来の市場は中央集権的な解決に依存しています。

規制の不確実性: Kalshi は CFTC 規制下にありますが、より広範な規制枠組みは依然として不明確です。より多くの予測市場が承認されるでしょうか? 国際市場は制限に直面するでしょうか? 規制の進化は、予測不可能な形で成長を抑制、あるいは加速させる可能性があります。

流動性の集中: ほとんどの取引高は、注目度の高い市場(選挙、主要なテックイベント)に集中しています。ニッチな市場は流動性が不足しており、専門的な予測への有用性が制限されています。これを解決するには、マーケットメイキングのインセンティブ、または AI エージェントによる流動性提供が必要です。

倫理的懸念: 政治的暴力、死、災害などのデリケートなトピックについて市場が存在すべきでしょうか? 批判者は悲劇的な出来事を収益化することは倫理に反すると主張しています。支持者は、そのような市場からの情報は被害を防ぐのに役立つと反論しています。この議論が、プラットフォームがどの市場を許可するかを決定づけるでしょう。

2026 - 2030 年の軌道

2026 年初頭に週間の取引高が 59 億ドルに達した場合、このセクターはどこへ向かうのでしょうか?

緩やかな成長(最近の加速を考えれば控えめな年率 50 %)を想定すると、予測市場の取引高は 2028 年までに年間 500 億ドル、2030 年までに 1,500 億ドルを超える可能性があります。これにより、このセクターは中規模のデリバティブ市場に匹敵する地位を確立することになります。

よりアグレッシブなシナリオ — ICE が NYSE で予測市場を開始したり、主要銀行が予測商品を提供したり、より多くの市場タイプに対して規制当局の承認が下りたりすれば — 2030 年までに取引高は 5,000 億ドル以上に押し上げられる可能性があります。その規模になれば、予測市場は機関投資家のポートフォリオにおける明確な資産クラスとなります。

ブロックチェーンによる決済、AI エージェント、規制の枠組み、機関投資家の関心、そして従来の予測を凌駕する実証済みの実績など、技術的な実現要因は整っています。残されているのは普及曲線のダイナミクス — 機関が意思決定プロセスにいかに早く予測市場を組み込むかという点です。

「一部の投機」から「機関投資家の予測ツール」への転換は、すでに順調に進んでいます。ICE が 20 億ドルを投資し、AI エージェントが取引高の 30 % を占め、Kalshi の 1 日の取引高が 8 億 1,400 万ドルに達したとき、ナラティブは永久に変わりました。予測市場は単なる好奇心の対象ではありません。それらは、機関が不確実性を定量化し、情報の不確実性リスクをヘッジする方法の未来なのです。

情報源

分散型GPUネットワーク 2026:DePINがいかにして1,000億ドルのAIコンピューティング市場でAWSに挑んでいるか

· 約 17 分
Dora Noda
Software Engineer

AI 革命は、かつてないほどの計算能力への渇望を生み出しました。AWS、Azure、Google Cloud といったハイパースケーラーがこの分野を支配してきましたが、彼らの優位性に挑む新しいクラスの分散型 GPU ネットワークが登場しています。DePIN(分散型物理インフラネットワーク)セクターの時価総額は 1 年間で 52 億ドルから 190 億ドル以上に急増し、2028 年までに 3.5 兆ドルに達すると予測されています。もはや、分散型コンピューティングが従来のクラウドプロバイダーと競合するかどうかではなく、いかに早く市場シェアを奪うかが問題となっています。

GPU 不足の危機:分散化に向けた絶好の機会

半導体業界は、分散型コンピューティングの理論を裏付ける供給のボトルネックに直面しています。

世界最大の高帯域幅メモリ (HBM) プロデューサーである SK Hynix と Micron の両社は、2026 年の生産分がすべて完売したと発表しました。Samsung は、需要が供給を大幅に上回っているため、2 桁の価格引き上げを警告しています。

この不足は、ハイパースケールインフラに直接アクセスできる層と、それ以外の層という二極化した市場を生み出しています。

10 億ドル規模の予算を持たない AI 開発者、スタートアップ、研究者にとって、従来のクラウドモデルには 3 つの重大な障壁があります。

  • 予算の 50 〜 70% を消費する可能性のある法外なコスト
  • 柔軟性がほとんどない長期的な囲い込み契約
  • NVIDIA H100 や H200 のようなハイエンド GPU の限られた可用性

分散型 GPU ネットワークは、これら 3 つすべてを解決する立場にあります。

市場のリーダー:4 つのアーキテクチャ、1 つのビジョン

Render Network:3D アーティストから AI インフラへ

もともと分散レンダリングタスクのためにアイドル状態の GPU を集約するために構築された Render Network は、AI コンピューティングワークロードへの転換に成功しました。現在、このネットワークは毎月約 150 万フレームを処理しており、2025 年 12 月の Dispersed.com の立ち上げは、クリエイティブ業界を超えた戦略的拡大を象徴しています。

2026 年の主要なマイルストーンは以下の通りです。

  • AI コンピューティングサブネットのスケーリング: 機械学習ワークロードに特化した分散型 GPU リソースの拡張
  • 600 以上の AI モデルを導入: 推論やロボティクスシミュレーションのためのオープンウェイトモデル
  • 70% のアップロード最適化: Blender 用のディファレンシャルアップロードにより、ファイル転送時間を大幅に短縮

イーサリアムから Solana へのネットワーク移行(RNDR から RENDER へのリブランディング)により、AI コンピューティングの高スループット需要に対応する体制が整いました。

CES 2026 において、Render はエッジ ML ワークロードの GPU 需要の爆発的増加に対応することを目的としたパートナーシップを披露しました。クリエイティブなレンダリングから汎用 AI コンピューティングへの転換は、DePIN セクターで最も成功した市場拡大の 1 つです。

Akash Network:Kubernetes 互換の挑戦者

Akash は、逆オークションモデルを採用することで、根本的に異なるアプローチをとっています。固定価格ではなく、GPU プロバイダーがワークロードを競い合うことで、分散型マーケットプレイスを通じて品質を維持しながらコストを抑えています。

その結果は顕著です。利用率は前年比 428% 増を記録し、2026 年に向けて稼働率は 80% を超えています。

このネットワークの Starcluster イニシアチブは、これまでで最も野心的な取り組みです。中央管理型のデータセンターと Akash の分散型マーケットプレイスを組み合わせ、トレーニングと推論の両方に最適化された「プラネタリーメッシュ」と呼ばれるものを構築します。Starbonds を通じて約 7,200 台の NVIDIA GB200 GPU を取得する計画により、Akash はハイパースケールの AI 需要をサポートできる体制を整えます。

2025 年第 3 四半期の指標は、加速する勢いを示しています。

  • 手数料収入は前四半期比 11% 増の 715,000 AKT
  • 新規リース数は前四半期比 42% 増の 27,000 件
  • 2026 年第 1 四半期のバーンメカニズム強化 (BME) により、AKT トークンのバーンがコンピューティング支出に連動。1 ドル支出されるごとに 0.85 ドル相当の AKT がバーンされます。

月間コンピューティングボリュームが 336 万ドルであることを考慮すると、毎月約 210 万 AKT(約 98 万 5,000 ドル)がバーンされる可能性があり、トークン供給にデフレ圧力を生み出します。

この利用状況とトークノミクスの直接的な結びつきは、トークンの有用性が強制されているように感じられたり、実際のプロダクトの採用と切り離されているプロジェクトとは Akash を一線を画すものにしています。

Hyperbolic:コストの破壊者

Hyperbolic の価値提案は非常にシンプルです。AWS、Azure、Google Cloud と同じ AI 推論機能を 75% 低いコストで提供することです。10 万人以上の開発者を支えるこのプラットフォームは、高度なオーケストレーション層を通じて世界中に分散された GPU リソースを調整する分散型オペレーティングシステム、Hyper-dOS を使用しています。

アーキテクチャは 4 つのコアコンポーネントで構成されています。

  1. Hyper-dOS: 世界中に分散された GPU リソースを調整
  2. GPU マーケットプレイス: サプライヤーとコンピューティング需要を接続
  3. 推論サービス: 最先端のオープンソースモデルへのアクセス
  4. エージェントフレームワーク: 自律型インテリジェンスを可能にするツール

Hyperbolic を際立たせているのは、カリフォルニア大学バークレー校やコロンビア大学の研究者と共に開発された、間もなく登場する Proof of Sampling (PoSP) プロトコルです。これにより、AI 出力の暗号化された検証が可能になります。

これは、中央集権的な権威に頼ることなくトラストレスな検証を行うという、分散型コンピューティングにおける最大の課題の 1 つに対処するものです。PoSP が稼働すれば、企業は GPU プロバイダーを信頼することなく、推論結果が正しく計算されたことを検証できるようになります。

Inferix:ブリッジビルダー

Inferix は、GPU コンピューティングパワーを必要とする開発者と、余剰能力を持つプロバイダーを繋ぐ接続レイヤーとして位置付けられています。その従量課金モデルにより、従来のクラウドプロバイダーでユーザーを縛り付けていた長期契約の必要性がなくなります。

市場への参入は比較的新しいものの、Inferix は特定のセグメントをターゲットとする特化型 GPU ネットワークの成長を象徴しています。この場合、エンタープライズ規模の要件を必要とせず、柔軟で短期間のアクセスを求める開発者が対象となります。

DePIN 革命:数字で見る現状

広範な DePIN セクターは、分散型 GPU コンピューティングがインフラ環境のどこに適しているかを理解するための重要な背景となります。

2025 年 9 月時点で、CoinGecko は 250 近い DePIN プロジェクトを追跡しており、その合計時価総額は 190 億ドルを超えています。これはわずか 12 ヶ月前の 52 億ドルから増加しており、265% という成長率は広範な暗号資産市場を劇的に上回っています。

このエコシステム内では、AI 関連の DePIN が時価総額で圧倒しており、このテーマの 48% を占めています。分散型コンピューティングとストレージネットワークを合わせると、約 193 億ドルに達し、DePIN 全体の時価総額の半分以上を占めています。

際立った成果を上げているプロジェクトは、このセクターの成熟を示しています:

  • Aethir: 14 億時間以上の計算時間を提供し、2025 年には四半期収益が約 4,000 万ドルに達したと報告されています
  • io.net および Nosana: それぞれの成長サイクルにおいて時価総額が 4 億ドルを超えました
  • Render Network: レンダリングから AI ワークロードへと拡大する中で、時価総額が 20 億ドルを突破しました

ハイパースケーラーの反論:依然として中央集権が優位な点

説得力のある経済性と目覚ましい成長指標がある一方で、分散型 GPU ネットワークは、ハイパースケーラーが対処するように構築されている正当な技術的課題に直面しています。

長期間のワークロード: 大規模言語モデルのトレーニングには、数週間から数ヶ月の継続的な計算が必要になる場合があります。分散型ネットワークでは、特定の GPU が長期間利用可能であることを保証するのが困難ですが、AWS は必要な期間だけ容量を予約できます。

緊密な同期: 複数の GPU にわたる分散トレーニングには、マイクロ秒レベルの調整が必要です。これらの GPU が、ネットワーク遅延の異なる大陸間に分散している場合、効率的なトレーニングに必要な同期を維持することは指数関数的に難しくなります。

予測可能性: ミッションクリティカルなワークロードを実行する企業にとって、期待されるパフォーマンスを正確に把握することは譲れない条件です。ハイパースケーラーは詳細な SLA を提供できますが、分散型ネットワークは同様の保証を行うための検証インフラをまだ構築している段階です。

インフラの専門家の間では、分散型 GPU ネットワークはバッチワークロード、推論タスク、および短期間のトレーニング実行に優れているというコンセンサスがあります。

これらのユースケースでは、ハイパースケーラーと比較して 50-75% のコスト削減が可能であり、大きな変革をもたらします。しかし、最も要求が厳しく、長時間実行され、ミッションクリティカルなワークロードについては、少なくとも現時点では中央集権型のインフラが優位性を保っています。

2026 年の触媒:AI 推論の爆発的増加

2026 年から、AI の推論およびトレーニング計算の需要は、3 つの収束するトレンドによって劇的に加速すると予測されています:

  1. エージェンティック AI の普及: 自律型エージェントは、意思決定のために持続的な計算能力を必要とします
  2. オープンソースモデルの採用: 企業がプロプライエタリな API から離れるにつれ、モデルをホストするためのインフラが必要になります
  3. エンタープライズ AI の導入: 企業が実験段階から本番稼働へと移行しています

この需要の急増は、分散型ネットワークの強みに直結します。

推論ワークロードは通常、短時間で、高度に並列化可能です。これはまさに、分散型 GPU ネットワークがコスト面でハイパースケーラーを凌駕しつつ、同等のパフォーマンスを提供できるプロファイルです。チャットボットや画像生成サービスの推論を実行するスタートアップは、ユーザーエクスペリエンスを損なうことなく、インフラコストを 75% 削減できます。

トークンエコノミクス:インセンティブレイヤー

これらのネットワークにおける暗号資産の要素は、単なる投機ではありません。それは、グローバルな GPU の集約を経済的に実現可能にするメカニズムです。

Render (RENDER): もともと Ethereum 上で RNDR として発行されましたが、2023 年から 2024 年にかけてネットワークが Solana に移行し、トークン保有者は 1:1 の比率でスワップしました。RENDER を含む GPU 共有トークンは、セクターへの信頼が高まったことを反映し、2026 年初頭に 20% 以上急騰しました。

Akash (AKT): BME 焼却メカニズムは、ネットワークの利用状況とトークン価値の間に直接的なリンクを作成します。トークノミクスが製品の利用と切り離されているように感じられる多くの暗号プロジェクトとは異なり、Akash のモデルは、1 ドルのコンピューティング利用がトークン供給に直接影響を与えることを保証します。

トークンレイヤーは、初期の分散型コンピューティングの試みを悩ませていたコールドスタート問題を解決します。

ネットワークの初期段階で GPU プロバイダーにトークン報酬というインセンティブを与えることで、需要がクリティカルマスに達する前に供給を立ち上げることができます。ネットワークが成熟するにつれて、トークンのインフレに代わって実際の計算収益が徐々に取って代わります。

このトークンインセンティブから実際の収益への移行は、持続可能なインフラプロジェクトと持続不可能なポンジノミクス(ポンジスキーム的な経済)を分けるリトマス試験紙となります。

1,000 億ドルの問い:分散型は対抗できるのか?

分散型コンピューティング市場は、2024 年の 90 億ドルから 2032 年には 1,000 億ドルに成長すると予測されています。分散型 GPU ネットワークが有意義なシェアを獲得できるかどうかは、次の 3 つの課題を解決できるかにかかっています。

大規模な検証: Hyperbolic の PoSP プロトコルは進歩を示していますが、業界にはコンピューティング作業が正しく実行されたことを暗号学的に検証するための標準化された手法が必要です。これがなければ、企業は依然として躊躇し続けるでしょう。

エンタープライズ級の信頼性: 世界中に分散し、独立して運営されている GPU を調整しながら 99.99% のアップタイムを達成するには、高度なオーケストレーションが必要です。Akash の Starcluster モデルはその一つの方向性を示しています。

開発者体験: 分散型ネットワークは、AWS、Azure、GCP の使いやすさに匹敵する必要があります。Kubernetes との互換性(Akash が提供しているものなど)は第一歩ですが、既存の ML ワークフローとのシームレスな統合が不可欠です。

開発者にとっての意味

AI 開発者や Web3 ビルダーにとって、分散型 GPU ネットワークは戦略的な機会をもたらします。

コストの最適化: トレーニングや推論の費用は、AI スタートアップの予算の 50 〜 70% を容易に消費する可能性があります。これらのコストを半分以下に抑えることは、ユニットエコノミクスを根本から変えます。

ベンダーロックインの回避: ハイパースケーラーは参入を容易にしますが、離脱を困難にします。オープンスタンダードを使用する分散型ネットワークは、選択肢を保持します。

検閲耐性: 中央集権的なプロバイダーからの圧力を受ける可能性があるアプリケーションにとって、分散型インフラストラクチャは重要なレジリエンスレイヤーを提供します。

注意点は、ワークロードをインフラストラクチャに適合させることです。迅速なプロトタイピング、バッチ処理、推論サービング、並列トレーニングの実行については、分散型 GPU ネットワークは今日すでに利用可能です。絶対的な信頼性が必要な数週間にわたるモデルトレーニングについては、現時点ではハイパースケーラーの方が依然として安全な選択肢です。

今後の展望

GPU の不足、AI コンピューティング需要の増大、そして成熟しつつある DePIN インフラストラクチャの融合は、稀な市場機会を生み出しています。従来のクラウドプロバイダーは、信頼性と利便性を提供することで第一世代の AI インフラストラクチャを支配しました。分散型 GPU ネットワークは、コスト、柔軟性、および中央集権的な制御への耐性で競合しています。

今後の 12 ヶ月が決定的なものになるでしょう。Render が AI コンピューティングサブネットを拡張し、Akash が Starcluster GPU をオンラインにし、Hyperbolic が暗号学的検証を導入する中で、分散型インフラストラクチャがハイパースケールでその約束を果たせるかどうかが明らかになります。

希少な GPU リソースにプレミアム価格を支払っている開発者、研究者、企業にとって、信頼できる代替手段の登場は、これ以上待ちきれないほど重要です。問題は、分散型 GPU ネットワークが 1,000 億ドルのコンピューティング市場の一部を獲得するかどうかではなく、どれだけのシェアを獲得するかです。

BlockEden.xyz は、永続するように設計された基盤上で構築を行う開発者のために、エンタープライズ級のブロックチェーンインフラストラクチャを提供します。API マーケットプレイスを探索して、主要なブロックチェーンネットワーク全体の信頼性の高いノードサービスにアクセスしてください。