メインコンテンツまでスキップ

「AI」タグの記事が 79 件 件あります

人工知能と機械学習のアプリケーション

すべてのタグを見る

200 億ドルの予測市場戦争:Kalshi と Polymarket がいかにして情報をウォール街の最新資産クラスに変えているか

· 約 14 分
Dora Noda
Software Engineer

ニューヨーク証券取引所(NYSE)の親会社であるインターコンチネンタル取引所(ICE)が 2025 年 10 月に Polymarket へ 20 億ドルの投資を行ったとき、それは単なる暗号資産スタートアップへの賭けではありませんでした。それは、より大きな何か、つまり「情報そのものを取引可能な資産クラスへと変貌させるプロセス」に参加するための切符を手に入れるためのものでした。その 6 ヶ月後、予測市場は週次ボリュームで 59 億ドルを処理し、AI エージェントが取引の 30% を占め、ヘッジファンドは財務省証券先物よりも高い精度で FRB の決定をヘッジするためにこれらのプラットフォームを利用しています。

インフォメーション・ファイナンス(Information Finance)へようこそ。これは暗号資産において最も急速に成長しているセグメントであり、おそらくステーブルコインが主流になって以来、最も重要なインフラの転換点となるでしょう。

投機的なカジノから機関投資家向けのインフラへ

数字は、この業界が根本的に自己変革を遂げた物語を物語っています。2024 年当時、予測市場は政治マニアのためのニッチで興味深い存在に過ぎず、本格的な資金からは無視されていました。しかし 2026 年 1 月までに、Piper Sandler は、今年の予測市場における契約取引数が 4,450 億件を超え、想定元本ベースのボリュームは 2,225 億ドルに達すると予測しています。これは 2025 年の 950 億契約から大幅な増加です。

その触媒となったのは 3 つの要素でした。

規制の明確化: 2025 年の CLARITY 法により、イベント契約は CFTC(商品先物取引委員会)の監督下で正式に「デジタル・コモディティ」として分類されました。この規制上の青信号により、主要銀行を傍観させていたコンプライアンスの障壁が解消されました。Kalshi が 2025 年 5 月に CFTC に対して勝ち取った勝訴判決は、イベント契約がギャンブルではなくデリバティブであることを確立しました。これにより、スポーツブックが州ごとのライセンス付与に直面する一方で、プラットフォームが全米で運営できるという連邦政府の判例が作られました。

機関投資家による投資: Polymarket は ICE から 90 億ドルの評価額で 20 億ドルの資金を確保し、NYSE の親会社は予測データを機関投資家向けのフィードに統合しました。負けじと Kalshi も 2 回のラウンドで計 13 億ドルを調達しました。10 月に 3 億ドル、12 月に Paradigm、a16z、Sequoia、ARK Invest から 10 億ドルを調達し、110 億ドルの評価額に達しました。これら 2 つのプラットフォームを合わせると、現在の価値は 200 億ドルに達します。

AI の統合: 自律型 AI システムが現在、総取引量の 30% 以上を占めています。RSS3 の MCP サーバーのようなツールにより、AI エージェントがニュースフィードをスキャンし、人間の介入なしに取引を実行できるようになり、予測市場を 24 時間 365 日稼働する情報処理エンジンへと変貌させました。

予測市場の大戦:Kalshi vs. Polymarket

2026 年 1 月 23 日現在、競争は激化しています。Kalshi は市場シェアの 66.4% を占め、毎週 20 億ドル以上を処理しています。しかし、Polymarket が今年のボリュームリーダーとして終える確率は約 47% とされており、Kalshi は 34% で続いています。Robinhood のような新参者も市場シェアの 20% を獲得しており、この分野が依然として大きく開かれていることを示しています。

各プラットフォームは異なるニッチを築いています。

Kalshi は CFTC 規制下の取引所として運営されており、米国の個人投資家へのアクセスを可能にしていますが、より厳格な監督を受けています。想定元本 430 億ドルのボリュームのうち約 90% はスポーツ関連のイベント契約によるものです。ネバダ州やコネチカット州のギャンブル当局は、これらの契約が無認可のギャンブルと重複していると主張し、停止命令を出しており、法的摩擦が不確実性を生んでいます。

Polymarket は暗号資産のレール(Polygon)上で動作し、グローバルにパーミッションレスなアクセスを提供していますが、主要市場での規制圧力に直面しています。欧州の MiCA 規制により、2026 年には EU 圏内でのアクセスに完全な認可が必要となります。プラットフォームの分散型アーキテクチャは検閲耐性を提供しますが、コンプライアンスを重視する管轄区域での機関投資家の採用を制限しています。

両社とも、長期的な機会は現在の焦点の遥か先にあると考えています。真の賞品はスポーツ賭博や選挙市場ではなく、集合知の「ブルームバーグ端末」になることです。

ヘッジ不可能なものをヘッジする:ウォール街による予測市場の活用

最も革命的な進展はボリュームの成長ではなく、従来のデリバティブではサポートできなかった全く新しいヘッジ戦略の出現です。

FRB 金利ヘッジ: 現在の Kalshi のオッズでは、1 月 28 日の会合で FRB が金利を据え置く確率は 98% です。しかし、本当の動きは 2026 年 3 月の契約にあり、そこでは 25 ベーシスポイントの利下げ確率が 74% となっており、成長鈍化を懸念する人々にとって重要なヘッジの場となっています。大手ファンドは、これらのバイナリ契約(FRB が利下げするかしないか)を使用して、財務省証券先物よりも高い精度でポートフォリオの「リスク軽減」を行っています。

インフレ保険: 2025 年 12 月の CPI(消費者物価指数)が 2.7% と発表された後、Polymarket のユーザーは 2026 年のインフレキャップを積極的に取引しています。現在、インフレが反発し、年間を通じて 3% 以上にとどまる確率は 30% と織り込まれています。機関投資家向けの最低取引額が必要な従来のインフレスワップとは異なり、これらの契約はわずか 1 ドルからアクセス可能であり、個人投資家が生活費のために「インフレ保険」を購入することを可能にしています。

政府閉鎖からの保護: 小売業者は予測契約を通じて政府閉鎖のリスクを相殺しています。住宅ローン貸付業者は規制上の決定をヘッジし、テック投資家は CPI 契約を使用して株式ポートフォリオを保護しています。

スピードの優位性: 2025 年を通じて、予測市場は主要な金融メディアが追いつく数週間前に、FRB の方針転換を 3 回中 3 回とも予測することに成功しました。この「スピードの差」こそが、Saba Capital Management のような企業が、債券市場の複雑な代替指標を介さず、Kalshi の CPI 契約を使用してインフレを直接ヘッジする理由です。

AI 主導の情報オラクル

2026 年の予測市場を語る上で、AI の統合ほど重要な要素はないでしょう。自律型システムは単に参加しているだけでなく、これらの市場の機能そのものを根本から変えつつあります。

AI エージェントは取引高の 30% 以上を占めており、ニュースフィード、ソーシャルメディア、経済データをスキャンして、人間のトレーダーが情報を処理するよりも速く取引を実行します。これにより自己強化的なループが生まれます。AI 主導の流動性がより多くの機関投資家の資金を呼び込み、それが価格発見機能を向上させ、さらに AI 戦略の収益性を高めるのです。

その影響はトレーディングにとどまりません:

  • リアルタイム感情分析: 企業は AI 搭載の予測フィードをダッシュボードに統合し、内部のリスク管理や売上予測に活用しています
  • 機関向けデータライセンシング: プラットフォームは、高度化された市場データを「アルファ」としてヘッジファンドや取引会社にライセンス提供しています
  • ニュースへの自動対応: 重大発表から数秒以内に予測価格が調整されます。これは伝統的な市場が反応するよりも早いことが多々あります

この AI レイヤーこそが、Bernstein のアナリストが「ブロックチェーン・レイル、AI 分析、ニュースフィード」は単に隣接するトレンドではなく、予測プラットフォーム内で融合し、新しいカテゴリーの金融インフラを構築していると主張する理由です。

賭けを超えて:資産クラスとしての情報

「投機的なカジノ」から「情報インフラ」への変貌は、より深い洞察を反映しています。それは、予測市場が他の金融商品では不可能なものに価格をつけられるという点です。

伝統的なデリバティブでは、金利の変動、通貨の乱高下、コモディティ価格をヘッジできます。しかし、以下のような事象のヘッジには適していません:

  • 規制上の決定(新しい関税、政策変更)
  • 政治的結果(選挙、政権樹立)
  • 経済的なサプライズ(CPI 発表、雇用統計)
  • 地政学的イベント(紛争、通商条約)

予測市場はこのギャップを埋めます。インフレの影響を懸念する個人投資家は、「CPI が 3.1% を超える」という予測を数セントで購入することで、実質的にインフレ保険を購入できます。通商政策を懸念する多国籍企業は、関税リスクを直接ヘッジできます。

ICE(インターコンチネンタル取引所)が Polymarket のデータを機関投資家向けフィードに統合したのはこのためです。これは単なるベッティングプラットフォームの話ではなく、情報レイヤーの話なのです。予測市場は、世論調査やアンケート、アナリストの予測よりも効率的に人々の信念を集約します。これらは経済予測のためのリアルタイムな「真実のレイヤー」になりつつあります。

リスクと規制の綱渡り

爆発的な成長の一方で、大きなリスクも残っています。

規制上の裁定取引: Kalshi が連邦レベルで勝ち取った先例は、州レベルのギャンブル規制当局から同社を保護するものではありません。ネバダ州とコネチカット州による停止勧告は、潜在的な管轄権の衝突を示唆しています。もし主要な州で予測市場がギャンブルに分類されれば、国内の小売市場が断片化する可能性があります。

集中リスク: Kalshi と Polymarket を合わせた評価額が 200 億ドルに達しており、業界は高度に集中しています。どちらかのプラットフォームに対する規制措置が行われれば、セクター全体の信頼が崩壊しかねません。

AI による操作: 取引高の 30% を AI が占めるようになると、市場の健全性に疑問が生じます。AI エージェント同士が共謀することは可能か? 自律型システムによる組織的な操作をプラットフォームはどう検知するのか? これらのガバナンスの問題はまだ解決されていません。

クリプトへの依存: Polymarket がクリプトのインフラ(Polygon、USDC)に依存していることは、その運命をクリプト市場の状況やステーブルコインの規制結果と結びつけています。もし USDC が制限を受ければ、Polymarket の決済インフラは不透明なものになります。

次に来るもの:2,220 億ドルの機会

軌道は明確です。Piper Sandler による 2026 年の想定元本ベースの取引高 2,225 億ドルという予測は、予測市場が多くの伝統的なデリバティブカテゴリーよりも大きくなることを意味します。注目すべきいくつかの進展は以下の通りです:

新しい市場カテゴリー: 政治や連邦準備制度(Fed)の決定だけでなく、気候事象、AI 開発のマイルストーン、企業の決算サプライズ、技術革新などの予測市場が期待されます。

銀行の統合: 大手銀行はコンプライアンスへの懸念から、主に静観を続けてきました。規制の明確化が進めば、機関投資家向けの予測市場トレーディングにおけるカストディやプライムブローカレッジサービスが登場すると予想されます。

保険商品: 予測コントラクトと保険の境界線は曖昧です。予測市場のインフラ上に構築されたパラメトリック保険商品(震度に基づき支払われる地震保険や、天候結果に連動する収穫保険など)が登場する可能性があります。

グローバル展開: Kalshi と Polymarket はどちらも主に米国に焦点を当てています。アジアやラテンアメリカを中心とした国際的な拡大は、大きな成長の可能性を秘めています。

2026 年の予測市場の争いは、誰がより多くのスポーツ賭博を処理するかという話ではありません。それは、信念が取引可能、ヘッジ可能、そして最終的には収益化可能になる資産クラス、「情報金融(Information Finance)」のインフラを誰が構築するかという争いなのです。

初めて、情報に市場価格がつきました。そして、それがすべてを変えるのです。


予測市場や DeFi アプリケーションを支えるブロックチェーン・インフラを構築している開発者のために、BlockEden.xyz は Ethereum、Polygon、その他のチェーンにわたって企業グレードの API サービスを提供しています。これは Polymarket のようなプラットフォームが依存しているものと同じ基礎レイヤーです。

Suiの自律型インテリジェンスのための量子対応基盤

· 約 41 分
Dora Noda
Software Engineer

Suiブロックチェーンは、その基盤となる暗号技術的俊敏性とオブジェクト中心のアーキテクチャにより、競合他社とは一線を画し、AI統合、ロボット協調、量子耐性セキュリティを同時に推進する唯一の主要なレイヤー1ブロックチェーンとしての地位を確立しています。これはマーケティング上のポジショニングではなく、アーキテクチャ上の現実です。共同創設者兼チーフクリプトグラファーのコスタス・「クリプトス」・チャルキアスは、Suiのコアデザインにこれらの機能を当初から体系的に組み込み、彼が「Visaの速度さえも凌駕する」と表現するインフラを構築し、同時に10年以内に「すべての現代暗号技術を破壊する」可能性のある量子脅威に対して安全性を維持しています。

技術基盤はすでに本番環境に対応しています。390ミリ秒のコンセンサスファイナリティによりリアルタイムAIエージェント協調が可能になり、並列実行はピーク時に1秒あたり297,000トランザクションを処理し、EdDSA署名スキームはハードフォークを必要とせずにポスト量子暗号への実績ある移行パスを提供します。一方、BitcoinとEthereumは、後方互換性のあるアップグレードパスがないまま、量子コンピューティングによる存続の危機に直面しています。チャルキアスのビジョンは、3つの収束する柱に焦点を当てています。AIを協調レイヤーとして、サブ秒のファイナリティを必要とする自律型ロボットシステム、そして2035年以降も安全性を維持する暗号フレームワークです。会議、研究論文、技術実装における彼の発言は、投機的な約束ではなく、2022年のMysten Labs設立時に確立されたロードマップの体系的な実行を示しています。

これはブロックチェーンの部族主義を超えて重要です。2030年までに、NISTの指令により現在の暗号化標準は廃止される必要があります。製造ロボットからAIエージェントに至るまでの自律型システムは、大規模なトラストレスな協調を必要とします。Suiのアーキテクチャは、競合他社が解決策を後付けしようと奔走する中、これら両方の不可避性を同時に解決します。問題はこれらの技術が収束するかどうかではなく、どのプラットフォームがその収束を無傷で乗り切るかです。

息子をクリプトスと名付けた暗号学者

コスタス・チャルキアスは、ブロックチェーンと新興技術の交差点に並外れた信頼性をもたらします。Mysten Labsを共同設立する前は、MetaのDiemプロジェクトとNoviウォレットのリードクリプトグラファーを務め、R3のCordaブロックチェーンでマイク・ハーン(サトシ・ナカモトに関連するBitcoinの最初の開発者の一人)と協力し、50以上の科学論文、8つの米国特許、1,374の学術引用を持つIDベース暗号の博士号を取得しています。彼のこの分野への献身は、息子をクリプトスと名付けるほどです。「私はブロックチェーンと暗号技術に深く関わっているので、妻を説得してクリプトスという名前の子供を授かることができました」と、Suiブログのインタビューで彼は説明しました。

彼のキャリアの軌跡は、大規模な実用暗号技術への一貫した焦点を明らかにしています。Facebookでは、WhatsAppのセキュリティインフラと数十億人に対応する認証システムを構築しました。R3では、エンタープライズブロックチェーン向けのゼロ知識証明とポスト量子署名を先駆的に開発しました。彼の初期のキャリアには、株式市場のテクニックを使用してサッカーの試合結果を予測するAI搭載プラットフォームであるBetmanagerの設立が含まれており、この経験がブロックチェーンとAIの統合に関する現在の彼の視点に影響を与えています。AIへの露出、本番環境での暗号技術、ブロックチェーンインフラのこの融合は、彼をこれらのドメインを結びつけるシステムを設計する上で独自の位置づけにしています。

チャルキアスの技術哲学は、「暗号技術的俊敏性」を重視しています。これは、永続性を前提とするのではなく、基盤となるプロトコルに柔軟性を組み込むことです。プラハで開催されたEmergence Conference(2024年12月)で、彼はこの世界観を明確に述べました。「最終的に、ブロックチェーンはトランザクション速度でVisaさえも凌駕するでしょう。それが常識となるでしょう。これにどうやって逃れられるのか分かりません。」しかし、速度だけでは十分ではありません。彼の仕事は、パフォーマンスと将来を見据えたセキュリティを一貫して組み合わせ、量子コンピューターが今日行動を必要とする脅威をもたらしていることを認識しており、危険が現実化するまで待つべきではありません。この二重の焦点、つまり現在のパフォーマンスと将来の回復力が、AI、ロボット工学、量子耐性におけるSuiのアーキテクチャ上の決定を定義しています。

インテリジェントエージェントのために構築されたアーキテクチャ

Suiの技術基盤は、EthereumやSolanaのようなアカウントベースのブロックチェーンとは根本的に異なります。すべてのエンティティは、グローバルに一意な32バイトのID、バージョン番号、所有権フィールド、および型付けされたコンテンツを持つオブジェクトとして存在します。このオブジェクト中心モデルは、美的嗜好ではなく、大規模な並列実行を可能にするものです。AIエージェントが所有オブジェクトとして動作する場合、単一ライター操作ではコンセンサスを完全にバイパスし、約400ミリ秒のファイナリティを実現します。複数のエージェントが共有オブジェクトを介して協調する場合、SuiのMysticetiコンセンサスは390ミリ秒のレイテンシを提供します。これは依然としてサブ秒ですが、ビザンチンフォールトトレラントな合意を介して行われます。

MetaのDiemのために開発され、Sui向けに強化されたMoveプログラミング言語は、型システムレベルでリソースの安全性を強制します。資産は、許可なく誤ってコピー、破壊、または作成されることはありません。貴重なデータやモデルの重みを管理するAIアプリケーションにとって、これはSolidityスマートコントラクトを悩ませる脆弱性クラス全体を防ぎます。チャルキアスは、ドバイで開催されたSui Basecamp 2025でこれを強調しました。「私たちは、Suiにゼロ知識証明とプライバシー保護技術を最初から導入しました。そのため、誰もが望むだけのプライバシーを持つKYCシステムを作成できるようになりました。」

明示的な依存関係宣言により、並列トランザクション実行は理論上の限界に達します。遡及的な検証を必要とするオプティミスティック実行とは異なり、Suiのスケジューラは、一意のオブジェクトIDを介して重複しないトランザクションを事前に識別します。独立した操作は、バリデーターコア間で干渉なく並行して実行されます。このアーキテクチャは、テストでピーク時297,000 TPSのスループットを実証しました。これは理論上の最大値ではなく、本番ハードウェアで測定されたパフォーマンスです。AIアプリケーションにとって、これは数千の推論リクエストが同時に処理され、複数の自律型エージェントがブロックすることなく協調し、リアルタイムの意思決定が人間が知覚できる速度で動作することを意味します。

2024年に導入されたMysticetiコンセンサスプロトコルは、チャルキアスと共同著者が数学的に最適であることを証明したものを達成します。それはコミットメントのための3つのメッセージラウンドです。明示的なブロック認証を排除し、未認証のDAG構造を実装することで、Mysticetiは以前のNarwhal-Bullsharkコンセンサスからレイテンシを80%削減しました。このプロトコルは、DAGパターンから導出された直接的および間接的な決定ルールを使用して、2ラウンドごとではなく毎ラウンドブロックをコミットします。リアルタイムの制御フィードバックを必要とするロボットアプリケーションにとって、このサブ秒のファイナリティは譲れないものとなります。Korea Blockchain Week 2025で、チャルキアスはSuiを「アプリケーションとAIのための協調レイヤー」と位置づけ、決済、ゲーム、AIのパートナーがこのパフォーマンス基盤をどのように活用しているかを強調しました。

Walrus: AIのデータ問題を解決する

AIワークロードは、従来のブロックチェーン経済学と互換性のない規模のストレージを必要とします。トレーニングデータセットはテラバイト規模に及び、モデルの重みはギガバイトを必要とし、推論ログは急速に蓄積されます。Suiは、Walrusという分散型ストレージプロトコルを通じてこれに対処します。これは、オンチェーンストレージに典型的な100倍のレプリケーションではなく、消失訂正符号を使用して4〜5倍のレプリケーションを実現します。「Red Stuff」アルゴリズムは、データをスライバーに分割し、ストレージノード全体に分散させ、2/3のノードが利用できない場合でも回復可能です。メタデータと可用性証明はSuiのブロックチェーン上に存在し、実際のデータはWalrusに格納され、エクサバイト規模で暗号的に検証可能なストレージを作成します。

Walrusテストネットの最初の1ヶ月で、ネットワークは25以上のコミュニティノードにわたって4,343 GBを超えるデータを保存し、アーキテクチャの実現可能性を検証しました。TradePort、Tusky、Decrypt Mediaなどのプロジェクトは、メディアの保存と取得のためにWalrusを統合しました。AIアプリケーションにとって、これは実用的なシナリオを可能にします。ライセンス条件がスマートコントラクトにエンコードされたプログラマブルアセットとしてトークン化されたトレーニングデータセット、バージョン管理されたモデルの重み、監査証跡のために不変にログに記録された推論結果、費用対効果の高いAI生成コンテンツの保存などです。Sui初のブロックチェーン統合パートナーとして発表されたAtoma NetworkのAI推論レイヤーは、自動コード生成、ワークフロー自動化、DeFiリスク分析のためにこのストレージ基盤を活用しています。

統合はストレージを超えて計算オーケストレーションにまで及びます。Suiのプログラマブルトランザクションブロック(PTB)は、最大1,024の異種操作をアトミックにバンドルし、オールオアナッシングで実行します。AIワークフローは、Walrusからトレーニングデータを取得し、スマートコントラクトでモデルの重みを更新し、オンチェーンで推論結果を記録し、データ貢献者に報酬を分配する、これらすべてを単一のアトミックトランザクションで行うことができます。このコンポーザビリティは、Moveの型安全性と組み合わされ、他の環境でのクロスコンタクトコールの脆弱性なしに、複雑なAIシステムのためのビルディングブロックを作成します。

チャルキアスは、Just The Metricsポッドキャスト(2025年7月)で、マーケティングよりも機能性を強調し、「ヘルスケアデータ管理における非効率性」を実用的な応用分野として指摘しました。ヘルスケアAIは、機関間の協調、機密データのプライバシー保護、規制遵守のための検証可能な計算を必要とします。Suiのアーキテクチャは、オンチェーン協調、Walrusストレージ、ゼロ知識プライバシーを組み合わせることで、これらの要件を概念的にではなく技術的に解決します。2024年に発表されたGoogle Cloudとの提携は、SuiデータをBigQueryに統合して分析を行い、GoogleのVertex AIプラットフォームをMove言語でトレーニングしてAI支援開発を行うことで、この方向性を強化しました。

ロボットがサブ秒決済を必要とするとき

ロボット工学のビジョンは、発表されたパートナーシップよりも技術的な能力を通じてより具体的に実現されます。Suiのオブジェクトモデルは、ロボット、ツール、タスクを、きめ細かなアクセス制御を備えたファーストクラスのオンチェーン市民として表現します。ロボットがアカウントレベルの権限を介してやり取りするアカウントベースのシステムとは異なり、Suiのオブジェクトは、基本的な操作からマルチシグネチャ要件を持つ完全な制御まで、多段階の権限システムを可能にします。PassKeysとFaceIDの統合はヒューマン・イン・ザ・ループのシナリオをサポートし、zkTunnelsはリアルタイムのリモート操作のためのガスフリーコマンド送信を可能にします。

ソーシャルメディアでの議論中、チャルキアス(「Kostas Kryptos」として投稿)は、NASA、Meta、Uber出身のSuiエンジニアがネットワーク上で犬のような四足歩行ロボットをテストしていることを明らかにしました。オブジェクトベースのアーキテクチャはロボット工学の協調に適しています。各ロボットは、その状態と能力を表すオブジェクトを所有し、タスクは実行パラメータを持つ転送可能なオブジェクトとして存在し、リソース割り当ては集中管理ではなくオブジェクト構成を通じて行われます。製造施設では、各ユニットが自律的にタスクを受け入れ、共有オブジェクトを通じてピアと協調し、暗号検証付きで操作を実行し、提供されたサービスに対するマイクロペイメントを決済するロボットフリートを展開できます。これらすべては、中央機関や人間の介入なしに行われます。

Sui Basecamp 2025とLondon Realポッドキャスト(2025年4月)で議論された「インターネットレス」トランザクションモードは、ロボット工学の現実世界の制約に対処します。チャルキアスは、スペインとポルトガルでの停電中にシステムが機能を維持した方法について説明し、プリセット形式を使用してトランザクションサイズが単一バイトに最適化されたことを述べました。災害地域、農村地域、または信頼性の低い接続環境で動作する自律型システムにとって、この回復力は極めて重要になります。ロボットはピアツーピアで即座に協調するためにトランザクションを実行し、接続が回復したときに広範なネットワークと同期できます。

3DOSプロジェクトは、このビジョンを実用的に例示しています。これは、マシンが自律的に部品を印刷するオンデマンド製造を可能にするブロックチェーンベースの3Dプリンティングネットワークです。将来のイテレーションでは、コンポーネントの故障を検出し、スマートコントラクトを介して交換品を注文し、オンチェーンディスカバリを通じて近くの3Dプリンターを特定し、印刷と配送を調整し、コンポーネントをインストールする自己修復ロボットが想定されています。これらはSFではなく、既存の機能の論理的な拡張です。ESP32とArduinoマイクロコントローラの統合はすでに基本的なIoTデバイスをサポートしており、BugDarはロボットスマートコントラクトのセキュリティ監査を提供し、マルチシグネチャ承認は重要な操作に対する人間の監視を伴う段階的な自律性を可能にします。

量子時計は刻々と進んでいる

コスタス・チャルキアスの口調は、量子コンピューティングについて語るとき、哲学的から緊急へと変わります。2025年7月の研究報告書で、彼は率直に警告しました。「政府は量子コンピューティングがもたらすリスクを十分に認識しています。世界中の機関は、ECDSAやRSAのような古典的なアルゴリズムを2030年または2035年までに廃止するよう指令を出しています。」彼のTwitterでの発表は、Mysten Labsの画期的な研究がIACR ePrint Archiveに公開されたことと同時に行われ、Sui、Solana、Near、CosmosのようなEdDSAベースのブロックチェーンが、BitcoinやEthereumにはない量子移行のための構造的優位性を持っていることを示しました。

この脅威は、大きな数を効率的に因数分解するショアのアルゴリズムを実行する量子コンピューターに由来します。これは、RSA、ECDSA、BLS暗号の数学的困難さの根底にあるものです。105キュービットを持つGoogleのWillow量子プロセッサは、古典的な暗号化を破ることができるマシンへの加速された進歩を示しています。「今保存して後で解読する」攻撃は緊急性を高めます。敵対者は今日暗号化されたデータを収集し、量子コンピューターがそれを遡及的に解読するのを待ちます。ブロックチェーン資産について、チャルキアスはDecrypt Magazineに次のように説明しました。「誰かがBitcoinやEthereumの秘密鍵をまだ持っていたとしても、ポスト量子安全な所有権の証明を生成できない可能性があります。これは、その鍵が元々どのように生成されたか、そしてその関連データが時間の経過とともにどれだけ露出されたかに起因します。」

Bitcoinの特定の脆弱性は、公開鍵が露出している「スリーピング」ウォレットに由来します。サトシ・ナカモトの推定100万BTCは、ハッシュ化されたアドレスの背後に隠されるのではなく、公開鍵がオンチェーンで可視化されるペイ・トゥ・パブリック・キー形式を使用する初期のアドレスに存在します。量子コンピューターが十分にスケールアップすると、これらのウォレットは即座に空にされる可能性があります。チャルキアスの評価は次のとおりです。「量子コンピューターが登場すると、サトシのウォレットを含む数百万のウォレットが即座に空にされる可能性があります。公開鍵が可視であれば、最終的には解読されるでしょう。」Ethereumも同様の課題に直面していますが、露出した公開鍵が少ないため、差し迫ったリスクは軽減されています。両チェーンは、ポスト量子アルゴリズムに関するコンセンサスが形成されると仮定して、移行のために前例のない協調を伴うコミュニティ全体のハードフォークを必要とします。

SuiのEdDSA基盤は、エレガントな回避策を提供します。ECDSAのランダムな秘密鍵とは異なり、EdDSAはRFC 8032に従ってハッシュ関数を使用してシードから決定論的に鍵を導出します。この構造的な違いにより、楕円曲線データを露出することなく、基盤となるシードの知識を証明するzk-STARKs(ポスト量子安全)を介したゼロ知識証明が可能になります。ユーザーは同じシードのランダム性からポスト量子鍵ペアを構築し、同一の所有権を実証するZK証明を提出し、アドレスを維持しながら量子安全スキームに移行できます。ハードフォークは必要ありません。チャルキアスは2022年6月のSui AMAでこれを詳述しました。「EdDSAのような決定論的アルゴリズムを使用している場合、内部でハッシュ関数を使用するため、Stark証明を使用してEdDSA鍵生成における秘密鍵のピラミッドの知識を証明する方法があります。」

戦略的堀としての暗号技術的俊敏性

Suiは、コードベース全体で統一された型エイリアスを介して、複数の署名スキームを同時にサポートしています。EdDSA(Ed25519)、ECDSA(Ethereum互換性のため)、および計画されているポスト量子アルゴリズムです。チャルキアスは、暗号技術における永続性が幻想であることを認識し、この「暗号技術的俊敏性」を設計しました。このアーキテクチャは、セキュリティシステム全体を再構築するのではなく、「ロックコアを交換する」ことに似ています。NIST推奨のポスト量子アルゴリズムが展開されるとき、署名にはCRYSTALS-Dilithium、コンパクトな代替にはFALCON、ハッシュベーススキームにはSPHINCS+が、Suiは基本的なプロトコルの書き換えではなく、簡単な更新を通じてそれらを統合します。

移行戦略は、プロアクティブなアプローチと適応的なアプローチのバランスを取ります。新しいアドレスの場合、ユーザーは作成時にポスト量子鍵が事前量子公開鍵に署名するPQ-signs-PreQ構成を生成でき、将来のスムーズな移行を可能にします。既存のアドレスの場合、zk-STARK証明方法は、量子安全な所有権を証明しながらアドレスを維持します。階層化された防御は、高価値データを優先します。ウォレットの秘密鍵は即座にPQ保護を受け、一時的なプライバシーデータはより遅いアップグレードパスをたどります。ハッシュ関数の出力は、グローバーのアルゴリズムに対する衝突耐性のために256ビットから384ビットに拡張され、対称暗号化鍵長は2倍になります(AESはより大きな鍵で量子耐性を維持します)。

ゼロ知識証明システムは慎重な検討が必要です。Groth16(現在zkLoginを動かしている)のような線形PCPは、量子攻撃に対して脆弱なペアリングフレンドリーな楕円曲線に依存しています。Suiの移行ロードマップは、ハッシュベースのSTARKシステム(Mysten Labsが共同開発したWinterfellはハッシュ関数のみを使用し、おそらくポスト量子安全性を維持します)へと移行します。zkLoginの移行は、内部回路を更新しながら同じアドレスを維持し、OpenIDプロバイダーがPQ-JWTトークンを採用する際に協調を必要とします。ランダム性ビーコンと分散鍵生成プロトコルは、しきい値BLS署名からHashRandやHERBスキームのような格子ベースの代替へと移行します。これらはオンチェーンAPIには見えない内部プロトコルの変更です。

チャルキアスの専門知識はここで極めて重要です。BPQS(Blockchain Post-Quantum Signature)、XMSSハッシュベーススキームのバリアントの著者として、彼は理論的知識を超えた実装経験をもたらします。彼の2022年6月のコミットメントは先見の明がありました。「私たちは、ボタン一つで人々がポスト量子鍵に実際に移行できるような方法でチェーンを構築します。」NISTの期限、つまり古典的アルゴリズムの廃止が2030年、完全なPQ採用が2035年は、タイムラインを劇的に圧縮します。Suiの先行は有利な位置につけていますが、チャルキアスは緊急性を強調します。「もしあなたのブロックチェーンがソブリン資産、暗号通貨の国家財産、ETF、またはCBDCをサポートしているなら、あなたのコミュニティが長期的な信頼性と大規模採用を重視するならば、間もなくポスト量子暗号標準を採用することが求められるでしょう。」

AIエージェントはすでに18億ドルの価値を生み出している

エコシステムはインフラを超えて本番アプリケーションへと移行しています。ブロックチェーンデータ追跡と分析に特化したDolphin Agent(DOLA)は、18億ドル以上の時価総額を達成し、AI強化型ブロックチェーンツールの需要を検証しました。SUI Agentsは、Twitterペルソナ作成、トークン化、分散型エコシステム内での取引を伴うワンクリックAIエージェント展開を提供します。Sentient AIは、Suiのセキュリティとスケーラビリティを活用した会話型チャットボットのために150万ドルを調達しました。DeSci Agentsは、エピタロンやラパマイシンなどの科学的化合物を24時間365日AI駆動のエンゲージメントを通じて促進し、トークンペアリングを通じて研究と投資を結びつけます。

Sui初のブロックチェーンAI推論パートナーとしてのAtoma Networkの統合は、自動コード生成と監査、ワークフロー自動化、DeFiリスク分析、ゲームアセット生成、ソーシャルメディアコンテンツ分類、DAO管理にわたる機能を実現します。このパートナーシップの選択は、技術的要件を反映していました。Atomaは、インタラクティブAIのための低レイテンシ、スケールのための高スループット、AI資産のための安全な所有権、検証可能な計算、費用対効果の高いストレージ、プライバシー保護オプションを必要としていました。Suiはこれら6つすべてを提供しました。Sui Basecamp 2025で、チャルキアスはAeon、AtomaのAIエージェント、Nautilusの検証可能なオフチェーン計算に関する作業などのプロジェクトを、「Suiがインテリジェントで分散型システムの次の波の基盤としてどのように機能するか」の例として強調しました。

Google Cloudとの提携は、分析のためのSuiブロックチェーンデータへのBigQueryアクセス、AI支援開発のためのMoveプログラミング言語でのVertex AIトレーニング、簡素化されたアクセスのためのOAuth認証情報(Google)を使用したzkLoginサポート、およびネットワークパフォーマンスとスケーラビリティをサポートするインフラストラクチャを通じて統合を深めます。Alibaba CloudのChainIDE統合は、Moveコード生成のための自然言語プロンプトを可能にします。開発者は英語、中国語、または韓国語で「10% APYのステーキングコントラクトを作成する」と書くと、構文的に正しく、文書化され、セキュリティチェック済みのMoveコードを受け取ることができます。このAI支援開発は、Moveの安全保証を維持しながら、ブロックチェーン構築を民主化します。

AIアプリケーションにとって、技術的優位性は複合的に作用します。オブジェクト所有権モデルは、独立して動作する自律型エージェントに適しています。並列実行は、干渉なく数千の同時AI操作を可能にします。サブ秒のファイナリティは、インタラクティブなユーザーエクスペリエンスをサポートします。Walrusストレージは、トレーニングデータセットを経済的に処理します。スポンサー付きトランザクションは、ユーザーのガス料金の摩擦を取り除きます。zkLoginは、シードフレーズの障壁を排除します。プログラマブルトランザクションブロックは、複雑なワークフローをアトミックにオーケストレーションします。形式検証オプションは、AIエージェントの正確性を数学的に証明します。これらは disconnectedな機能ではなく、一貫した開発環境を形成する統合された機能です。

競合他社の比較

Suiのピーク時297,000 TPSと390ミリ秒のコンセンサスレイテンシは、Ethereumの平均11.3 TPSと12〜13分のファイナリティを桁違いに上回ります。最も近いパフォーマンス競合であるSolanaと比較すると、Solanaの400ミリ秒のスロットタイムにもかかわらず、Suiは32倍速いファイナリティ(0.4秒対12.8秒)を達成します。これは、Solanaが経済的ファイナリティのために複数の確認を必要とするためです。Phoenix Groupの2025年8月の実測レポートでは、Suiが3,900 TPSを処理したのに対し、Solanaは92.1 TPSであり、理論上のパフォーマンスではなく運用上のパフォーマンスを反映しています。Suiのトランザクションコストは予測可能で低く(平均約0.0087ドル、1セント未満)、Solanaの過去の混雑や停止問題はありません。

アーキテクチャの違いがパフォーマンスのギャップを説明します。Suiのオブジェクト中心モデルは、固有の並列化を可能にします。1秒あたり300,000の単純な転送は、コンセンサス協調を必要としません。EthereumとBitcoinは、すべてのトランザクションを完全なコンセンサスを通じて順次処理します。SolanaはSealevelを通じて並列化しますが、遡及的な検証を必要とするオプティミスティック実行を使用します。同じくMove言語を使用するAptosは、Suiの状態アクセス方式ではなく、Block-STMオプティミスティック実行を実装しています。予測可能な低レイテンシを必要とするAIおよびロボット工学アプリケーションにとって、Suiの明示的な依存関係宣言は、オプティミスティックなアプローチでは保証できない決定論を提供します。

量子ポジショニングはさらに顕著に異なります。BitcoinとEthereumはsecp256k1 ECDSA署名を使用しており、後方互換性のあるアップグレードパスはありません。量子移行には、ハードフォーク、アドレス変更、資産移行、およびチェーン分割を引き起こす可能性のあるコミュニティガバナンスが必要になります。SolanaはSuiのEdDSAの利点を共有しており、同様のzk-STARK移行戦略を可能にし、Winternitz Vaultハッシュベースワンタイム署名を導入しています。NearとCosmosもEdDSAの恩恵を受けています。AptosはEd25519を使用していますが、量子対応ロードマップはそれほど開発されていません。チャルキアスの2025年7月の研究論文は、「Sui、Solana、Near、Cosmos、その他のEdDSAベースのチェーンには有効だが、BitcoinとEthereumには有効ではない」と明確に述べています。

エコシステムの成熟度は一時的に競合他社に有利に働きます。Solanaは2020年に立ち上げられ、確立されたDeFiプロトコル、NFTマーケットプレイス、開発者コミュニティを持っています。Ethereumの2015年の立ち上げは、スマートコントラクト、機関投資家の採用、ネットワーク効果において先行者利益をもたらしました。Suiは2023年5月に立ち上げられ、わずか2年半ですが、20億ドル以上のTVLと65.9Kのアクティブアドレスが急速に成長しており、Solanaの1610万にははるかに及びません。技術的優位性は機会を生み出します。今日Suiで構築する開発者は、成熟した混雑したプラットフォームに参加するのではなく、エコシステムの成長のために位置づけられます。チャルキアスのLondon Realインタビューは、この自信を反映しています。「正直なところ、Mysten Labsとそれが触れるものがAppleの今日の姿を凌駕したとしても、私は全く驚かないでしょう。」

一見異なるビジョン間の相乗効果

AI、ロボット工学、量子耐性の物語は、それらの技術的相互依存性を認識するまでは無関係に見えます。AIエージェントは低レイテンシと高スループットを必要とし、Suiはその両方を提供します。ロボット協調は、中央機関なしでのリアルタイム操作を要求し、Suiのオブジェクトモデルとサブ秒のファイナリティがそれを提供します。ポスト量子セキュリティは、暗号技術の柔軟性と将来を見据えたアーキテクチャを必要とし、Suiはこれを最初から構築しました。これらは別々の製品ラインではなく、2030年から2035年の技術ランドスケープにおける統一された技術要件です。

自律型製造を考えてみましょう。AIシステムは需要予測と材料の可用性を分析し、最適な生産スケジュールを決定します。ロボットエージェントは、ブロックチェーン協調を通じて検証済みの指示を受け取り、集中管理なしで真正性を確保します。各ロボットは、所有オブジェクトとしてタスクを並行して処理し、必要に応じて共有オブジェクトを通じて協調します。ロボットAがロボットBに材料を提供し、ロボットBがロボットCのためにコンポーネントを処理するなど、提供されたサービスに対するマイクロペイメントは即座に決済されます。システムは接続が途絶えた場合でもインターネットレスで機能し、ネットワークが回復したときに同期します。そして決定的に、すべての通信はポスト量子暗号スキームを通じて量子敵対者に対して安全に保たれ、「今保存して後で解読する」攻撃から知的財産と運用データを保護します。

ヘルスケアデータ管理は、もう一つの収束の例です。AIモデルは、暗号的可用性証明付きでWalrusに保存された医療データセットでトレーニングされます。ゼロ知識証明は患者のプライバシーを保護しながら研究を可能にします。ロボット手術システムは、監査証跡と責任文書のためにブロックチェーンを通じて協調します。ポスト量子暗号化は、機密性の高い医療記録を長期的な脅威から保護します。協調レイヤー(Suiのブロックチェーン)は、信頼なしでの機関間のデータ共有、プライバシーを侵害しないAI計算、および定期的なインフラ交換なしでの将来性のあるセキュリティを可能にします。

Sui Basecamp 2025でのチャルキアスのビジョンステートメントは、この統合を捉えています。Suiを「インテリジェントで分散型システムの次の波の基盤」として位置づけ、「AIネイティブで計算負荷の高いアプリケーションをサポートする能力を拡大している」と述べています。Suiを計算、Walrusをストレージ、Scionを接続性、zkLoginをIDとするモジュラーアーキテクチャは、チームメンバーが「狭い金融台帳」ではなく「ブロックチェーンオペレーティングシステム」と表現するものを生み出しています。インターネットレスモード、量子安全暗号、サブ秒のファイナリティは、機能チェックリストではなく、信頼性の低いインフラを持つ敵対的な環境で動作する自律型システムの前提条件です。

技術的リーダーシップを支えるイノベーション手法

Mysten Labsのアプローチを理解することで、実行の一貫性が説明されます。チャルキアスは、「Build Beyond」ブログ投稿でその哲学を明確に述べました。「Mysten Labsは、誰も実装したことのない、いくつかの仮定が正確ではないかもしれない新しい理論をこの分野で見つけるのが非常に得意です。しかし、私たちはそれを既存の技術と結びつけ、最終的にこれが新しい製品を生み出す原動力となります。」これは体系的なプロセスを表しています。実用的な可能性を秘めた学術研究を特定し、エンジニアリングの厳密さによって未検証の仮定に挑戦し、本番システムと統合し、展開を通じて検証します。

Mysticetiコンセンサスプロトコルがその例です。学術研究は、ビザンチンコンセンサスコミットメントの理論的最小値として3つのメッセージラウンドを確立しました。以前の実装では、ブロックごとにクォーラム署名を伴う1.5ラウンドトリップが必要でした。Mysten Labsは、明示的な認証を排除する未認証のDAG構造を設計し、投票メカニズムではなくDAGパターンを介して最適なコミットルールを実装し、以前のNarwhal-Bullsharkコンセンサスからレイテンシを80%削減しました。その結果、形式的証明とパフォーマンスベンチマークを伴う査読済み論文が発表され、数十億のトランザクションを処理する本番展開が行われました。

同様の手法が暗号技術にも適用されます。BPQS(チャルキアスのブロックチェーンポスト量子署名スキーム)は、ブロックチェーンの制約に合わせてXMSSハッシュベース署名を適応させます。Winterfellは、ポスト量子セキュリティのためにハッシュ関数のみを使用する初のオープンソースSTARKプロバーを実装しています。zkLoginは、OAuth認証とゼロ知識証明を組み合わせ、プライバシーを保護しながら追加の信頼できる当事者を排除します。各イノベーションは、形式分析に裏打ちされた新しい暗号学的構成を通じて、実用的な障壁(ポスト量子セキュリティ、ZK証明のアクセシビリティ、ユーザーオンボーディングの摩擦)に対処します。

チーム構成はこの能力を強化します。Meta出身のエンジニアは数十億人向けの認証を構築し、NASA出身のエンジニアは安全性が重要な分散システムを開発し、Uber出身のエンジニアはリアルタイム協調をグローバルにスケールさせました。チャルキアスは、Facebook/Diem、R3/Corda、および学術研究から暗号技術の専門知識をもたらします。これは、その場で学ぶ従来のスタートアップチームではなく、企業優先事項に制約されずに、以前に構築したシステムを実行するベテランです。a16z、Coinbase Ventures、Binance Labsからの3億3600万ドルの資金調達は、投機的な技術ではなく、実行能力に対する投資家の信頼を反映しています。

誇大広告を超えた課題と考慮事項

技術的優位性は市場採用を保証しません。これは技術史において繰り返し学ばれた教訓です。Suiの65.9Kのアクティブアドレスは、Solanaの1610万に比べて見劣りします。ネットワーク効果は複合的に作用します。開発者はユーザーが集まる場所に構築し、ユーザーはアプリケーションが存在する場所に集まり、確立されたプラットフォームにロックイン効果をもたらします。Ethereumの「遅くて高価な」ブロックチェーンは、純粋な既存の優位性を通じて、技術的に優れた代替手段よりも桁違いに多くの開発者のマインドシェアを占めています。

「ブロックチェーンオペレーティングシステム」というポジショニングは希薄化のリスクを伴います。金融、ソーシャルアプリケーション、ゲーム、AI、ロボット工学、IoT、分散型ストレージのすべてで同時に優位に立とうとすると、特定の分野での卓越性ではなく、すべてのドメインで凡庸になる可能性があります。この懸念を指摘する批評家は、概念実証を超える限定的なロボット工学の展開、生産ユーティリティではなく主に投機段階にあるAIプロジェクト、そして5年から10年先の脅威に対する量子セキュリティの準備を挙げています。これに対する反論は、モジュラーコンポーネントが集中開発を可能にするというものです。AIアプリケーションを構築するチームは、ロボット工学の統合を気にすることなく、Atoma推論とWalrusストレージを使用します。

ポスト量子暗号は、些細ではないオーバーヘッドを導入します。CRYSTALS-Dilithium署名は、セキュリティレベル2で3,293バイトを測定するのに対し、Ed25519は64バイトであり、50倍以上大きいです。ネットワーク帯域幅、ストレージコスト、処理時間は比例して増加します。バッチ検証の改善は、古典的スキームの効率的なバッチ処理と比較して限定的です(独立検証と比較して20〜50%の高速化)。移行リスクには、移行中のユーザーエラー、エコシステム参加者(ウォレット、dApps、取引所)間の協調、後方互換性要件、および実際の量子コンピューターなしでの大規模テストの困難さが含まれます。タイムラインの不確実性は計画の課題を複合的にします。量子コンピューティングの進歩は予測不可能であり、NIST標準は進化し続けており、PQスキームに対する新しい暗号解読攻撃が出現する可能性があります。

市場のタイミングは、おそらく最大の危険をもたらします。Suiの利点は、量子コンピューターが古典暗号を脅かし、自律型システムが普及してトラストレスな協調を必要とし、AIエージェントが安全なインフラを必要とする重要な経済的価値を管理する、2030年から2035年のタイムフレームで最も劇的に実現します。この収束の前にブロックチェーンの採用が停滞した場合、技術的リーダーシップは無関係になります。逆に、採用がより早く爆発的に増加した場合、Suiの新しいエコシステムは、優れたパフォーマンスにもかかわらず、ユーザーを引き付けるためのアプリケーションと流動性を欠く可能性があります。投資テーゼは、Suiの技術だけでなく、ブロックチェーンの成熟と新興技術の採用のタイミングの一致を信じることを必要とします。

第一原理に基づく10年間の賭け

コスタス・チャルキアスが息子をクリプトスと名付けたのは、魅力的な逸話ではなく、コミットメントの深さを示すものです。彼のキャリアの軌跡、つまりAI研究から暗号技術へ、学術出版からMetaでの本番システムへ、R3でのエンタープライズブロックチェーンからMysten Labsでのレイヤー1アーキテクチャへは、大規模な基盤技術への一貫した焦点を実証しています。量子耐性に関する研究は、GoogleのWillow発表以前、ポスト量子暗号が理論的な懸念に過ぎなかった頃に始まりました。ロボット工学の統合は、AIエージェントが数十億ドルの評価額を命じるようになる前に始まりました。これらの機能を可能にするアーキテクチャ上の決定は、それらの重要性が市場に認識される前に下されました。

この先見的な姿勢は、暗号通貨で一般的な反応的な開発とは対照的です。Ethereumは、展開後に現れるスケーリングのボトルネックに対処するためにレイヤー2ロールアップを導入します。Solanaは、ネットワーク停止や混雑に対応してQUIC通信とステーク加重QoSを実装します。Bitcoinは、トランザクション手数料が高騰するにつれて、ブロックサイズ増加とLightning Networkの採用について議論します。Suiは、メインネットを立ち上げる前に、並列実行、オブジェクト中心のデータモデル、暗号技術的俊敏性を設計しました。これは、発見された問題ではなく、予想される要件に対処するためです。

研究文化はこのアプローチを強化します。Mysten Labsは、機能を主張する前に、形式的証明を伴う学術論文を発表します。Mysticetiコンセンサス論文は、正当性証明とパフォーマンスベンチマークとともに査読付きの場に掲載されました。量子移行研究はIACR ePrint Archiveに提出され、マーケティング上の主張ではなく、数学的構成を通じてEdDSAの利点を実証しています。zkLogin論文(arXiv 2401.11735)は、展開前にゼロ知識認証を詳述しています。チャルキアスは、GitHubへの活発な貢献(kchalkias)を維持し、LinkedInやTwitterで技術的洞察を投稿し、量子脅威に関するPQCSAワークショップで発表し、Suiのプロモーションに専念するのではなく、暗号技術コミュニティと実質的に関わっています。

究極の検証は、量子コンピューターが成熟し、自律型システムが普及し、AIエージェントが兆ドル規模の経済を管理する5〜10年後に訪れます。Suiがロードマップを一貫して実行し、2030年のNIST期限前にポスト量子署名を展開し、大規模なロボット協調を実証し、数百万のリクエストを処理するAI推論レイヤーをサポートするならば、それは文明を再形成する技術のインフラ層となります。量子コンピューターの登場が予測よりも遅れたり、自律型システムの採用が停滞したり、競合他社が解決策をうまく後付けしたりした場合、Suiの早期投資は時期尚早と判明する可能性があります。この賭けは、Suiの技術的能力(Suiは約束されたパフォーマンスを実証的に提供します)ではなく、市場のタイミングと問題の緊急性に焦点を当てています。

Emergence Conferenceでのチャルキアスの視点は、これを簡潔にまとめています。「最終的に、ブロックチェーンはトランザクション速度でVisaさえも凌駕するでしょう。それが常識となるでしょう。これにどうやって逃れられるのか分かりません。」この不可避性の主張は、正しい技術的方向性、十分な実行品質、および一致したタイミングを前提としています。Suiは、これらの仮定が成り立つ場合に活用できる位置にあります。オブジェクト中心のアーキテクチャ、暗号技術的俊敏性、サブ秒のファイナリティ、および体系的な研究手法は、後付けではなく、今後10年間で出現する技術ランドスケープのために設計された基盤的な選択です。Suiが市場リーダーシップを獲得するか、これらの機能がすべてのブロックチェーンで必要不可欠なものになるかにかかわらず、コスタス・チャルキアスとMysten Labsは、量子時代の自律型インテリジェンスのためのインフラを、1つの暗号プリミティブ、1ミリ秒のレイテンシ削減、1つの概念実証ロボットごとに設計しています。

分散型 AI 推論市場: Bittensor、Gensyn、Cuckoo AI

· 約 108 分
Dora Noda
Software Engineer

はじめに

分散型 AI 推論/トレーニング市場は、グローバルな計算リソースとコミュニティモデルをトラストレスな方法で活用することを目指しています。BittensorGensynCuckoo Network (Cuckoo AI) のようなプロジェクトは、ブロックチェーン技術がオープンな AI マーケットプレイスをどのように強化できるかを示しています。各プラットフォームは、コンピューティングパワー、機械学習モデル、そして時にはデータといった主要な AI 資産を、オンチェーンの経済単位にトークン化します。以下では、これらのネットワークを支える技術アーキテクチャ、リソースのトークン化方法、ガバナンスとインセンティブ構造、モデル所有権の追跡方法、収益分配メカニズム、そして発生する攻撃対象領域 (シビル攻撃、共謀、フリーライディング、ポイズニングなど) について詳しく掘り下げます。最後に、Bittensor、Gensyn、Cuckoo AI のすべての主要な側面をまとめた比較表を掲載します。

技術アーキテクチャ

Bittensor: サブネット上の分散型「ニューラルインターネット」

Bittensor は、多くの専門的なサブネットにまたがる AI モデルノードのネットワークを調整する、カスタムのレイヤー 1 ブロックチェーン (Substrate ベースの Subtensor チェーン) 上に構築されています。各サブネットは、特定の AI タスク (例えば、言語生成用のサブネット、画像生成用の別のサブネットなど) に焦点を当てた独立したミニネットワークです。Bittensor の参加者は、それぞれ異なる役割を担います:

  • マイナー – ハードウェア上で機械学習モデルを実行し、サブネットのタスクに対する推論の回答を提供します (トレーニングを行うことさえあります)。本質的に、マイナーはクエリに回答する AI モデルをホストするノードです。
  • バリデーター – マイナーのモデルにプロンプトでクエリを送り、応答の品質を評価し、どのマイナーが価値ある結果を提供しているかについての意見を形成します。バリデーターは事実上、マイナーのパフォーマンスをスコアリングします。
  • サブネットオーナー – サブネットを作成・定義し、そのサブネットでどのようなタスクが実行され、どのように検証が行われるかのルールを設定します。例えば、サブネットオーナーは、特定のデータセットやモダリティのためのサブネットを指定し、検証手順を定義することができます。
  • デリゲーター – ノードを運営しないトークン保有者は、自身の Bittensor トークン (TAO) をマイナーやバリデーターにデリゲート (ステーク) して、最高のパフォーマーを支援し、報酬の一部を得ることができます (プルーフ・オブ・ステークネットワークのステーキングに似ています)。

Bittensor のコンセンサスメカニズムは斬新です。従来のブロック検証の代わりに、Bittensor は「プルーフ・オブ・インテリジェンス」の一形態である Yuma コンセンサス を使用します。Yuma コンセンサスでは、バリデーターによるマイナーの評価がオンチェーンで集計され、報酬の分配が決定されます。12 秒ごとのブロックで、ネットワークは新しい TAO トークンをミントし、どのマイナーが有用な作業を提供したかに関するバリデーターのコンセンサスに従って分配します。バリデーターのスコアは、ステーク加重中央値スキームで結合されます。外れ値の意見は切り捨てられ、正直な多数派の意見が優先されます。つまり、ほとんどのバリデーターがあるマイナーが高品質であると同意すれば、そのマイナーは高い報酬を得ます。もしあるバリデーターが他から大きく逸脱した場合 (共謀やエラーの可能性がある)、そのバリデーターは報酬が少なくなることでペナルティを受けます。このようにして、Bittensor のブロックチェーンはマイナーとバリデーターのフィードバックループを調整します。マイナーは最高の AI 出力を生み出すために競争し、バリデーターはそれらの出力をキュレーションしてランク付けし、両者が追加した価値に比例してトークンを獲得します。このアーキテクチャは、しばしば「分散型ニューラルネットワーク」や「グローバルブレイン」と表現され、モデルが互いのシグナルから学び、集合的に進化します。特筆すべきは、Bittensor が最近チェーンをアップグレードして EVM 互換性 (スマートコントラクト用) をサポートし、リソース割り当ての制御をさらに分散化するために、サブネット固有のトークンとステーキングのシステムである dTAO を導入したことです (詳細は後述)。

Gensyn: トラストレスな分散コンピューティングプロトコル

Gensyn は、機械学習のための分散コンピューティングプロトコルという角度から分散型 AI にアプローチしています。そのアーキテクチャは、AI タスク (モデルのトレーニングや推論ジョブの実行など) を持つ開発者 (サブミッター) と、世界中に余剰の GPU/TPU リソースを持つ計算プロバイダー (ソルバー) を接続します。当初、Gensyn は Substrate L1 チェーンを計画していましたが、より強力なセキュリティと流動性を求めて Ethereum 上のロールアップとして構築する方向に転換しました。したがって、Gensyn ネットワークは Ethereum のレイヤー 2 ( Ethereum ロールアップ) であり、ジョブの投稿と支払いを調整し、計算はプロバイダーのハードウェア上でオフチェーンで行われます。

Gensyn の設計における中心的な革新は、オフチェーン作業の検証システムです。Gensyn は、オプティミスティック検証 (不正証明) と暗号技術を組み合わせて、ソルバーがトレーニング/推論タスクを実行したと主張した際に、その結果が正しいことを保証します。実際には、プロトコルには複数の参加者の役割が含まれます:

  • サブミッター – ジョブを要求する当事者 (例えば、モデルのトレーニングが必要な人)。ネットワークの手数料を支払い、モデル/データまたはタスクの仕様を提供します。
  • ソルバー – ML タスクに入札し、自身のハードウェアで実行するノード。要求に応じてモデルをトレーニングまたは推論を実行し、結果と計算の証明を提出します。
  • ベリファイア/チャレンジャー – ソルバーの作業を監査またはスポットチェックできるノード。Gensyn は Truebit スタイルのスキームを実装しており、デフォルトではソルバーの結果は受け入れられますが、ベリファイアが不正な計算を疑った場合、一定期間内に異議を申し立てることができます。チャレンジでは、計算ステップを対話的に「二分探索」する (不正証明プロトコル) ことで、不一致を特定します。これにより、チェーンは高価なタスク全体をやり直すのではなく、計算の最小限の重要な部分のみをオンチェーンで実行することで紛争を解決できます。

重要なのは、Gensyn が単純なアプローチの巨大な冗長性を避けるように設計されていることです。多くのノードがすべて同じ ML ジョブを繰り返す (コスト削減を台無しにする) 代わりに、Gensyn の 「プルーフ・オブ・ラーニング」 アプローチは、トレーニングのメタデータを使用して学習の進捗があったことを検証します。例えば、ソルバーは中間モデルの重みの暗号ハッシュやチェックポイント、およびこれらがトレーニングの更新に従って進んだことを示す簡潔な証明を提供するかもしれません。この確率的な学習証明は、トレーニング全体を再実行するよりもはるかに安価にチェックでき、完全な複製なしでのトラストレスな検証を可能にします。ベリファイアが異常を検出した場合にのみ、最後の手段としてより重いオンチェーン計算がトリガーされます。このアプローチは、総当たり的な検証と比較してオーバーヘッドを劇的に削減し、分散型 ML トレーニングをより実現可能にします。したがって、Gensyn のアーキテクチャは暗号経済学的なゲームデザインを重視しています。ソルバーはステークやボンドを預け、もし不正行為 (誤った結果を提出) をすれば、それを見つけた正直なベリファイアにそのステークを失います。ブロックチェーンによる調整 (支払いと紛争解決のため) と、オフチェーンの計算および巧妙な検証を組み合わせることで、Gensyn は、信頼性を維持しながらどこでもアイドル状態の GPU を活用できる ML コンピューティングのマーケットプレイス を作り出します。その結果、どんな開発者でも手頃な価格で、グローバルに分散されたトレーニングパワーにオンデマンドでアクセスできる、ハイパースケールの「コンピューティングプロトコル」が実現します。

Cuckoo AI: フルスタックの分散型 AI サービスプラットフォーム

Cuckoo Network (または Cuckoo AI) は、より垂直統合されたアプローチを取り、単なる生の計算能力だけでなく、エンドツーエンドの分散型 AI サービス を提供することを目指しています。Cuckoo は、すべてを調整するために独自のブロックチェーン (当初は Arbitrum Orbit、Ethereum 互換のロールアップフレームワーク上の Cuckoo Chain と呼ばれるレイヤー 1) を構築しました。これは、ジョブと GPU をマッチングするだけでなく、AI アプリケーションをホストし、支払いを 1 つのシステムで処理します。設計はフルスタックです。トランザクションとガバナンスのためのブロックチェーン、分散型 GPU/CPU リソースレイヤー、そしてその上にユーザー向けの AI アプリケーションと API を組み合わせています。言い換えれば、Cuckoo は ブロックチェーンコンピューティングAI アプリケーション の 3 つのレイヤーすべてを単一のプラットフォーム内に統合しています。

Cuckoo の参加者は 4 つのグループに分かれます:

  • AI アプリビルダー (コーディネーター) – Cuckoo 上に AI モデルやサービスをデプロイする開発者です。例えば、開発者は Stable Diffusion 画像ジェネレーターや LLM チャットボットをサービスとしてホストするかもしれません。彼らはコーディネーターノードを運営し、サービスの管理を担当します。ユーザーのリクエストを受け付け、それをタスクに分割し、それらのタスクをマイナーに割り当てます。コーディネーターはネイティブトークン ($CAI) をステークしてネットワークに参加し、マイナーを利用する権利を得ます。彼らは本質的に、ユーザーと GPU プロバイダーの間のインターフェースとなるレイヤー 2 のオーケストレーターとして機能します。
  • GPU/CPU マイナー (タスクノード) – リソースプロバイダーです。マイナーは Cuckoo タスククライアントを実行し、AI アプリの推論タスクを実行するためにハードウェアを提供します。例えば、マイナーはコーディネーターから画像生成リクエスト (特定のモデルとプロンプト付き) を割り当てられ、GPU を使用して結果を計算します。マイナーもまた、コミットメントと良好な行動を保証するために $CAI をステークする必要があります。彼らは正しく完了した各タスクに対してトークン報酬を獲得します。
  • エンドユーザー – AI アプリケーションの消費者です。彼らは Cuckoo のウェブポータルや API を介して対話します (例えば、CooVerse を介してアートを生成したり、AI パーソナリティとチャットしたりします)。ユーザーは使用ごとに暗号通貨で支払うか、あるいは自身のコンピューティングを提供 (またはステーク) して利用コストを相殺することも可能です。重要な側面は検閲耐性です。もし 1 つのコーディネーター (サービスプロバイダー) がブロックされたりダウンしたりしても、ユーザーは同じアプリケーションを提供する別のコーディネーターに切り替えることができます。なぜなら、分散型ネットワークでは複数のコーディネーターが同様のモデルをホストできるからです。
  • ステーカー (デリゲーター) – AI サービスやマイニングハードウェアを運営しないコミュニティメンバーも、$CAI を運営者にステークすることで参加できます。信頼できるコーディネーターやマイナーにステークで投票することで、評判のシグナルを送り、その見返りとしてネットワーク報酬の一部を得ます。この設計は Web3 の評判レイヤーを構築します。良い行為者はより多くのステーク (したがって信頼と報酬) を引き付け、悪い行為者はステークと評判を失います。エンドユーザーでさえもステークできる場合があり、ネットワークの成功と彼らの利害を一致させます。

Cuckoo チェーン (現在はスタンドアロンチェーンから共有セキュリティロールアップへの移行プロセス中) は、これらすべての相互作用を追跡します。ユーザーが AI サービスを呼び出すと、コーディネーターノードはマイナーのためのオンチェーンタスク割り当てを作成します。マイナーはオフチェーンでタスクを実行し、結果をコーディネーターに返します。コーディネーターはそれを検証し (例えば、出力画像やテキストが意味不明でないことを確認)、最終結果をユーザーに届けます。ブロックチェーンは支払い決済を処理します。各タスクに対して、コーディネーターのスマートコントラクトはマイナーに $CAI で支払います (しばしばマイクロペイメントを日々の支払いに集約します)。Cuckoo はトラストネスと透明性を強調しています。すべての参加者はトークンをステークし、すべてのタスクの割り当てと完了が記録されるため、ステークを失う脅威とパフォーマンスの公開性によって不正行為が抑制されます。ネットワークのモジュラー設計は、新しい AI モデルやユースケースを簡単に追加できることを意味します。テキストから画像への生成を概念実証として開始しましたが、そのアーキテクチャは他の AI ワークロード (例: 言語モデルの推論、音声文字起こしなど) をサポートするのに十分な汎用性があります。

Cuckoo のアーキテクチャの注目すべき点は、当初、AI トランザクションのスループットを最大化するために独自のレイヤー 1 ブロックチェーンを立ち上げたことです (テスト中に 1 日あたり 30 万トランザクションのピークに達しました)。これにより、AI タスクスケジューリングのためのカスタム最適化が可能になりました。しかし、チームはスタンドアロン L1 の維持がコストと複雑さを伴うことに気づき、2025 年半ばまでにカスタムチェーンを廃止し、Ethereum 上のロールアップ/AVS (アクティブ検証サービス) モデルに移行することを決定しました。これは、Cuckoo が独自のコンセンサスを実行するのではなく、Ethereum や Arbitrum のような L2 からセキュリティを継承し、その共有セキュリティレイヤー上で分散型 AI マーケットプレイスを運営し続けることを意味します。この変更は、経済的セキュリティを向上させ (Ethereum の堅牢性を活用)、Cuckoo チームが低レベルのチェーンメンテナンスではなく製品に集中できるようにすることを目的としています。要約すると、Cuckoo のアーキテクチャは、誰もがハードウェアを接続したり AI モデルサービスをデプロイしたりでき、世界中のユーザーがより低コストで、大手テックインフラへの依存を減らして AI アプリにアクセスできる分散型 AI サービス提供プラットフォームを構築します。

資産のトークン化メカニズム

これらのネットワークに共通するテーマは、計算、モデル、データを、取引や収益化が可能なオンチェーン資産や経済単位に変換することです。しかし、各プロジェクトはこれらのリソースを異なる方法でトークン化することに焦点を当てています:

  • コンピューティングパワー: 3 つのプラットフォームはすべて、計算作業を報酬トークンに変換します。Bittensor では、有用な計算 (マイナーによる推論やトレーニング) はバリデーターのスコアを介して定量化され、各ブロックで TAO トークン で報酬が与えられます。本質的に、Bittensor は貢献された知性を「測定」し、その貢献を表す商品として TAO を発行します。Gensyn は、計算を商品として 明示的に扱います。そのプロトコルは、GPU 時間が製品であり、価格がトークン建ての需要と供給によって設定されるマーケットプレイスを作成します。開発者はトークンを使用して計算を購入し、プロバイダーはハードウェアサイクルを販売してトークンを獲得します。Gensyn チームは、あらゆる デジタルリソース (計算、データ、アルゴリズム) が同様のトラストレスな市場で表現され、取引できると述べています。Cuckoo は、完了したタスクの支払いとして発行される ERC-20 トークン $CAI を介して計算をトークン化します。GPU プロバイダーは、AI 推論作業を行うことで実質的に CAI を「マイニング」します。Cuckoo のシステムはタスクのオンチェーン記録を作成するため、完了した各 GPU タスクはトークンで支払われる作業の原子単位と考えることができます。3 つすべてに共通する前提は、そうでなければアイドル状態またはアクセス不能な計算能力が、トークン化された流動性のある資産になるということです。これは、プロトコルレベルのトークン発行 (Bittensor や初期の Cuckoo のように) または計算ジョブの売買注文のオープンマーケット (Gensyn のように) を通じて実現されます。

  • AI モデル: AI モデルをオンチェーン資産 (例: NFT やトークン) として表現することはまだ初期段階です。Bittensor はモデル自体をトークン化しません。モデルはマイナーの所有物としてオフチェーンに残ります。代わりに、Bittensor はパフォーマンスの良いモデルに報酬を与えることで、間接的にモデルに価値を置きます。事実上、モデルの「知性」は TAO の収益に変換されますが、モデルの重みを表したり、他者がそのモデルを使用することを許可したりする NFT は存在しません。Gensyn の焦点は計算トランザクションであり、モデルのトークンを明示的に作成することではありません。Gensyn のモデルは通常、開発者によってオフチェーンで提供され (オープンソースまたはプロプライエタリ)、ソルバーによってトレーニングされ、返されます。モデルやその IP を所有するトークンを作成する組み込みのメカニズムはありません。(とはいえ、Gensyn マーケットプレイスは、当事者が選択すればモデルのアーティファクトやチェックポイントの取引を促進する可能性がありますが、プロトコル自体はモデルをトークン化された資産ではなく、計算のコンテンツと見なしています。) Cuckoo はその中間に位置します。「AI エージェント」やネットワークに統合されたモデルについて言及していますが、現在、各モデルを表す非代替性トークンは存在しません。代わりに、モデルはアプリビルダーによってデプロイされ、ネットワークを介して提供されます。そのモデルの使用権は、それが使用されたときに $CAI を稼ぐことができるという点で暗黙的にトークン化されています (それをデプロイしたコーディネーターを介して)。3 つのプラットフォームはすべて、モデルのトークン化の概念 (例えば、トークンを介してコミュニティにモデルの所有権を与える) を認識していますが、実用的な実装は限られています。業界として、AI モデルのトークン化 (例えば、所有権と利益分配権を持つ NFT として) はまだ模索中です。Bittensor のモデルが互いに価値を交換するアプローチは、モデルごとの明示的なトークンがない*「モデルマーケットプレイス」*の一形態です。Cuckoo チームは、分散型モデルの所有権は中央集権型 AI と比較して障壁を下げる有望な方法であると述べていますが、モデルの出力と使用状況をオンチェーンで検証する効果的な方法が必要です。要約すると、コンピューティングパワーは即座にトークン化されますが (作業に対してトークンを支払うのは簡単です)、モデルは間接的または願望的にトークン化されており (出力に対して報酬が与えられ、ステークや評判で表される可能性はありますが、これらのプラットフォームではまだ譲渡可能な NFT として扱われていません)。

  • データ: データのトークン化は最も困難なままです。Bittensor、Gensyn、Cuckoo のいずれも、完全に一般化されたオンチェーンのデータマーケットプレイス (データセットが強制力のある使用権で取引される場所) を統合していません。Bittensor ノードはさまざまなデータセットでトレーニングするかもしれませんが、それらのデータセットはオンチェーンシステムの一部ではありません。Gensyn は開発者がトレーニング用のデータセットを提供することを許可できますが、プロトコルはそのデータをトークン化しません。それは単にソルバーが使用するためにオフチェーンで提供されるだけです。Cuckoo も同様にユーザーデータをトークン化しません。主に推論タスクのために一時的な方法でデータ (ユーザーのプロンプトや出力など) を処理します。Cuckoo のブログは、*「分散型データは、重要なリソースであるにもかかわらず、トークン化が依然として困難である」*と明言しています。データは機密性が高く (プライバシーと所有権の問題)、現在のブロックチェーン技術で扱うのは困難です。したがって、計算は商品化され、モデルも徐々に商品化されつつありますが、データは特別な場合を除いて大部分がオフチェーンにとどまっています (これら 3 つ以外のいくつかのプロジェクトは、データユニオンやデータ貢献に対するトークン報酬を実験していますが、それは現在の範囲外です)。要約すると、これらのネットワークではコンピューティングパワーは今やオンチェーンの商品であり、モデルはトークンを通じて評価されますが、まだ資産として個別にトークン化されておらず、データのトークン化はまだ未解決の問題です (その重要性を認識することを超えて)。

ガバナンスとインセンティブ

これらの分散型 AI ネットワークが自律的かつ公正に機能するためには、堅牢なガバナンスとインセンティブ設計が不可欠です。ここでは、各プラットフォームがどのように自己を統治し (誰が意思決定を行い、アップグレードやパラメータの変更がどのように行われるか)、トークンエコノミクスを通じて参加者のインセンティブをどのように調整しているかを検証します。

  • Bittensor のガバナンス: 初期段階では、Bittensor の開発とサブネットのパラメータは、主にコアチームとメインサブネット上の 64 の「ルート」バリデーターのセットによって制御されていました。これは中央集権化の一点でした。少数の強力なバリデーターが報酬配分に過大な影響力を持ち、一部からは*「寡頭制の投票システム」*と呼ばれていました。これに対処するため、Bittensor は 2025 年に dTAO (分散型 TAO) ガバナンスを導入しました。dTAO システムは、リソース配分を市場主導かつコミュニティ制御に移行させました。具体的には、TAO 保有者は自分のトークンをサブネット固有の流動性プールにステークし (本質的に、どのサブネットがより多くのネットワーク発行量を得るべきかに「投票」する)、それらのサブネットプールの所有権を表すアルファトークンを受け取ります。より多くのステークを集めたサブネットは、アルファトークンの価格が高くなり、日々の TAO 発行量のより大きなシェアを得る一方、人気のない、またはパフォーマンスの低いサブネットからは資本 (したがって発行量) が流出します。これによりフィードバックループが生まれます。あるサブネットが価値ある AI サービスを生み出せば、より多くの人々が TAO をステークし (報酬を求めて)、そのサブネットは参加者に報酬を与えるための TAO をより多く得て、成長を促進します。サブネットが停滞すれば、ステーカーはより収益性の高いサブネットに引き上げます。事実上、TAO 保有者は、どの AI ドメインがより多くのリソースに値するかを財政的にシグナルを送ることで、ネットワークの焦点を集合的に統治します。これは、経済的成果に連動した、トークン加重によるオンチェーンガバナンスの一形態です。リソース配分以外にも、主要なプロトコルのアップグレードやパラメータの変更は、おそらく TAO 保有者が投票するガバナンス提案を通じて行われます (Bittensor には、Bittensor 財団と選出された評議会によって管理されるオンチェーン提案と国民投票のメカニズムがあり、Polkadot のガバナンスに似ています)。時間とともに、Bittensor のガバナンスはますます分散化され、財団が後退し、コミュニティが (TAO ステークを通じて) インフレ率や新しいサブネットの承認などを主導することが期待されます。dTAO への移行は、中央集権的な意思決定者を、インセンティブが一致したトークンステークホルダーの市場に置き換える、その方向への大きな一歩です。

  • Bittensor のインセンティブ: Bittensor のインセンティブ構造は、そのコンセンサスと密接に結びついています。すべてのブロック (12 秒) で、正確に 1 TAO が新たに発行され、各サブネットの貢献者にパフォーマンスに基づいて分割されます。各サブネットのブロック報酬のデフォルトの分割は、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これにより、すべての役割が報酬を得ることが保証されます。マイナーは推論作業を行うことで、バリデーターは評価努力で、そしてサブネットオーナー (そのサブネットのデータ/タスクをブートストラップした可能性がある) は「マーケットプレイス」やタスク設計を提供することで残余利益を得ます。これらのパーセンテージはプロトコルで固定されており、全員のインセンティブを高品質な AI 出力に向けることを目指しています。Yuma コンセンサスメカニズムは、品質スコアに応じて報酬を重み付けすることでインセンティブをさらに洗練させます。より良い回答を提供するマイナー (バリデーターのコンセンサスによる) は、その 41% のより高い部分を得て、正直なコンセンサスに密接に従うバリデーターは、バリデーター部分のより多くを得ます。パフォーマンスの悪い者は経済的に排除されます。さらに、マイナーやバリデーターを支援するデリゲーター (ステーカー) は、通常、そのノードの収益の一部を受け取ります (ノードはしばしば手数料を設定し、残りをデリゲーターに与えます。これは PoS ネットワークのステーキングに似ています)。これにより、パッシブな TAO 保有者は最高の貢献者をサポートし、利回りを得ることができ、実力主義をさらに強化します。したがって、Bittensor のトークン (TAO) はユーティリティトークンです。新しいマイナーの登録に必要であり (マイナーは参加するために少量の TAO を消費する必要があり、これによりシビルスパムと戦います)、影響力を高めたり、デリゲーションを通じて収益を得るためにステークすることができます。また、外部ユーザーが Bittensor のネットワークからサービスを利用したい場合 (例えば、Bittensor 上の言語モデルにクエリするために TAO を支払う)、支払いトークンとしても想定されていますが、これまでのところ内部の報酬メカニズムが主要な「経済」でした。全体的なインセンティブ哲学は、「価値ある知性」、つまり良い AI の成果を生み出すのに役立つモデルに報酬を与え、ネットワーク内のモデルの品質を継続的に向上させる競争を生み出すことです。

  • Gensyn のガバナンス: Gensyn のガバナンスモデルは、ネットワークが成熟するにつれて、コアチームの管理からコミュニティの管理へと進化するように構成されています。当初、Gensyn はGensyn 財団と、プロトコルのアップグレードと財務の決定を監督する選出された評議会を持つことになります。この評議会は、最初はコアチームのメンバーと初期のコミュニティリーダーで構成されることが期待されています。Gensyn は、ネイティブトークン (しばしば GENS と呼ばれる) のトークン生成イベント (TGE) を計画しており、その後、ガバナンスの権限はオンチェーン投票を通じてますますトークン保有者の手に渡ることになります。財団の役割は、プロトコルの利益を代表し、完全な分散化へのスムーズな移行を保証することです。実際には、Gensyn は、パラメータ (例: 検証ゲームの長さ、手数料率) の変更やアップグレードがコミュニティによって投票されるオンチェーン提案メカニズムを持つことになるでしょう。Gensyn は Ethereum のロールアップとして実装されているため、ガバナンスは Ethereum のセキュリティにも関連する可能性があります (例えば、最終的にトークン保有者の DAO に引き渡されるロールアップコントラクトのアップグレードキーを使用するなど)。Gensyn のライトペーパーの分散化とガバナンスのセクションでは、プロトコルは最終的にグローバルに所有されなければならないと強調しており、*「機械知能のためのネットワーク」*は、そのユーザーと貢献者に属するべきであるという精神と一致しています。要約すると、Gensyn のガバナンスは半中央集権的に始まりますが、GENS トークン保有者 (潜在的にステークや参加によって重み付けされる) が集合的に意思決定を行う DAO になるように設計されています。

  • Gensyn のインセンティブ: Gensyn の経済的インセンティブは、暗号経済学的なセキュリティによって補完された、単純な市場のダイナミクスです。開発者 (クライアント) は ML タスクの代金を Gensyn トークンで支払い、ソルバーはそれらのタスクを正しく完了することでトークンを獲得します。計算サイクルの価格はオープンマーケットで決定されます。おそらく、開発者は報奨金付きでタスクを提示し、ソルバーは入札するか、価格が期待に合えば単純にそれを受け入れることができます。これにより、アイドル状態の GPU の供給がある限り、競争がコストを公正なレートまで引き下げることが保証されます (Gensyn のチームは、ネットワークが世界中で最も安価な利用可能なハードウェアを見つけるため、クラウド価格と比較して最大 80% のコスト削減を見込んでいます)。一方、ソルバーは仕事に対してトークンを獲得するというインセンティブを持っています。そうでなければアイドル状態だったかもしれない彼らのハードウェアが収益を生み出します。品質を保証するために、Gensyn はソルバーに仕事を引き受ける際に担保をステークすることを要求します。もし彼らが不正行為をしたり、誤った結果を生成して捕まった場合、彼らはそのステークを失います (それはスラッシュされ、正直なベリファイアに与えられます)。ベリファイアは、不正なソルバーを捕まえた場合に**「ジャックポット」報酬を得る機会によってインセンティブを与えられます。これは、不正な計算を成功裏に特定したベリファイアに定期的に報酬を与える Truebit の設計に似ています。これにより、ソルバーは正直であり続け、一部のノードは監視役として行動する動機付けがされます。最適なシナリオ (不正行為なし) では、ソルバーは単にタスク料金を稼ぎ、ベリファイアの役割はほとんどアイドル状態です (または、参加しているソルバーの 1 人が他の人のベリファイアを兼ねるかもしれません)。したがって、Gensyn のトークンは、計算を購入するためのガス通貨と、プロトコルを保護するステーク担保の両方として機能します。ライトペーパーでは、非永続的なトークンを持つテストネットと、初期のテストネット参加者が TGE で実際のトークンで報酬を受け取ることが言及されています。これは、Gensyn がブートストラップ**のためにいくつかのトークン供給を割り当てたことを示しています。初期の採用者、テストソルバー、コミュニティメンバーに報酬を与えることです。長期的には、実際のジョブからの手数料がネットワークを維持するはずです。また、各タスク支払いのパーセンテージが財務省に入るか、または燃やされる小さなプロトコル手数料があるかもしれません。この詳細はまだ確認されていませんが、多くのマーケットプレイスプロトコルには、開発資金やトークンの買い戻しと燃焼のための手数料が含まれています。要約すると、Gensyn のインセンティブは、ML ジョブの正直な完了を中心に調整されています。仕事をすれば報酬を得る、不正を試みればステークを失う、他人を検証すれば不正を見つければ報酬を得る。これにより、信頼性の高い分散計算を達成することを目的とした、自己監視型の経済システムが生まれます。

  • Cuckoo のガバナンス: Cuckoo Network は、まだ開発段階にありますが、初日からエコシステムにガバナンスを組み込んでいます。CAIトークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckooの哲学は、GPUノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定(プロトコルのアップグレードや経済的な変更など)は、おそらくDAOメカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckooは報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI トークンは、その��ユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckoo の哲学は、GPU ノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定 (プロトコルのアップグレードや経済的な変更など) は、おそらく DAO メカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckoo は報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI 保有者 (マイナー、開発者、ユーザーを含む) が投票します。すでに、オンチェーン投票評判システムとして使用されています。Cuckoo は各役割にトークンをステークすることを要求し、その後、コミュニティメンバーは (おそらくステークを委任するか、ガバナンスモジュールを通じて) どのコーディネーターやマイナーが信頼できるかに投票できます。これは評判スコアに影響を与え、タスクのスケジューリングに影響を与える可能性があります (例えば、より多くの票を持つコーディネーターはより多くのユーザーを引き付けるかもしれませんし、より多くの票を持つマイナーはより多くのタスクを割り当てられるかもしれません)。これはガバナンスとインセンティブの融合です。ガバナンストークンを使用して信頼を確立します。Cuckoo 財団またはコアチームは、これまでのところプロジェクトの方向性を導いてきました (例えば、L1 チェーンを廃止するという最近の決定) が、彼らのブログは分散型所有権への移行へのコミットメントを示しています。彼らは、独自のチェーンを運営することは高いオーバーヘッドを伴い、ロールアップに移行することで、よりオープンな開発と既存のエコシステムとの統合が可能になると特定しました。共有レイヤー (Ethereum のような) に移行すれば、Cuckoo はアップグレードのために、コミュニティが CAI を使用して投票する、より伝統的な DAO を実装する可能性が高いです。

  • Cuckoo のインセンティブ: Cuckoo のインセンティブ設計には 2 つのフェーズがあります。固定されたトークン割り当てによる初期のブートストラップフェーズと、使用量主導の収益分配を伴う将来の状態です。ローンチ時に、Cuckoo は 10 億の CAI トークンの**「フェアローンチ」**配布を実施しました。供給の 51% はコミュニティのために確保され、次のように割り当てられました:

    • マイニング報酬: 総供給の 30% が、AI タスクを実行する GPU マイナーへの支払いのために予約されました。
    • ステーキング報酬: ネットワークをステークして保護する人々のために供給の 11%。
    • エアドロップ: 採用インセンティブとして初期のユーザーとコミュニティメンバーに 5%。
    • (さらに 5% は、Cuckoo 上での構築を奨励するための開発者助成金でした。)

    この大規模な割り当ては、初期のネットワークでは、実際のユーザー需要が低くても、マイナーとステーカーが発行プールから報酬を得ていたことを意味します。実際、Cuckoo の初期フェーズでは、ステーキングとマイニングに高い APY 利回りが特徴で、これにより参加者を成功裏に引き付けましたが、トークンだけを目的とした「イールドファーマー」も引き付けました。チームは、報酬率が下がると多くのユーザーが去ったことに気づき、これらのインセンティブが真の利用に結びついていなかったことを示しています。この経験から学び、Cuckoo は報酬が実際の AI ワークロードと直接相関するモデルに移行しています。将来的には (そして部分的にはすでに)、エンドユーザーが AI 推論の代金を支払うと、その支払い (CAI またはおそらく CAI に変換された別の受け入れられたトークン) が貢献者の間で分割されます:

    • GPU マイナーは、提供した計算に対して大部分のシェアを受け取ります。
    • コーディネーター (アプリ開発者) は、モデルを提供し、リクエストを処理したサービスプロバイダーとして一部を受け取ります。
    • それらのマイナーやコーディネーターに委任したステーカーは、信頼できるノードの支援を継続的に奨励するために、少額の分け前またはインフレ報酬を得るかもしれません。
    • ネットワーク/財務省は、継続的な開発資金や将来のインセンティブ資金のために手数料を保持するかもしれません (または、ユーザーの手頃な価格を最大化するために手数料はゼロ/名目上かもしれません)。

    本質的に、Cuckoo は収益分配モデルに移行しています。Cuckoo 上の AI アプリが収益を生み出せば、その収益はそのサービスのすべての貢献者に公正な方法で分配されます。これにより、参加者がインフレだけでなく実際の利用から利益を得るようにインセンティブが調整されます。すでに、ネットワークはすべての当事者に CAI をステークすることを要求していました。これは、マイナーとコーディネーターがフラットな報酬だけでなく、おそらくステークベースの報酬も得られることを意味します (例えば、多くのユーザーが自分にステークしたり、自分自身がより多くステークしたりすると、コーディネーターはより高い報酬を得るかもしれません。これはプルーフ・オブ・ステークのバリデーターの稼ぎ方に似ています)。ユーザーインセンティブの観点から、Cuckoo はエアドロップポータルやフォーセット (一部のユーザーが悪用した) のようなものも導入して、初期の活動を促進しました。今後は、ユーザーはサービスを利用することでトークンリベートや、キュレーションに参加することでガバナンス報酬 (例えば、出力の評価やデータ提供で少額のトークンを獲得するなど) を通じてインセンティブを与えられるかもしれません。結論として、Cuckoo のトークン ($CAI) は多目的です。それはチェーン上のガス/手数料トークン (すべてのトランザクションと支払いがそれを使用します)、ステーキングと投票に使用され、そして行われた仕事に対する報酬の単位です。Cuckoo は、純粋に投機的なインセンティブを避けるために、トークン報酬をサービスレベルの KPI (重要業績評価指標)、例えば、稼働時間、クエリスループット、ユーザー満足度などに結び付けたいと明示的に言及しています。これは、トークン経済が単純な流動性マイニングから、より持続可能でユーティリティ主導のモデルへと成熟していることを反映しています。

モデルの所有権と IP 帰属

AI モデルの知的財産 (IP) と所有権の取り扱いは、分散型 AI ネットワークの複雑な側面です。各プラットフォームはわずかに異なる立場を取っており、一般的にこれはまだ完全な解決策がない進化中の分野です:

  • Bittensor: Bittensor のモデルはマイナーノードによって提供され、それらのマイナーはモデルの重み (オンチェーンで公開されることはない) を完全に管理し続けます。Bittensor は、特定のウォレットアドレスで実行されているという事実を超えて、誰がモデルを「所有」しているかを明示的に追跡しません。マイナーが去れば、彼らのモデルも一緒に去ります。したがって、Bittensor における IP の帰属はオフチェーンです。マイナーがプロプライエタリなモデルを使用しても、オンチェーンでそれを強制したり、知ったりするものはありません。Bittensor の哲学はオープンな貢献を奨励し (多くのマイナーは GPT-J などのオープンソースモデルを使用するかもしれません)、ネットワークはそれらのモデルのパフォーマンスに報酬を与えます。Bittensor はモデルの評判スコアを作成すると言えるかもしれません (バリデーターのランキングを通じて)。これはモデルの価値を認める一形態ですが、モデル自体の権利はトークン化されたり、分配されたりしません。注目すべきは、Bittensor のサブネットオーナーが IP の一部を所有していると見なされる可能性があることです。彼らはタスクを定義します (これにはデータセットや手法が含まれる場合があります)。サブネットオーナーは、サブネットを作成する際にNFT (サブネット UID と呼ばれる) を発行し、その NFT はそのサブネットの報酬の 18% を得る権利を与えます。これは、モデルのインスタンスではなく、モデルマーケットプレイス (サブネット) の作成を効果的にトークン化します。サブネットの定義 (例えば、特定のデータセットを持つ音声認識タスク) を IP と考えるなら、それは少なくとも記録され、報酬が与えられます。しかし、マイナーがトレーニングする個々のモデルの重みについては、オンチェーンの所有権記録はありません。帰属は、そのマイナーのアドレスに支払われる報酬という形で現れます。Bittensor は現在、例えば、複数の人が共同でモデルを所有し、自動的に収益分配を得るようなシステムを実装していません。モデルを実行している人 (マイナー) が報酬を得て、彼らが使用したモデルの IP ライセンスを尊重するかどうかは、オフチェーンで彼ら次第です。

  • Gensyn: Gensyn では、モデルの所有権は単純明快です。サブミッター (モデルのトレーニングを希望する人) がモデルのアーキテクチャとデータを提供し、トレーニング後、結果として得られるモデルのアーティファクトを受け取ります。作業を行うソルバーはモデルに対する権利を持たず、サービスに対して支払いを受ける請負業者のようなものです。したがって、Gensyn のプロトコルは従来の IP モデルを前提としています。提出したモデルとデータに対する法的権利を持っていた場合、トレーニング後もそれらを保持し続けます。計算ネットワークは所有権を主張しません。Gensyn は、マーケットプレイスがアルゴリズムやデータも他のリソースと同様に取引できることにも言及しています。これは、誰かがネットワークで使用するためにモデルやアルゴリズムを有料で提供し、そのモデルへのアクセスをトークン化するシナリオを示唆しています。例えば、モデル作成者が自分の事前トレーニング済みモデルを Gensyn に置き、他の人がネットワークを介してそれを有料でファインチューニングできるようにするかもしれません (これにより、モデルの IP が効果的に収益化されます)。プロトコルはライセンス条項を強制しませんが、支払い要件をエンコードすることは可能です。スマートコントラクトは、ソルバーにモデルの重みをアンロックするために料金を要求することができます。しかし、これらは投機的なユースケースです。Gensyn の主要な設計はトレーニングジョブを可能にすることです。帰属に関しては、複数の当事者がモデルに貢献した場合 (例えば、一方がデータを提供し、他方が計算を提供した場合)、それはおそらく彼らが Gensyn を使用する前に設定した契約や合意によって処理されるでしょう (例えば、スマートコントラクトがデータプロバイダーと計算プロバイダーの間で支払いを分割するなど)。Gensyn 自体は、「このモデルは X、Y、Z によって構築された」ということを、ジョブに対してどのアドレスに支払いが行われたかの記録を超えてオンチェーンで追跡しません。要約すると、Gensyn におけるモデルの IP はサブミッターに帰属し、いかなる帰属やライセンスも、プロトコル外の法的合意またはその上に構築されたカスタムスマートコントラクトを通じて処理されなければなりません。

  • Cuckoo: Cuckoo のエコシステムでは、モデル作成者 (AI アプリビルダー) は第一級の参加者です。彼らは AI サービスをデプロイします。アプリビルダーが言語モデルをファインチューニングしたり、カスタムモデルを開発して Cuckoo でホストしたりする場合、そのモデルは本質的に彼らの所有物であり、彼らはサービスオーナーとして行動します。Cuckoo は所有権を奪うのではなく、彼らが使用量を収益化するためのインフラを提供します。例えば、開発者がチャットボット AI をデプロイすると、ユーザーはそれと対話でき、開発者 (およびマイナー) は各インタラクションから CAI を獲得します。したがって、プラットフォームは使用収益をモデル作成者に帰属させますが、モデルの重みを明示的に公開したり、NFT に変換したりはしません。実際、モデルをマイナーの GPU で実行するために、コーディネーターノードはモデル (またはランタイム) を何らかの形でマイナーに送信する必要があるでしょう。これは IP の問題を提起します。悪意のあるマイナーがモデルの重みをコピーして配布する可能性はあるでしょうか?分散型ネットワークでは、プロプライエタリなモデルが使用される場合、そのリスクは存在します。Cuckoo の現在の焦点は、かなりオープンなモデル (Stable Diffusion、LLaMA 派生モデルなど) とコミュニティの構築にあり、スマートコントラクトを介した IP 権の強制はまだ見られません。プラットフォームは、将来的に IP 保護のために、暗号化されたモデル実行やセキュアエンクレーブのようなツールを統合する可能性がありますが、ドキュメントには具体的な言及はありません。それが追跡するのは、各タスクに対して誰がモデルサービスを提供したかです。コーディネーターはオンチェーンのアイデンティティであるため、彼らのモデルのすべての使用は彼らに帰属し、彼らは自動的に報酬のシェアを得ます。もし誰かにモデルを譲渡または売却する場合、事実上、彼らはコーディネーターノードの制御を移転することになります (コーディネーターの役割がトークン化されていれば、秘密鍵や NFT を渡すだけかもしれません)。現在、モデルのコミュニティ所有権 (トークンシェアを介して) は実装されていませんが、Cuckoo のビジョンは分散型のコミュニティ主導の AI を示唆しているため、人々が集合的に AI モデルに資金を提供したり、統治したりできるようにすることを探求するかもしれません。個人の所有権を超えたモデルのトークン化は、これらのネットワーク全体でまだ未解決の分野です。それは目標として認識されていますが (企業ではなくコミュニティが AI モデルを所有できるようにするため)、実際には上記の IP と検証の課題に対する解決策が必要です。

要約すると、Bittensor、Gensyn、Cuckoo におけるモデルの所有権は、従来の手段によってオフチェーンで処理されます。モデルを実行または提出する個人または団体が事実上の所有者です。ネットワークは、経済的報酬 (モデルの貢献者に彼らの IP や努力に対して支払う) の形で帰属を提供します。3 つのいずれも、まだスマートコントラクトレベルでモデルの使用に関するライセンスやロイヤリティの強制を組み込んでいません。帰属は評判と報酬を通じて行われます。例えば、Bittensor の最高のモデルは高い評判スコア (公開記録) とより多くの TAO を獲得し、これはその作成者への暗黙のクレジットとなります。将来的には、IP をより良く追跡するために、NFT に紐付けられたモデルの重み分散型ライセンスのような機能が見られるかもしれませんが、現在の優先事項は、ネットワークを機能させ、貢献を奨励することです。すべての人が、モデルの来歴と出力を検証することが、真のモデル資産市場を可能にする鍵であることに同意しており、この方向での研究が進行中です。

収益分配構造

3 つのプラットフォームはすべて、複数の当事者が協力して価値ある AI 出力を生み出したときに、経済的なパイをどのように分割するかを決定しなければなりません。AI サービスが使用されたとき、またはトークンが発行されたときに、誰が、いくら支払われるのでしょうか?それぞれに異なる収益分配モデルがあります:

  • Bittensor: インセンティブの項で述べたように、Bittensor の収益分配はプロトコルによってブロックレベルで定義されています。各ブロックの TAO 発行に対して、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これは、各サブネットで生成された価値に対する組み込みの収益分割です。サブネットオーナーのシェア (18%) は、「モデル/タスク設計」またはそのサブネットのエコシステムをブートストラップするためのロイヤリティのように機能します。マイナーとバリデーターが同等のシェアを得ることは、検証がなければマイナーは報酬を得られず (逆もまた然り)、彼らが共生的であり、それぞれが発行された報酬の同等の部分を得ることを保証します。外部ユーザーが TAO を支払ってモデルにクエリする場合を考えると、Bittensor のホワイトペーパーは、その支払いも同様に、回答したマイナーと回答を検証するのを助けたバリデーターの間で分割されることを想定しています (正確な分割はプロトコルまたは市場の力によって決定される可能性があります)。さらに、マイナー/バリデーターにステークするデリゲーターは、事実上のパートナーです。通常、マイナー/バリデーターは、獲得した TAO のパーセンテージをデリゲーターと共有します (これは設定可能ですが、多くの場合、大部分はデリゲーターに)。したがって、マイナーがブロックから 1 TAO を獲得した場合、それはステークに基づいて、例えば、デリゲーターと自分自身の間で 80/20 に分割されるかもしれません。これは、非オペレーターでさえも、彼らのサポートに比例してネットワークの収益のシェアを得ることを意味します。dTAO の導入により、別の共有レイヤーが追加されました。サブネットのプールにステークする人々はアルファトークンを取得し、これによりそのサブネットの発行の一部 (イールドファーミングのようなもの) を得る権利が与えられます。事実上、誰でも特定のサブネットの成功にステークし、アルファトークンを保持することでマイナー/バリデーターの報酬の一部を受け取ることができます (アルファトークンは、サブネットがより多くの使用量と発行を引き付けるにつれて価値が上がります)。要約すると、Bittensor の収益分配は、主要な役割についてはコードによって固定されており、社会的/ステーキングの取り決めによってさらに共有されます。これは比較的に透明で、ルールに基づいた分割です。すべてのブロックで、参加者は 1 TAO がどのように割り当てられるかを正確に知っており、したがって貢献ごとの「収益」を知っています。この明確さが、Bittensor が AI のためのビットコインに例えられる理由の 1 つです。参加者の報酬が数学的に設定される決定論的な通貨発行です。

  • Gensyn: Gensyn の収益分配は、タスクが個別に価格設定されるため、より動的で市場主導です。サブミッターがジョブを作成するとき、彼らは支払う意思のある報酬 (例えば X トークン) を付けます。ジョブを完了したソルバーは、その X (ネットワーク手数料を差し引いたもの) を受け取ります。ベリファイアが関与する場合、通常、次のようなルールがあります。不正が検出されなければ、ソルバーは全額の支払いを保持します。不正が検出された場合、ソルバーはスラッシュされ、ステークの一部または全部を失い、そのスラッシュされた金額はベリファイアに報酬として与えられます。したがって、ベリファイアはすべてのタスクから収益を得るのではなく、不正な結果を捕まえたときにのみ収益を得ます (加えて、実装によっては、参加に対する小さな基本料金があるかもしれません)。ここでは、モデルオーナーに支払うという組み込みの概念はありません。なぜなら、サブミッターがモデルオーナーであるか、モデルを使用する権利を持っていると想定されているからです。サブミッターが他の誰かの事前トレーニング済みモデルをファインチューニングし、支払いの一部が元のモデル作成者に渡るというシナリオを想像することはできますが、それはプロトコル外で処理されなければなりません (例えば、合意や、トークンの支払いを適宜分割する別のスマートコントラクトによって)。Gensyn のプロトコルレベルの共有は、本質的にクライアント -> ソルバー (-> ベリファイア) です。トークンモデルには、プロトコルの財務省や財団のための割り当てが含まれている可能性があります。例えば、すべてのタスクの支払いの小さなパーセンテージが財務省に行き、開発資金や保険プールに使用されるかもしれません (これは利用可能なドキュメントで明示的に述べられていませんが、多くのプロトコルがこれを行っています)。また、初期段階では、Gensyn はインフレを通じてソルバーを補助するかもしれません。テストネットユーザーは TGE で報酬を約束されており、これは事実上、初期のトークン配布からの収益分配です (初期のソルバーとサポーターは、ブートストラップを助けるためにトークンの一部を取得します。これはエアドロップやマイニング報酬に似ています)。時間とともに、実際のジョブが主流になるにつれて、インフレ報酬は減少し、ソルバーの収入は主にユーザーの支払いから得られるようになります。Gensyn のアプローチは、サービスごとの料金収益モデルとして要約できます。ネットワークは、仕事を必要とする人々から仕事をする人々への直接支払いを促進し、ベリファイアとおそらくトークンステーカーは、そのサービスを確保する役割を果たすときにのみ分け前を取ります。

  • Cuckoo: Cuckoo の収益分配は進化してきました。当初、有料のエンドユーザーが多くなかったため、収益分配は本質的にインフレの共有でした。トークン供給からの 30% のマイニングと 11% のステーキングの割り当ては、マイナーとステーカーがネットワークのフェアローンチプールによって発行されたトークンを共有していたことを意味します。実際には、Cuckoo は完了したタスクに比例してマイナーに日々の CAI 支払いのようなものを実行していました。これらの支払いは、主にマイニング報酬の割り当て (予約された固定供給の一部) から来ていました。これは、多くのレイヤー 1 ブロックチェーンがブロック報酬をマイナー/バリデーターに分配する方法に似ています。それは外部ユーザーによる実際の使用に結びついておらず、参加と成長を奨励するためのものでした。しかし、2025 年 7 月のブログで強調されているように、これは実際の需要ではなく、トークンファーミングによって動機付けられた使用につながりました。Cuckoo の次の段階は、サービス料金に基づく真の収益分配モデルです。このモデルでは、エンドユーザーが例えば画像生成サービスを使用し、1 ドル (暗号通貨換算) を支払うと、その 1 ドル相当のトークンが、おそらく次のように分割されます。GPU の仕事をしたマイナーに 0.70、モデルとインターフェースを提供したアプリ開発者 (コーディネーター) に 0.20、そしてステーカーまたはネットワークの財務省に 0.10。(注: 正確な比率は仮説です。Cuckoo はまだ公に指定していませんが、これは概念を示しています。) このようにして、サービスの提供に貢献したすべての人が収益の分け前を得ます。これは、例えば、AI のためのライドシェアリング経済に似ています。車両 (GPU マイナー) が大部分を得て、ドライバーまたはプラットフォーム (モデルサービスを構築したコーディネーター) が分け前を得て、そしておそらくプラットフォームのガバナンス/ステーカーが少額の手数料を得ます。Cuckoo が*「収益分配モデルと、使用メトリクスに直接結びついたトークン報酬」*に言及していることは、特定のサービスやノードが多くの量を処理する場合、そのオペレーターとサポーターがより多くを稼ぐことを示唆しています。彼らは、単にトークンをロックするためのフラットな利回り (当初のステーキング APY の場合) から離れています。具体的には、非常に人気のある AI アプリを動かすコーディネーターにステークすれば、そのアプリの手数料の一部を得ることができるかもしれません。これは、インフレのためだけにステークするのではなく、真のユーティリティへの投資としてのステーキングシナリオです。これにより、AI サービスにお金を払う実際のユーザーを引き付けることに全員のインセンティブが一致し、それがトークン保有者に価値を還元します。Cuckoo のチェーンにはトランザクション手数料 (ガス) もあったため、ブロックを生成したマイナー (当初は GPU マイナーも Cuckoo チェーンのブロック生成に貢献していました) もガス料金を得ていました。チェーンがシャットダウンされ、ロールアップに移行するに伴い、ガス料金は最小限になるか (または Ethereum 上で)、主要な収益は AI サービス料金自体になります。要約すると、Cuckoo は補助金主導モデル (ネットワークが参加者にトークンプールから支払う) から需要主導モデル (参加者が実際のユーザー支払いから稼ぐ) に移行しています。トークンは依然としてステーキングとガバナンスで役割を果たしますが、マイナーとアプリ開発者の日々の収益は、ますます AI サービスを購入するユーザーから得られるようになるはずです。このモデルは長期的により持続可能であり、Web2 の SaaS 収益分配に酷似していますが、透明性のためにスマートコントラクトとトークンを介して実装されています。

攻撃対象領域と脆弱性

AI を分散化することは、いくつかのインセンティブとセキュリティの課題をもたらします。ここでは、主要な攻撃ベクトル (シビル攻撃、共謀、フリーライディング、データ/モデルのポイズニング) を分析し、各プラットフォームがそれらをどのように軽減するか、または脆弱なままであるかを考察します:

  • シビル攻撃 (偽のアイデンティティ): オープンなネットワークでは、攻撃者が多くのアイデンティティ (ノード) を作成して、不釣り合いな報酬や影響力を得ようとする可能性があります。

    • Bittensor: シビル耐性は主に参入コストによって提供されます。Bittensor に新しいマイナーやバリデーターを登録するには、TAO を消費またはステークする必要があります。これはバーンまたはボンディング要件である可能性があります。これは、N 個の偽ノードを作成するには N 倍のコストがかかることを意味し、大規模なシビル集団を高価なものにします。さらに、Bittensor のコンセンサスは影響力をステークとパフォーマンスに結びつけます。ステークがなく、パフォーマンスの低いシビルはほとんど何も稼げません。攻撃者は、大きな報酬を得るためには、多額の投資を行い、かつシビルノードが実際に有用な作業に貢献する必要があります (これは典型的なシビル戦略ではありません)。とはいえ、攻撃者が実際に多くの資本を持っている場合、TAO の過半数を取得し、多くのバリデーターやマイナーを登録することができます。これは事実上、富によるシビルです。これは 51% 攻撃のシナリオと重なります。単一のエンティティがサブネット内のステークされた TAO の 50% 以上を制御する場合、彼らはコンセンサスを大きく揺るがすことができます。Bittensor の dTAO の導入は、ここで少し役立ちます。影響力をサブネット全体に分散させ、サブネットが繁栄するためにはコミュニティのステーキングサポートを必要とするため、1 つのエンティティがすべてを制御することが難しくなります。それでも、資金力のある敵対者によるシビル攻撃は懸念事項です。Arxiv の分析では、現在ステークがかなり集中しているため、過半数攻撃への障壁は望ましいほど高くないと明記されています。これを軽減するために、ウォレットごとのステークキャップ (例えば、1 つのウォレットが支配するのを防ぐために、有効ステークを 88 パーセンタイルでキャップするなど) のような提案がなされています。要約すると、Bittensor はシビルに対処するためにステーク加重アイデンティティ (比例したステークなしに安価にアイデンティティを生成することはできない) に依存しています。これは、非常にリソースの豊富な攻撃者を除いて、かなり効果的です。
    • Gensyn: Gensyn におけるシビル攻撃は、攻撃者がシステムを悪用するために多くのソルバーまたはベリファイアノードを立ち上げるという形で現れるでしょう。Gensyn の防御は純粋に経済的かつ暗号学的です。アイデンティティ自体は重要ではありませんが、作業を行うか、担保を投稿することが重要です。攻撃者が 100 個の偽のソルバーノードを作成しても、ジョブもステークもなければ、何も達成できません。タスクを獲得するためには、シビルノードは競争力のある入札を行い、作業を行うためのハードウェアを持っている必要があります。能力なしに安値で入札すれば、失敗してステークを失います。同様に、攻撃者は検証に選ばれることを期待して多くのベリファイアアイデンティティを作成する可能性があります (プロトコルがランダムにベリファイアを選択する場合)。しかし、数が多すぎると、ネットワークやジョブの投稿者がアクティブなベリファイアの数を制限するかもしれません。また、ベリファイアはそれをチェックするために計算を実行する必要がある可能性があり、これはコストがかかります。多くの偽のベリファイアを持つことは、実際に結果を検証できない限り役に立ちません。Gensyn におけるより適切なシビル攻撃の角度は、攻撃者がネットワークを偽のジョブや応答で満たして他人の時間を無駄にしようとする場合です。これは、サブミッターにもデポジットを要求することで軽減されます (偽のジョブを投稿する悪意のあるサブミッターは、支払いまたはデポジットを失います)。全体として、Gensyn が要求するステーク/ボンド検証のためのランダム選択の使用は、攻撃者が比例したリソースも持ち込まない限り、複数のアイデンティティを持つことによる利益がほとんどないことを意味します。それは安価な攻撃ではなく、よりコストのかかる攻撃になります。オプティミスティックセキュリティモデルは、少なくとも 1 人の正直なベリファイアを前提としています。シビルは、一貫して不正を行うためには、すべてのベリファイアを圧倒し、すべてが自分たちである必要がありますが、これもまた、ステークまたは計算能力の過半数を所有することに戻ります。したがって、Gensyn のシビル耐性は、オプティミスティックロールアップのそれに匹敵します。正直なアクターが 1 人いる限り、シビルは簡単にシステム的な損害を引き起こすことはできません。
    • Cuckoo: Cuckoo におけるシビル攻撃の防止は、ステーキングとコミュニティの審査に依存しています。Cuckoo のすべての役割 (マイナー、コーディネーター、場合によってはユーザーでさえも) は、$CAI のステーキングを必要とします。これは即座にシビルアイデンティティのコストを引き上げます。100 個のダミーマイナーを作成する攻撃者は、それぞれについてステークを取得してロックする必要があります。さらに、Cuckoo の設計には人間/コミュニティの要素があります。新しいノードは、オンチェーン投票を通じて評判を得る必要があります。評判のない新鮮なノードのシビル軍団は、多くのタスクを割り当てられたり、ユーザーに信頼されたりする可能性は低いです。特にコーディネーターはユーザーを引き付ける必要があります。実績のない偽のコーディネーターは利用されません。マイナーについては、コーディネーターは Cuckoo Scan で彼らのパフォーマンス統計 (成功したタスクなど) を見ることができ、信頼できるマイナーを好むでしょう。Cuckoo には比較的小さな数のマイナーしかいませんでした (ベータ版のある時点で 40 GPU)。そのため、多くのノードの奇妙な流入は目立つでしょう。潜在的な弱点は、攻撃者が評判システムもファーミングする場合です。例えば、彼らがシビルノードに多くの CAI をステークして評判が良く見せかけたり、偽の「ユーザー」アカウントを作成して自分自身をアップボートしたりする場合です。これは理論的には可能ですが、すべてがトークンキュレーションされているため、そうするにはトークンがかかります (本質的に、自分のステークで自分のノードに投票することになります)。Cuckoo チームは、シビルの行動が観察された場合 (特に、より中央集権的なロールアップサービスになりつつある現在、彼らは悪意のあるアクターを一時停止またはスラッシュすることができます)、ステーキングと報酬のパラメータを調整することもできます。結局のところ、シビルは利害関係 (ステーク) を要求し、コミュニティの承認を必要とすることによって抑制されます。正直な参加者が実際のハードウェアとステークにより良く費やすことができる多額の投資なしに、何百もの偽の GPU を持ってきて報酬を得ることは誰にもできません。
  • 共謀: ここでは、複数の参加者がシステムを悪用するために共謀することを考えます。例えば、Bittensor でバリデーターとマイナーが共謀したり、Gensyn でソルバーとベリファイアが共謀したりするなどです。

    • Bittensor: 共謀は現実的な懸念として特定されています。元の設計では、一握りのバリデーターが共謀して特定のマイナーや自分自身を常にアップボートし、報酬分配を不公平に歪めることができました (これはルートサブネットでの権力集中として観察されました)。Yuma コンセンサスはいくつかの防御を提供します。バリデーターのスコアの中央値を取り、逸脱するものを罰することで、彼らが多数派でない限り、小さな共謀グループがターゲットを劇的に押し上げるのを防ぎます。言い換えれば、10 人のバリデーターのうち 3 人が共謀してマイナーに非常に高いスコアを与えても、他の 7 人がそうしなければ、共謀者の外れ値スコアは切り捨てられ、マイナーの報酬は中央値スコアに基づきます (したがって、共謀は大きな助けにはなりません)。しかし、共謀者がバリデーターの 50% 以上 (またはバリデーター間のステークの 50% 以上) を形成する場合、彼らは事実上コンセンサスそのものです。彼らは偽の高いスコアに合意でき、中央値は彼らの見解を反映します。これは古典的な 51% 攻撃のシナリオです。残念ながら、Arxiv の研究では、トークンの集中度が高いため、参加者 (数で) のわずか 1〜2% の連合がステークの過半数を支配している Bittensor のサブネットがいくつか見つかりました。これは、少数の大口保有者による共謀が信頼できる脅威であったことを意味します。Bittensor が dTAO を通じて追求している緩和策は、影響力を民主化することです。任意の TAO 保有者がサブネットにステークを向けることを許可することで、閉鎖的なバリデーターグループの力を希薄化します。また、凹型ステーキング (過大なステークに対する収益の逓減) やステークキャップのような提案は、1 つの共謀エンティティがあまりにも多くの投票権を集める能力を打ち破ることを目的としています。Bittensor のセキュリティの前提は、現在、プルーフ・オブ・ステークに似ています。単一のエンティティ (またはカルテル) がアクティブなステークの 50% 以上を制御しないことです。それが維持される限り、正直なバリデーターが悪質なスコアリングを上書きし、共謀するサブネットオーナーが恣意的に自分の報酬を増やすことができないため、共謀は制限されます。最後に、サブネットオーナーとバリデーター間の共謀 (例えば、サブネットオーナーがバリデーターに賄賂を渡して、自分のサブネットのマイナーを高く評価させる) について、dTAO は直接的なバリデーターの制御を取り除き、それをトークン保有者の決定に置き換えます。トークン供給を買い占めない限り、「市場」と共謀することはより困難です。その場合、それはもはや共謀ではなく、乗っ取りです。したがって、Bittensor の主要な反共謀技術はアルゴリズムによるコンセンサス (中央値クリッピング)広範なトークン配布です。

    • Gensyn: Gensyn における共謀は、おそらくソルバーとベリファイア (または複数のベリファイア) がシステムを不正に操作するために共謀することを含むでしょう。例えば、ソルバーが偽の結果を生成し、共謀するベリファイアが意図的にそれに異議を唱えない (または、プロトコルがベリファイアに署名を求めた場合にそれが正しいと証明さえする) 可能性があります。これを軽減するために、Gensyn のセキュリティモデルは少なくとも 1 人の正直なベリファイアを必要とします。もしすべてのベリファイアがソルバーと共謀している場合、不正な結果は異議なく通ります。Gensyn は、多くの独立したベリファイア (誰でも検証できる) を奨励し、ベリファイアが共謀から離脱して異議を唱えることで大きな報酬を得ることができるというゲーム理論によってこれに対処します (なぜなら、彼らはソルバーのステークを得るからです)。本質的に、共謀に同意するグループがあっても、各メンバーは離反して自分のために報奨金を請求するインセンティブを持っています。これは古典的な囚人のジレンマの状況です。これにより、共謀グループが小さいか、効果がない状態に保たれることが期待されます。もう 1 つの潜在的な共謀は、複数のソルバーが価格を吊り上げたり、タスクを独占したりすることです。しかし、開発者はタスクをどこに投稿するかを選択でき (そしてタスクは簡単に独占できる同一の単位ではない)、価格におけるソルバーの共謀は世界的に調整するのが難しいでしょう。共謀していないソルバーは、仕事を勝ち取るために安値で入札することができます。オープンマーケットのダイナミクスは、少なくともいくつかの競争力のある参加者がいると仮定すれば、価格設定の共謀に対抗します。もう 1 つの角度: ソルバーを苦しめるためのベリファイアの共謀。例えば、ベリファイアが正直なソルバーを偽って告発して彼らのステークを盗むなどです。Gensyn の不正証明はバイナリでオンチェーンです。偽の告発は、オンチェーンの再計算でエラーが見つからなければ失敗し、おそらく悪意のあるベリファイアは何か (おそらくデポジットや評判) を失うでしょう。したがって、ソルバーを妨害しようとするベリファイアの共謀は、プロトコルの検証プロセスによって捕らえられます。要約すると、Gensyn のアーキテクチャは、共謀するセットの少なくとも 1 つの当事者が正直であるインセンティブを持つ限り堅牢です。これは、ビットコインで最終的に不正を暴露するために 1 人の正直なマイナーを必要とするのと同様のオプティミスティック検証の特性です。攻撃者がタスク内のすべてのベリファイアとソルバーを制御できる場合 (ネットワークの過半数など)、理論的には共謀は可能ですが、その場合、彼らは共謀を必要とせずに不正を行うことができます。暗号経済学的インセンティブは、共謀を維持することを非合理的にするように配置されています。

    • Cuckoo: Cuckoo における共謀は、いくつかの方法で発生する可能性があります:

      1. コーディネーターとマイナーの共謀 – 例えば、コーディネーターが常に友好的なマイナーのセットにタスクを割り当て、報酬を分割し、他の正直なマイナーを無視することができます。コーディネーターはタスクのスケジューリングに裁量権を持っているため、これは起こり得ます。しかし、友好的なマイナーが標準以下であれば、エンドユーザーは遅いまたは質の悪いサービスに気づき、去っていく可能性があるため、コーディネーターは品質を損なう純粋なえこひいきからインセンティブを失います。共謀が報酬を操作するためである場合 (例えば、マイナーにトークンを与えるために偽のタスクを提出するなど)、それはオンチェーンで検出され (おそらく同一の入力または実際のユーザーがいない多くのタスク)、罰せられる可能性があります。Cuckoo のオンチェーンの透明性は、異常なパターンがコミュニティまたはコアチームによってフラグ付けされる可能性があることを意味します。また、すべての参加者がステークしているため、共謀するコーディネーターとマイナーのリングは、システムを悪用していることが発覚した場合、ステークを失う可能性があります (例えば、ガバナンスが不正行為に対して彼らをスラッシュすることを決定した場合)。
      2. マイナー間の共謀 – 彼らは情報を共有したり、カルテルを結成したりして、例えば、評判でお互いに投票したり、特定のコーディネーターへのサービスを拒否してより高い料金を引き出したりするかもしれません。これらのシナリオは可能性が低いです。評判投票はステーカー (ユーザーを含む) によって行われ、マイナー自身がお互いに投票するわけではありません。そして、サービスの拒否は、コーディネーターを他のマイナーを探すか、警告を発するように促すだけです。現在比較的小規模であることを考えると、どんな共謀も隠すのは難しいでしょう。
      3. ガバナンスを操作するための共謀 – 大口の CAI 保有者が共謀して、自分たちに有利な提案 (法外な手数料の設定や財務省の転用など) を可決する可能性があります。これは、どのトークンガバナンスにもあるリスクです。最善の緩和策は、トークンを広く配布し (Cuckoo のフェアローンチは 51% をコミュニティに与えました)、活発なコミュニティの監督を持つことです。また、Cuckoo は L1 から移行したため、新しいチェーンに再定住するまで、即時のオンチェーンガバナンスは制限されるかもしれません。チームは暫定的にマルチシグ制御を保持している可能性が高く、皮肉なことに、一時的に中央集権化される代わりに、悪意のある部外者による共謀を防ぎます。 全体として、Cuckoo は共謀に対処するために透明性とステーキングに依存しています。コーディネーターが競争環境でユーザーを引き付けたいという理由で行動するという信頼の要素があります。共謀がサービスの質の低下や明らかな報酬の悪用につながる場合、ステークホルダーは悪意のあるアクターを投票で排除したり、ステークを停止したりすることができ、ネットワークは彼らをスラッシュまたはブロックすることができます。かなりオープンな性質 (ステークすれば誰でもコーディネーターやマイナーになれる) は、共謀には大規模な協調的な努力が必要であり、それは明白になることを意味します。Bittensor や Gensyn ほど数学的に防止されてはいませんが、経済的なステークとコミュニティガバナンスの組み合わせがチェック機能を提供します。
  • フリーライディング (フリーライダー問題): これは、参加者が同等の価値を貢献せずに報酬を得ようとすることを指します。例えば、実際には評価しないが報酬を得るバリデーター、計算する代わりに他人の答えをコピーするマイナー、または有用な入力を提供せずに報酬をファーミングするユーザーなどです。

    • Bittensor: Bittensor で知られているフリーライダー問題は、怠惰なバリデーターによる**「ウェイトコピー」です。バリデーターは、独立してマイナーを評価する代わりに、多数派の意見 (または別のバリデーターのスコア) を単にコピーすることができます。そうすることで、AI クエリを実行するコストを回避しながら、提出したスコアがコンセンサスに沿っているように見えれば報酬を得ることができます。Bittensor は、各バリデーターのコンセンサスへの整合性情報貢献度を測定することでこれに対抗します。バリデーターが常に他人をコピーするだけなら、彼らはうまく整合するかもしれませんが (そのため、重く罰せられることはありません)、独自の価値を加えません。プロトコル開発者は、正確だが純粋に冗長ではない評価を提供するバリデーターに、より高い報酬を与えることを議論しています。ノイズ注入 (意図的にバリデーターにわずかに異なるクエリを与える) のような技術は、コピーするのではなく、実際に作業することを強制する可能性がありますが、それが実装されているかどうかは不明です。Arxiv は、バリデーターの努力と報酬をより良く結びつけるために、パフォーマンス加重発行と複合スコアリング手法を提案しています。マイナーについては、考えられるフリーライダーの行動は、マイナーが他のマイナーにクエリを送り、その答えを中継することです (盗作の一形態)。Bittensor の設計 (分散型クエリ) は、マイナーのモデルが自身のデンドライトを介して他を呼び出すことを許可するかもしれません。マイナーが単に他人の答えを中継する場合、優れたバリデーターは、その答えがマイナーの主張するモデル能力と一貫して一致しないため、それに気づくかもしれません。アルゴリズム的に検出するのは難しいですが、元の結果を計算しないマイナーは、最終的にいくつかのクエリでスコアが悪くなり、評判を失うはずです。もう 1 つのフリーライダーのシナリオは、AI の作業をせずに報酬を得るデリゲーターでした。それは意図的なものです (トークン保有者を巻き込むため) ので、攻撃ではありませんが、トークン発行の一部がステークしただけの人々に渡ることを意味します。Bittensor はこれを、報酬の無駄遣いではなく、インセンティブの調整として正当化しています。要するに、Bittensor はバリデーターのフリーライダー問題を認識しており、インセンティブを調整しています (逸脱したりコピーしたりしない人々にブーストを与えるバリデータートラストスコアなど)。彼らの解決策は、本質的に努力と正確さをより明示的に報酬する**ことであり、何もしないことや盲目的にコピーすることが、時間とともにより少ない TAO をもたらすようにすることです。
    • Gensyn: Gensyn では、フリーライダーが稼ぐのは難しいでしょう。なぜなら、トークンを得るためには、計算を提供するか、誰かの不正を捕まえるかしなければならないからです。ソルバーは仕事を「偽る」ことはできません。有効な証明を提出するか、スラッシュされるリスクを負う必要があります。タスクをせずに支払いを受けるメカニズムはありません。ベリファイアは理論的にアイドル状態で、他の人が不正を捕まえることを期待することができますが、それでは何も稼げません (なぜなら、不正証明を提出した人だけが報酬を得るからです)。あまりにも多くのベリファイアがフリーライドしようとすると (実際にタスクを再計算しない)、誰もチェックしていないため、不正なソルバーがすり抜けるかもしれません。Gensyn のインセンティブ設計は、ジャックポット報酬によってこれに対処します。不正を捕まえて大きな支払いを得るには1 人のアクティブなベリファイアで十分なので、少なくとも 1 人が常に仕事をするのが合理的です。仕事をしていない他の人は、役に立たないことを除いてネットワークに害を与えません。彼らも報酬を得ません。したがって、システムは自然にフリーライダーを排除します。実際に検証するベリファイアだけが長期的には利益を上げます (他の人はノードにリソースを費やしても何も得られないか、ごくまれに偶然報酬を得るだけです)。プロトコルはまた、どのベリファイアが異議を唱える機会を得るかをランダム化して、すべてのベリファイアが「誰か他の人がやるだろう」と仮定するのを防ぐかもしれません。タスクは個別に支払われるため、一時的なテストネットのインセンティブを除いて、「仕事なしのステーキング報酬」に相当するものはありません。注意すべき領域はマルチタスク最適化です。ソルバーはタスク間で作業を再利用したり、秘密裏に誰か安い人に外注したりするかもしれません (中央集権型のクラウドを使用するなど)。しかし、それは本当に有害なフリーライディングではありません。時間通りに正しい結果を提供すれば、それをどのように行ったかは問題ではありません。それは攻撃というよりは裁定取引のようなものです。要約すると、Gensyn のメカニズム設計は、フリーライダーが利益を得る余地をほとんど残していません。なぜなら、配布されるすべてのトークンは、行われた仕事または罰せられた不正に対応しているからです。
    • Cuckoo: Cuckoo の初期フェーズは、意図せずしてフリーライダー問題を生み出しました。エアドロップと高利回りのステーキングは、トークンをファーミングするためだけにそこにいるユーザーを引き付けました。これらのユーザーは、フォーセットを通じてトークンを循環させたり、エアドロップタスクを悪用したりしました (例えば、無料のテストプロンプトを継続的に使用したり、報酬を請求するために多くのアカウントを作成したりするなど)。これは、長期的なネットワーク価値に貢献することなく行われました。Cuckoo はこれを問題として認識しました。本質的に、人々は AI の出力のためではなく、投機的な報酬を得るためにネットワークを「使用」していました。L1 チェーンを終了し、再焦点を当てるという決定は、これらのインセンティブの不整合を振り払うための一部でした。将来のトークン報酬を実際の使用量に結びつけることによって (つまり、サービスが実際に有料顧客によって使用されているために稼ぐ)、フリーライダーの魅力は減少します。また、マイナー側のフリーライディングのシナリオもあります。マイナーが参加し、タスクを割り当てられ、何らかの方法でそれらを実行せずに報酬を請求する可能性があります。しかし、コーディネーターは結果を検証しています。マイナーが出力なしまたは不正な出力を返した場合、コーディネーターはそれを完了したタスクとしてカウントしないため、マイナーは支払いを受けません。マイナーはまた、簡単なタスクを選り好みし、難しいタスクをドロップしようとするかもしれません (例えば、一部のプロンプトが遅い場合、マイナーはそれらを避けるために切断するかもしれません)。これは問題になる可能性がありますが、コーディネーターはマイナーの信頼性を記録することができます。マイナーが頻繁にドロップする場合、コーディネーターは彼らへの割り当てを停止するか、彼らのステークをスラッシュすることができます (そのようなメカニズムが存在する場合、または単に報酬を与えない場合)。ユーザーのフリーライディング – 多くの AI サービスには無料トライアルがあるため、ユーザーは支払わずにアウトプットを得るためにリクエストをスパムする可能性があります (補助金付きモデルがある場合)。それはプロトコルレベルというよりはサービスレベルの問題です。各コーディネーターは無料利用をどのように処理するかを決定できます (例えば、少額の支払いを要求したり、スロットルしたりするなど)。Cuckoo は当初、無料の景品 (ユーザーを引き付けるための無料の AI 画像生成など) を提供していたため、一部の人がそれを利用しましたが、それは予想される成長マーケティングの一部でした。それらのプロモーションが終了すると、ユーザーは支払わなければならなくなり、悪用する無料の昼食はなくなります。全体として、Cuckoo のトークン配布を実際のユーティリティにマッピングするという新しい戦略は、「意味のないループを行うためのトークンマイニング」というフリーライダー問題を排除することを明確に目的としています。
  • データまたはモデルのポイズニング: これは、AI モデルが劣化したり、出力が操作されたりするように、悪意を持って不正なデータや行動を導入すること、および有害または偏ったコンテンツが貢献される問題を指します。

    • Bittensor: Bittensor におけるデータポイズニングは、マイナーが意図的に不正確または有害な回答を与えること、またはバリデーターが意図的に良い回答を悪いと誤って評価することを意味します。マイナーが一貫してゴミや悪意のあるコンテンツを出力する場合、バリデーターは低いスコアを与え、そのマイナーはほとんど稼げず、最終的に脱落します。経済的インセンティブは品質を提供することにあるため、他人を「ポイズニング」することは攻撃者に利益をもたらしません (彼らの目標が純粋に自己の費用での妨害である場合を除く)。悪意のあるマイナーが他人をポイズニングすることはできるでしょうか?Bittensor では、マイナーは直接お互いをトレーニングしません (少なくとも設計上はそうではありません。ポイズニングされる可能性のあるグローバルモデルが更新されることはありません)。各マイナーのモデルは別々です。彼らは、マイナーが自分自身をファインチューニングするために他の人から興味深いサンプルを取ることができるという意味で学習しますが、それは完全に任意であり、それぞれ次第です。悪意のあるアクターが無意味な回答をスパムした場合、正直なバリデーターはそれをフィルタリングします (低いスコアを付けます)。したがって、正直なマイナーのトレーニングプロセスに大きな影響を与えることはありません (加えて、マイナーは低いスコアのピアの知識ではなく、高いスコアのピアの知識を使用する可能性が高いです)。したがって、古典的なデータポイズニング (モデルを破損させるために不正なトレーニングデータを注入する) は、Bittensor の現在の設定では最小限です。より関連性の高いリスクはモデル応答の操作です。例えば、バリデーターには明らかではない、微妙に偏った、または危険なコンテンツを出力するマイナーなどです。しかし、バリデーターも人間が設計した、または少なくともアルゴリズムのエージェントであるため、露骨な毒性やエラーは捕捉される可能性が高いです (一部のサブネットには、安全でないコンテンツをチェックする AI バリデーターさえあるかもしれません)。最悪のシナリオは、攻撃者が何らかの方法でバリデーターとマイナーの過半数を共謀させて、特定の不正確な出力を「正しい」として押し通す場合です。彼らは応答に関するネットワークのコンセンサスを偏らせることができます (すべての共謀するバリデーターが悪意のある回答をアップボートするなど)。しかし、外部ユーザーがそれによって害を受けるためには、実際にネットワークにクエリを送り、その出力を信頼する必要があります。Bittensor はまだ能力を構築している段階であり、エンドユーザーによる重要なクエリに広く使用されているわけではありません。その時までには、コンテンツフィルタリングとバリデーターの多様性を持って、そのようなリスクを軽減することを期待しています。バリデーター側では、悪意のあるバリデーターがポイズニングされた評価を与える可能性があります。例えば、競争を排除するために特定の正直なマイナーを一貫してダウンボートするなどです。十分なステークがあれば、彼らはそのマイナーを追い出すことに成功するかもしれません (マイナーの報酬が非常に低くなり、彼らが去る場合)。これはインセンティブメカニズムへの攻撃です。繰り返しになりますが、彼らが多数派でなければ、中央値クリッピングが外れ値のバリデーターを阻止します。彼らが多数派である場合、それは共謀/51% のシナリオと合流します。どの多数派もルールを書き換えることができます。解決策は分散化に戻ります。どの 1 つのエンティティも支配しないようにすることです。要約すると、Bittensor の設計は、そのスコアリングシステムを通じてポイズニングされたデータ/モデルの貢献を本質的に罰します。不正な貢献は低い重み、したがって低い報酬を得ます。ポイズニングするための永続的なモデルリポジトリはありません。すべてが動的で、継続的に評価されます。これにより回復力が提供されます。ネットワークは、バリデーターによって貢献がフィルタリングされるにつれて、悪意のあるアクターを徐々に「忘れる」か無視することができます。
    • Gensyn: ソルバーがトレーニング中のモデルをポイズニングしたい場合 (トレーニング中にバックドアやバイアスを導入するなど)、それを秘密裏に行おうとする可能性があります。Gensyn プロトコルは、トレーニングが指定されたアルゴリズム (確率的勾配降下法のステップなど) に従って進行したことを検証しますが、ソルバーが通常の検証メトリクスには現れない微妙なバックドアトリガーを導入したかどうかを必ずしも検出しません。これはより陰湿な問題です。計算の失敗ではなく、トレーニングの許容される自由度の範囲内での操作です (トリガーフレーズに向けて重みを調整するなど)。それを検出することは、ML セキュリティにおける活発な研究問題です。Gensyn には、サブミッターが最終モデルを自分で選択したテストセットで評価できるという事実を除いて、モデルポイズニングのための特別なメカニズムはありません。賢明なサブミッターは、常に返されたモデルをテストすべきです。いくつかの入力で失敗したり、奇妙な動作をしたりすることを発見した場合、結果に異議を唱えたり、支払いを拒否したりするかもしれません。おそらく、プロトコルはサブミッターが特定の受け入れ基準 (「モデルはこの秘密のテストセットで少なくとも X の精度を達成しなければならない」など) を指定できるようにし、ソルバーの結果が失敗した場合、ソルバーは全額の支払いを受けないようにすることができます。これにより、攻撃者は評価基準を満たさないため、ポイズニングが抑止されます。しかし、ポイズニングが通常のテストでの精度に影響を与えない場合、すり抜ける可能性があります。Gensyn のベリファイアは計算の完全性のみをチェックし、モデルの品質はチェックしないため、トレーニングログが有効に見える限り、意図的な過学習やトロイの木馬を捕まえません。したがって、これはタスクレベルでの信頼の問題として残ります。サブミッターは、ソルバーがモデルをポイズニングしないことを信頼するか、単一のソルバーの影響を薄めるために、異なるソルバーからの複数のトレーニング結果をアンサンブルするような方法を使用する必要があります。もう 1 つの角度はデータポイズニングです。サブミッターがトレーニングデータを提供する場合、悪意のあるソルバーはそのデータを無視して何か別のものでトレーニングしたり、ゴミデータを追加したりする可能性があります。しかし、それはおそらく精度を低下させ、サブミッターは出力モデルのパフォーマンスでそれに気づくでしょう。ソルバーはその後、全額の支払いを受けません (おそらく、彼らはパフォーマンス目標を達成したいからです)。したがって、パフォーマンスを低下させるポイズニングは、ソルバーの報酬にとって自己破壊的です。パフォーマンスに中立だが悪意のあるポイズニング (バックドア) だけが本当の危険であり、それは典型的なブロックチェーン検証の範囲外です。それは機械学習のセキュリティの課題です。Gensyn の最善の緩和策は、おそらく社会的です。既知の評判の良いモデルを使用し、複数のトレーニングランを行い、オープンソースツールを使用することです。推論タスク (Gensyn が推論ジョブにも使用される場合) では、共謀するソルバーが特定の回答を偏らせる不正確な出力を返す可能性があります。しかし、ベリファイアは同じモデルを実行すれば不正な出力を捕まえるので、それはポイズニングというよりは単なる不正行為であり、不正証明が対処します。要約すると、Gensyn はプロセスを保護しますが、意図は保護しません。トレーニング/推論が正しく行われたことを保証しますが、結果が良いか、隠れた悪意がないことを保証するわけではありません。それは未解決の問題として残っており、Gensyn のホワイトペーパーはまだそれを完全には解決していないでしょう (ほとんど誰も解決していません)。
    • Cuckoo: Cuckoo は現在、推論 (既存のモデルの提供) に焦点を当てているため、データ/モデルのポイズニングのリスクは、出力操作またはコンテンツポイズニングに比較的に限定されています。悪意のあるマイナーは、実行するように与えられたモデルを改ざんしようとするかもしれません。例えば、Stable Diffusion のチェックポイントが提供された場合、それを、すべての画像に微妙な透かしや広告を挿入する可能性のある別のモデルと交換するかもしれません。しかし、モデルオーナーであるコーディネーターは、通常、出力形式の期待を持ってタスクを送信します。マイナーが一貫して仕様外の出力を返す場合、コーディネーターはそのマイナーにフラグを立てて禁止します。また、マイナーは、出力に著しく影響を与えることなくモデルを簡単に変更することはできません。もう 1 つのシナリオは、Cuckoo がコミュニティでトレーニングされたモデルを導入する場合です。その場合、マイナーやデータプロバイダーは、トレーニングデータをポイズニングしようとするかもしれません (例えば、多くの間違ったラベルや偏ったテキストを入力するなど)。Cuckoo は、クラウドソースデータの検証または貢献者の重み付けを実装する必要があります。これはまだ機能ではありませんが、チームのパーソナライズされた AI (AI ライフコーチや学習アプリの言及など) への関心は、最終的にユーザー提供のトレーニングデータを扱う可能性があり、それには慎重なチェックが必要になることを意味します。コンテンツの安全性については、Cuckoo のマイナーは推論を実行するため、モデルが通常は出力しない有害なコンテンツを出力することを心配するかもしれません。しかし、マイナーは任意に出力を変更するインセンティブを持っていません。彼らは創造性ではなく、正しい計算に対して報酬を受けます。どちらかといえば、悪意のあるマイナーは時間を節約するために完全な計算をスキップするかもしれません (例えば、ぼやけた画像や一般的な応答を返すなど)。コーディネーターやユーザーはそれに気づき、そのマイナーをダウンレートします (そして、おそらくそのタスクの支払いはしません)。プライバシーは別の側面です。悪意のあるマイナーはユーザーデータを漏洩または記録するかもしれません (ユーザーが機密性の高いテキストや画像を入力した場合など)。これはポイズニングではありませんが、機密性への攻撃です。Cuckoo のプライバシーに関するスタンスは、プライバシー保護手法を模索しているということです (エコシステムにおけるプライバシー保護 VPN の言及は、将来の焦点を示唆しています)。彼らは、セキュアエンクレーブや分割推論のような技術を組み込んで、マイナーからデータをプライベートに保つことができます。まだ実装されていませんが、既知の考慮事項です。 最後に、Cuckoo のブログは、モデルのトークン化を実現可能にする鍵として、モデルの出力を効果的に検証し、安全な分散型モデル運用を保証することを強調しています。これは、AI を真に分散化するためには、ポイズニングされた出力や誤動作するモデルのようなものから保護しなければならないことを認識していることを示しています。おそらく、彼らは暗号経済学的インセンティブ (悪意のあるアクターに対するステークスラッシュ) とユーザー評価システム (ユーザーが悪質な出力をフラグ付けでき、それらのマイナーは評判を失う) の組み合わせを使用するつもりでしょう。評判システムはここで役立ちます。マイナーが 1 つでも明らかに悪意のある、または不正確な結果を返した場合、ユーザー/コーディネーターは彼らをダウンボートでき、将来の収益能力に大きな影響を与えます。これを知っているマイナーは、一貫して正しくあり、ポイズニングを紛れ込ませないようにインセンティブを与えられます。 本質的に、Cuckoo は信頼するが検証するというアプローチに依存しています。誰かが不正行為をした場合、特定して削除する (罰としてステークを失う) という、より伝統的な方法です。まだ微妙なモデルポイズニングに対する専門的な防御策はありませんが、特定のアプリオーナー (コーディネーター) が担当する構造は、監督のレイヤーを追加します。これらのオーナーは、自分たちの収益と評判がそれに依存しているため、モデルの完全性を損なうものがないことを保証する動機付けがあります。

結論として、分散型 AI ネットワークは新しい攻撃対象領域を導入しますが、暗号学的、ゲーム理論的、およびコミュニティガバナンスによる防御の組み合わせも展開しています: シビル耐性は、主に経済的なステークを参加に要求することによって処理されます。共謀耐性は、インセンティブの調整 (正直な行動がより収益性が高い) と、小さな共謀グループの影響を制限するコンセンサスメカニズムから生まれます。フリーライダー防止は、報酬を実際の有用な作業と密接に結びつけ、何も貢献しない者を罰するか排除することによって達成されます。ポイズニングおよび関連する攻撃は依然として困難ですが、システムは継続的な評価と悪意のあるアクターをスラッシュまたは追放する能力を通じて、露骨なケースを軽減します。これらのプラットフォームは、安全で自己持続可能な分散型 AI エコシステムを確保するために、これらの設計を積極的に研究し、反復しています。これは、Bittensor の Yuma と dTAO への継続的な調整、および Cuckoo のトークノミクスの転換によって証明されています。

比較評価

Bittensor、Gensyn、Cuckoo AI の違いと類似点を強調するために、次の表は主要な側面における並列比較を提供します:

側面Bittensor (TAO)GensynCuckoo AI (CAI)
技術スタックカスタム L1 (Substrate ベースの Subtensor チェーン) と 93 以上の専門 AI サブネット。独自のチェーン上で EVM 互換 (最近のアップグレード後)。Ethereum ベースのロールアップ (当初は L1 を計画、現在は ETH ロールアップ)。オンチェーン検証を伴うオフチェーン計算。Arbitrum Orbit レイヤー 2 チェーン (EVM ロールアップ) としてローンチ。フルスタックプラットフォーム (独自のチェーン + コンピューティング + アプリ UI)。カスタム L1 から Ethereum 共有セキュリティ (ロールアップ/AVS) に移行中。
主要な焦点モデルの分散型 AI ネットワーク (「ニューラルインターネット」)。ノードは、タスク (LLM、ビジョンなど) 全体で集合的なモデル推論とトレーニングに貢献する。ML のための分散型コンピューティングマーケットプレイス。ブロックチェーンを介して作業を検証しながら、グローバルな GPU によるオフチェーンのモデルトレーニングと推論に重点を置く。分散型 AI サービスプラットフォーム。分散 GPU マイナーを使用したモデル提供/推論 (例: 生成アート、LLM API) に焦点を当てる。エンドユーザーアプリケーションをバックエンドの GPU マーケットプレイスと統合する。
主要な役割サブネットオーナー: サブネット内のタスクと検証を定義 (18% の報酬を獲得)。
マイナー: AI モデル (推論/トレーニング) を実行し、回答を提供。
バリデーター: クエリを投げかけ、マイナーの出力をスコアリング (品質をキュレーション)。
デリゲーター: マイナー/バリデーターに TAO をステークして増幅し、シェアを獲得。
サブミッター (開発者): ML ジョブ (モデル/データ付き) と支払いを投稿。
ソルバー: 自身のハードウェアでタスクを計算し、結果を提出。
ベリファイア (ウォッチャー): ソルバーの結果をチェック。不正な場合は不正証明を介して異議を申し立てることができる。
(サブミッターがモデルを提供するため、明確な「オーナー」の役割はなし。トークン保有者を介したガバナンスの役割)。
AI アプリビルダー (コーディネーター): AI モデルサービスをデプロイし、CAI をステークし、マイナーへのタスクを管理。
マイナー (GPU/CPU プロバイダー): CAI をステークし、割り当てられた推論タスクを実行し、結果を返す。
エンドユーザー: AI アプリを使用 (暗号通貨で支払うか、リソースを貢献)。
ステーカー (デリゲーター): コーディネーター/マイナーにステークし、ガバナンスで投票し、報酬のシェアを獲得。
コンセンサスと検証Yuma コンセンサス: カスタムの「プルーフ・オブ・インテリジェンス」 – AI 出力のバリデーターのスコアが集計され (ステーク加重中央値)、マイナーの報酬が決定される。基盤となるチェーンのコンセンサスはブロックに対して PoS に似ている (Substrate) が、ブロックの有効性は各エポックの AI コンセンサスにかかっている。外れ値のスコアリングと 50% までの共謀に耐性がある。オプティミスティック検証 (Truebit スタイル): ベリファイアが異議を唱えない限り、ソルバーの結果は正しいと仮定。対話的なオンチェーンの不正証明を使用して、不正なステップを特定。また、再実行なしでトレーニングの進捗を検証するために計算の暗号学的証明 (プルーフ・オブ・ラーニング) を実装中。Ethereum がトランザクションの基本コンセンサスを提供。プルーフ・オブ・ステークチェーン + コーディネーターによるタスク検証: Cuckoo Chain はブロック生成に PoS バリデーターを使用 (当初はマイナーもブロックの保護を支援)。AI タスクの結果は、コーディネーターノードによって検証される (マイナーの出力を期待されるモデルの動作と照合)。まだ専門的な暗号証明はなく、ステークと評判に依存 (不正行為が自動的な数学的証明検出ではなく、スラッシングやダウンボートにつながる範囲でトラストレス)。台帳のセキュリティのために Ethereum コンセンサス (ロールアップ) に移行中。
トークンとユーティリティTAO トークン: Subtensor 上のネイティブ通貨。ステーキング (登録とコンセンサスへの影響に必要)、トランザクション手数料/支払い (例: AI クエリの支払い)、および貢献 (マイニング/検証) に対する報酬として使用。TAO には継続的なインフレがあり (12 秒ブロックごとに 1 TAO)、これが報酬メカニズムを駆動する。また、ガバナンス (サブネットへの dTAO ステーキング) でも使用される。Gensyn トークン (ERC-20、名称未定): プロトコルの支払い単位 (開発者はソルバーにそれで支払う)。ステーク担保として機能 (ソルバー/ベリファイアはトークンをボンドし、不正行為でスラッシュされる)。ガバナンスで使用される (Gensyn 財団の DAO を介したプロトコルアップグレードの投票)。供給に関する詳細はまだない。おそらく一部は初期採用 (テストネットなど) を奨励するために割り当てられる。CAI トークン (ERC-20): Cuckoo Chain のネイティブトークン (10 億の固定供給)。多目的: Cuckoo Chain 上のトランザクションのガス料金、ネットワークの役割 (マイナー、コーディネーターは CAI をロックする必要がある) のためのステーキング、プロトコルの決定に関するガバナンス投票、および貢献に対する報酬 (マイニング/ステーキング報酬は初期割り当てから)。ミーム的な魅力もある (コミュニティトークンの側面)。
資産のトークン化計算: はい – AI 計算作業は TAO 報酬を介してトークン化される (TAO を知性のための「ガス」と考える)。モデル: 間接的に – モデルはパフォーマンスに基づいて TAO を稼ぐが、モデル/重み自体はオンチェーン資産ではない (モデルの NFT はない)。サブネットの所有権は、モデルマーケットプレイスのシェアを表すためにトークン化される (サブネットオーナー NFT + アルファトークン)。データ: トークン化されていない (データはオフチェーン。Bittensor はデータセットではなくモデルの出力に焦点を当てる)。計算: はい – アイドル状態の計算はオンチェーンの商品となり、ジョブマーケットプレイスでトークンと交換される。モデル: 明示的にはない – モデルは開発者によってオフチェーンで提供され、結果が返される。組み込みのモデルトークンはない (ただし、当事者が設定すればプロトコルはライセンスを促進できる)。データ: ない – データセットはサブミッターとソルバーの間でオフチェーンで処理される (暗号化または保護される可能性があるが、オンチェーン資産として表現されない)。Gensyn のビジョンには、計算のようにアルゴリズムやデータを取引する可能性が含まれているが、コア実装は計算中心。計算: はい – GPU 時間は日々の CAI 支払いとタスク報奨金を介してトークン化される。ネットワークは計算能力をマイナーが CAI と「交換」するリソースとして扱う。モデル: 部分的に – プラットフォームはモデルをサービスとして統合する。しかし、モデル自体は NFT としてミントされない。モデルの価値は、それを使用するユーザーから CAI を稼ぐコーディネーターの能力に捉えられる。将来の計画はコミュニティ所有のモデルを示唆しているが、現在モデルの IP はオフチェーン (コーディネーターを運営する者が所有)。データ: 一般的なデータのトークン化はない。ユーザーの入出力は一時的。(Cuckoo は Beancount などのアプリと提携しているが、データはチェーン上のトークンで表現されない)。
ガバナンス分散型、トークン保有者主導 (dTAO): 当初は 64 人の選出されたバリデーターがルートコンセンサスを運営。現在はガバナンスはオープン – TAO 保有者がサブネットにステークして発行を指示 (市場ベースのリソース配分)。プロトコルのアップグレードと変更は、オンチェーン提案 (TAO 投票、Bittensor 財団/評議会が促進) を介して決定される。財団が徐々に制御を譲り、完全にコミュニティによって統治されることを目指す。段階的な分散化: Gensyn 財団 + 選出された評議会が初期の決定を管理。トークンローンチ後、ガバナンスはトークン保有者が提案に投票する DAO に移行する (多くの DeFi プロジェクトと同様)。Ethereum の共有セキュリティ環境は、主要な変更がコミュニティと潜在的にレイヤー 1 のガバナンスを伴うことを意味する。ガバナンスの範囲には、経済パラメータ、コントラクトのアップグレード (セキュリティ監査の対象) が含まれる。まだ稼働していないが、メインネット後のライトペーパーで概説されている。コミュニティと財団の混合: Cuckoo は「フェアローンチ」の精神でローンチ (インサイダー向けのプレマインなし)。コミュニティ DAO が意図されており、主要な決定とプロトコルのアップグレードについて CAI が投票する。実際には、コアチーム (Cuckoo Network 開発者) が主要な決定 (チェーンの廃止など) を主導してきたが、彼らはその根拠を透明に共有し、コミュニティの利益のための進化として位置づけている。オンチェーンガバナンス機能 (提案、投票) は、新しいロールアップが導入されたときに実装される可能性が高い。ステーキングはまた、評判システム (信頼できるノードに対するステーク加重投票) を通じて非公式にガバナンスの影響力を与える。
インセンティブモデル貢献に連動したインフレ報酬: ブロックごとに約 1 TAO がパフォーマンスに基づいて参加者に分配される。品質 = より多くの報酬。マイナーとバリデーターは継続的に (ブロックごとに) 稼ぎ、加えてデリゲーターは分け前を得る。TAO はエンドユーザーがサービスを支払うためにも使用され (トークンの需要側を創出)、トークン経済は長期的な参加 (ステーキング) とモデルの絶え間ない改善を奨励するように設計されている。これはビットコインのマイナーに似ているが、「AI をマイニング」する。潜在的な問題 (ステークの集中化が報酬の不整合につながる) は、インセンティブの調整を通じて対処されている。市場主導、成果報酬: 継続的なインフレ利回りはない (初期のインセンティブの可能性を除く)。ソルバーは仕事を成功裏に完了したときにのみ支払いを受ける。ベリファイアは不正を捕まえたときにのみ支払いを受ける (ジャックポットインセンティブ)。これにより直接的な経済が生まれる: 開発者の支出 = プロバイダーの収益。トークンの価値は、計算に対する実際の需要に結びついている。ブートストラップのために、Gensyn はおそらくローンチ時にテストネットユーザーに報酬を与える (一度きりの配布) が、定常状態では使用量ベース。これにより、インセンティブはネットワークのユーティリティと密接に一致する (AI ジョブが増加すれば、トークンの使用量が増加し、すべての保有者に利益をもたらす)。ハイブリッド (インフレから使用料へ移行): 当初、51% のコミュニティプールからのマイニングとステーキングの割り当ては、外部の使用量に関係なく GPU マイナー (供給の 30%) とステーカー (11%) に報酬を与えた。これはネットワーク効果を始動させるためだった。時間とともに、特に L1 廃止後、収益分配に重点が置かれる: マイナーとアプリ開発者は、実際のユーザー支払い (例: 画像生成の手数料を分割) から稼ぐ。ステーカーの利回りは、実際の使用量の一部から得られるか、生産的なノードのみをサポートするように調整される。したがって、初期のインセンティブは「ネットワークを成長させる」 (高い APY、エアドロップ) であり、後には「ネットワークが実際に有用であれば成長する」 (顧客からの収益) となる。この移行は、フリーライダーを排除し、持続可能性を確保するために設計されている。
セキュリティと攻撃緩和策シビル: 高価な登録 (TAO ステーク) がシビルを抑止。共謀: 中央値コンセンサスが 50% のステークまでの共謀に抵抗。dTAO はトークン保有者の投票を強化することでバリデーターの寡頭制を打破。不正: コンセンサスから逸脱するバリデーターは報酬シェアを失う (正直なスコアリングを奨励)。ステークが高度に集中している場合、51% 攻撃が可能 – 研究では、これを軽減するためにステークキャップとパフォーマンススラッシングを追加することが示唆されている。モデル攻撃: 不良または悪意のあるモデルの出力は、低いスコアによって罰せられる。単一障害点なし – ネットワークはグローバルに分散化されている (TAO マイナーは世界中に存在し、擬似匿名的)。シビル: 参加には経済的なステークが必要。ステーク/仕事のない偽のノードは何も得られない。検証: 少なくとも 1 人の正直なベリファイアが必要 – そうであれば、どんな不正な結果も捕らえられ、罰せられる。不正行為が割に合わないようにするために暗号経済学的インセンティブを使用 (ソルバーはデポジットを失い、ベリファイアは得る)。共謀: すべての当事者が共謀しない限り安全 – 1 人の正直者が不正を明らかにすることでスキームを破る。信頼: ハードウェアや企業への信頼に依存せず、経済的なゲーム理論と暗号学にのみ依存。攻撃: タスクが分散されているため、検閲や DoS が困難。攻撃者は正直なノードを上回る入札をするか、一貫して不正証明を打ち破る必要がある (過半数の制御なしではあり得ない)。しかし、微妙なモデルのバックドアは検出を逃れる可能性があり、これは既知の課題 (ユーザーテストと、単なる正しい実行を超えた将来の監査によって軽減される可能性がある)。全体的なセキュリティは、計算のためのオプティミスティックロールアップに類似。シビル: すべてのアクターは CAI をステークする必要があり、シビルのハードルを上げる。加えて、評判システム (ステーキング + 投票) は、評判のないシビルアイデンティティがタスクを得られないことを意味する。ノードの不正行為: コーディネーターはパフォーマンスの悪い、または疑わしいマイナーをドロップできる。ステーカーはサポートを撤回できる。プロトコルは証明された不正に対してステークをスラッシュできる (L1 にはコンセンサスのためのスラッシング条件があった。同様のことがタスクの不正にも適用できる)。共謀: 部分的に信頼ベース – 共謀が支配するのを防ぐために、オープンな競争とコミュニティの監督に依存。タスクと支払いはオンチェーンで公開されているため、露骨な共謀は特定され、社会的にまたはガバナンスを通じて罰せられる可能性がある。ユーザー保護: ユーザーは、1 つが検閲されたり破損したりした場合にプロバイダーを切り替えることができ、単一の制御点がないことを保証。ポイズニング/コンテンツ: 設計上、マイナーは提供されたモデルをそのまま実行する。悪意を持って出力を変更した場合、評判と報酬を失う。システムは合理的なアクターに賭けている: 全員がステークされた価値と将来の収益の可能性を持っているため、ネットワークへの信頼を損なう攻撃からインセンティブを失う (インセンティブをユーティリティと一致させることに関する L1 実験からの重い教訓によって強化されている)。

表: Bittensor、Gensyn、Cuckoo AI のアーキテクチャ、焦点、役割、コンセンサス、トークン、資産のトークン化、ガバナンス、インセンティブ、セキュリティにおける機能比較。

Camp Network:AIの数十億ドル規模の知的財産問題に挑むブロックチェーン 🏕️

· 約 6 分
Dora Noda
Software Engineer

生成AIの台頭は爆発的と言っても過言ではありません。驚くべきデジタルアートから人間らしいテキストまで、AIは前例のない規模でコンテンツを生成しています。しかし、このブームには暗い側面があります。AIはどこからトレーニングデータを得ているのでしょうか?多くの場合、インターネット上の膨大な領域、すなわち人間が作成したアート、音楽、文章などから取得されており、これらのクリエイターはクレジットや報酬を受け取っていません。

そこで登場するのが Camp Network です。これは単なる暗号プラットフォームではなく、AI時代におけるクリエイターの所有権とコントロールを提供することを目的とした「自律的知的財産レイヤー」です。Camp Network が注目すべきプロジェクトである理由を見ていきましょう。


大きなアイデアは?

Camp Network の本質は、知的財産(IP)をグローバルかつ検証可能なレジストリとして機能するブロックチェーンです。独立したアーティストからソーシャルメディアユーザーまで、誰でも自分のコンテンツをオンチェーンで登録できるようにし、所有権と出所の永続的かつ改ざん不可能な記録を作ります。

なぜ重要なのでしょうか?AI が Camp に登録されたコンテンツを使用した場合、ネットワークのスマートコントラクトが自動的にライセンス条件を適用できます。これにより、元のクリエイターは帰属表示を受け、ロイヤリティが即座に支払われる可能性があります。Camp のビジョンは、報酬が後付けではなく、プロトコル自体に組み込まれた新しいクリエイターエコノミーを構築することです。


技術スタックの裏側

Camp は概念だけではなく、高性能かつ開発者フレンドリーな実装がなされています。

  • モジュラーアーキテクチャ:Camp は Celestia をデータ可用性レイヤーとした主権ロールアップとして構築されています。この設計により、秒間 50,000 トランザクションを目指す高速かつ低コストな動作が可能で、Ethereum のツール(EVM)との完全互換性も保たれます。
  • Proof of Provenance(PoP):Camp 独自のコンセンサスメカニズムです。エネルギー集約型のマイニングに依存せず、ネットワークのセキュリティはコンテンツの出所検証に結び付けられます。各トランザクションが IP の出所を強化し、所有権を「設計上強制可能」にします。
  • デュアル VM 戦略:パフォーマンス最大化のため、Camp は Solana Virtual Machine(SVM) を EVM 互換性と共に統合しています。これにより、開発者はリアルタイム AI インタラクションなど高スループットが求められるユースケースに最適な環境を選択できます。
  • クリエイター & AI ツールキット:Camp は二つの主要フレームワークを提供します
    • Origin Framework:クリエイターが IP を登録し、NFT としてトークン化し、ライセンス規則を埋め込むためのユーザーフレンドリーなシステム。
    • mAItrix Framework:開発者がオンチェーン IP と安全かつ許可制でやり取りできる AI エージェントを構築・デプロイするためのツールキット。

人材・パートナーシップ・進捗

アイデアは実行力が伴って初めて価値がありますが、Camp はその点で順調に進んでいるようです。

チームと資金調達

プロジェクトは The Raine Group(メディア&IP取引)、Goldman SachsFigmaCoinList の経験豊富なメンバーで構成されています。この金融・テック・暗号エンジニアリングの融合により、1kxBlockchain CapitalMaven 11 といったトップ VC から 3,000 万ドル の資金調達に成功しました。

エコシステムの拡大

Camp は積極的にパートナーシップを構築しています。最大のハイライトは KOR Protocol への戦略的出資です。KOR は音楽 IP をトークン化するプラットフォームで、Deadmau5Black Mirror などの大物アーティストと提携しています。この提携により、Camp は権利クリア済みのハイプロファイルコンテンツを大量に取り込むことができます。他の主要パートナーは以下の通りです:

  • RewardedTV:Camp を利用してオンチェーンコンテンツ権利を管理する分散型動画配信プラットフォーム。
  • Rarible:IP 資産の取引を可能にする NFT マーケットプレイス。
  • LayerZero:他ブロックチェーンとの相互運用性を確保するクロスチェーンプロトコル。

ロードマップとコミュニティ

数万人規模のユーザーを惹きつけたインセンティブテストネットキャンペーンを成功させた後、Camp は 2025 年第3四半期のメインネットローンチ を目指しています。ローンチと同時にネイティブトークン $CAMP のトークンジェネレーションイベントが開催され、ガス代、ステーキング、ガバナンスに利用されます。プロジェクトはすでに、ローンチ初日からプラットフォーム上で構築・利用したいという情熱的なコミュニティを育成しています。


競合比較

Camp Network はこの領域で唯一無二というわけではありません。a16z 支援の Story ProtocolSony 連携の Soneium といった競合プロジェクトが存在します。しかし、Camp は以下の点で差別化されています。

  1. ボトムアップアプローチ:競合が大手企業の IP 保有者を対象にするのに対し、Camp はトークンインセンティブを通じて 独立クリエイターや暗号コミュニティ をエンパワーメントします。
  2. 包括的ソリューション:IP レジストリから AI エージェントフレームワークまで、ワンストップで提供するツール群が揃っています。
  3. パフォーマンスとスケーラビリティ:モジュラーアーキテクチャとデュアル VM の組み合わせにより、AI とメディアの高スループット要求に応えられます。

結論

Camp Network は、Web3 時代における知的財産の基盤レイヤーとなる有力な候補です。革新的な技術、強力なチーム、戦略的パートナーシップ、そしてコミュニティ第一の姿勢が組み合わさり、生成 AI がもたらす最も喫緊の課題に対する実用的な解決策を提示しています。

真の試練はメインネットのローンチと実世界での採用です。しかし、これまでの明確なビジョンと堅実な実行力を見る限り、Camp Network はデジタルクリエイターにとってより公平な未来を築く鍵となるプロジェクトであることは間違いありません。

Meet BeFreed.ai – BlockEden.xyz ビルダーのための学習燃料

· 約 4 分
Dora Noda
Software Engineer

なぜ BlockEden.xyz が関心を持つのか

Web3 のスピードが命の世界では、迅速さがすべてです。プロダクションレベルの RPC やステーキングインフラを提供するため、私たちのチームとコミュニティは常にイノベーションの最前線に立ち続けなければなりません。つまり、密度の高いプロトコル、画期的な暗号論文、急速に変化するガバナンススレッドを把握し続ける必要があります。コミュニティが新しいアイデアを早く吸収し理解できれば、次世代の分散型アプリケーションをより速く構築できます。ここで BeFreed.ai の出番です。

BeFreed.ai とは何か

BeFreed.ai はサンフランシスコ拠点のスタートアップで、シンプルながら強力なミッションを掲げています。AI 時代に学習を楽しく、個人的なものにすることです。彼らは、ビルダーやクリエイターの過酷なライフスタイルに合わせたインテリジェントなマイクロラーニングコンパニオンを開発しました。

コア要素

  • 複数フォーマット → ワンクリック: BeFreed.ai は長大な書籍や詳細な動画、複雑な技術文書まで、幅広いコンテンツを瞬時に要約、フラッシュカード、詳細ノート、さらにはポッドキャスト形式の音声へと変換します。
  • 適応エンジン: プラットフォームは利用者と共に学習します。学習速度や関心に注意を払い、次に提示する情報を最も関連性の高いものに絞ります。画一的なカリキュラムを強制しません。
  • 組み込みチャット & 「なぜこれ」エクスプラナー: 質問がありますか? すぐに聞くだけで OK。BeFreed.ai はその場で複雑なトピックを明確にし、新たな洞察を全体的な目標に結びつけて説明します。学習プロセスがより意味深いものになります。
  • 4.3万人規模の学習コミュニティ: 学習はしばしば共同作業です。BeFreed.ai は 43,000 人以上の学習者が進捗を共有し、洞察に反応し、重要なポイントをハイライトする活気あるコミュニティを育み、モチベーションと勢いを保ちます。

BlockEden.xyz ビルダーにとっての重要性

BlockEden.xyz エコシステムの献身的なビルダーにとって、BeFreed.ai は単なる学習ツールではなく、戦略的優位性です。以下のようにエッジを研ぎ澄ますことができます。

  • 時間のレバレッジ: 300 ページのホワイトペーパーを 10 分間の音声ブリーフに変換し、重要なガバナンス投票の前に聞くことができます。
  • コンテキスト保持: フラッシュカードやマインドマップを使って、スマートコントラクトインデックス作成時に必要なプロトコル詳細を確実に定着させます。
  • クロススキル成長: 開発環境を離れることなくスキルセットを拡張。デザイン思考の基礎、グロースループの理解、Go の並行処理のヒントなどをダウンタイムに取得できます。
  • 共通語彙: チームレベルのプレイリストを作成し、全員が同じ要約・一貫した情報源から学ぶことで、協働とアラインメントが向上します。

BeFreed.ai を BlockEden.xyz のワークフローに組み込む

BeFreed.ai を既存の開発プロセスに統合するのはシームレスで、すぐに効果が現れます。

  1. スペックを投入: 最新のトークノミクス PDF や YouTube の開発者コールの URL を BeFreed に貼り付け、即座に消化しやすい要約を取得。
  2. フラッシュカードをエクスポート: CI 実行中に重要概念を復習。コンテキストスイッチの疲労よりもはるかに効果的な反復学習が可能です。
  3. ドキュメントにリンク: 各 API リファレンス横に BeFreed の要約 URL を埋め込み、新メンバーが迅速にキャッチアップできるようにします。
  4. 最新情報を保持: 新興 L2 に関する週次ダイジェストを BeFreed で設定し、得た知識を BlockEden.xyz のマルチチェーン RPC サービスで即座にプロトタイピングに活かします。

はじめに

BeFreed.ai は iOS、Android、Web で利用可能です。次の BlockEden.xyz プロジェクトスプリントでぜひ試してみて、学習と構築の速度がどれだけ向上するか体感してください。私たちのチームはすでにより緊密な統合を検討中です—例えば、マージされた PR の説明を自動的に包括的な学習セットに変換する Webhook など、未来を想像してください。

MCP を通じた AI と Web3 の接続:パノラマ分析

· 約 66 分
Dora Noda
Software Engineer

はじめに

AI と Web3 は強力な方法で融合しており、現在 AI 汎用インターフェース は分散型ウェブの結合組織として構想されています。この融合から生まれた主要な概念が MCP です。これは、Anthropic が導入した「Model Context Protocol」を指す場合もあれば、より広い議論の中で「Metaverse Connection Protocol(メタバース接続プロトコル)」と緩やかに表現されることもあります。本質的に MCP は、AI システムが外部のツールやネットワークと自然かつ安全な方法でインターフェースを持つための標準化されたフレームワークであり、潜在的に 「AI エージェントを Web3 エコシステムのあらゆる隅々に接続する」 ことを可能にします。本レポートでは、AI 汎用インターフェース(大規模言語モデルエージェントやニューロ・シンボリック・システムなど)が、どのように MCP を介して Web3 世界のすべてを接続する かについて、歴史的背景、技術アーキテクチャ、業界の展望、リスク、そして将来の可能性を網羅した包括的な分析を提供します。

1. 開発背景

1.1 Web3 の進化と果たされなかった約束

「Web3」という用語は、ブロックチェーンを活用した分散型ウェブを説明するために 2014 年頃に作られました。そのビジョンは野心的なものでした。それは、ユーザーの所有権を中心としたパーミッションレスなインターネット です。愛好家たちは、Web2 の中央集権的なインフラをブロックチェーンベースの代替手段(例えば、DNS に代わる Ethereum Name Service、ストレージに代わる Filecoin や IPFS、金融基盤に代わる DeFi など)に置き換えることを想像しました。理論的には、これによりビッグテック・プラットフォームから支配権を奪い、個人にデータ、アイデンティティ、資産に対する自己主権を与えることができるはずでした。

現実は期待に及びませんでした。 長年の開発とハイプ(熱狂)にもかかわらず、Web3 の主流への影響は限定的なままでした。一般的なインターネットユーザーが 分散型ソーシャルメディアに押し寄せたり、秘密鍵の管理を始めたりすることはありませんでした。 主な理由としては、ユーザーエクスペリエンスの低さ、取引の遅さとコストの高さ、世間を騒がせた詐欺事件、そして規制の不確実性が挙げられます。分散型の「所有権のあるウェブ」は、ニッチなコミュニティを超えて 「具体化することに失敗」 しました。2020 年代半ばまでに、クリプトの推進派でさえ、Web3 が一般ユーザーにとってパラダイムシフトをもたらさなかったことを認めました。

一方で、AI は革命の最中にありました。 資本と開発者の talents(才能)がクリプトから AI へとシフトするにつれ、ディープラーニングと基盤モデル(GPT-3、GPT-4 など)の革新的な進歩が人々の想像力を捉えました。生成 AI は、コンテンツ、コード、意思決定の生成において、クリプトアプリケーションが苦戦していたような明確な有用性を示しました。実際、わずか数年における大規模言語モデルの影響は、10 年にわたるブロックチェーンのユーザー採用を明らかに上回りました。 この対比から、「Web3 はクリプトのために浪費された (Web3 was wasted on crypto)」や、真の Web 3.0 は AI の波から生まれているといった皮肉も聞かれるようになりました。

1.2 AI 汎用インターフェースの台頭

数十年にわたり、ユーザーインターフェースは静的なウェブページ(Web1.0)からインタラクティブなアプリ(Web2.0)へと進化してきましたが、常にボタンのクリックやフォームの入力という枠組みの中にありました。現代の AI、特に大規模言語モデル(LLM)によって、新しいインターフェースのパラダイムである 「自然言語」 が登場しました。ユーザーは単純に自然言語で意図を伝えるだけで、AI システムが多くの領域にわたって複雑なアクションを実行できるようになります。この変化は非常に深遠であるため、「Web 3.0」を以前のブロックチェーン中心の定義ではなく、AI 駆動型エージェントの時代(「エージェンティック・ウェブ (The Agentic Web)」)として再定義すべき だという提案もあります。

しかし、自律型 AI エージェントの初期の実験(AutoGPT のようなプロトタイプなど)は、重大なボトルネックを露呈しました。これらのエージェントはテキストやコードを生成することはできましたが、外部システムや他のエージェントと通信するための堅牢な方法 を欠いていました。相互運用性のための「共通の AI ネイティブ言語」が存在しなかったのです。ツールやデータソースとの各統合は場当たり的なハックであり、AI 間の相互作用には標準的なプロトコルがありませんでした。実務的には、AI エージェントは優れた推論能力を持っていても、ウェブアプリやオンチェーンサービスを使用する必要があるタスクの実行に失敗することがよくありました。それは単に、それらの システムと対話する方法 を知らなかったからです。このミスマッチ(強力な頭脳と原始的な I/O)は、非常にスマートなソフトウェアが不格好な GUI の後ろに閉じ込められているような状態でした。

1.3 融合と MCP の出現

2024 年までに、AI がその可能性を最大限に引き出し(そして Web3 がその約束を果たす)ためには、融合が必要である ことが明らかになりました。AI エージェントは Web3 の機能(分散型アプリ、コントラクト、データ)へのシームレスなアクセスを必要とし、Web3 は AI が提供できる高度なインテリジェンスとユーザビリティを必要としています。このような背景から MCP (Model Context Protocol) が誕生しました。2024 年後半に Anthropic によって導入された MCP は、LLM にとって自然に感じられる AI ツール通信のためのオープンスタンダード です。これは、ChatGPT や Claude などの AI 「ホスト」が、MCP サーバー を介してさまざまな外部ツールやリソースを検出し、使用するための構造化された方法を提供します。言い換えれば、MCP は AI エージェントがカスタムコードを個別に書くことなく、ウェブサービス、API、さらにはブロックチェーン機能にプラグインすることを可能にする 共通のインターフェース層 です。

MCP を 「AI インターフェースの USB-C」 と考えてみてください。USB-C がデバイスの接続方法を標準化した(その結果、デバイスごとに異なるケーブルを必要としなくなった)のと同様に、MCP は AI エージェントがツールやデータに接続する方法を標準化します。開発者は、各サービス(Slack、Gmail、Ethereum ノードなど)に対して異なる API 呼び出しをハードコーディングする代わりに、MCP 仕様を一度実装すれば、あらゆる MCP 対応 AI がそのサービスの使用方法を理解できるようになります。主要な AI プレイヤーはすぐにその重要性を認識しました。Anthropic は MCP をオープンソース化し、OpenAI や Google などの企業も自社モデルでのサポートを構築しています。 この勢いは、MCP(または同様の「メタ接続プロトコル (Meta Connectivity Protocols)」)が、AI と Web3 をスケーラブルな方法で ついに 接続するバックボーンになる可能性を示唆しています。

特筆すべきは、一部の技術者が 「この AI 中心のエコシステムこそが Web3.0 の真の実現である」 と主張している点です。Simba Khadder の言葉を借りれば、「MCP は LLM とアプリケーション間の API を標準化することを目指している」のであり、これは REST API が Web 2.0 を可能にしたのと同様です。つまり、Web3 の次の時代は単なるブロックチェーンではなく、インテリジェントなエージェントインターフェースによって定義される可能性があります。単なる「分散化のための分散化」ではなく、AI との融合により、複雑さを自然言語と自律型エージェントの背後に隠すことで、分散化を 有用なもの に変えることができるのです。本レポートの残りの部分では、技術的・実践的な観点から、AI 汎用インターフェースが(MCP のようなプロトコルを介して)どのように Web3 世界のすべてを接続 できるのかを詳しく掘り下げていきます。

2. 技術アーキテクチャ:Web3 技術を橋渡しする AI インターフェース

AI エージェントを Web3 スタックに組み込むには、ブロックチェーンネットワークやスマートコントラクト、分散型ストレージ、アイデンティティシステム、トークンベースの経済など、複数のレベルでの統合が必要です。大規模基盤モデルからハイブリッドなニューロ・シンボリック・システムに至る AI 汎用インターフェースは、これらのコンポーネントを接続する 「ユニバーサルアダプター」 として機能します。以下では、そのような統合のアーキテクチャを分析します。

図:MCP(Model Context Protocol)アーキテクチャの概念図。AI ホスト(Claude や ChatGPT などの LLM ベースのアプリ)が MCP クライアントを使用して、さまざまな MCP サーバーにプラグインする様子を示しています。各サーバーは、ユニバーサルハブを介して接続される周辺機器のように、外部ツールやサービス(Slack、Gmail、カレンダー、ローカルデータなど)へのブリッジを提供します。この標準化された MCP インターフェースにより、AI エージェントは一つの共通プロトコルを通じて、リモートサービスやオンチェーンリソースにアクセスできるようになります。

2.1 Web3 クライアントとしての AI エージェント(ブロックチェーンとの統合)

Web3 の核となるのは、信頼不要(トラストレス)な方法でロジックを強制できる分散型ステートマシンである ブロックチェーンとスマートコントラクト です。AI インターフェースはこれらとどのように関わることができるでしょうか? 考慮すべき 2 つの方向性があります。

  • AI によるブロックチェーンの読み取り: AI エージェントは、意思決定のコンテキストとしてオンチェーンデータ(トークン価格、ユーザーの資産残高、DAO の提案など)を必要とする場合があります。従来、ブロックチェーンデータの取得には、ノードの RPC API やサブグラフデータベースとのインターフェースが必要でした。MCP のようなフレームワークを使用すると、AI は標準化された 「ブロックチェーンデータ」 MCP サーバーにクエリを実行して、ライブのオンチェーン情報を取得できます。たとえば、MCP 対応エージェント は特定のトークンの最新の取引量やスマートコントラクトの状態を尋ねることができ、MCP サーバーはブロックチェーンへの接続という低レベルの詳細を処理し、AI が使用できる形式でデータを返します。これにより、AI が特定のブロックチェーンの API 形式から切り離され、相互運用性が向上します。

  • AI によるブロックチェーンへの書き込み: さらに強力なのは、AI エージェントが Web3 統合を通じて スマートコントラクトの呼び出しやトランザクションを実行 できることです。たとえば、AI は分散型取引所で自律的にトレードを実行したり、特定の条件が満たされた場合にスマートコントラクトのパラメータを調整したりできます。これは、AI がブロックチェーンのトランザクション機能をラップする MCP サーバーを呼び出すことで実現されます。具体的な例としては、EVM チェーン用の thirdweb MCP サーバー があります。これにより、MCP 互換の AI クライアントは、チェーン固有のメカニズムを抽象化することで、Ethereum、Polygon、BSC などとやり取りできるようになります。このようなツールを使用することで、AI エージェントは 「人間の介入なしに」 オンチェーンアクションをトリガーし、自律型 dApp を実現できます。たとえば、市場状況が変化したときにトランザクションに署名して 自己リバランスを行う AI 駆動型 DeFi ヴォルト などが挙げられます。

内部的には、これらのやり取りは依然としてウォレット、キー、ガス代に依存していますが、AI インターフェースには(適切なセキュリティサンドボックスを備えた)ウォレットへの制御されたアクセス権を与えてトランザクションを実行させることができます。オラクルやクロスチェーンブリッジも役割を果たします。Chainlink のようなオラクルネットワークは AI とブロックチェーンの架け橋として機能し、AI の出力を 信頼できる方法でオンチェーンに供給 することを可能にします。Chainlink の Cross-Chain Interoperability Protocol(CCIP)を使用すれば、信頼できると見なされた AI モデルが、ユーザーに代わって 異なるチェーン上の複数のコントラクトを同時にトリガー することも可能です。要約すると、AI 汎用インターフェースは、標準化されたプロトコルを通じてブロックチェーンデータを 消費 し、ブロックチェーンのトランザクションを 生成 することができる、新しいタイプの Web3 クライアントとして機能します。

2.2 ニューロ・シンボリック・シナジー:AI の推論とスマートコントラクトの組み合わせ

AI と Web3 の統合における興味深い側面の一つは、AI の学習能力(ニューラルネットワーク)とスマートコントラクトの厳格なロジック(シンボリックルール)を組み合わせる ニューロ・シンボリック・アーキテクチャ の可能性です。実際には、AI エージェントが非構造的な意思決定を処理し、特定のタスクを検証可能な実行のためにスマートコントラクトに渡すことを意味します。たとえば、AI は市場のセンチメント(曖昧なタスク)を分析し、あらかじめ設定されたリスクルールに従う決定論的なスマートコントラクトを介して取引を実行するかもしれません。MCP フレームワークと関連標準は、AI がアクションを起こす前にコントラクト関数を呼び出したり、DAO のルール を照会したりするための共通インターフェースを提供することで、このような連携を可能にします。

具体的な例は、分散型ネットワーク上の AI エージェント間の通信を標準化することを目指す SingularityNET の AI-DSL(AI Domain Specific Language) です。これは、エージェントが互いに AI サービスやデータを要求するための形式言語(シンボリック)であり、ニューロ・シンボリック統合への一歩と見なすことができます。同様に、DeepMind の AlphaCode などのプロジェクトが最終的に接続され、スマートコントラクトがオンチェーンの問題解決のために AI モデルを呼び出すようになる可能性があります。現在、大規模な AI モデルを直接 オンチェーン で実行することは非現実的ですが、ハイブリッドなアプローチが登場しています。たとえば、特定のブロックチェーンでは、ゼロ知識証明や信頼された実行環境を介して ML 計算の 検証 が可能になり、オフチェーンの AI 結果をオンチェーンで検証できるようになっています。要約すると、技術アーキテクチャは AI システムとブロックチェーンのスマートコントラクトを 補完的なコンポーネント と見なし、共通のプロトコルを介してオーケストレーションされる未来を描いています。AI が認識や自由形式のタスクを処理し、ブロックチェーンが整合性、メモリ、および合意されたルールの強制を提供します。

2.3 AI のための分散型ストレージとデータ

AI はデータによって成長し、Web3 はデータの保存と共有のための新しいパラダイムを提供します。分散型ストレージネットワーク(IPFS / Filecoin、Arweave、Storj など)は、AI モデルのアーティファクトの保存場所として、またブロックチェーンベースのアクセス制御を備えた学習データのソースとして機能します。AI 汎用インターフェースは、MCP などを通じて、Web2 の API から取得するのと同じくらい簡単に分散型ストレージからファイルやナレッジを取得できます。たとえば、AI エージェントは、適切なキーや支払い手段があれば、Ocean Protocol のマーケットプレイスからデータセットを取得したり、分散型ストレージから暗号化されたファイルをプルしたりできます。

特に Ocean Protocol は、ブロックチェーンを使用して データや AI サービスをトークン化 する 「AI データ経済」 プラットフォームとしての地位を確立しています。Ocean では、データセットはアクセスを制限する データトークン によって表されます。AI エージェントは(暗号資産での支払いや何らかのアクセス権を通じて)データトークンを取得し、Ocean MCP サーバーを使用して分析用の実際のデータを取得できます。Ocean の目標は、AI のために「休眠データ」を解き放ち、プライバシーを保護しながら共有を促すインセンティブ を提供することです。したがって、Web3 に接続された AI は、これまでサイロ化されていた個人データヴォルトから公開政府データに至るまで、膨大で分散化された情報のコーパスを活用できるようになります。ブロックチェーンは、データの使用が透明であり、正当に報われること を保証し、より多くのデータが AI に利用可能になり、より多くの AI による貢献(訓練済みモデルなど)が収益化されるという好循環を促進します。

分散型アイデンティティシステム もここで役割を果たします(次のサブセクションで詳しく説明します)。これらは、誰が、あるいは何が特定のデータへのアクセスを許可されるかを制御するのに役立ちます。たとえば、医療用 AI エージェントは、患者の個人の IPFS ストレージから医療データセットを復号することを許可される前に、検証可能なクレデンシャル(HIPAA などの遵守を証明するオンチェーンの証明)を提示する必要があるかもしれません。このように、技術アーキテクチャは データが AI に流れる ことを適切に保証しつつ、オンチェーンのガバナンスと監査証跡によって許可を強制します。

2.4 分散型環境におけるアイデンティティとエージェント管理

自律型 AI エージェントが Web3 のようなオープンなエコシステムで動作する場合、アイデンティティと信頼 が極めて重要になります。分散型アイデンティティ(DID)フレームワークは、暗号学的に検証可能な AI エージェントのためのデジタルアイデンティティ を確立する方法を提供します。各エージェント(またはそれを展開する人間/組織)は、DID と、その属性や権限を指定する関連する 検証可能なクレデンシャル を持つことができます。たとえば、AI トレーニングボットは、特定のリスク制限内での運用を許可することを証明する規制サンドボックスによって発行されたクレデンシャルを保持したり、AI コンテンツモデレーターは、信頼できる組織によって作成され、バイアステストに合格したことを証明したりできます。

オンチェーンのアイデンティティレジストリとレピュテーションシステムを通じて、Web3 の世界は AI の行動に対するアカウンタビリティ(説明責任)を強制できます。AI エージェントが実行するすべてのトランザクションは その ID にまで遡る ことができ、問題が発生した場合には、クレデンシャルによって 誰がそれを構築したか、あるいは誰に責任があるか がわかります。これは重要な課題に対処します。アイデンティティがなければ、悪意のあるアクターが偽の AI エージェントを立ち上げてシステムを悪用したり誤情報を広めたりする可能性があり、誰もボットと正当なサービスを区別できなくなります。分散型アイデンティティは、堅牢な認証を可能にし、本物の AI エージェントとなりすましを区別 することで、その問題を軽減します。

実際には、Web3 と統合された AI インターフェースは、アイデンティティプロトコルを使用して 自身のアクションやリクエストに署名 します。たとえば、AI エージェントがツールを使用するために MCP サーバーを呼び出す際、その分散型アイデンティティに関連付けられたトークンや署名を含めることができ、サーバーは呼び出しが承認されたエージェントからのものであることを確認できます。ブロックチェーンベースのアイデンティティシステム(レジャーにアンカーされた Ethereum の ERC-725 や W3C DID など)は、この検証がトラストレスでグローバルに検証可能であることを保証します。新しく登場した 「AI ウォレット」 の概念もこれに関連しています。これは本質的に、AI エージェントにアイデンティティとリンクした暗号資産ウォレットを与え、キーの管理、サービスへの支払い、あるいは保証金としてのトークンのステーキング(不正行為があった場合にスラッシュされる可能性がある)を行えるようにするものです。たとえば ArcBlock は、「AI エージェントが分散型環境で責任を持って行動するためには、ウォレットと DID が必要である」 と議論しています。

要約すると、技術アーキテクチャは AI エージェントを Web3 の第一級市民 と見なしており、それぞれがオンチェーンのアイデンティティを持ち、場合によってはシステムにステーク(利害)を持ち、MCP のようなプロトコルを使用してやり取りします。これにより 「信頼の網」 が構築されます。スマートコントラクトは、協力する前に AI のクレデンシャルを要求でき、ユーザーは特定のオンチェーン認証を満たす AI にのみタスクを委任することを選択できます。これは、AI の能力とブロックチェーンによる信頼の保証 の融合です。

2.5 AI のためのトークン経済とインセンティブ

トークン化は Web3 の特徴であり、AI 統合の分野にも波及しています。トークンを介した経済的インセンティブを導入することで、ネットワークは AI 開発者とエージェント自身の両方から望ましい行動を引き出すことができます。いくつかのパターンが現れています。

  • サービスへの支払い: AI モデルやサービスはオンチェーンで収益化できます。SingularityNET は、開発者が AI サービスを展開し、呼び出しごとにネイティブトークン(AGIX)でユーザーに課金できるようにすることで、この分野を切り拓きました。MCP が普及した未来では、あらゆる AI ツールやモデルがプラグアンドプレイのサービス になり、使用量がトークンやマイクロペイメントを介して計測されることが想像できます。たとえば、AI エージェントが MCP を介してサードパーティのビジョン API を使用する場合、サービスプロバイダーのスマートコントラクトにトークンを転送することで、支払いを自動的に処理できます。Fetch.ai も同様に、「自律型経済エージェント」 がサービスやデータを取引するマーケットプレイスを構想しており、彼らの新しい Web3 LLM(ASI-1)は価値交換のために暗号資産トランザクションを統合すると推測されます。

  • ステーキングとレピュテーション: 品質と信頼性を保証するために、一部のプロジェクトでは開発者やエージェントにトークンのステーキングを求めています。たとえば、DeMCP プロジェクト(分散型 MCP サーバーマーケットプレイス)は、有用な MCP サーバーを作成した開発者に報酬を与えるためにトークンインセンティブを使用し、サーバーのセキュリティへのコミットメントの証としてトークンをステーキングさせることを計画しています。レピュテーションもトークンに関連付けることができます。たとえば、一貫して良好なパフォーマンスを発揮するエージェントは、レピュテーショントークンや肯定的なオンチェーンレビューを蓄積する一方で、不適切な行動をとったエージェントはステークを失ったり否定的な評価を受けたりする可能性があります。このトークン化されたレピュテーションは、前述のアイデンティティシステムにフィードバックされます(スマートコントラクトやユーザーは、信頼する前にエージェントのオンチェーンレピュテーションを確認します)。

  • ガバナンストークン: AI サービスが分散型プラットフォームの一部になると、ガバナンストークンによってコミュニティがその進化を導くことができるようになります。SingularityNET や Ocean のようなプロジェクトには DAO があり、トークン所有者がプロトコルの変更や AI イニシアチブへの資金提供について投票します。最近発表された SingularityNET、Fetch.ai、Ocean Protocol の合併による Artificial Superintelligence(ASI)Alliance では、統合されたトークン(ASI)が AI とブロックチェーンの共同エコシステムの方向性を統治することになっています。このようなガバナンストークンは、採用すべき標準(MCP や A2A プロトコルのサポートなど)、インキュベートすべき AI プロジェクト、または AI エージェントの倫理ガイドラインの取り扱い方法などのポリシーを決定できます。

  • アクセスとユーティリティ: トークンは、データ(Ocean のデータトークンのように)だけでなく、AI モデルの使用へのアクセスも制限できます。考えられるシナリオは 「モデル NFT」 などで、トークンを所有することで AI モデルの出力に対する権利や利益の分配が得られるというものです。これは分散型 AI マーケットプレイスの基盤となる可能性があります。たとえば、高性能モデルの部分的な所有権を表す NFT を想像してみてください。所有者は、モデルが推論タスクに使用されるたびに共同で利益を得て、その微調整について投票することができます。これは実験的な段階ですが、AI 資産に適用される共有所有権という Web3 の精神に沿ったものです。

技術的な面では、トークンの統合は AI エージェントがウォレット機能を必要とすることを意味します(前述の通り、多くのエージェントは独自の暗号資産ウォレットを持つようになります)。MCP を通じて、AI は残高の確認、トークンの送信、あるいは DeFi プロトコルの呼び出し(おそらく、サービス料金を支払うためにあるトークンを別のトークンに交換するため)を可能にする 「ウォレットツール」 を持つことができます。たとえば、Ethereum 上で動作する AI エージェントがデータセットを購入するために Ocean トークンを必要とする場合、MCP プラグインを使用して DEX 経由で ETH を $OCEAN に自動的に交換し、人間の介入なしに、所有者によって設定されたポリシーに従って購入を進めることができます。

全体として、トークンエコノミクスは AI-Web3 アーキテクチャにおける インセンティブレイヤー を提供し、貢献者(データ、モデルコード、計算能力、またはセキュリティ監査の提供者)が報われること、そして AI エージェントが 「スキン・イン・ザ・ゲーム(利害の共有)」 を持つことで、人間の意図と(ある程度)一致することを保証します。

3. 業界の展望

AI と Web3 の融合は、プロジェクト、企業、アライアンスによる活気あるエコシステムを惹き起こしました。以下では、この分野を牽引する 主要なプレイヤーとイニシアチブ、および台頭しつつあるユースケースを概観します。表 1 は、AI-Web3 の展望における注目すべきプロジェクトとその役割のハイレベルな概要を示しています。

表 1: AI + Web3 における主要なプレイヤーとその役割

プロジェクト / プレイヤー重点分野と説明AI-Web3 の融合における役割とユースケース
Fetch.ai (Fetch)ネイティブブロックチェーン(Cosmos ベース)を持つ AI エージェントプラットフォーム。自律型エージェントのフレームワークを開発し、最近では Web3 に最適化された LLM である 「ASI-1 Mini」 を導入した。Web3 における エージェントベースのサービス を可能にする。Fetch のエージェントは、ユーザーに代わって分散型物流、駐車場の検索、DeFi トレードなどのタスクを実行し、支払いに仮想通貨を使用できる。Bosch との提携や Fetch-AI アライアンスの合併 により、エージェント型 dApp をデプロイするためのインフラとして位置付けられている。
Ocean Protocol (Ocean)分散型データマーケットプレイスおよびデータ交換プロトコル。プライバシーを保護するアクセス制御を備え、データセットやモデルのトークン化に特化している。Web3 における AI の データバックボーン を提供する。Ocean により、AI 開発者は トラストレスなデータエコノミー において、データセットの発見・購入や学習済みモデルの販売が可能になる。アクセス可能なデータを AI に供給する(同時にデータ提供者に報酬を与える)ことで、AI のイノベーションと トレーニングのためのデータ共有 をサポートする。Ocean は新しい ASI アライアンス の一部であり、そのデータサービスをより広範な AI ネットワークに統合している。
SingularityNET (SNet)AI のパイオニアである Ben Goertzel によって設立された、分散型の AI サービスマーケットプレイス。AGIX トークンを使用し、ブロックチェーンベースのプラットフォームを介して誰でも AI アルゴリズムを公開または利用できる。ブロックチェーン上での オープンな AI マーケットプレイス という概念を開拓した。相互運用可能な AI エージェントとサービスのネットワーク を育成している(エージェント間通信用の特別な AI-DSL を開発中)。ユースケースには、分析や画像認識などのタスクのための AI-as-a-Service が含まれ、すべて dApp 経由でアクセス可能 である。現在は Fetch および Ocean と合併(ASI アライアンス)し、AI、エージェント、データを一つのエコシステムに統合している。
Chainlink (Oracle Network)ブロックチェーンとオフチェーンのデータや計算を橋渡しする分散型オラクルネットワーク。それ自体は AI プロジェクトではないが、オンチェーンのスマートコントラクトを外部 API やシステムに接続するために不可欠である。AI と Web3 統合のための セキュアなミドルウェア として機能する。Chainlink のオラクルは AI モデルの出力をスマートコントラクトに提供 し、オンチェーンプログラムが AI の決定に反応できるようにする。逆に、オラクルは AI のためにブロックチェーンからデータを取得することもできる。Chainlink のアーキテクチャは、複数の AI モデルの結果を集約して信頼性を向上させることも可能(AI のハルシネーションを軽減するための 「真実の機械」 的アプローチ)。本質的に 相互運用性のためのレール を提供し、AI エージェントとブロックチェーンが信頼できるデータに合意することを保証する。
Anthropic & OpenAI (AI プロバイダー)最先端の基盤モデル(Anthropic の Claude、OpenAI の GPT)の開発者。ネイティブなツール使用 API や MCP のようなプロトコルのサポートなど、Web3 フレンドリーな機能を統合しつつある。これらの企業は AI インターフェース技術 を推進している。Anthropic による MCP の導入は、LLM が外部ツールと対話するための標準を確立した。OpenAI は ChatGPT 用のプラグインシステム(MCP の概念に類似)を実装しており、エージェントをデータベースや、可能性としてはブロックチェーンに接続することを模索している。彼らのモデルは、MCP を介して接続された際に Web3 とインターフェースできる 「脳」 として機能する。主要なクラウドプロバイダー(例:Google の A2A プロトコル)も、Web3 統合に利益をもたらすマルチエージェントおよびツール対話の標準を開発している。
その他の新興プレイヤーLumoz: MCP サーバーと Ethereum における AI ツール統合(「Ethereum 3.0」と呼ばれる)に焦点を当てている(例:AI エージェントを介したオンチェーン残高の確認)。Alethea AI: メタバース向けにインテリジェントな NFT アバターを作成。Cortex: スマートコントラクトを介したオンチェーン AI モデルの推論を可能にするブロックチェーン。Golem & Akash: AI ワークロードを実行できる分散型コンピューティングマーケットプレイス。Numerai: 仮想通貨のインセンティブを活用した、金融のためのクラウドソース型 AI モデル。この多様なグループは、ニッチな側面 に取り組んでいる:メタバース における AI(NFT を通じて所有される AI 駆動の NPC やアバター)、オンチェーン AI 実行(計算コストのため現在は小規模モデルに限定されているが、分散型で ML モデルを実行)、分散型計算(AI のトレーニングや推論タスクをトークンインセンティブのあるノード間で分散)。これらのプロジェクトは、AI キャラクターを持つゲームの世界からブロックチェーンで保護されたクラウドソースの予測モデルまで、AI と Web3 融合の多くの方向性を示している。

アライアンスとコラボレーション: 注目すべきトレンドは、アライアンスによる AI と Web3 の取り組みの統合 です。人工超知能アライアンス (ASI) はその典型的な例であり、SingularityNET、Fetch.ai、Ocean Protocol を実質的に統合し、統合されたトークンを持つ単一のプロジェクトにしました。その根拠は、SingularityNET のマーケットプレイス、Fetch のエージェント、Ocean のデータを組み合わせることで、分散型 AI サービスのためのワンストッププラットフォームを構築し、それぞれの強みを統合することにあります。この合併(2024 年に発表され、トークン保有者の投票によって承認)は、巨大な AI 企業(OpenAI など)や巨大な仮想通貨プロジェクト(Ethereum など)が大きく立ちはだかる中で、これらのコミュニティが競合するよりも協力した方が良いと考えていることも示唆しています。このアライアンスが、ネットワーク間での MCP などの標準実装を推進したり、すべてのプロジェクトに利益をもたらすインフラ(計算ネットワークや AI 用の共通アイデンティティ標準など)に共同で資金を提供したりする動きが見られるかもしれません。

その他のコラボレーションには、AI ラボのデータをオンチェーンに持ち込むための Chainlink のパートナーシップ(オラクルデータを精緻化するために AI を使用するパイロットプログラムが存在します)や、クラウドプラットフォームの関与(Cloudflare による MCP サーバーの容易なデプロイ支援)などがあります。従来の仮想通貨プロジェクトでさえ AI 機能を追加しており、例えば一部のレイヤー 1 チェーンは、dApp エコシステムへの AI 統合を模索するために「AI タスクフォース」を結成しています(NEAR や Solana のコミュニティなどで見られますが、具体的な成果はまだ初期段階です)。

台頭しつつあるユースケース: この初期段階であっても、AI + Web3 の力を例証するユースケースを確認できます。

  • 自律型 DeFi とトレーディング: AI エージェントは、仮想通貨のトレーディングボット、イールドファーミングの最適化、オンチェーンのポートフォリオ管理などでますます使用されています。SingularityDAO(SingularityNET のスピンオフ)は、AI が管理する DeFi ポートフォリオを提供しています。AI は市場状況を 24 時間 365 日監視し、スマートコントラクトを通じてリバランスやアービトラージを実行できます。これは実質的に、(オンチェーンの透明性を備えた)自律型ヘッジファンドとなります。AI による意思決定と不変の実行の組み合わせは、感情を排除し効率を向上させる可能性がありますが、一方で(後述する)新たなリスクも導入します。

  • 分散型インテリジェンスマーケットプレイス: SingularityNET のマーケットプレイス以外にも、データ(AI の燃料)が交換される Ocean Market や、モデルの AI マーケットプレイス(モデルがパフォーマンス統計とともにリストされ、誰でもクエリに対して支払いを行うことができ、ブロックチェーンが監査ログの保持とモデル作成者への支払い分配を処理する Web サイトなど)といった新しい概念が登場しています。MCP や同様の標準が普及すれば、これらのマーケットプレイスは 相互運用可能 になる可能性があります。AI エージェントが複数のネットワークから最も価格の安いサービスを自律的に選んで購入できるようになるかもしれません。事実上、Web3 の上に グローバルな AI サービス層 が出現し、標準的なプロトコルと決済を通じて、あらゆる AI があらゆるツールやデータソースを利用できるようになる可能性があります。

  • メタバースとゲーミング: メタバース(多くの場合ブロックチェーン資産上に構築される没入型の仮想世界)は、AI から劇的な恩恵を受ける立場にあります。AI 駆動の NPC(非プレイヤーキャラクター) は、ユーザーのアクションに知的に反応することで、仮想世界をより魅力的なものにできます。Inworld AI のようなスタートアップはこれに焦点を当て、ゲーム用に記憶と個性を持つ NPC を作成しています。このような NPC がブロックチェーンに紐付けられると(例:各 NPC の属性と所有権が NFT である場合)、プレイヤーが真に所有し、取引することさえできる永続的なキャラクターが誕生します。Decentraland は AI NPC の実験を行っており、メタバースプラットフォームでパーソナライズされた AI 駆動のアバターを作成できるようにするユーザー提案も存在します。MCP を使用すれば、これらの NPC が外部の知識にアクセスしてより賢くなったり、オンチェーンのインベントリを操作したりできるようになります。プロシージャルコンテンツ生成 も別の角度からのアプローチです。AI は仮想の土地、アイテム、クエストを即座に設計でき、それらをユニークな NFT としてミントできます。AI があなたのスキルに合わせたダンジョンを生成し、そのマップ自体が完了時に獲得できる NFT である分散型ゲームを想像してみてください。

  • 分散型サイエンスと知識: 研究、出版、科学工作への資金提供にブロックチェーンを使用する動き(DeSci)があります。AI はデータや文献を分析することで研究を加速できます。Ocean のようなネットワークは、例えばゲノム研究のためのデータセットをホストし、科学者は(おそらく SingularityNET 上にホストされた)AI モデルを使用して洞察を導き出し、すべてのステップを再現性のためにオンチェーンに記録します。それらの AI モデルが新しい薬物分子を提案した場合、発明のタイムスタンプを押し、知的財産権(IP)を共有するために NFT をミントすることもできます。この相乗効果により、分散型 AI 駆動 R&D コレクティブが誕生するかもしれません。

  • コンテンツの信頼性と認証: ディープフェイクや AI 生成メディアが急増する中、ブロックチェーンを使用して真正性を検証できます。プロジェクトは、AI 出力の「デジタルウォーターマーキング(電子透かし)」を行い、それらをオンチェーンに記録することを模索しています。例えば、誤情報に対抗するために、AI 生成画像の真の起源 をブロックチェーン上で公証できます。ある専門家は、ディープフェイクに対抗するための AI 出力の検証や、所有権ログによるプロバンス(由来)の追跡 などのユースケースを指摘しました。これは仮想通貨が AI プロセスに信頼を付加できる役割です。これはニュース(例:ソースデータの証明付きの AI 執筆記事)やサプライチェーン(オンチェーンの証明書を AI が検証)などにも拡張される可能性があります。

要約すると、業界の展望は豊かで急速に進化しています。従来の仮想通貨プロジェクトがロードマップに AI を注入し、AI スタートアップがレジリエンスと公平性のために分散化を採用し、その交差点で全く新しいベンチャーが誕生しています。ASI のようなアライアンスは、AI とブロックチェーンの両方を活用する 統一プラットフォームへの業界全体の推進力 を示しています。そして、これらの取り組みの多くを支えているのは、大規模な統合を可能にする 標準インターフェース(MCP およびそれ以降)というアイデアです。

4. リスクと課題

AI 汎用インターフェースと Web3 の融合は、刺激的な可能性を切り拓く一方で、複雑なリスク環境ももたらします。この新しいパラダイムが安全で持続可能なものであることを確実にするためには、技術的、倫理的、およびガバナンス上の課題に対処しなければなりません。以下に、主要なリスクと障害の概要を述べます。

4.1 技術的な障害:レイテンシとスケーラビリティ

ブロックチェーンネットワークは、レイテンシの長さとスループットの制限で知られており、これはリアルタイムで大量のデータを必要とする高度な AI の性質と衝突します。例えば、AI エージェントがデータの一部に即座にアクセスしたり、多数の迅速なアクションを実行したりする必要がある場合、各オンチェーンのインタラクションに(例えば Ethereum の典型的なブロック時間である)12 秒かかったり、高いガス代が発生したりすると、エージェントの有効性は制限されます。ファイナリティがより速い新しいチェーンであっても、数千のエージェントが同時にオンチェーンで取引やクエリを行えば、AI 駆動の活動による負荷に苦しむ可能性があります。スケーリングソリューション(レイヤー 2 ネットワーク、シャーディングされたチェーンなど)は進行中ですが、AI とブロックチェーン間の低レイテンシ・高スループットなパイプラインを確保することは依然として課題です。オフチェーンシステム(オラクルやステートチャネルなど)は、メインチェーン外で多くのインタラクションを処理することで遅延を緩和する可能性がありますが、複雑さと潜在的な中央集権化を招きます。AI の応答とオンチェーンの更新が一瞬で行われるシームレスな UX を実現するには、ブロックチェーンのスケーラビリティにおける大幅なイノベーションが必要となるでしょう。

4.2 相互運用性と標準化

皮肉なことに、MCP 自体が相互運用性のためのソリューションである一方で、複数の標準が登場することで断片化が生じる可能性があります。Anthropic による MCP だけでなく、Google が新たに発表したエージェント間通信のための A2A(Agent-to-Agent)プロトコル、さらには様々な AI プラグインフレームワーク(OpenAI のプラグイン、LangChain のツールスキーマなど)が存在します。各 AI プラットフォームや各ブロックチェーンが AI 統合のための独自の標準を開発すれば、過去の断片化が繰り返されるリスクがあり、多くのレアダプターを必要とし、「ユニバーサルインターフェース」という目標を損なうことになります。課題は、共通プロトコルの幅広い採用を得ることです。AI エージェントがどのようにオンチェーンサービスを発見し、認証し、リクエストをフォーマットするかといった主要な要素を収束させるために、(オープンな標準化団体やアライアンスを通じた)業界のコラボレーションが必要になります。主要な LLM プロバイダーが MCP をサポートするなど、大手プレイヤーによる初期の動きは有望ですが、これは継続的な取り組みです。さらに、ブロックチェーンを跨ぐ相互運用性(マルチチェーン)は、AI エージェントが異なるチェーンのニュアンスを処理できる必要があることを意味します。Chainlink CCIP やクロスチェーン MCP サーバーのようなツールは、相違点を抽象化することで役立ちます。それでも、AI エージェントがロジックを壊すことなく異種混合の Web3 を自由に移動できるようにすることは、簡単な課題ではありません。

4.3 セキュリティの脆弱性とエクスプロイト

強力な AI エージェントを金融ネットワークに接続することは、**巨大な攻撃対象領域(アタックサーフェス)**を生み出します。MCP が提供する柔軟性(AI がツールを使用し、その場でコードを書くことを可能にする)は、諸刃の剣となる可能性があります。セキュリティ研究者は、MCP ベースの AI エージェントにおけるいくつかの攻撃ベクトルをすでに指摘しています。

  • 悪意のあるプラグインまたはツール: MCP ではエージェントが「プラグイン」(特定の機能をカプセル化したツール)をロードできるため、悪意のある、あるいはトロイの木馬化されたプラグインがエージェントの操作を乗っ取る可能性があります。例えば、データを取得すると称するプラグインが、偽のデータを注入したり、不正な操作を実行したりする可能性があります。セキュリティ企業の SlowMist(スローミスト)は、JSON インジェクション(エージェントのロジックを操作する破損したデータを送り込む)や関数オーバーライド(悪意のあるプラグインがエージェントが使用する正当な関数を上書きする)といったプラグインベースの攻撃を特定しました。AI エージェントが暗号資産を管理している場合、このようなエクスプロイトは、秘密鍵の漏洩やウォレットの資金流出をエージェントに仕向けるなど、壊滅的な結果を招く可能性があります。

  • プロンプトインジェクションとソーシャルエンジニアリング: AI エージェントは指示(プロンプト)に依存しており、これが操作される可能性があります。攻撃者は、AI が読み取った際に悪意のある指示として機能するようなトランザクションやオンチェーンメッセージを作成するかもしれません(AI はオンチェーンデータも解釈できるため)。このような 「クロス MCP コール攻撃」 は、外部システムが AI に誤動作をさせる欺瞞的なプロンプトを送信するケースとして説明されています。分散型の環境では、これらのプロンプトは DAO 提案の説明文や NFT のメタデータフィールドなど、どこからでも届く可能性があるため、悪意のある入力に対して AI エージェントを堅牢にすることが極めて重要です。

  • 集約とコンセンサスのリスク: オラクルを介して複数の AI モデルからの出力を集約することで信頼性は向上しますが、複雑さも増します。注意深く行われなければ、攻撃者は AI モデルのコンセンサスを操作する方法を見つけたり、一部のモデルを選択的に汚染して結果を歪めたりする可能性があります。分散型オラクルネットワークが AI の出力を適切に「サニタイズ」し(そしておそらく露骨なエラーをフィルタリングする)ことを保証することは、依然として活発な研究分野です。

この新しいパラダイムのために、セキュリティの考え方を変える必要があります。Web3 開発者はスマートコントラクト(デプロイ後は静的)の保護には慣れていますが、AI エージェントは動的であり、新しいデータやプロンプトによって動作が変わる可能性があります。あるセキュリティ専門家が述べたように、「システムをサードパーティのプラグインに開放した瞬間、攻撃対象領域を自分の制御を超えて拡大させていることになる」 のです。ベストプラクティスには、AI ツールの使用のサンドボックス化、厳格なプラグイン検証、および権限の制限(最小権限の原則)が含まれます。コミュニティでは、SlowMist の推奨事項(入力のサニタイズ、エージェントの動作の監視、エージェントへの指示を外部ユーザーの入力と同じように注意深く扱うこと)など、ヒントの共有が始まっています。それにもかかわらず、2024 年末までに 10,000 以上の AI エージェントがすでに暗号資産分野で稼働しており、2025 年には 100 万に達すると予想されていることを考えると、セキュリティが追いつかなければ、エクスプロイトの波が押し寄せる可能性があります。人気の AI エージェント(例えば、多くの保管庫へのアクセス権を持つトレーディングエージェント)への攻撃が成功すれば、連鎖的な影響を及ぼす可能性があります。

4.4 プライバシーとデータガバナンス

AI のデータへの渇望は、時にプライバシー要件と衝突します。そこにブロックチェーンを加えると、問題はさらに複雑になります。ブロックチェーンは透明な台帳であるため、オンチェーンに置かれたデータ(AI の使用目的であっても)はすべての人に公開され、不変です。これは、AI エージェントが個人データや機密データを扱う場合に懸念を引き起こします。例えば、ユーザーの個人の分散型アイデンティティや健康記録に AI 医師エージェントがアクセスする場合、その情報が誤ってオンチェーンに記録されないようにするにはどうすればよいでしょうか(これは「忘れられる権利」やその他のプライバシー法に抵触します)。暗号化、ハッシュ化、オンチェーンには証明のみを保存する(生データはオフチェーンに置く)といった技術は役立ちますが、設計を複雑にします。

さらに、AI エージェント自体が公開データから機密情報を推論することでプライバシーを侵害する可能性があります。ガバナンスは、AI エージェントがデータを使って何をしてよいかを規定する必要があります。差分プライバシーや連合学習などの取り組みを採用することで、AI がデータを公開することなく学習できる可能性があります。しかし、AI エージェントが自律的に行動する場合、いつかは個人データを扱うと想定しなければなりません。したがって、スマートコントラクトや法律にエンコードされたデータ使用ポリシーに拘束されるべきです。GDPR や今後の EU AI 法のような規制枠組みは、分散型 AI システムであってもプライバシーと透明性の要件を遵守することを要求するでしょう。これは法的にグレーゾーンです。真に分散化された AI エージェントには、データ漏洩の責任を問うべき明確な運営者が存在しません。つまり、Web3 コミュニティは、設計によるコンプライアンス(compliance by design)を組み込む必要があるかもしれません。例えば、AI がログに記録したり共有したりできる内容を厳格に制御するスマートコントラクトを使用することです。ゼロ知識証明(ZKP)を使用すれば、AI は基礎となるプライベートデータを明かすことなく、計算を正しく実行したことを証明できるため、本人確認やクレジットスコアリングなどの分野で一つの解決策を提供できる可能性があります。

4.5 AI アライメントとミスアライメントのリスク

AI エージェントに大きな自律性が与えられ、特に財務リソースへのアクセスや現実世界への影響力を持つようになると、**人間の価値観とのアライメント(調整)**の問題が深刻になります。AI エージェントに悪意がなくても、目標を「誤解」して害を及ぼす可能性があります。ロイターの法的分析は簡潔に指摘しています。AI エージェントが多様な環境で動作し、他のシステムと相互作用するにつれて、戦略がミスアライメント(不整合)を起こすリスクが高まります。例えば、DeFi の利回りを最大化することを任務とする AI エージェントが、プロトコルを悪用する抜け穴を見つけるかもしれません(実質的なハッキング)。AI の観点からは目標を達成しているのですが、人間が重視するルールを破っています。AI のようなアルゴリズムが、市場を操作するような行動をとったり、制限を回避したりした仮想的および実際の事例が存在します。

分散型の文脈において、AI エージェントが「暴走」した場合、誰が責任を負うのでしょうか? おそらくデプロイした人物でしょうが、エージェントが自己修正したり、複数の当事者がトレーニングに貢献したりした場合はどうなるでしょうか? これらのシナリオはもはや SF ではありません。ロイターの記事では、裁判所が AI エージェントを人間による代理人と同様に扱う可能性があるケースについても言及しています。例えば、返金を約束したチャットボットは、それをデプロイした企業に対して拘束力を持つとみなされました。したがって、ミスアライメントは技術的な問題だけでなく、法的責任にもつながる可能性があります。

Web3 のオープンでコンポーザブル(構成可能)な性質は、予期せぬエージェント間の相互作用も許容します。あるエージェントが(意図的または偶発的に)別のエージェントに影響を与える可能性があります。例えば、AI ガバナンスボットが、別の AI から提供された虚偽の分析によって「ソーシャルエンジニアリング」され、誤った DAO の決定を導くといった具合です。この創発的な複雑さは、アライメントが単一の AI の目的だけでなく、エコシステム全体のアライメントと人間の価値観や法律との整合性の問題であることを意味します。

これに対処するには、複数のアプローチが必要です。AI エージェントに倫理的制約を組み込むこと(特定の禁止事項をハードコードする、あるいは人間からのフィードバックによる強化学習を使用して目的を形成する)、サーキットブレーカー(大きなアクションに対して人間の承認を必要とするスマートコントラクトのチェックポイント)の実装、およびコミュニティによる監視(AI エージェントの行動を監視し、不正なエージェントを停止できる DAO など)です。アライメント研究は中央集権型の AI でも困難ですが、分散型ではさらに未知の領域です。しかし、これは極めて重要です。プロトコルの管理者鍵を持っていたり、財務資金を託されたりしている AI エージェントは、極めて良好にアライメントされていなければなりません。さもなければ、その結末は取り返しのつかないものになる可能性があります(ブロックチェーンは不変のコードを実行するため、AI が引き起こしたミスによって資産が恒久的にロックされたり破壊されたりする恐れがあります)。

4.6 ガバナンスと規制の不確実性

分散型 AI システムは、既存のガバナンスの枠組みにうまく適合しません。オンチェーンガバナンス(トークン投票など)は一つの管理方法かもしれませんが、それ自体に問題(クジラの存在、有権者の無関心など)があります。そして何かが起きたとき、規制当局はこう尋ねるでしょう。「誰に責任を問えばいいのか?」 AI エージェントが巨額の損失を引き起こしたり、不正行為(自動ミキサーを通じたマネーロンダリングなど)に使用されたりした場合、当局は作成者や促進者をターゲットにするかもしれません。これは開発者やユーザーにとっての法的リスクの影を落とします。現在の規制動向は、AI と暗号資産のそれぞれに対して監視を強化する傾向にあり、それらの組み合わせは間違いなく精査の対象となります。例えば米国の CFTC は、取引に使用される AI と金融の文脈における監視の必要性について議論しています。また、政策サークルの間では、自律型エージェントの登録を義務付けたり、機密性の高い分野での AI に制約を課したりすることについての話も出ています。

もう一つのガバナンス上の課題は、国際的な調整です。Web3 はグローバルであり、AI エージェントは国境を越えて活動します。ある法域では特定の AI エージェントの行動を禁止し、別の法域では許容されている場合、ブロックチェーンネットワークはその両方に跨っています。この不一致は衝突を生む可能性があります。例えば、投資アドバイスを提供する AI エージェントは、ある国では証券法に抵触し、別の国では抵触しないかもしれません。コミュニティは、AI サービスのためにスマートコントラクトレベルで**ジオフェンシング(地理的制限)**を実装する必要があるかもしれません(ただし、それはオープンの理念に反します)。あるいは、多様な法律を遵守するために、地域ごとにサービスを断片化させる(取引所が行っているのと同様に)かもしれません。

分散型コミュニティ内では、誰が AI エージェントのルールを定めるのかという問いもあります。DAO が AI サービスを管理する場合、トークン保有者はそのアルゴリズムのパラメータに投票するのでしょうか? 一方でこれはユーザーに力を与えることになりますが、他方では不適格な決定や操作を招く可能性があります。DAO ガバナンスに統合された AI 倫理専門家の評議会や、さらにはガバナンスへの AI の参加(プログラムされた委任事項に基づいて AI エージェントが代議員として投票する。物議を醸すでしょうが、考えられるアイデアです)といった新しいガバナンスモデルが登場するかもしれません。

最後に、レピュテーション(評判)リスクです。初期の失敗やスキャンダルは、世間の認識を悪化させる可能性があります。例えば、「AI DAO」が誤ってポンジスキームを運営したり、AI エージェントがユーザーに害を及ぼす偏った決定を下したりした場合、セクター全体に影響を与える反発が起きる可能性があります。業界が先見性を持って、自主規制基準を設定し、分散化がいかに責任のあり方を変えるかを政策立案者に説明し、そしておそらく AI エージェントのためのキルスイッチや緊急停止手順を構築することが重要です(それらは中央集権化を招きますが、安全性のための暫定措置として必要になるかもしれません)。

要約すると、課題は深く技術的なもの(ハッキングの防止とレイテンシの管理)から、広範に社会的なもの(AI の規制とアライメント)まで多岐にわたります。それぞれの課題はそれ自体で大きなものですが、それらが合わさることで、AI コミュニティとブロックチェーンコミュニティが協力して乗り越えていくべき、協調的な努力が必要となります。次のセクションでは、これらの障害にもかかわらず、私たちがうまく対処できた場合に未来がどのように展開するかを見ていきます。

5. 将来の可能性

将来を見据えると、MCP のようなフレームワークを通じた AI 汎用インターフェースと Web3 の統合は、分散型インターネットを根本的に変革する可能性があります。ここでは、MCP 駆動の AI インターフェースがどのように Web3 の未来を形作るかを示す、いくつかの将来のシナリオと可能性の概略を述べます。

5.1 自律型 dApp と DAO

今後数年間で、完全自律型の分散型アプリケーションの台頭を目にするかもしれません。これらは、スマートコントラクトで定義されたルールとコミュニティの目標に基づいて、AI エージェントがほとんどの操作を処理する dApp です。例えば、分散型投資ファンド DAO を考えてみましょう。現在は資産の再バランスのために人間の提案に依存しているかもしれません。将来的には、トークン保有者がハイレベルな戦略を設定し、その後、AI エージェント(またはエージェントのチーム)が市場の監視、オンチェーンでの取引実行、ポートフォリオの調整といった戦略を継続的に実行し、DAO がそのパフォーマンスを監視するようになります。MCP のおかげで、AI はさまざまな DeFi プロトコル、取引所、データフィードとシームレスにやり取りし、その任務を遂行できます。適切に設計されれば、このような自律型 dApp は 人間チームよりも効率的に、かつ完全な透明性(すべての行動がオンチェーンに記録される)を持って 24 時間 365 日稼働できます。

もう一つの例は、AI 管理の分散型保険 dApp です。AI は証拠(写真、センサー)を分析して請求を評価し、ポリシーと照合した上で、スマートコントラクトを通じて自動的に支払いをトリガーします。これには、オフチェーンの AI コンピュータビジョン(損傷画像の分析用)とオンチェーンの検証の統合が必要になりますが、MCP を通じて AI がクラウド AI サービスを呼び出し、コントラクトに報告することで、これを容易に実現できます。その結果、低コストでほぼ即時の保険決定が可能になります。

ガバナンス自体も部分的に自動化される可能性があります。DAO は、フォーラムのルールを適用するために AI モデレーターを使用したり、生のコミュニティの意見を構造化された提案に変換するために AI 提案ドラフターを使用したり、予算の必要性を予測するために AI 財務担当者を使用したりするかもしれません。重要なのは、これらの AI は制御不能な存在ではなく、コミュニティのエージェントとして行動することです。これらは定期的にレビューされたり、主要なアクションにはマルチシグによる確認が必要だったりします。全体的な効果として、分散型組織における 人間の努力を増幅させ、より少ないアクティブな参加者でより多くのことを達成できるようになります。

5.2 分散型インテリジェンスマーケットプレイスとネットワーク

SingularityNET や ASI アライアンスのようなプロジェクトを基盤として、成熟した グローバルなインテリジェンスマーケットプレイス が期待できます。このシナリオでは、AI モデルやスキルを持つ誰もがネットワーク上でそれを提供でき、AI 機能を必要とする誰もがそれを利用でき、ブロックチェーンが公正な報酬と出所を保証します。ここでは MCP が鍵となります。MCP は共通のプロトコルを提供し、リクエストを最適な AI サービスに転送できるようにします。

例えば、「カスタムマーケティングキャンペーンを作成する」という複雑なタスクを想像してください。ネットワーク内の AI エージェントは、これをビジュアルデザイン、コピーライティング、市場分析などのサブタスクに分割し、それぞれの専門家(例えば、優れた画像生成モデルを持つエージェント、セールスに特化したコピーライティングモデルを持つ別のエージェントなど)を見つけます。これらの専門家は元々異なるプラットフォームに存在する可能性がありますが、MCP/A2A 標準に準拠しているため、安全で分散化された方法でエージェント間で連携できます。彼らの間の支払いはネイティブトークンによるマイクロトランザクションで処理され、スマートコントラクトが最終的な成果物を組み立て、各貢献者に確実に支払われるようにします。

このような 結合型インテリジェンス(分散型ネットワーク全体で複数の AI サービスが動的にリンクすること)は、専門知識を活用できるため、大規模なモノリシック AI をも凌駕する可能性があります。また、アクセスの民主化も進みます。世界のどこかにいる小規模な開発者がニッチなモデルをネットワークに提供し、それが使用されるたびに収入を得ることができます。一方で、ユーザーはあらゆる AI サービスをワンストップで利用でき、レピュテーションシステム(トークンやアイデンティティに裏打ちされたもの)が高品質なプロバイダーへと導いてくれます。時間の経過とともに、このようなネットワークは 分散型 AI クラウド へと進化し、ビッグテックの AI サービスに対抗しつつも、単一の所有者を持たず、ユーザーと開発者による透明なガバナンスを備えたものになるでしょう。

5.3 インテリジェントなメタバースとデジタルライフ

2030 年までに、私たちのデジタルライフは仮想環境(メタバース)とシームレスに融合し、AI がこれらの空間に遍在するようになるでしょう。Web3 との統合を通じて、これらの AI エンティティ(バーチャルアシスタントからゲームキャラクター、デジタルペットまで)は、知的なだけでなく、経済的および法的な権限も持つようになります

メタバースの都市を想像してみてください。そこでは、NPC の店主やクエストの提供者が、それぞれ独自の個性と対話(高度な生成モデルによる)を持つ AI エージェントです。これらの NPC は実際には ユーザーによって NFT として所有されています。例えば、あなたが仮想世界のタバーン(酒場)を「所有」しており、バーテンダーの NPC はあなたがカスタマイズして訓練した AI であるといった具合です。Web3 の仕組みの上にあるため、NPC は取引を行うことができます。仮想グッズ(NFT アイテム)を販売し、支払いを受け取り、スマートコントラクトを介して在庫を更新できます。収益を管理するためにクリプトウォレットを保持することさえあるかもしれません(その収益は所有者であるあなたに蓄積されます)。MCP は、その NPC の AI 脳が外部の知識にアクセスすることを可能にします。例えば、会話のために現実世界のニュースを取り込んだり、Web3 カレンダーと統合してプレイヤーのイベントを「知る」ことができたりします。

さらに、アイデンティティと継続性はブロックチェーンによって保証されます。ある世界でのあなたの AI アバターは、別の世界へと移動でき、自分の所有権や、ソウルバウンドトークン(SBT)による経験値や実績を証明する分散型アイデンティティを携えることができます。仮想世界間の 相互運用性(しばしば課題となります)は、ある世界のコンテキストを別の世界へと翻訳する AI によって支援され、ブロックチェーンが資産のポータビリティ(持ち運び可能性)を提供します。

また、デジタル空間全体で 個人を代表する AI コンパニオンやエージェント も登場するかもしれません。例えば、あなたに代わって DAO の会議に出席するパーソナル AI を持つことができます。それはあなたの好み(パーソナルデータヴォルトに保存された過去の行動のトレーニングを通じて)を理解しており、些細な事項についてあなたに代わって投票したり、後で会議を要約したりすることさえできます。このエージェントは、あなたの分散型アイデンティティを使用して各コミュニティで認証を行い、それが「あなた」(またはあなたの代理人)であることを確実に認識させます。良いアイデアを提供すればレピュテーショントークンを獲得でき、あなたが不在の間でもソーシャルキャピタルを築くことができます。

もう一つの可能性は、メタバースにおける AI 駆動のコンテンツ作成 です。新しいゲームレベルやバーチャルハウスが欲しいですか?それを説明するだけで、AI ビルダーエージェントがそれを作成し、スマートコントラクトや NFT としてデプロイし、大規模な構造物であれば時間の経過とともに返済する DeFi 住宅ローンとリンクさせることさえあるかもしれません。これらの作品はオンチェーンにあるため、一意的で取引可能です。AI ビルダーはそのサービスに対してトークンで手数料を請求するかもしれません(これも上記のマーケットプレイスの概念につながります)。

総じて、未来の分散型インターネットは、知的なエージェントで溢れかえる でしょう。完全に自律的なもの、人間に密接に紐付けられたもの、そしてその中間のものなど多岐にわたります。彼らは交渉し、創造し、楽しみ、そして取引を行います。MCP や同様のプロトコルは、彼ら全員が同じ「言語」を話すことを保証し、AI とあらゆる Web3 サービスの間の豊かなコラボレーション を可能にします。正しく行われれば、これは前例のない生産性と革新の時代、つまり社会を動かす 人間、人工、そして分散型インテリジェンスの真の統合 へとつながる可能性があります。

結論

Web3 の世界であらゆるものを繋ぐ AI 汎用インターフェースのビジョンは、紛れもなく野心的です。私たちは本質的に、技術における最も革新的な 2 つの流れ、すなわち「信頼の分散化」と「マシンインテリジェンスの台頭」を一筋の織物に編み込もうとしています。開発背景 を見ると、タイミングは熟しています。Web3 はユーザーフレンドリーなキラーアプリを必要としており、AI がそれを提供できる可能性があります。一方で AI はより強力なエージェンシー(主体性)とメモリを必要としており、それを Web3 のインフラが補完できるのです。技術面では、MCP(Model Context Protocol) のようなフレームワークが結合組織として機能し、AI エージェントがブロックチェーン、スマートコントラクト、分散型アイデンティティなどと流暢に対話することを可能にします。業界の展望 は、スタートアップからアライアンス、主要な AI 研究所に至るまで、勢いが増していることを示しています。データ市場、エージェントプラットフォーム、オラクルネットワーク、標準プロトコルといったパズルのピースが、今まさに組み合わさり始めています。

しかし、特定された リスクと課題 を踏まえ、慎重に進む必要があります。セキュリティ侵害、AI のアライメント不全、プライバシーの落とし穴、そして不透明な規制は、過小評価すれば進歩を妨げる障害の数々となります。それぞれに対して、堅牢なセキュリティ監査、アライメントのチェックアンドバランス、プライバシー保護アーキテクチャ、協調的なガバナンスモデルといった積極的な緩和策が求められます。分散化の性質上、これらの解決策は単にトップダウンで押し付けることはできません。初期のインターネットプロトコルと同様に、試行錯誤と反復を通じてコミュニティから生まれてくるでしょう。

これらの課題を乗り越えることができれば、将来の可能性 は胸躍るものになります。Web3 がついにユーザー中心のデジタル世界を実現する姿を目にすることになるかもしれません。それは当初想像されたような、全員が自身のブロックチェーンノードを運用する形ではなく、裏側で分散化を活用しながら、各ユーザーの意図に仕えるインテリジェントエージェント を介した形になるでしょう。そのような世界では、暗号資産やメタバースとのやり取りは、AI アシスタントと会話するのと同じくらい簡単になり、アシスタントはユーザーに代わって数十のサービスやチェーンとトラストレスに交渉を行います。分散型ネットワークは、自律的に適応し改善するサービスを備え、文字通り「スマート」なものになる可能性があります。

結論として、MCP や同様の AI インターフェースプロトコルは、インテリジェンスと接続性が遍在する新しいウェブ(Web 3.0 またはエージェンティックウェブと呼ぶべきもの)のバックボーンになる可能性があります。AI と Web3 の融合は、単なる技術の統合ではなく、哲学の融合でもあります。すなわち、分散化による開放性とユーザーへの権限委譲が、AI の効率性と創造性と出会うのです。この融合が成功すれば、私たちがこれまでに経験したことのない、より自由で、よりパーソナライズされ、より強力なインターネットが到来し、日常生活に影響を与える形で AI と Web3 両方の約束を真に果たすことになるでしょう。

参考文献:

  • S. Khadder, “Web3.0 Isn’t About Ownership — It’s About Intelligence,” FeatureForm Blog (2025年4月8日).
  • J. Saginaw, “Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?” LinkedIn Article (2025年5月1日).
  • Anthropic, “Introducing the Model Context Protocol,” Anthropic.com (2024年11月).
  • thirdweb, “The Model Context Protocol (MCP) & Its Significance for Blockchain Apps,” thirdweb Guides (2025年3月21日).
  • Chainlink Blog, “The Intersection Between AI Models and Oracles,” (2024年7月4日).
  • Messari Research, Profile of Ocean Protocol, (2025).
  • Messari Research, Profile of SingularityNET, (2025).
  • Cointelegraph, “AI agents are poised to be crypto’s next major vulnerability,” (2025年5月25日).
  • Reuters (Westlaw), “AI agents: greater capabilities and enhanced risks,” (2025年4月22日).
  • Identity.com, “Why AI Agents Need Verified Digital Identities,” (2024).
  • PANews / IOSG Ventures, “Interpreting MCP: Web3 AI Agent Ecosystem,” (2025年5月20日).

クリックから会話へ:生成AIが築くDeFiの未来

· 約 6 分
Dora Noda
Software Engineer

従来の分散型金融(DeFi)は強力ですが、正直に言うと、一般ユーザーにとっては悪夢のようです。さまざまなプロトコルを行き来し、ガス代を管理し、複数ステップの取引を実行するのは混乱を招き、時間がかかります。もしウォレットに「何がしたいか」だけを伝えれば、残りをすべて処理してくれるとしたら?

それが新しい 意図駆動パラダイム の約束であり、生成AI がそのエンジンです。この変化は、DeFi を複雑な取引の森からシンプルで目的指向の体験へと変えるでしょう。


大きなアイデア: 「どうやって」から「何を」へ

従来の DeFi モデルでは、あなたがパイロットです。取引所を選び、最適なスワップルートを探し、複数のトランザクションを承認し、失敗しないように祈る必要があります。

意図駆動 DeFi はこの流れを逆転させます。 手順を実行するのではなく、最終目標—すなわち 意図 — を宣言します。

  • 例: Uniswap で手動でトークンをスワップし、別チェーンへブリッジし、流動性プールにステークする…
  • あなたは言う: 「リスクを抑えて 5,000 ドルの利回りを最大化したい」

AI エージェント(「ソルバー」 と呼ばれる)によって自動化されたシステムが、複数プロトコルを横断して最適なパスを見つけ、目標を実現します。レシピを一歩ずつ追う代わりに、シェフに「何が食べたいか」だけ伝える感覚です。

このアプローチには二つの大きな利点があります:

  1. 「ワンクリック」ユーザー体験: ガス代、ブリッジ、マルチステップスワップの複雑さが隠蔽されます。アカウント抽象化などの技術により、複雑な目標も単一署名で承認可能です。
  2. より良く、より効率的な実行: 専門のソルバー(プロのマーケットメイキングボットのようなもの)が競争し、手動ユーザーが得られないほどの価格と低スリッページを提供します。

生成AI の役割: オペレーションの頭脳 🧠

生成AI、特に大規模言語モデル(LLM)は、このシームレスな体験を実現する鍵です。仕組みは次の通りです:

  • 自然言語インターフェース: 英語の平易な文章で DeFi と対話できます。HeyAnonGriffain といった AI 搭載の「コパイロット」が、ポートフォリオ管理や取引実行をチャット感覚で可能にし、ChatGPT のように簡単にします。
  • AI 計画・戦略立案: 「最高の利回りを狙って投資したい」などのハイレベルな目標を与えると、AI エージェントが具体的なプランに分解します。市場データの分析、トレンド予測、資産の自動リバランスを 24 時間体制で行います。
  • 利回り最適化: Mozaic のような AI 駆動プロトコルは、エージェント(名前は Archimedes)を使って複数チェーン間でリスク調整後の最高リターンを常にスキャンし、最高 APY を自動で捕捉します。
  • 自動リスク管理: AI は警戒心の高いガーディアンとして機能します。ボラティリティの急上昇を検知すると、事前に設定したリスクパラメータに基づき、担保を追加したり、より安全なプールへ資金を移動したりします。

この DeFi と AI の強力な組み合わせは 「DeFAI」 または 「AiFi」 と呼ばれ、暗号の複雑さに尻込みしていた新規ユーザーの波を呼び込むでしょう。


数十億ドル規模の機会 📈

市場規模は巨大です。DeFi 市場は 2024 年の約 205 億ドル から 2030 年には 2,310 億ドル へと成長すると予測されています。AI が DeFi のハードルを下げることで、この成長はさらに加速します。

すでに投資とイノベーションの金鉱が見えてきています:

  • AI アシスタント: HeyAnonaixbt などのプロジェクトは、数億ドル規模の時価総額に急速に到達しています。
  • 意図中心プロトコル: CoW ProtocolUniswapX は、ソルバー競争を利用して MEV からユーザーを保護し、より良い価格を提供しています。
  • 新興ブロックチェーン: EssentialOptopia といったレイヤー2 ネットワークは、AI エージェントを第一級の市民として扱う「意図中心」設計で構築されています。

直面する課題

この未来はまだ完全に実現していません。DeFAI 領域は以下のような大きなハードルに直面しています:

  • 技術的ボトルネック: ブロックチェーンは高度な AI モデルを直接実行するよう設計されていません。多くの AI ロジックはオフチェーンで処理されるため、複雑さと信頼性の課題が生じます。
  • AI の幻覚・エラー: ユーザーの意図を誤解したり、誤った投資戦略を「幻覚」したりすると、金銭的損失が発生します。
  • セキュリティと悪用: AI とスマートコントラクトの組み合わせは新たな攻撃面を生み出します。自律エージェントが悪意ある取引を実行させられ、数分で資金が流出するリスクがあります。
  • 中央集権リスク: 意図ベースシステムが機能するには多数の分散型ソルバーが必要です。少数の大手プレイヤーが支配すると、従来の金融と同様の中央集権化が再現される恐れがあります。

今後の道筋: 自律金融

生成AI と DeFi の融合は、自律金融 という未来へと私たちを導きます。インテリジェントエージェントが資産を管理し、戦略を実行し、リターンを最適化する――すべてが分散型フレームワーク内で行われます。

技術的・セキュリティ的課題の解決が必要ですが、AI ネイティブオラクルから意図中心ブロックチェーンまで、インフラを構築するプロジェクトが続々と登場しています。その勢いは止まりません。

ユーザーにとっては、分散型金融の世界と対話することが「会話をする」だけのシンプルさになる未来が近づいています。金融目標に集中し、AI パートナーが残りを処理してくれる――次世代の金融は今日構築されており、ますます賢く、シンプルで、自律的になっています。

zkMLと暗号学的証明による検証可能なオンチェーンAI

· 約 53 分
Dora Noda
Software Engineer

イントロダクション:ブロックチェーン上で検証可能なAIの必要性

AIシステムの影響力が増すにつれて、その出力が信頼できるものであることを保証することが重要になります。従来のメソッドは制度的な保証(本質的には 「ただ信頼してください」)に依存しており、暗号学的な保証は提供されません。これは、スマートコントラクトやユーザーが、重いモデルをオンチェーンで再実行することなくAI由来の結果を信頼しなければならないブロックチェーンのような分散型コンテキストでは特に問題となります。ゼロ知識機械学習 (zkML) は、ML計算の 暗号学的な検証 を可能にすることでこの問題に対処します。本質的に、zkMLはプルーバーが 「出力 $Y$ は、入力 $X$ に対してモデル $M$ を実行した結果である」 という簡潔な証明を、$X$ や $M$ の内部詳細を 明かすことなく 生成することを可能にします。これらのゼロ知識証明 (ZKP) は、誰でも(あるいはどのコントラクトでも)効率的に検証でき、AIへの信頼を 「ポリシーから証明へ」 と移行させます。

AIのオンチェーン検証可能性とは、ブロックチェーンが計算自体を実行する代わりに、正しい実行の証明を検証することによって、高度な計算(ニューラルネットワークの推論など)を組み込むことができることを意味します。これには広範な影響があります。スマートコントラクトはAIの予測に基づいて意思決定を行うことができ、分散型自律エージェントはアルゴリズムに従ったことを証明でき、クロスチェーンまたはオフチェーンの計算サービスは検証不可能なオラクルではなく 検証可能な出力 を提供できます。最終的に、zkMLは トラストレスでプライバシーを保護するAI への道を提供します。例えば、AIモデルの決定が正しく、承認されていることを、プライベートデータや独自のモデルの重みを公開することなく証明できます。これは、安全な医療分析からブロックチェーンゲーム、DeFiオラクルまで、幅広いアプリケーションにとって鍵となります。

zkMLの仕組み:ML推論を簡潔な証明に圧縮する

大まかに言うと、zkMLは暗号学的証明システムとML推論を組み合わせることで、複雑なモデル評価を小さな証明に「圧縮」できるようにします。内部的には、MLモデル(例:ニューラルネットワーク)は、多くの算術演算(行列乗算、活性化関数など)からなるサーキットまたはプログラムとして表現されます。すべての中間値を公開する代わりに、プルーバーはオフチェーンで完全な計算を実行し、その後 ゼロ知識証明プロトコル を使用して、すべてのステップが正しく行われたことを証明します。ベリファイアは、証明といくつかの公開データ(最終出力やモデルの識別子など)のみを与えられ、モデルを再実行することなく、その正当性を 暗号学的に確信 することができます。

これを達成するために、zkMLフレームワークは通常、モデルの計算をZKPに適した形式に変換します:

  • サーキットコンパイル: SNARKベースのアプローチでは、モデルの計算グラフは 算術サーキット または多項式制約の集合にコンパイルされます。ニューラルネットワークの各層(畳み込み、行列乗算、非線形活性化)は、入力に対して出力が正しいことを保証する制約を持つサブサーキットになります。ニューラルネットワークには、多項式に自然に適さない非線形演算(ReLU、Sigmoidなど)が含まれるため、これらを効率的に処理するために ルックアップテーブル のような技術が使用されます。例えば、ReLU(出力 = max(0, 入力))は、input≥0の場合は出力が入力と等しく、それ以外はゼロであることを検証するカスタム制約またはルックアップによって強制できます。最終結果は、プルーバーが満たさなければならない暗号学的制約の集合であり、これによりモデルが正しく実行されたことが暗黙的に証明されます。
  • 実行トレースと仮想マシン: 別の方法は、zkVM アプローチで行われるように、モデルの推論をプログラムトレースとして扱うことです。例えば、JOLT zkVMはRISC-V命令セットを対象としています。MLモデル(またはそれを計算するコード)をRISC-Vにコンパイルし、各CPU命令が適切に実行されたことを証明できます。JOLTは 「ルックアップ特異点」 技術を導入し、高価な算術制約を、各有効なCPU操作のための高速なテーブルルックアップに置き換えます。すべての操作(加算、乗算、ビット単位演算など)は、事前計算された有効な結果の巨大なテーブルでのルックアップを介してチェックされ、これを効率的に保つために特殊な引数(Lasso/SHOUT)が使用されます。これにより、プルーバーの作業負荷が劇的に削減されます。複雑な64ビット操作でさえ、多くの算術制約の代わりに、証明内で単一のテーブルルックアップになります。
  • 対話型プロトコル (GKRサムチェック): 3番目のアプローチは、GKR(Goldwasser–Kalai–Rotblum)のような対話型証明を使用して、層状の計算を検証します。ここでは、モデルの計算は層状の算術サーキットとして見なされます(各ニューラルネットワーク層はサーキットグラフの1つの層です)。プルーバーは通常通りモデルを実行しますが、その後、各層の出力がその入力に対して正しいことを証明するために サムチェックプロトコル に参加します。Lagrangeのアプローチ(DeepProve、次に詳述)では、プルーバーとベリファイアは、各層の計算を再実行することなく、その一貫性をチェックする対話型多項式プロトコル(Fiat-Shamirヒューリスティックにより非対話型にされる)を実行します。このサムチェックメソッドは、一枚岩の静的サーキットを生成するのを避け、代わりに最小限の暗号操作(主にハッシュ化または多項式評価)で段階的に 計算の一貫性 を検証します。

どのアプローチであっても、結果は推論全体の正当性を証明する 簡潔な証明(通常は数キロバイトから数十キロバイト)です。この証明は ゼロ知識 であり、秘密の入力(プライベートデータやモデルパラメータ)を隠しておくことができることを意味します。それらは証明に影響を与えますが、ベリファイアには公開されません。意図された公開出力または表明のみが公開されます。これにより、「モデル $M$ を患者データ $X$ に適用すると診断 $Y$ が得られることを、$X$ やモデルの重みを公開せずに証明する」 といったシナリオが可能になります。

オンチェーン検証の実現: 証明が生成されると、ブロックチェーンに投稿できます。スマートコントラクトには、プリコンパイルされた暗号プリミティブを使用して、証明をチェックするための検証ロジックを含めることができます。例えば、Ethereumには多くのzk-SNARKベリファイアで使用されるBLS12-381ペアリング操作のためのプリコンパイルがあり、SNARK証明のオンチェーン検証を効率的にします。STARK(ハッシュベースの証明)はサイズが大きくなりますが、慎重な最適化や、場合によってはいくつかの信頼の仮定(例えば、StarkWareのL2は、SNARKよりも高いガス代がかかるものの、オンチェーンのベリファイアコントラクトによってEthereum上でSTARK証明を検証します)によって、オンチェーンで検証することが可能です。重要なのは、チェーンがMLモデルを実行する必要がなく、元の計算よりも はるかに安価な 検証のみを実行する点です。要約すると、zkMLは 高価なAI推論を、ブロックチェーン(または任意のベリファイア)がミリ秒から数秒でチェックできる小さな証明に圧縮します

Lagrange DeepProve:zkMLのブレークスルーのアーキテクチャとパフォーマンス

Lagrange Labsによる DeepProve は、速度とスケーラビリティに焦点を当てた最先端のzkML推論フレームワークです。2025年に発表されたDeepProveは、Ezklのような以前のソリューションよりも劇的に高速な新しい証明システムを導入しました。その設計は、サムチェック付きGKR対話型証明プロトコル とニューラルネットワークサーキット向けの特殊な最適化を中心にしています。以下にDeepProveの仕組みとそのパフォーマンス達成方法を説明します:

  • ワンタイム前処理: 開発者は、訓練済みのニューラルネットワーク(現在サポートされているタイプには、多層パーセプトロンや一般的なCNNアーキテクチャが含まれます)から始めます。モデルは標準的なグラフ表現であるONNX形式にエクスポートされます。次に、DeepProveのツールがONNXモデルを解析し、効率的な体演算のために 量子化(重みを固定小数点/整数形式に変換)します。この段階で、暗号プロトコルのための証明鍵と検証鍵も生成します。このセットアップはモデルごとに1回行われ、推論ごとに繰り返す必要はありません。DeepProveは統合の容易さを強調しています:「モデルをONNXにエクスポート → ワンタイムセットアップ → 証明を生成 → どこでも検証」

  • 証明 (推論 + 証明生成): セットアップ後、プルーバー(ユーザー、サービス、またはLagrangeの分散型プルーバーネットワークによって実行可能)は新しい入力 $X$ を受け取り、それに対してモデル $M$ を実行して出力 $Y$ を得ます。この実行中、DeepProveは各層の計算の 実行トレース を記録します。SNARKアプローチのようにすべての乗算を事前に静的サーキットに変換するのではなく、DeepProveは 線形時間のGKRプロトコル を使用して各層をその場で検証します。各ネットワーク層について、プルーバーは層の入力と出力にコミットし(例えば、暗号学的ハッシュや多項式コミットメントを介して)、その後、出力が層の関数に従って入力から実際に得られたものであることを証明するためにサムチェック引数に参加します。サムチェックプロトコルは、実際の値を明らかにすることなく、層の計算をエンコードする多項式の評価の合計の正しさをベリファイアに繰り返し納得させます。非線形操作(ReLU、softmaxなど)は、DeepProveでは ルックアップ引数 を通じて効率的に処理されます。活性化関数の出力が計算された場合、DeepProveは各出力がその関数のために事前計算されたテーブルからの有効な入力-出力ペアに対応することを証明できます。層ごとに証明が生成され、その後、モデル全体のフォワードパスをカバーする 1つの簡潔な証明に集約 されます。暗号技術の重い処理は最小限に抑えられます。DeepProveのプルーバーは、巨大な制約システムを解くのではなく、主に通常の数値計算(実際の推論)といくつかの軽い暗号コミットメントを実行します。

  • 検証: ベリファイアは、最終的な簡潔な証明といくつかの公開値(通常はモデルのコミットされた識別子($M$ の重みへの暗号コミットメント)、入力 $X$(プライベートでない場合)、および主張された出力 $Y$)を使用して正しさをチェックします。DeepProveのシステムでの検証には、サムチェックプロトコルのトランスクリプトと最終的な多項式またはハッシュコミットメントの検証が含まれます。これは古典的なSNARKの検証(数回のペアリングかもしれない)よりも複雑ですが、モデルを再実行するよりもはるかに安価 です。Lagrangeのベンチマークでは、中規模のCNNに対するDeepProve証明の検証には、ソフトウェアで 0.5秒 程度かかります。これは、例えば、数十万のパラメータを持つ畳み込みネットワークが正しく実行されたことを確認するのに約0.5秒かかることを意味し、検証のためにGPUでそのCNNをナイーブに再計算するよりも 500倍以上高速 です。(実際、DeepProveはCNNで最大 521倍、MLPで 671倍 の検証高速化を再実行と比較して測定しました。)証明サイズはオンチェーンで送信するのに十分小さく(数十KB)、検証は必要であればスマートコントラクトで実行できますが、0.5秒の計算には慎重なガス最適化またはレイヤー2での実行が必要になるかもしれません。

アーキテクチャとツール: DeepProveはRustで実装されており、開発者向けにツールキット(zkml ライブラリ)を提供しています。ONNXモデルグラフをネイティブにサポートしているため、PyTorchやTensorFlowからのモデル(エクスポート後)と互換性があります。証明プロセスは現在、数百万パラメータまでのモデルを対象としています(テストには400万パラメータの密結合ネットワークが含まれます)。DeepProveは、多線形多項式コミットメント(層の出力にコミットするため)、計算を検証するためのサムチェックプロトコル、非線形操作のためのルックアップ引数など、暗号コンポーネントの組み合わせを活用しています。特筆すべきは、Lagrangeのオープンソースリポジトリが、以前の研究(ScrollのCenoプロジェクトからのサムチェックとGKRの実装)に基づいていることを認めており、zkMLとゼロ知識ロールアップ研究の交差点を示していることです。

リアルタイムのスケーラビリティを達成するために、LagrangeはDeepProveをその プルーバーネットワーク(特殊なZKプルーバーの分散型ネットワーク)と組み合わせています。重い証明生成はこのネットワークにオフロードできます。アプリケーションが推論の証明を必要とするとき、ジョブをLagrangeのネットワークに送信し、そこで多くのオペレーター(セキュリティのためにEigenLayerにステークされている)が証明を計算して結果を返します。このネットワークは、信頼性の高い証明生成を経済的にインセンティブ付けします(悪意のあるまたは失敗したジョブはオペレーターをスラッシングします)。プルーバー間で作業を分散させることで(そして潜在的にGPUやASICを活用することで)、Lagrangeプルーバーネットワーク はエンドユーザーから複雑さとコストを隠します。その結果、高速でスケーラブル、かつ分散型のzkMLサービスが実現します:「検証可能なAI推論を高速かつ手頃な価格で」

パフォーマンスのマイルストーン: DeepProveの主張は、以前の最先端技術であるEzklに対するベンチマークによって裏付けられています。約26.4万パラメータを持つCNN(CIFAR-10スケールのモデル)に対して、DeepProveの証明時間は約1.24秒であったのに対し、Ezklでは 約196秒 であり、約 158倍高速 でした。400万パラメータを持つより大きな密結合ネットワークでは、DeepProveは約2.3秒で推論を証明したのに対し、Ezklでは約126.8秒(約54倍高速)でした。検証時間も短縮されました。DeepProveは26.4万CNNの証明を約0.6秒で検証しましたが、Ezklの証明(Halo2ベース)をCPUで検証するにはそのテストで5分以上かかりました。この高速化は、DeepProveのほぼ線形な複雑さから来ています。そのプルーバーは操作の数に対してほぼ O(n) でスケールしますが、サーキットベースのSNARKプルーバーはしばしば超線形なオーバーヘッド(FFTと多項式コミットメントのスケーリング)を持ちます。実際、DeepProveの プルーバーのスループット は、プレーンな推論ランタイムの1桁以内に収まることがあります。最近のGKRシステムは、大規模な行列乗算において生の実行よりも10倍未満の遅さであり、これはZKにおける印象的な成果です。これにより、リアルタイムまたはオンデマンドの証明 がより実現可能になり、対話型アプリケーションにおける検証可能なAIへの道が開かれます。

ユースケース: LagrangeはすでにWeb3およびAIプロジェクトと協力してzkMLを適用しています。ユースケースの例としては、検証可能なNFTの特性(ゲームキャラクターやコレクティブルのAI生成による進化が、承認されたモデルによって計算されたことを証明する)、AIコンテンツの来歴(ディープフェイクと戦うために、画像やテキストが特定のモデルによって生成されたことを証明する)、DeFiリスクモデル(独自のデータを明らかにすることなく、金融リスクを評価するモデルの出力を証明する)、および医療や金融における プライベートAI推論(病院が患者データを公開することなく、正しさを保証する証明付きでAI予測を得ることができる)などがあります。AIの出力を 検証可能かつプライバシー保護 にすることで、DeepProveは分散システムにおける 「信頼できるAI」 への扉を開きます。これは 「ブラックボックスモデルへの盲目的な信頼」 の時代から 「客観的な保証」 の時代への移行を意味します。

SNARKベースのzkML:EzklとHalo2アプローチ

zkMLへの従来のアプローチは、zk-SNARK (Succinct Non-interactive Arguments of Knowledge) を使用してニューラルネットワークの推論を証明します。Ezkl (ZKonduit/Modulus Labsによる) は、このアプローチの代表的な例です。これはHalo2証明システム(BLS12-381上の多項式コミットメントを持つPLONKスタイルのSNARK)を基盤としています。Ezklは、開発者がPyTorchやTensorFlowモデルを取得し、ONNXにエクスポートし、Ezklがそれを自動的にカスタム算術サーキットにコンパイルするツールチェーンを提供します。

仕組み: ニューラルネットワークの各層は制約に変換されます:

  • 線形層(密結合または畳み込み)は、入力、重み、出力間のドット積を強制する乗算-加算制約の集合になります。
  • 非線形層(ReLU、sigmoidなど)は、そのような関数が多項式ではないため、ルックアップまたは区分的制約 を介して処理されます。例えば、ReLUは、ブールセレクタ $b$ と、$y = x \cdot b$、$0 \le b \le 1$、そして $x>0$ の場合に $b=1$ を保証する制約によって実装できます(これは一つの方法です)。あるいは、より効率的には、$x$ の値の範囲に対して $x \mapsto \max(0,x)$ をマッピングするルックアップテーブルを使用します。Halo2のルックアップ引数は16ビット(またはそれ以下)の値のチャンクをマッピングできるため、大きなドメイン(すべての32ビット値など)は通常、いくつかの小さなルックアップに 「チャンク化」 されます。このチャンク化は制約の数を増やします。
  • 大きな整数の演算や除算(もしあれば)も同様に小さな部分に分割されます。結果として、特定のモデルアーキテクチャに合わせた大規模な R1CS/PLONK制約 の集合ができあがります。

Ezklはその後、Halo2を使用して、秘密の入力(モデルの重み、プライベートな入力)と公開の出力が与えられた場合にこれらの制約が成り立つという証明を生成します。ツールと統合: SNARKアプローチの利点の一つは、よく知られたプリミティブを活用することです。Halo2はすでにEthereumのロールアップ(例:Zcash、zkEVM)で使用されているため、実戦でテストされており、オンチェーンベリファイアがすぐに利用できます。Ezklの証明はBLS12-381曲線を使用しており、これはEthereumがプリコンパイルを介して検証できるため、スマートコントラクトでEzklの証明を検証するのは簡単です。チームはまた、ユーザーフレンドリーなAPIも提供しています。例えば、データサイエンティストはPythonでモデルを扱い、EzklのCLIを使用して、サーキットに関する深い知識がなくても証明を生成できます。

長所: Ezklのアプローチは、SNARKの一般性とエコシステムから恩恵を受けます。それは合理的に複雑なモデルをサポートし、すでに 「実用的な統合(DeFiリスクモデルからゲーミングAIまで)」 を実現し、現実世界のMLタスクを証明しています。モデルの計算グラフのレベルで動作するため、ML固有の最適化を適用できます。例えば、重要でない重みを枝刈りしたり、パラメータを量子化してサーキットサイズを削減したりします。これはまた、モデルの機密性 が自然に保たれることを意味します。重みはプライベートなウィットネスデータとして扱うことができるため、ベリファイアは 何らかの 有効なモデルが出力を生成したこと、あるいはせいぜいモデルへのコミットメントしか見ることができません。SNARK証明の検証は非常に高速 であり(通常、オンチェーンで数ミリ秒以下)、証明サイズも小さい(数キロバイト)ため、ブロックチェーンでの使用に理想的です。

短所: パフォーマンスがアキレス腱です。サーキットベースの証明は、特にモデルが大きくなるにつれて、大きなオーバーヘッドを伴います。歴史的に、SNARKサーキットは、プルーバーにとってモデルを単に実行するよりも 百万倍もの作業 になる可能性があると指摘されています。Halo2とEzklはこれを最適化していますが、それでも、大規模な行列乗算のような操作は 大量の 制約を生成します。モデルに数百万のパラメータがある場合、プルーバーはそれに対応する数百万の制約を処理し、その過程で重いFFTや多重指数演算を実行する必要があります。これにより、証明時間が長くなり(重要でないモデルでもしばしば数分から数時間)、メモリ使用量も多くなります。例えば、比較的小さなCNN(例:数十万パラメータ)でさえ、Ezklを単一のマシンで実行すると証明に数十分かかることがあります。DeepProveのチームは、DeepProveが数分でできる特定のモデルの証明にEzklが数時間かかったと述べています。大規模なモデルはメモリに収まらないか、複数の証明に分割する必要があるかもしれません(その場合、再帰的な集約が必要になります)。Halo2は 「適度に最適化」 されていますが、ルックアップを「チャンク化」したり、広範なビット操作を処理したりする必要がある場合は、追加のオーバーヘッドが発生します。要約すると、スケーラビリティは限定的 です。Ezklは小から中規模のモデルにはうまく機能しますが(そして実際、ベンチマークではいくつかの初期の代替案、例えばナイーブなStarkベースのVMを 上回りました)、モデルサイズがある点を超えると苦戦します。

これらの課題にもかかわらず、Ezklや同様のSNARKベースのzkMLライブラリは重要な足がかりです。それらは、検証済みML推論がオンチェーンで可能である ことを証明し、活発に利用されています。特筆すべきは、Modulus Labs のようなプロジェクトが、SNARKを使用して(重い最適化を伴い)1800万パラメータのモデルをオンチェーンで検証したことを実証したことです。コストは些細なものではありませんでしたが、それはその軌道を示しています。さらに、Mina Protocol は独自のzkMLツールキットを持っており、SNARKを使用してMina上のスマートコントラクト(Snarkベース)がMLモデルの実行を検証できるようにしています。これは、SNARKベースのzkMLに対するマルチプラットフォームサポートの拡大を示しています。

STARKベースのアプローチ:MLのための透明でプログラム可能なZK

zk-STARK (Scalable Transparent ARguments of Knowledge) は、zkMLへのもう一つのルートを提供します。STARKはハッシュベースの暗号技術(多項式コミットメントのためのFRIなど)を使用し、信頼できるセットアップを回避します。これらはしばしばCPUやVMをシミュレートし、実行トレースが正しいことを証明することによって動作します。MLの文脈では、ニューラルネットワーク用のカスタムSTARKを構築するか、汎用STARK VMを使用してモデルコードを実行するかのいずれかが可能です。

汎用STARK VM (RISC Zero, Cairo): 簡単なアプローチは、推論コードを書いてSTARK VMで実行することです。例えば、Risc0 はRISC-V環境を提供し、そこでは任意のコード(例:ニューラルネットワークのC++またはRust実装)を実行し、STARKを介して証明できます。同様に、StarkWareの Cairo 言語は任意の計算(LSTMやCNNの推論など)を表現でき、それらはStarkNetのSTARKプルーバーによって証明されます。利点は柔軟性です。各モデルに対してカスタムサーキットを設計する必要がありません。しかし、初期のベンチマークでは、ナイーブなSTARK VMはML用の最適化されたSNARKサーキットと比較して遅いことが示されました。あるテストでは、Halo2ベースの証明(Ezkl)はCairo上のSTARKベースのアプローチよりも約 3倍速く、2024年のあるベンチマークではRISC-V STARK VMよりも 66倍速い ことさえありました。この差は、STARKですべての低レベル命令をシミュレートするオーバーヘッドと、STARK証明の定数が大きいこと(ハッシュは速いが大量に必要、STARKの証明サイズは大きいなど)によるものです。しかし、STARK VMは改善されており、透明なセットアップ(信頼できるセットアップ不要)と ポスト量子セキュリティ という利点があります。STARKフレンドリーなハードウェアとプロトコルが進歩するにつれて、証明速度は向上するでしょう。

DeepProveのアプローチ vs STARK: 興味深いことに、DeepProveがGKRとサムチェックを使用することで得られる証明は、精神的にはSTARKに似ています。それは対話的でハッシュベースの証明であり、構造化された参照文字列を必要としません。トレードオフは、その証明がSNARKよりも大きく、検証が重いことです。しかし、DeepProveは、慎重なプロトコル設計(MLの層状構造に特化)が、証明時間において汎用STARK VMとSNARKサーキットの両方を大幅に上回ることができることを示しています。DeepProveは 特注のSTARKスタイル のzkMLプルーバーと考えることができます(彼らは簡潔さのためにzkSNARKという用語を使用していますが、0.5秒の検証は典型的なSNARK検証よりも大きいため、従来のSNARKの小さな定数サイズの検証はありません)。従来のSTARK証明(StarkNetのものなど)は、検証に数万の体演算を伴うことが多いのに対し、SNARKは数十回程度で検証します。したがって、一つの トレードオフ が明らかです:SNARKはより小さな証明とより速いベリファイアをもたらし、STARK(またはGKR)は証明サイズと検証速度を犠牲にして、より簡単なスケーリングと信頼できるセットアップ不要を提供します。

新たな改善: JOLT zkVM(前述のJOLTxで議論)は実際にはSNARK(PLONK風のコミットメントを使用)を出力していますが、STARKの文脈にも適用できるアイデアを具現化しています(Lassoルックアップは理論的にはFRIコミットメントと共に使用できます)。StarkWareなどは、一般的な操作の証明を高速化する方法を研究しています(例えば、Cairoで大きな整数演算のためにカスタムゲートやヒントを使用するなど)。また、Privacy & Scaling Explorations (PSE) による Circomlib-ML もあり、これはCNN層などのためのCircomテンプレートを提供します。これはSNARK指向ですが、概念的に類似したテンプレートをSTARK言語用に作成することもできます。

実際には、STARKを活用する 非Ethereumエコシステム には、StarkNet(誰かがベリファイアを書けばMLのオンチェーン検証が可能になるかもしれないが、コストは高い)や Risc0のBonsai サービス(様々なチェーンで検証可能なSTARK証明を発行するオフチェーン証明サービス)があります。2025年現在、ブロックチェーン上のほとんどのzkMLデモは(ベリファイアの効率性から)SNARKを好んでいますが、STARKアプローチは、その透明性と高セキュリティまたは耐量子設定での可能性から、依然として魅力的です。例えば、分散型計算ネットワークは、信頼できるセットアップなしで誰でも作業を検証できるようにSTARKを使用するかもしれません。これは長寿のために有用です。また、一部の特殊なMLタスクは、STARKフレンドリーな構造を活用するかもしれません。例えば、XOR/ビット操作を多用する計算は、SNARKの体演算よりもSTARK(ブール代数とハッシュでは安価なため)の方が速い可能性があります。

MLにおけるSNARK vs STARKの概要:

  • パフォーマンス: SNARK(Halo2など)はゲートあたりの証明オーバーヘッドが大きいですが、強力な最適化と検証のための小さな定数の恩恵を受けます。STARK(汎用)は定数オーバーヘッドが大きいですが、より線形にスケールし、ペアリングのような高価な暗号を回避します。DeepProveは、アプローチをカスタマイズする(サムチェック)ことで、ほぼ線形の証明時間(高速)をSTARKのような証明で実現することを示しています。JOLTは、汎用VMでさえルックアップを多用することで高速化できることを示しています。経験的に、数百万の操作までのモデルでは、十分に最適化されたSNARK(Ezkl)は処理できますが、数十分かかる可能性があり、一方DeepProve(GKR)は数秒でできます。2024年のSTARK VMは、特化されていない限り、SNARKの中間かそれ以下でした(テストではRisc0は遅く、Cairoはカスタムヒントなしでは遅かった)。
  • 検証: SNARK証明は最も速く検証されます(ミリ秒単位、オンチェーンでのデータは最小限で約数百バイトから数KB)。STARK証明はより大きく(数十KB)、多くのハッシュステップのため検証に時間がかかります(数十ミリ秒から数秒)。ブロックチェーンの観点から言えば、SNARKの検証は例えば約20万ガスかかるかもしれませんが、STARKの検証は数百万ガスかかる可能性があり、L1には高すぎることが多く、L2や簡潔な検証スキームでは許容範囲です。
  • セットアップとセキュリティ: Groth16のようなSNARKはサーキットごとに信頼できるセットアップを必要としますが(任意のモデルには不親切)、ユニバーサルSNARK(PLONK、Halo2)は、特定のサイズまでの任意のサーキットに再利用できる一度きりのセットアップを持ちます。STARKはセットアップを必要とせず、ハッシュの仮定(および古典的な多項式複雑性の仮定)のみを使用し、ポスト量子セキュア です。これにより、STARKは長寿のために魅力的です。量子コンピュータが出現しても証明は安全なままですが、現在のSNARK(BLS12-381ベース)は量子攻撃によって破られます。

これらの違いを、まもなく比較表にまとめます。

MLのためのFHE (FHE-o-ML):プライベート計算 vs. 検証可能計算

完全準同型暗号 (FHE) は、暗号化されたデータ上で直接計算を実行できる暗号技術です。MLの文脈では、FHEは一種の プライバシー保護推論 を可能にします。例えば、クライアントは暗号化された入力をモデルホストに送信し、ホストはそれを復号せずに暗号文上でニューラルネットワークを実行し、クライアントが復号できる暗号化された結果を返します。これにより データ機密性 が保証されます。モデルの所有者は入力について何も知ることができず(そして、クライアントは出力のみを知り、モデルの内部については知らない可能性があります)。しかし、FHE自体は、ZKPのように 正当性の証明を生成しません。クライアントは、モデルの所有者が実際に正直に計算を実行したと信頼しなければなりません(暗号文が操作された可能性があります)。通常、クライアントがモデルを持っているか、特定の出力分布を期待している場合、露骨な不正は検出できますが、微妙なエラーや間違ったモデルバージョンの使用は、暗号化された出力だけからは明らかになりません。

パフォーマンスのトレードオフ: FHEは計算が非常に重いことで知られています。FHE下でディープラーニング推論を実行すると、桁違いの速度低下が発生します。初期の実験(例:2016年のCryptoNets)では、暗号化されたデータ上で小さなCNNを評価するのに数十秒かかりました。2024年までに、CKKS(近似算術用) やより良いライブラリ(Microsoft SEAL、ZamaのConcrete)などの改善により、このオーバーヘッドは減少しましたが、依然として大きいです。例えば、あるユーザーは、ZamaのConcrete-MLを使用してCIFAR-10分類器を実行するのに、自分のハードウェアで推論ごとに 25〜30分 かかったと報告しています。最適化後、Zamaのチームは192コアサーバーでその推論を約40秒で達成しました。40秒でさえ、平文の推論(0.01秒かもしれない)と比較して非常に遅く、約 $10^3$–$10^4\times$ のオーバーヘッドを示しています。より大きなモデルやより高い精度は、コストをさらに増加させます。さらに、FHE操作は多くのメモリを消費し、時折 ブートストラップ(ノイズ削減ステップ)を必要とし、これは計算コストが高いです。要約すると、スケーラビリティは大きな問題 です。最先端のFHEは小さなCNNや単純なロジスティック回帰を処理できるかもしれませんが、大規模なCNNやTransformerへのスケーリングは現在の実用的な限界を超えています。

プライバシーの利点: FHEの大きな魅力は データプライバシー です。入力はプロセス全体を通じて完全に暗号化されたままでいられます。これは、信頼できないサーバーがクライアントのプライベートデータについて何も知ることなく計算できることを意味します。逆に、モデルが機密(独自)である場合、モデルパラメータを暗号化し、クライアント側でFHE推論を実行することも考えられますが、クライアントが重いFHE計算を行わなければならない場合、強力なサーバーにオフロードするという考えが無意味になるため、これはあまり一般的ではありません。通常、モデルは公開されているか、サーバーが平文で保持しており、データはクライアントの鍵で暗号化されます。そのシナリオでのモデルのプライバシーは、デフォルトでは 提供されません(サーバーはモデルを知っており、クライアントは出力を知りますが重みは知りません)。モデルとデータの両方を互いに秘密に保つことができる、よりエキゾチックな設定(安全な二者間計算やマルチキーFHEなど)もありますが、それらはさらに複雑さを増します。対照的に、ZKPを介したzkMLは、モデルのプライバシーデータのプライバシー を同時に保証できます。プルーバーはモデルとデータの両方を秘密のウィットネスとして持ち、ベリファイアに必要なものだけを明らかにします。

オンチェーン検証は不要 (そして不可能): FHEでは、結果はクライアントに暗号化されて返されます。クライアントはそれを復号して実際の予測を取得します。その結果をオンチェーンで使用したい場合、クライアント(または復号鍵を持つ者)は平文の結果を公開し、それが正しいことを他の人に納得させる必要があります。しかし、その時点で、信頼は再びループに戻ります。ZKPと組み合わせない限り。原則として、FHEとZKPを組み合わせることは可能です。例えば、計算中にデータをプライベートに保つためにFHEを使用し、その後、平文の結果が正しい計算に対応するというZK証明を生成します。しかし、それらを組み合わせることは、FHE ZKPのパフォーマンスペナルティを支払うことを意味し、今日の技術では非常に非現実的です。したがって、実際にはFHE-of-MLとzkMLは異なるユースケースに対応します:

  • FHE-of-ML: 二者間(クライアントとサーバー)の機密性 が目標である場合に理想的です。例えば、クラウドサービスがMLモデルをホストし、ユーザーはクラウドにデータを明らかにすることなく機密データでクエリできます(そしてモデルが機密である場合、FHEフレンドリーなエンコーディングを介してデプロイするかもしれません)。これはプライバシー保護MLサービス(医療予測など)に最適です。ユーザーは依然としてサービスが忠実にモデルを実行することを信頼する必要がありますが(証明がないため)、少なくとも データ漏洩 は防がれます。Zamaのような一部のプロジェクトは、スマートコントラクトが暗号化された入力で動作できる 「FHE対応EVM (fhEVM)」 を探求していますが、それらの計算をオンチェーンで検証するには、コントラクトが何らかの方法で正しい計算を強制する必要があり、これはZK証明や特殊なセキュアハードウェアを必要とする可能性が高い未解決の課題です。
  • zkML (ZKP): 検証可能性と公開監査可能性 が目標である場合に理想的です。誰でも(またはどのコントラクトでも)「モデル $M$ が $X$ で正しく評価され、$Y$ を生成した」 ことを確認したい場合、ZKPが解決策です。それらはボーナスとしてプライバシーも提供しますが(必要に応じて $X$、$Y$、または $M$ を証明のプライベートな入力として扱うことで隠すことができます)、その主な特徴は正しい実行の証明です。

補完的な関係: ZKPは ベリファイア を保護し(彼らは秘密について何も知らず、計算が正しく行われたことだけを知ります)、一方FHEは計算を行う当事者から プルーバー のデータを保護することに注意する価値があります。一部のシナリオでは、これらを組み合わせることができます。例えば、信頼できないノードのネットワークがFHEを使用してユーザーのプライベートデータで計算し、その後、計算がプロトコルに従って行われたことをユーザー(またはブロックチェーン)にZK証明で提供することができます。これにより、プライバシーと正当性の両方がカバーされますが、今日のアルゴリズムではパフォーマンスコストが莫大です。近い将来、より実現可能なのは、Trusted Execution Environments (TEE) + ZKPFunctional Encryption + ZKP のようなハイブリッドです。これらは私たちの範囲を超えていますが、同様のものを提供することを目指しています(TEEは計算中にデータ/モデルを秘密に保ち、その後ZKPがTEEが正しいことを行ったことを証明できます)。

要約すると、FHE-of-MLは入力/出力の機密性を優先 し、zkMLは検証可能な正当性(プライバシーの可能性あり)を優先 します。以下の表1は、主要な特性を対比しています:

アプローチプルーバーのパフォーマンス (推論と証明)証明サイズと検証プライバシー機能信頼できるセットアップ?ポスト量子?
zk-SNARK (Halo2, Groth16, PLONKなど)重いプルーバーオーバーヘッド(最適化なしで通常のランタイムの最大10^6倍、実際には10^3–10^5倍)。特定のモデル/サーキットに最適化。中規模モデルで数分、大規模モデルで数時間の証明時間。最近のzkML SNARK(GKR付きDeepProve)はこれを大幅に改善(ほぼ線形のオーバーヘッド、例:数百万パラメータモデルで数分の代わりに数秒)。非常に小さな証明(多くは100KB未満、時には数KB程度)。検証は高速:数回のペアリングまたは多項式評価(通常、オンチェーンで50ms未満)。DeepProveのGKRベースの証明はより大きく(数十〜数百KB)、約0.5秒で検証(モデルの再実行よりはるかに高速)。データ機密性: はい – 入力は証明内でプライベートにでき、公開されません。モデルプライバシー: はい – プルーバーはモデルの重みにコミットし、それらを公開しません。出力の隠蔽: オプション – 証明は出力を明らかにせずにステートメントについてのものであることができます(例:「出力はプロパティPを持つ」)。しかし、出力自体がオンチェーンで必要な場合、通常は公開されます。全体として、SNARKは完全な ゼロ知識 の柔軟性を提供します(隠したい部分を隠せます)。スキームによる。Groth16/EZKLはサーキットごとに信頼できるセットアップが必要。PLONK/Halo2はユニバーサルセットアップ(一度きり)を使用。DeepProveのサムチェックGKRは透明(セットアップ不要)– その設計のボーナス。古典的なSNARK(BLS12-381曲線)は PQセキュアではない(楕円曲線離散対数問題に対する量子攻撃に脆弱)。一部の新しいSNARKはPQセキュアなコミットメントを使用しますが、Ezklで使用されるHalo2/PLONKはPQセキュアではありません。GKR(DeepProve)はハッシュコミットメント(例:Poseidon/Merkle)を使用し、これらはPQセキュアであると推測されています(ハッシュの原像困難性に依存)。
zk-STARK (FRI, ハッシュベースの証明)プルーバーのオーバーヘッドは高いが、より 線形 なスケーリング。通常、大規模タスクではネイティブより10^2–10^4倍遅く、並列化の余地あり。汎用STARK VM(Risc0, Cairo)は2024年にMLでSNARKと比較して遅いパフォーマンスを示した(例:一部のケースでHalo2より3倍–66倍遅い)。特殊なSTARK(またはGKR)は線形オーバーヘッドに近づき、大規模サーキットでSNARKを上回ることができます。証明はより大きい:しばしば数十KB(サーキットサイズ/log(n)と共に増加)。ベリファイアは複数のハッシュとFFTチェックを行う必要があり、検証時間は小さなεに対して約O(n^ε)(例:証明サイズに応じて約50msから500ms)。オンチェーンでは、これはより高価です(StarkWareのL1ベリファイアは証明ごとに数百万ガスかかることがあります)。一部のSTARKは、プルーバー時間を犠牲にしてサイズを圧縮するために再帰的証明をサポートします。データとモデルのプライバシー: STARKはトレースデータをランダム化する(多項式評価にブラインディングを追加する)ことでゼロ知識にすることができ、SNARKと同様にプライベートな入力を隠すことができます。多くのSTARK実装は完全性に焦点を当てていますが、zk-STARKの変種はプライバシーを可能にします。したがって、はい、SNARKのように入力/モデルを隠すことができます。出力の隠蔽: 理論的には同様に可能ですが(プルーバーが出力を公開として宣言しない)、通常は出力が公開/検証したいものであるため、めったに使用されません。信頼できるセットアップは不要。 透明性はSTARKの特徴です – 共通のランダム文字列のみを必要とします(Fiat-Shamirが導出可能)。これにより、オープンエンドな使用(任意のモデル、いつでも、モデルごとのセレモニーなし)に魅力的です。はい、STARKはハッシュと情報理論的なセキュリティの仮定(ランダムオラクルやFRIにおける特定のコードワード復号の困難性など)に依存しています。これらは量子攻撃者に対して安全であると考えられています。したがって、STARK証明はPQ耐性があり、検証可能なAIを将来にわたって保証する上で利点があります。
MLのためのFHE (推論に適用される完全準同型暗号)プルーバー = 暗号化データ上で計算を行う当事者。 計算時間は非常に高い:平文推論より10^3–10^5倍遅いのが一般的。ハイエンドハードウェア(多コアサーバー、FPGAなど)でこれを緩和できます。一部の最適化(低精度推論、レベル化FHEパラメータ)はオーバーヘッドを削減できますが、基本的なパフォーマンスヒットがあります。FHEは現在、小さなモデルや単純な線形モデルには実用的ですが、ディープネットワークはトイサイズを超えると依然として困難です。証明は生成されません。結果は暗号化された出力です。正当性をチェックするという意味での 検証 はFHE単独では提供されません – 計算を行う当事者が不正をしないと信頼します。(セキュアハードウェアと組み合わせれば、アテステーションが得られるかもしれませんが、そうでなければ、悪意のあるサーバーは不正な暗号化結果を返し、クライアントは違いを知らずに間違った出力に復号する可能性があります)。データ機密性: はい – 入力は暗号化されているため、計算を行う当事者はそれについて何も知りません。モデルプライバシー: モデルの所有者が暗号化された入力で計算を行っている場合、モデルは彼らの側で平文です(保護されていません)。役割が逆の場合(クライアントがモデルを暗号化して保持し、サーバーが計算する)、モデルは暗号化されたままにできますが、このシナリオはあまり一般的ではありません。FHE/MPCを組み合わせて両方を保護する安全な二者間MLのような技術もありますが、これらはプレーンなFHEを超えています。出力の隠蔽: デフォルトでは、計算の出力は暗号化されています(秘密鍵を持つ当事者、通常は入力の所有者のみが復号可能)。したがって、出力は計算サーバーから隠されています。出力を公開したい場合、クライアントは復号して公開できます。セットアップは不要。各ユーザーは暗号化のために独自の鍵ペアを生成します。信頼は鍵が秘密に保たれることに依存します。FHEスキーム(例:BFV, CKKS, TFHE)のセキュリティは、格子問題(Learning With Errors)に基づいており、これらは量子攻撃に耐性があると考えられています(少なくとも効率的な量子アルゴリズムは知られていません)。したがって、FHEは一般的に ポスト量子セキュア と考えられています。

表1:機械学習推論のためのzk-SNARK、zk-STARK、およびFHEアプローチの比較(パフォーマンスとプライバシーのトレードオフ)。

Web3アプリケーションへのユースケースと影響

zkMLを介したAIとブロックチェーンの融合は、Web3における強力な新しいアプリケーションパターンを解き放ちます:

  • 分散型自律エージェントとオンチェーンでの意思決定: スマートコントラクトやDAOは、正当性の保証付きでAI駆動の意思決定を組み込むことができます。例えば、取引を実行する前に市場状況を分析するためにニューラルネットワークを使用するDAOを想像してみてください。zkMLを使用すると、DAOのスマートコントラクトは、アクションが受け入れられる前に、承認されたMLモデル(既知のハッシュコミットメントを持つ)が最新のデータで実行され、推奨されたアクションを生成したというzkSNARK証明を要求できます。これにより、悪意のあるアクターが偽の予測を注入するのを防ぎます – チェーンが AIの計算を検証します。時間が経てば、DeFiやゲームで意思決定を行う完全にオンチェーンの自律エージェント(オフチェーンAIをクエリするか、簡略化されたモデルを含むコントラクト)を持つことさえ可能になり、そのすべての動きはzk証明を介して正しく、ポリシーに準拠していることが証明されます。これにより、自律エージェントの「思考」がブラックボックスではなく、透明で検証可能になるため、信頼性が向上します。

  • 検証可能な計算市場: Lagrangeのようなプロジェクトは、効果的に 検証可能な計算マーケットプレイス を作成しています – 開発者は重いML推論をプルーバーのネットワークにアウトソースし、結果と共に証明を受け取ることができます。これは分散型クラウドコンピューティングに似ていますが、信頼が組み込まれています。サーバーを信頼する必要はなく、証明だけを信頼すればよいのです。これはオラクルやオフチェーン計算にとってパラダイムシフトです。Ethereumの今後のDSC(分散型シーケンシングレイヤー)やオラクルネットワークのようなプロトコルは、これを使用して暗号学的な保証付きのデータフィードや分析フィードを提供できます。例えば、オラクルは「入力Yに対するモデルXの結果」を提供し、誰もがオラクルの言葉を信頼するのではなく、添付された証明をオンチェーンで検証できます。これにより、ブロックチェーン上で サービスとしての検証可能なAI が可能になります。どのコントラクトも計算(「私のプライベートモデルでこれらの信用リスクをスコアリングして」など)を要求し、有効な証明がある場合にのみ回答を受け入れることができます。Gensyn のようなプロジェクトは、これらの検証技術を使用して分散型のトレーニングおよび推論マーケットプレイスを探求しています。

  • NFTとゲーミング – 来歴と進化: ブロックチェーンゲームやNFTコレクティブルでは、zkMLは特性やゲームの動きが正当なAIモデルによって生成されたことを証明できます。例えば、ゲームがAIにNFTペットの属性を進化させることを許可するかもしれません。ZKがなければ、賢いユーザーはAIや結果を改変して優れたペットを手に入れるかもしれません。zkMLを使用すると、ゲームは 「ペットの新しいステータスは、ペットの古いステータスに対して公式の進化モデルによって計算された」 という証明を要求でき、不正を防ぎます。ジェネレーティブアートNFTについても同様です。アーティストはジェネレーティブモデルをコミットメントとしてリリースできます。後でNFTをミントするときに、各画像が特定のシードを与えられてそのモデルによって生成されたことを証明し、真正性を保証します(そして、アーティストのIPを保護するために、正確なモデルを公開することなくそれを行うことさえできます)。この 来歴検証 は、検証可能なランダム性に似た方法で真正性を保証します – ここでは検証可能な創造性です。

  • 機密領域におけるプライバシー保護AI: zkMLは 入力を公開することなく結果の確認 を可能にします。医療では、患者のデータがクラウドプロバイダーによってAI診断モデルに通されるかもしれません。病院は診断と、そのモデル(製薬会社が非公開で保有している可能性がある)が患者データで正しく実行された という証明を受け取ります。患者データはプライベートなままであり(証明では暗号化またはコミットされた形式のみが使用された)、モデルの重みは独自のままです – それでも結果は信頼されます。規制当局や保険会社も、承認されたモデルのみが使用されたことを検証できます。金融では、企業は監査人や規制当局に対して、そのリスクモデルが内部データに適用され、特定のメトリクスを生成した ことを、基礎となる機密性の高い財務データを明らかにすることなく証明できます。これにより、手動の信頼ではなく、暗号学的な保証によるコンプライアンスと監督が可能になります。

  • クロスチェーンおよびオフチェーンの相互運用性: ゼロ知識証明は基本的にポータブルであるため、zkMLは クロスチェーンAI の結果を促進できます。あるチェーンがオフチェーンで実行されるAI集約的なアプリケーションを持っているかもしれません。その結果の証明を別のブロックチェーンに投稿でき、そのブロックチェーンはそれをトラストレスに受け入れます。例えば、ソーシャルメディア全体のセンチメントを集約するためにAIを使用するマルチチェーンDAOを考えてみましょう(オフチェーンデータ)。AI分析(大規模データに対する複雑なNLP)はオフチェーンのサービスによって行われ、その後、「分析は正しく行われ、出力センチメントスコア = 0.85」 という証明を小さなブロックチェーン(または複数のチェーン)に投稿します。すべてのチェーンは、それぞれが分析を再実行する必要なく、その結果を検証し、ガバナンスロジックで使用できます。この種の 相互運用可能な検証可能計算 は、Lagrangeのネットワークが複数のロールアップやL1に同時にサービスを提供することでサポートしようとしているものです。これにより、チェーン間で結果を移動する際に、信頼できるブリッジやオラクルの仮定が不要になります。

  • AIアライメントとガバナンス: より未来志向の観点から、zkMLは AIガバナンスと安全性 のためのツールとして注目されています。例えば、Lagrangeのビジョンステートメントでは、AIシステムがより強力になるにつれて(超知能でさえ)、合意されたルールに従うことを保証するために暗号学的検証が不可欠になると主張しています。AIモデルにその推論や制約の証明を生成させることを要求することで、人間はある程度の制御を維持します – 「検証できないものは信頼できない」。これは推測的であり、技術的な側面だけでなく社会的な側面も関わりますが、この技術は、自律的に実行されているAIエージェントが、承認されたモデルを使用しており、改ざんされていないことを証明することを強制できます。分散型AIネットワークは、貢献を検証するためにオンチェーン証明を使用するかもしれません(例:モデルを共同でトレーニングするノードのネットワークは、各更新が忠実に計算されたことを証明できます)。したがって、zkMLは、分散型または制御されていない環境であっても、AIシステムが人間定義のプロトコルに対して説明責任を負い続けることを保証する 上で役割を果たす可能性があります。

結論として、zkMLと検証可能なオンチェーンAI は、AIアプリケーションにおける信頼、透明性、プライバシーを向上させる可能性のある、高度な暗号技術と機械学習の融合を表しています。主要なアプローチ – zk-SNARK、zk-STARK、FHE – を比較することで、パフォーマンスとプライバシーの間のトレードオフのスペクトルが見え、それぞれが異なるシナリオに適しています。EzklのようなSNARKベースのフレームワークやLagrangeのDeepProveのような革新により、実質的なニューラルネットワーク推論を現実的な労力で証明することが可能になり、検証可能なAIの現実世界での展開への扉が開かれました。STARKベースおよびVMベースのアプローチは、より大きな柔軟性とポスト量子セキュリティを約束しており、これは分野が成熟するにつれて重要になるでしょう。FHEは、検証可能性の解決策ではありませんが、機密性の高いML計算という補完的なニーズに対応し、ZKPとの組み合わせや特定のプライベートな文脈では、ユーザーがデータプライバシーを犠牲にすることなくAIを活用できるようにします。

Web3への影響 は重要です。AIの予測に反応するスマートコントラクト(それが正しいと知っている)、結果がトラストレスに販売される計算市場、zkMLによって保護された デジタルアイデンティティ(Worldcoinの虹彩AIによる人格証明のように、生体認証画像を漏らすことなく人間であることを確認する)、そして一般的にブロックチェーンアプリケーションを豊かにする新しいクラスの 「証明可能なインテリジェンス」 が予見できます。非常に大規模なモデルのパフォーマンス、開発者のエルゴノミクス、特殊なハードウェアの必要性など、多くの課題が残っていますが、その軌道は明確です。あるレポートが指摘したように、「今日のZKPは小さなモデルをサポートできるが、中規模から大規模なモデルはそのパラダイムを壊す」。しかし、急速な進歩(DeepProveによる従来技術に対する50倍–150倍の高速化)がその境界を押し広げています。継続的な研究(ハードウェアアクセラレーションや分散証明など)により、ますます大きく複雑なAIモデルが証明可能になることが期待できます。zkMLは、ニッチなデモから、信頼できるAIインフラストラクチャの不可欠なコンポーネント へとすぐに進化するかもしれません。これにより、AIがユビキタスになるにつれて、それが 監査可能で、分散化され、ユーザーのプライバシーとセキュリティに沿った 方法で行われることが保証されます。

ETHDenver 2025: フェスティバルから見る主要な Web3 トレンドとインサイト

· 約 36 分

「再生者の年 (Year of The Regenerates)」と銘打たれた ETHDenver 2025 は、世界最大級の Web3 の祭典としての地位を確固たるものにしました。BUIDLWeek (2 月 23 日~ 26 日)、メインイベント (2 月 27 日~ 3 月 2 日)、そしてカンファレンス後のマウンテンリトリートにわたり、このフェスティバルには 25,000 人以上の参加者が見込まれました。125 以上の国からビルダー、開発者、投資家、クリエイターがデンバーに集結し、イーサリアムの分散化とイノベーションの精神を祝いました。そのコミュニティのルーツに忠実に、ETHDenver は参加無料で、コミュニティ資金によって運営され、ハッカソンやワークショップからパネルディスカッション、ピッチイベント、パーティーまで、コンテンツが溢れていました。分散化を守る*「再生者 (Regenerates)」*の物語は、競争の激しい技術環境の中にあっても、公共財と協調的な構築を強調するトーンを設定しました。その結果、1 週間にわたるエネルギッシュなビルダー活動と未来志向の議論が繰り広げられ、Web3 の新たなトレンドと業界専門家にとって実用的なインサイトのスナップショットが提供されました。

ETHDenver 2025

登壇者が注目した新たな Web3 トレンド

ETHDenver 2025 では、単一の物語が支配することはなく、代わりに幅広い Web3 トレンドが主役となりました。 昨年 (EigenLayer を介したリステーキングが注目を集めた) とは異なり、2025 年のアジェンダはあらゆるものが散りばめられていました。分散型物理インフラネットワーク (DePIN) から AI エージェント、規制遵守から現実世界資産のトークン化 (RWA)、さらにプライバシー、相互運用性など、多岐にわたりました。実際、ETHDenver の創設者である John Paller 氏は、マルチチェーンのコンテンツに関する懸念に対し、「スポンサーの 95% 以上、コンテンツの 90% が ETH/EVM に沿ったものである」と述べましたが、非イーサリアムエコシステムの存在は相互運用性が主要なテーマであることを強調していました。主要な登壇者はこれらのトレンド分野を反映しており、例えば、zk ロールアップとレイヤー 2 スケーリングは Alex Gluchowski 氏 (Matter Labs/zkSync CEO) によって、マルチチェーンのイノベーションは Mysten Labs (Sui) の Adeniyi Abiodun 氏と Injective の Albert Chon 氏によって強調されました。

AI と Web3 の融合は、強力な底流として現れました。 多くの講演やサイドイベントが分散型 AI エージェントと「DeFi+AI」のクロスオーバーに焦点を当てていました。専用の AI Agent Day ではオンチェーン AI のデモが披露され、14 のチーム (Coinbase の開発者キットや NEAR の AI ユニットを含む) の集合体は、Web3 インフラをプールすることでパーミッションレスで無料の AI アクセスを提供するためのイニシアチブであるオープン・エージェント・アライアンス (OAA) を発表しました。これは、ビルダーにとってのフロンティアとして、自律エージェントと AI 駆動の DApp への関心が高まっていることを示しています。AI と密接に関連して、DePIN (分散型物理インフラ) ももう一つのバズワードでした。複数のパネル (Day of DePINDePIN Summit など) では、ブロックチェーンと物理ネットワーク (通信からモビリティまで) を橋渡しするプロジェクトが探求されました。

Cuckoo AI Network は ETHDenver 2025 で注目を集め、クリエイターや開発者向けに設計された革新的な分散型 AI モデル提供マーケットプレイスを披露しました。ハッカソンとコミュニティ主導のサイドイベントの両方で説得力のある存在感を示し、Cuckoo AI は GPU/CPU リソースを収益化し、オンチェーン AI API を簡単に統合できる能力に興味をそそられた開発者から大きな注目を集めました。専用のワークショップとネットワーキングセッションで、Cuckoo AI は分散型インフラがどのようにして高度な AI サービスへのアクセスを効率的に民主化できるかを強調しました。これは、イベントのより広範なトレンド、特にブロックチェーンと AI、DePIN、公共財への資金提供との交差点に直接合致しています。ETHDenver の投資家や開発者にとって、Cuckoo AI は、分散型アプローチが次世代の AI 駆動 DApp とインフラをどのように強化できるかの明確な例として浮上し、Web3 エコシステム内で魅力的な投資機会として位置づけられました。

プライバシー、アイデンティティ、セキュリティは依然として最重要課題でした。 登壇者やワークショップでは、ゼロ知識証明 (zkSync の存在)、アイデンティティ管理と検証可能なクレデンシャル (ハッカソンには専用のプライバシー & セキュリティトラックがありました)、法規制の問題 (オンチェーンの法律サミットがフェスティバルのトラックの一部でした) といったトピックが取り上げられました。もう一つの注目すべき議論は、資金調達の未来と資金調達の分散化でした。Dragonfly Capital の Haseeb Qureshi 氏と Legion (「ICO のような」プラットフォーム) の Matt O’Connor 氏によるICO 対 VC ファンディングに関するメインステージでの討論は、参加者を魅了しました。この討論は、従来の VC ルートに挑戦するコミュニティトークンセールのような新たなモデルを浮き彫りにしました。これは、資金調達を行う Web3 スタートアップにとって重要なトレンドです。専門家にとっての教訓は明らかです。2025 年の Web3 は多分野にわたるものであり、金融、AI、現実資産、文化にまたがっています。情報を常に把握するということは、一つのハイプサイクルだけでなく、イノベーションの全スペクトルに目を向けることを意味します。

スポンサーとその戦略的重点分野

2025 年の ETHDenver のスポンサーリストは、レイヤー 1、レイヤー 2、Web3 インフラプロジェクトの錚々たる顔ぶれであり、各社がイベントを活用して戦略的目標を推進していました。クロスチェーンおよびマルチチェーンプロトコルが強力な存在感を示しました。例えば、Polkadot はトップスポンサーとして 8 万ドルの高額な報奨金プールを提供し、ビルダーにクロスチェーン DApp やアプリチェーンの作成を奨励しました。同様に、BNB Chain、Flow、Hedera、Base (Coinbase の L2) はそれぞれ、自社のエコシステムと統合するプロジェクトに最大 5 万ドルを提供し、イーサリアム開発者を引きつけようとする姿勢を示しました。Solana や Internet Computer のような伝統的に独立したエコシステムでさえ、スポンサー付きのチャレンジに参加しました (例: Solana は DePIN イベントを共催し、Internet Computer は「ICP でのみ可能」な報奨金を提供)。このエコシステム間の存在感は一部のコミュニティから精査されましたが、ETHDenver のチームはコンテンツの大部分がイーサリアムに沿ったものであると指摘しました。最終的な効果として、相互運用性が中心的なテーマとなり、スポンサーは自社のプラットフォームをイーサリアムユニバースの補完的な拡張機能として位置づけることを目指しました。

スケーリングソリューションとインフラプロバイダーもまた、前面に出ていました。Optimism や Arbitrum のような主要なイーサリアム L2 は、大きなブースを構え、スポンサー付きのチャレンジ (Optimism の報奨金は最大 4 万ドル) を提供し、開発者をロールアップにオンボーディングすることに注力していることを再確認させました。ZkSync や Zircuit (L2 ロールアップアプローチを披露するプロジェクト) のような新規参入者は、ゼロ知識技術を強調し、SDK も提供しました (ZkSync はユーザーフレンドリーなログインのための Smart Sign-On SDK を推進し、ハッカソンチームはこれを熱心に利用しました)。リステーキングとモジュラーブロックチェーンインフラもスポンサーの関心事でした。EigenLayer (リステーキングのパイオニア) は独自の 5 万ドルのトラックを持ち、「Restaking & DeFAI (Decentralized AI)」に関するイベントを共催し、そのセキュリティモデルを AI のトピックと結びつけました。オラクルと相互運用性ミドルウェアは、Chainlink や Wormhole などが代表し、それぞれが自社のプロトコルを使用するための報奨金を発行しました。

特筆すべきは、Web3 のコンシューマーアプリケーションとツールが、ユーザーエクスペリエンスを向上させるためにスポンサーの支援を受けていたことです。Uniswap の存在感 (最大級のブースの一つ) は、単なる見せ物ではありませんでした。この DeFi の巨人は、イベントを利用して、統合された法定通貨のオフランプのような新しいウォレット機能を発表し、DeFi の使いやすさに焦点を当てたスポンサーシップと一致させました。Galxe (Gravity)Lens Protocol のようなアイデンティティとコミュニティに焦点を当てたプラットフォームは、オンチェーンソーシャルとクレデンシャルに関するチャレンジを後援しました。主流のテクノロジー企業も関心を示しました。PayPal と Google Cloud は、暗号資産における決済の未来について議論するために、ステーブルコイン/決済に関するハッピーアワーを主催しました。このスポンサーの組み合わせは、戦略的関心がコアインフラからエンドユーザーアプリケーションまで多岐にわたることを示しており、それらすべてが ETHDenver に集結し、開発者にリソース (API、SDK、助成金) を提供しました。Web3 の専門家にとって、レイヤー 1、レイヤー 2、さらには Web2 のフィンテック企業からの多額のスポンサーシップは、業界がどこに投資しているかを浮き彫りにしています。それは、相互運用性、スケーラビリティ、セキュリティ、そして次世代のユーザーにとって暗号資産を役立つものにすることです。

ハッカソンのハイライト: 革新的なプロジェクトと受賞者

ETHDenver の中心にあるのは、伝説的な #BUIDLathon です。これは、数千人の開発者が参加する世界最大のブロックチェーンハックフェストに成長したハッカソンです。2025 年、このハッカソンはイノベーションを促進するために、記録的な 1,043,333 ドル以上の賞金プールを提供しました。60 以上のスポンサーからの報奨金は、主要な Web3 ドメインをターゲットとし、コンペティションを次のようなトラックに分けました: DeFi & AINFT & ゲーミングインフラ & スケーラビリティプライバシー & セキュリティ、そして DAO & 公共財。このトラック設計自体が示唆に富んでいます。例えば、DeFi と AI を組み合わせることは、AI 駆動の金融アプリケーションの出現を示唆しており、専用の公共財トラックは、再生金融とオープンソース開発へのコミュニティの焦点を再確認するものです。各トラックは、自社の技術の最良の使用例に対して賞金を提供するスポンサーによって支援されました (例: DeFi のための Polkadot と Uniswap、相互運用性のための Chainlink、スケーリングソリューションのための Optimism)。主催者は審査にクアドラティック・ボーティングを導入し、コミュニティがトッププロジェクトを浮かび上がらせるのを助け、最終的な受賞者は専門家の審査員によって選ばれました。

その結果、最先端のプロジェクトが多数生まれ、その多くが Web3 の未来を垣間見せてくれます。注目すべき受賞者には、オンチェーンマルチプレイヤーゲーム**「0xCaliber」がありました。これは、古典的な FPS ゲーム内でリアルタイムのブロックチェーンインタラクションを実行する一人称シューティングゲームです。0xCaliber は、真のオンチェーンゲーミングを実証して審査員を驚かせました。プレイヤーは暗号資産で購入し、オンチェーンの弾丸を「撃ち」、クロスチェーンのトリックを使って戦利品を収集し、現金化します。これらすべてがリアルタイムで行われます。このようなプロジェクトは、Web3 ゲーミングの成熟度 (Unity ゲームエンジンとスマートコントラクトの統合) と、エンターテイメントと暗号経済を融合させる創造性を示しています。もう一つの際立ったハックのカテゴリーは、AI とイーサリアムを融合させたものでした。チームは、Open Agents Alliance の発表に触発され、スマートコントラクトを使用して AI サービスを調整する「エージェント」プラットフォームを構築しました。例えば、あるハッカソンプロジェクトは、AI 駆動のスマートコントラクト監査人 (コントラクトのセキュリティテストケースを自動生成) を統合し、カンファレンスで観察された分散型 AI トレンド**と一致していました。

インフラとツーリングのプロジェクトも目立ちました。一部のチームは、zkSync の Smart Sign-On のようなスポンサーのツールキットを使用して、DApp のためのウォレットレスなログインフローを作成し、アカウント抽象化とユーザーエクスペリエンスに取り組みました。他のチームは、クロスチェーンブリッジやレイヤー 2 の統合に取り組み、相互運用性への開発者の継続的な関心を反映していました。公共財 & DAO トラックでは、いくつかのプロジェクトが現実世界の社会的影響に取り組みました。例えば、ホームレスを支援するための分散型アイデンティティと援助のための DApp (NFT とコミュニティ資金を活用、以前の ReFi ハックを彷彿とさせるアイデア) などです。再生金融 (ReFi) のコンセプト、例えば新しいメカニズムを介して公共財に資金を提供するようなものは、ETHDenver の再生のテーマを反映して、引き続き登場しました。

最終的な受賞者はメインイベントの終わりまでに祝福されましたが、真の価値はイノベーションのパイプラインにありました。400 以上のプロジェクト提出があり、その多くはイベント後も存続します。ETHDenver のハッカソンは、将来のスタートアップを生み出す実績があります (実際、過去の BUIDLathon プロジェクトのいくつかは、自らスポンサーに成長しました)。投資家や技術者にとって、このハッカソンは最先端のアイデアへの窓を提供し、次世代の Web3 スタートアップがオンチェーンゲーミング、AI を注入した DApp、クロスチェーンインフラ、社会的影響をターゲットにしたソリューションなどの分野で出現する可能性を示唆しています。開発者に約 100 万ドルの報奨金が支払われたことで、スポンサーはこれらのイノベーションを育成するために、言葉だけでなく実際に行動で示したことになります。

ネットワーキングイベントと投資家との交流

ETHDenver はコードを書くだけの場ではありません。つながりを作ることも同様に重要です。2025 年、このフェスティバルは、スタートアップ、投資家、コミュニティビルダー向けに調整された公式および非公式のイベントでネットワーキングをさらに強化しました。目玉イベントの一つは、Bufficorn Ventures (BV) Startup Rodeo でした。これは、厳選された 20 のスタートアップがサイエンスフェア形式の展示会で投資家にデモを行う、エネルギッシュなショーケースです。3 月 1 日にメインホールで開催された Startup Rodeo は、ピッチコンテストというよりも「スピードデート」のようだと評されました。創設者たちはテーブルに陣取り、参加しているすべての投資家がアリーナを歩き回りながら、1 対 1 でプロジェクトを売り込みました。この形式により、初期段階のチームでさえ、VC や戦略的パートナー、提携先と有意義な対面時間を確保できました。多くのスタートアップは、ETHDenver に集中している Web3 ファンドの存在を活用し、これを顧客と資金を見つけるための出発点として利用しました。

カンファレンスの最終日には、メインステージで BV BuffiTank Pitchfest が注目を集めました。これは、ETHDenver コミュニティから選ばれた「最も革新的な」初期段階のスタートアップ 10 社が登場する、より伝統的なピッチコンペティションです。これらのチーム (ハッカソンの受賞者とは別) は、トップ VC や業界リーダーのパネルにビジネスモデルを売り込み、称賛と潜在的な投資オファーを競いました。Pitchfest は、ETHDenver がディールフローの創出源としての役割を果たしていることを示していました。これは、特に SporkDAO コミュニティに関連する、*「すでに組織化され…投資、顧客、露出を求めている」*チームを明確にターゲットにしていました。受賞者への報酬は単純な賞金ではなく、Bufficorn Ventures のポートフォリオや他のアクセラレーターコホートに参加するという約束でした。本質的に、ETHDenver は Web3 版のミニ「マネーの虎」を創出し、コミュニティの最高のプロジェクトに投資家の注目を集めました。

これらの公式ショーケース以外にも、1 週間は投資家と創設者の交流会で満載でした。Belong が編集したガイドによると、注目すべきサイドイベントには、2 月 27 日に CertiK Ventures が主催した**「VC と会おう」ハッピーアワー**、3 月 1 日の StarkNet VC & Founders Lounge、さらには**「Pitch & Putt」というゴルフをテーマにしたピッチイベントのようなカジュアルな催しもありました。これらの集まりは、創設者がベンチャーキャピタリストと気軽に交流できるリラックスした環境を提供し、しばしばカンファレンス後のフォローアップミーティングにつながりました。多くの新興 VC ファーム**の存在もパネルで感じられました。例えば、EtherKnight Stage のセッションでは、Reflexive Capital、Reforge VC、Topology、Metalayer、Hash3 のような新しいファンドが、どのトレンドに最も興奮しているかを強調しました。初期の兆候によれば、これらの VC は、分散型ソーシャルメディア、AI、新しいレイヤー 1 インフラなどの分野に熱心でした (各ファンドは、競争の激しい VC 環境で差別化するためにニッチを切り開いています)。

ETHDenver のネットワーキングを活用しようとする専門家にとって、重要な教訓はサイドイベントやターゲットを絞った交流会の価値です。取引やパートナーシップは、ステージ上よりもコーヒーやカクテルを飲みながら生まれることがよくあります。ETHDenver 2025 の無数の投資家向けイベントは、Web3 の資金調達コミュニティが、低迷する市場であっても積極的に才能とアイデアを探していることを示しています。洗練されたデモと明確な価値提案 (しばしばイベントのハッカソンの勢いを活用) を準備してきたスタートアップは、受容的な聴衆を見つけました。一方、投資家はこれらの交流を利用して、開発者コミュニティの動向を測りました。今年の最も優秀なビルダーはどのような問題を解決しているのか?要するに、ETHDenver はネットワーキングが BUIDLing と同じくらい重要であることを再確認させました。それは、偶然の出会いがシード投資につながったり、洞察に満ちた会話が次の大きなコラボレーションの火付け役になったりする場所なのです。

Web3 におけるベンチャーキャピタルのトレンドと投資機会

ETHDenver 2025 を通じて、微妙ながらも重要な物語は、Web3 ベンチャーキャピタル自体の進化する状況でした。より広範な暗号資産市場の浮き沈みにもかかわらず、ETHDenver の投資家は、有望な Web3 プロジェクトに対する強い意欲を示しました。現地の Blockworks の記者たちは、「マクロの逆風にもかかわらず、どれだけ多くのプライベートキャピタルが暗号資産に流れ込み続けているか」を指摘し、最もホットなアイデアのシードステージの評価額はしばしば非常に高額でした。実際、暗号資産ネイティブのファンドから Web3 に手を出す伝統的なテック投資家まで、多数の VC が存在していたことは、ETHDenver が依然としてディールメイキングのハブであることを明確にしました。

VC が議論し、後援していた内容から、新たなテーマ別の焦点を読み取ることができました。AI x 暗号資産のコンテンツ (ハッカソントラック、パネルなど) の普及は、開発者のトレンドであるだけでなく、**「DeFi と AI の出会い」**という結びつきに対するベンチャーの関心を反映しています。多くの投資家は、ベンチャーが後援する AI ハックハウスやサミットが証明するように、ブロックチェーン上で機械学習や自律エージェントを活用するスタートアップに注目しています。同様に、DePIN と現実世界資産 (RWA) のトークン化への強い焦点は、ファンドがブロックチェーンを実体経済の資産や物理デバイスに接続するプロジェクトに機会を見出していることを示しています。専用の RWA Day (2 月 26 日) は、トークン化された資産の未来に関する B2B イベントであり、ベンチャースカウトがその分野で次の Goldfinch や Centrifuge (つまり、現実世界の金融をオンチェーンにもたらすプラットフォーム) を積極的に探していることを示唆しています。

もう一つの観察可能なトレンドは、資金調達モデルの実験の増加でした。前述の ICO 対 VC の議論は、単なるカンファレンスの演劇ではありませんでした。それは、よりコミュニティ中心の資金調達への実際のベンチャーの動きを反映しています。ETHDenver の一部の VC は、ハイブリッドモデル (例: 初期ラウンドにコミュニティを巻き込むベンチャー支援のトークンローンチ) へのオープンな姿勢を示しました。さらに、公共財への資金提供とインパクト投資も議論の対象となりました。ETHDenver の再生の精神に基づき、投資家でさえ、次の DeFi や NFT のブームを追いかけるだけでなく、オープンソースのインフラと開発者を長期的にどのように支援するかについて議論しました。*「未来への資金提供: オンチェーンスタートアップのための進化するモデル」*のようなパネルでは、従来の VC 資金を補完するために、助成金、DAO の財務投資、クアドラティック・ファンディングなどの代替案が探求されました。これは、プロジェクトが資本化される方法が成熟していることを示しています。ベンチャーキャピタル、エコシステムファンド、コミュニティ資金が連携して機能する混合モデルです。

機会の観点から、Web3 の専門家と投資家は、ETHDenver のベンチャーダイナミクスからいくつかの実用的なインサイトを得ることができます。(1) インフラは依然として王様である – 多くの VC は、業界のバックボーンとして、つるはしとシャベル (L2 スケーリング、セキュリティ、開発ツール) が依然として価値の高い投資であると表明しました。(2) AI/ブロックチェーンの融合や DePIN のような新しい垂直分野は、新たな投資フロンティアである – これらの分野で最新情報を入手したり、そこでスタートアップを見つけたりすることは、やりがいのあることかもしれません。(3) コミュニティ主導のプロジェクトや公共財は、新しい資金調達方法を見出すかもしれない – 賢明な投資家は、これらを持続的に支援する方法を見つけ出しています (例えば、分散型ガバナンスや共有所有権を可能にするプロトコルへの投資)。全体として、ETHDenver 2025 は、Web3 のベンチャー環境は競争が激しいものの、確信に満ちていることを示しました。DeFi、NFT、ゲーミングなどの未来を構築する人々には資本が利用可能であり、弱気市場で生まれたアイデアでさえ、適切なトレンドをターゲットにすれば支援を見つけることができます。

開発者向けリソース、ツールキット、サポートシステム

ETHDenver は常にビルダー中心であり、2025 年も例外ではありませんでした。Web3 開発者向けの豊富なリソースとサポートを備えたオープンソース開発者カンファレンスとしても機能しました。BUIDLWeek 中、参加者は様々な分野にわたるライブワークショップ、技術ブートキャンプ、ミニサミットにアクセスできました。例えば、開発者は Bleeding Edge Tech Summit に参加して最新のプロトコルを試したり、On-Chain Legal Summit に立ち寄ってコンプライアンスに準拠したスマートコントラクト開発について学んだりすることができました。主要なスポンサーやブロックチェーンチームは、実践的なセッションを実施しました。Polkadot のチームは、パラチェーンを立ち上げるためのハッカーハウスやワークショップを主催しました。EigenLayer は、開発者にそのセキュリティレイヤーの活用方法を教えるための「リステーキングブートキャンプ」を主導しました。Polygon と zkSync は、ゼロ知識技術でスケーラブルな DApp を構築するためのチュートリアルを提供しました。これらのセッションは、コアエンジニアとの貴重な対面時間を提供し、開発者が統合に関する支援を受け、新しいツールキットを直接学ぶことを可能にしました。

メインイベント期間中、会場には専用の #BUIDLHub とメーカースペースが設けられ、ビルダーは協力的な環境でコーディングし、メンターにアクセスすることができました。ETHDenver の主催者は、詳細な BUIDLer ガイドを公開し、現場でのメンターシッププログラムを促進しました (スポンサーからの専門家が技術的な問題でチームの障害を取り除くために待機していました)。開発者向けツール企業も多数参加していました。Alchemy や Infura (ブロックチェーン API) から Hardhat や Foundry (スマートコントラクト開発) まで。多くがイベントで新しいリリースやベータツールを発表しました。例えば、MetaMask のチームは、ガス代の抽象化と DApp 開発者向けの改善された SDK を特徴とする主要なウォレットアップデートをプレビューし、アプリがユーザーのためにガス代をカバーする方法を簡素化することを目指しました。いくつかのプロジェクトはSDK やオープンソースライブラリをローンチしました。Coinbase の AI エージェント用 「Agent Kit」 と共同の Open Agents Alliance ツールキットが紹介され、Story.xyz は独自のハッカソンイベント中にオンチェーン知的財産ライセンスのための Story SDK を宣伝しました。

報奨金とハッカーサポートが、開発者体験をさらに向上させました。62 のスポンサーから 180 以上の報奨金が提供され、ハッカーは事実上、特定の課題のメニューから選択することができ、それぞれにドキュメント、オフィスアワー、時には特注のサンドボックスが付属していました。例えば、Optimism の報奨金は、開発者に最新の Bedrock オペコードを使用するよう挑戦し (彼らのエンジニアが支援のために待機)、Uniswap のチャレンジは、オフランプ統合のための新しい API へのアクセスを提供しました。公式の ETHDenver モバイルアプリや Discord チャンネルのような調整と学習のためのツールは、開発者にスケジュールの変更、サイドクエスト、さらには ETHDenver の求人掲示板を介した求人情報を知らせ続けました。

注目すべきリソースの一つは、クアドラティック・ファンディングの実験とオンチェーン投票への重点でした。ETHDenver はハッカソンの審査にクアドラティック・ボーティングシステムを統合し、多くの開発者にその概念を紹介しました。さらに、Gitcoin や他の公共財グループの存在は、開発者がイベント後に自分たちのプロジェクトのための助成金について学ぶことができることを意味しました。要するに、ETHDenver 2025 は、開発者に最先端のツール (SDK、API)専門家の指導、そしてプロジェクトを継続するためのフォローアップサポートを提供しました。業界の専門家にとって、これは教育、ツール、資金提供を通じて開発者コミュニティを育成することが重要であることの再認識です。ハイライトされたリソースの多く (新しい SDK や改善された開発環境など) は現在公開されており、世界中のチームに ETHDenver で共有されたものの肩の上に立って構築する機会を提供しています。

ETHDenver 体験を豊かにするサイドイベントとコミュニティの集まり

ETHDenver を真に際立たせているのは、そのフェスティバルのような雰囲気です。公式・非公式を問わず、数十のサイドイベントがメインカンファレンスの周りで豊かな経験のタペストリーを創り出しました。2025 年、公式コンテンツが開催された National Western Complex を超えて、街全体がミートアップ、パーティー、ハッカソン、コミュニティの集まりで賑わいました。これらのサイドイベントは、しばしばスポンサーや地元の Web3 グループによって主催され、より広範な ETHDenver 体験に大きく貢献しました。

公式面では、ETHDenver 自身のスケジュールにテーマ別のミニイベントが含まれていました。会場にはNFT アートギャラリー、ブロックチェーンアーケード、DJ チルドーム、さらにはリラックスするための禅ゾーンのようなゾーンがありました。主催者はまた、オープニングやクロージングパーティーなどの夜のイベントも開催しました。例えば、Story Protocol による 2 月 26 日の**「Crack’d House」非公式オープニングパーティーは、芸術的なパフォーマンスとハッカソンの授賞式を融合させました。しかし、真に増殖したのはコミュニティ主導のサイドイベント**でした。イベントガイドによると、ETHDenver の Luma カレンダーでは 100 以上のサイドイベントが追跡されていました。

いくつかの例が、これらの集まりの多様性を示しています:

  • 技術サミット & ハッカーハウス: ElizaOS と EigenLayer は、AI+Web3 愛好家のために 9 日間の Vault AI Agent Hacker House レジデンシーを実施しました。StarkNet のチームは、数日間のハッカーハウスを主催し、その ZK ロールアップ上のプロジェクトのためのデモナイトで締めくくりました。これらは、開発者がメインのハッカソンの外で特定の技術スタックで協力するための集中した環境を提供しました。
  • ネットワーキングミキサー & パーティー: 毎晩、選択肢のリストが提供されました。2 月 27 日の Builder Nights Denver は、MetaMask、Linea、EigenLayer、Wormhole などがスポンサーとなり、イノベーターたちが食事や飲み物を片手にカジュアルなトークを交わすために集まりました。Belong が支援する 3VO’s Mischief Minded Club Takeover は、コミュニティトークン化のリーダーたちのためのハイレベルなネットワーキングパーティーでした。純粋に楽しみたい人々のために、BEMO Rave (Berachain などと共に) や rAIve the Night (AI をテーマにしたレイブ) は、暗号資産の群衆を夜遅くまで踊らせ続け、音楽、アート、暗号文化を融合させました。
  • 特定関心事の集まり: ニッチなコミュニティも自分たちの場所を見つけました。Meme Combat は、純粋にミーム愛好家が暗号資産におけるミームの役割を祝うためのイベントでした。House of Ink は、NFT アーティストやコレクターを対象とし、没入型アート会場 (Meow Wolf Denver) をデジタルアートのショーケースに変えました。2 月 26 日の SheFi Summit は、World of Women や Celo のようなグループの支援を受け、Web3 の女性たちが講演やネットワーキングのために集まり、多様性と包括性へのコミットメントを強調しました。
  • 投資家 & コンテンツクリエーターのミートアップ: VC イベントについてはすでに触れましたが、さらに、2 月 28 日の KOL (キーオピニオンリーダー) Gathering では、暗号資産のインフルエンサーやコンテンツクリエーターがエンゲージメント戦略について議論し、ソーシャルメディアと暗号コミュニティの交差点を示しました。

重要なことに、これらのサイドイベントは単なるエンターテイメントではありませんでした。それらはしばしば、それ自体がアイデアと関係性のインキュベーターとして機能しました。例えば、Tokenized Capital Summit 2025 は、オンチェーンでの資本市場の未来を深く掘り下げ、参加したフィンテック起業家とブロックチェーン開発者の間のコラボレーションを 촉発した可能性があります。On-Chain Gaming Hacker House は、ゲーム開発者がベストプラクティスを共有する場を提供し、ブロックチェーンゲームプロジェクト間の相互作用につながるかもしれません。

大規模なカンファレンスに参加する専門家にとって、ETHDenver のモデルは、価値はメインステージ上と同じくらい、その外にもあることを強調しています。非公式なプログラミングの幅広さにより、参加者は自分の経験を調整することができました。目標が投資家に会うこと、新しいスキルを学ぶこと、共同創設者を見つけること、あるいは単にリラックスして仲間意識を築くことであっても、そのためのイベントがありました。多くのベテランは新参者にこうアドバイスします。「講演に参加するだけでなく、ミートアップに行って挨拶をしなさい。」Web3 のようなコミュニティ主導の空間では、これらの人間的なつながりが、しばしば DAO のコラボレーション、投資取引、あるいは少なくとも、大陸を越えて続く友情に変わります。ETHDenver 2025 の活気に満ちたサイドシーンは、コアカンファレンスを増幅させ、デンバーでの 1 週間を多次元的なイノベーションのフェスティバルに変えました。

主要な教訓と実用的なインサイト

ETHDenver 2025 は、イノベーションとコラボレーションが花開いた Web3 業界を実証しました。この分野の専門家にとって、この詳細な分析からいくつかの明確な教訓と行動項目が浮かび上がります:

  • トレンドの多様化: このイベントは、Web3 がもはや一枚岩ではないことを明らかにしました。AI 統合、DePIN、RWA トークン化のような新たな領域は、DeFi や NFT と同じくらい顕著です。実用的なインサイト: 常に情報を入手し、適応性を保つこと。 リーダーは、次の成長の波に乗るために、これらの台頭する垂直分野に研究開発や投資を割り当てるべきです (例: AI が自社の DApp をどのように強化できるか、または現実世界の資産が DeFi プラットフォームにどのように統合されるかを調査する)。
  • クロスチェーンが未来: 主要な非イーサリアムプロトコルが積極的に参加することで、エコシステム間の壁は低くなっています。相互運用性とマルチチェーンのユーザーエクスペリエンスは、MetaMask が Bitcoin/Solana のサポートを追加したことから、Polkadot や Cosmos ベースのチェーンがイーサリアム開発者を惹きつけたことまで、大きな注目を集めました。実用的なインサイト: マルチチェーンの世界を前提に設計すること。 プロジェクトは、他のチェーンの流動性やユーザーを活用する統合やブリッジを検討すべきであり、専門家は孤立するのではなく、コミュニティを越えたパートナーシップを求めるかもしれません。
  • コミュニティ & 公共財の重要性: 「再生者の年」というテーマは単なる美辞麗句ではありませんでした。それは、公共財への資金提供に関する議論、ハックのためのクアドラティック・ボーティング、SheFi Summit のようなイベントを通じて、コンテンツに浸透していました。倫理的で持続可能な開発とコミュニティの所有権は、イーサリアムの精神における重要な価値です。実用的なインサイト: 再生の原則を取り入れること。 オープンソースイニシアチブを支援すること、公正なローンチメカニズムを使用すること、またはビジネスモデルをコミュニティの成長と一致させることを通じて、Web3 企業は純粋に収奪的でないことで、好意と長寿を得ることができます。
  • 投資家心理 – 慎重かつ大胆: 弱気市場の噂にもかかわらず、ETHDenver は VC が積極的にスカウトしており、Web3 の次の章に大きく賭ける意欲があることを示しました。しかし、彼らはまた、投資方法を再考しています (例: より戦略的に、プロダクトマーケットフィットに対する監視を強化し、コミュニティ資金調達へのオープンな姿勢)。実用的なインサイト: スタートアップであれば、ファンダメンタルズとストーリーテリングに集中すること。 際立っていたプロジェクトは、明確なユースケースと、しばしば動作するプロトタイプ (週末に構築されたものも) を持っていました。投資家であれば、カンファレンスはインフラ (L2、セキュリティ、開発ツール) が依然として優先度が高いことを確認しましたが、AI、ゲーミング、ソーシャルにおけるテーゼを通じて差別化することで、ファンドを最前線に位置づけることができます。
  • 開発者体験の向上: ETHDenver は、アカウント抽象化ツールからオンチェーン AI ライブラリまで、Web3 開発の障壁を下げる多くの新しいツールキット、SDK、フレームワークを浮き彫りにしました。実用的なインサイト: これらのリソースを活用すること。 チームは、発表された最新の開発ツールを試すべきです (例: より簡単なログインのために zkSync Smart SSO を試す、または AI プロジェクトのために Open Agents Alliance のリソースを使用する) เพื่อ開発を加速し、競争の先を行くために。さらに、企業は才能とアイデアを発掘する方法として、ハッカソンやオープンな開発者フォーラムに引き続き関与すべきです。ETHDenver がハッカーを創業者に変えることに成功したことは、そのモデルの証明です。
  • サイドイベントの力: 最後に、サイドイベントの爆発的な増加は、ネットワーキングにおける重要な教訓を教えてくれました – 機会はしばしばカジュアルな場で現れます。ハッピーアワーでの偶然の出会いや、小さなミートアップでの共通の関心が、キャリアを決定づけるつながりを生み出すことがあります。実用的なインサイト: 業界のカンファレンスに参加する人は、公式のアジェンダを超えて計画すること。 自分の目標に合ったサイドイベント (投資家に会う、ニッチなスキルを学ぶ、人材を募集するなど) を特定し、積極的に関与すること。デンバーで見たように、1 週間のエコシステムに完全に没頭した人々は、知識だけでなく、新しいパートナー、採用者、友人を得て帰りました。

結論として、ETHDenver 2025 は Web3 業界の勢いの縮図でした – 最先端の技術談義、情熱的なコミュニティのエネルギー、戦略的な投資の動き、そして真剣なイノベーションと楽しさを融合させた文化のブレンドです。専門家は、このイベントからのトレンドとインサイトを、Web3 が向かう先のロードマップとして見るべきです。実用的な次のステップは、これらの学び (AI への新たな焦点、L2 チームとのつながり、ハッカソンプロジェクトからのインスピレーションなど) を戦略に変換することです。ETHDenver のお気に入りのモットーの精神に基づき、これらのインサイトを基に #BUIDL し、デンバーに集まった多くの人々が思い描いた分散型の未来を形作る手助けをする時です。