メインコンテンツまでスキップ

「AI」タグの記事が13件件あります

全てのタグを見る

分散型 AI 推論市場: Bittensor、Gensyn、Cuckoo AI

· 約108分
Dora Noda
Software Engineer

はじめに

分散型 AI 推論/トレーニング市場は、グローバルな計算リソースとコミュニティモデルをトラストレスな方法で活用することを目指しています。BittensorGensynCuckoo Network (Cuckoo AI) のようなプロジェクトは、ブロックチェーン技術がオープンな AI マーケットプレイスをどのように強化できるかを示しています。各プラットフォームは、コンピューティングパワー、機械学習モデル、そして時にはデータといった主要な AI 資産を、オンチェーンの経済単位にトークン化します。以下では、これらのネットワークを支える技術アーキテクチャ、リソースのトークン化方法、ガバナンスとインセンティブ構造、モデル所有権の追跡方法、収益分配メカニズム、そして発生する攻撃対象領域 (シビル攻撃、共謀、フリーライディング、ポイズニングなど) について詳しく掘り下げます。最後に、Bittensor、Gensyn、Cuckoo AI のすべての主要な側面をまとめた比較表を掲載します。

技術アーキテクチャ

Bittensor: サブネット上の分散型「ニューラルインターネット」

Bittensor は、多くの専門的なサブネットにまたがる AI モデルノードのネットワークを調整する、カスタムのレイヤー 1 ブロックチェーン (Substrate ベースの Subtensor チェーン) 上に構築されています。各サブネットは、特定の AI タスク (例えば、言語生成用のサブネット、画像生成用の別のサブネットなど) に焦点を当てた独立したミニネットワークです。Bittensor の参加者は、それぞれ異なる役割を担います:

  • マイナー – ハードウェア上で機械学習モデルを実行し、サブネットのタスクに対する推論の回答を提供します (トレーニングを行うことさえあります)。本質的に、マイナーはクエリに回答する AI モデルをホストするノードです。
  • バリデーター – マイナーのモデルにプロンプトでクエリを送り、応答の品質を評価し、どのマイナーが価値ある結果を提供しているかについての意見を形成します。バリデーターは事実上、マイナーのパフォーマンスをスコアリングします。
  • サブネットオーナー – サブネットを作成・定義し、そのサブネットでどのようなタスクが実行され、どのように検証が行われるかのルールを設定します。例えば、サブネットオーナーは、特定のデータセットやモダリティのためのサブネットを指定し、検証手順を定義することができます。
  • デリゲーター – ノードを運営しないトークン保有者は、自身の Bittensor トークン (TAO) をマイナーやバリデーターにデリゲート (ステーク) して、最高のパフォーマーを支援し、報酬の一部を得ることができます (プルーフ・オブ・ステークネットワークのステーキングに似ています)。

Bittensor のコンセンサスメカニズムは斬新です。従来のブロック検証の代わりに、Bittensor は「プルーフ・オブ・インテリジェンス」の一形態である Yuma コンセンサス を使用します。Yuma コンセンサスでは、バリデーターによるマイナーの評価がオンチェーンで集計され、報酬の分配が決定されます。12 秒ごとのブロックで、ネットワークは新しい TAO トークンをミントし、どのマイナーが有用な作業を提供したかに関するバリデーターのコンセンサスに従って分配します。バリデーターのスコアは、ステーク加重中央値スキームで結合されます。外れ値の意見は切り捨てられ、正直な多数派の意見が優先されます。つまり、ほとんどのバリデーターがあるマイナーが高品質であると同意すれば、そのマイナーは高い報酬を得ます。もしあるバリデーターが他から大きく逸脱した場合 (共謀やエラーの可能性がある)、そのバリデーターは報酬が少なくなることでペナルティを受けます。このようにして、Bittensor のブロックチェーンはマイナーとバリデーターのフィードバックループを調整します。マイナーは最高の AI 出力を生み出すために競争し、バリデーターはそれらの出力をキュレーションしてランク付けし、両者が追加した価値に比例してトークンを獲得します。このアーキテクチャは、しばしば「分散型ニューラルネットワーク」や「グローバルブレイン」と表現され、モデルが互いのシグナルから学び、集合的に進化します。特筆すべきは、Bittensor が最近チェーンをアップグレードして EVM 互換性 (スマートコントラクト用) をサポートし、リソース割り当ての制御をさらに分散化するために、サブネット固有のトークンとステーキングのシステムである dTAO を導入したことです (詳細は後述)。

Gensyn: トラストレスな分散コンピューティングプロトコル

Gensyn は、機械学習のための分散コンピューティングプロトコルという角度から分散型 AI にアプローチしています。そのアーキテクチャは、AI タスク (モデルのトレーニングや推論ジョブの実行など) を持つ開発者 (サブミッター) と、世界中に余剰の GPU/TPU リソースを持つ計算プロバイダー (ソルバー) を接続します。当初、Gensyn は Substrate L1 チェーンを計画していましたが、より強力なセキュリティと流動性を求めて Ethereum 上のロールアップとして構築する方向に転換しました。したがって、Gensyn ネットワークは Ethereum のレイヤー 2 ( Ethereum ロールアップ) であり、ジョブの投稿と支払いを調整し、計算はプロバイダーのハードウェア上でオフチェーンで行われます。

Gensyn の設計における中心的な革新は、オフチェーン作業の検証システムです。Gensyn は、オプティミスティック検証 (不正証明) と暗号技術を組み合わせて、ソルバーがトレーニング/推論タスクを実行したと主張した際に、その結果が正しいことを保証します。実際には、プロトコルには複数の参加者の役割が含まれます:

  • サブミッター – ジョブを要求する当事者 (例えば、モデルのトレーニングが必要な人)。ネットワークの手数料を支払い、モデル/データまたはタスクの仕様を提供します。
  • ソルバー – ML タスクに入札し、自身のハードウェアで実行するノード。要求に応じてモデルをトレーニングまたは推論を実行し、結果と計算の証明を提出します。
  • ベリファイア/チャレンジャー – ソルバーの作業を監査またはスポットチェックできるノード。Gensyn は Truebit スタイルのスキームを実装しており、デフォルトではソルバーの結果は受け入れられますが、ベリファイアが不正な計算を疑った場合、一定期間内に異議を申し立てることができます。チャレンジでは、計算ステップを対話的に「二分探索」する (不正証明プロトコル) ことで、不一致を特定します。これにより、チェーンは高価なタスク全体をやり直すのではなく、計算の最小限の重要な部分のみをオンチェーンで実行することで紛争を解決できます。

重要なのは、Gensyn が単純なアプローチの巨大な冗長性を避けるように設計されていることです。多くのノードがすべて同じ ML ジョブを繰り返す (コスト削減を台無しにする) 代わりに、Gensyn の 「プルーフ・オブ・ラーニング」 アプローチは、トレーニングのメタデータを使用して学習の進捗があったことを検証します。例えば、ソルバーは中間モデルの重みの暗号ハッシュやチェックポイント、およびこれらがトレーニングの更新に従って進んだことを示す簡潔な証明を提供するかもしれません。この確率的な学習証明は、トレーニング全体を再実行するよりもはるかに安価にチェックでき、完全な複製なしでのトラストレスな検証を可能にします。ベリファイアが異常を検出した場合にのみ、最後の手段としてより重いオンチェーン計算がトリガーされます。このアプローチは、総当たり的な検証と比較してオーバーヘッドを劇的に削減し、分散型 ML トレーニングをより実現可能にします。したがって、Gensyn のアーキテクチャは暗号経済学的なゲームデザインを重視しています。ソルバーはステークやボンドを預け、もし不正行為 (誤った結果を提出) をすれば、それを見つけた正直なベリファイアにそのステークを失います。ブロックチェーンによる調整 (支払いと紛争解決のため) と、オフチェーンの計算および巧妙な検証を組み合わせることで、Gensyn は、信頼性を維持しながらどこでもアイドル状態の GPU を活用できる ML コンピューティングのマーケットプレイス を作り出します。その結果、どんな開発者でも手頃な価格で、グローバルに分散されたトレーニングパワーにオンデマンドでアクセスできる、ハイパースケールの「コンピューティングプロトコル」が実現します。

Cuckoo AI: フルスタックの分散型 AI サービスプラットフォーム

Cuckoo Network (または Cuckoo AI) は、より垂直統合されたアプローチを取り、単なる生の計算能力だけでなく、エンドツーエンドの分散型 AI サービス を提供することを目指しています。Cuckoo は、すべてを調整するために独自のブロックチェーン (当初は Arbitrum Orbit、Ethereum 互換のロールアップフレームワーク上の Cuckoo Chain と呼ばれるレイヤー 1) を構築しました。これは、ジョブと GPU をマッチングするだけでなく、AI アプリケーションをホストし、支払いを 1 つのシステムで処理します。設計はフルスタックです。トランザクションとガバナンスのためのブロックチェーン、分散型 GPU/CPU リソースレイヤー、そしてその上にユーザー向けの AI アプリケーションと API を組み合わせています。言い換えれば、Cuckoo は ブロックチェーンコンピューティングAI アプリケーション の 3 つのレイヤーすべてを単一のプラットフォーム内に統合しています。

Cuckoo の参加者は 4 つのグループに分かれます:

  • AI アプリビルダー (コーディネーター) – Cuckoo 上に AI モデルやサービスをデプロイする開発者です。例えば、開発者は Stable Diffusion 画像ジェネレーターや LLM チャットボットをサービスとしてホストするかもしれません。彼らはコーディネーターノードを運営し、サービスの管理を担当します。ユーザーのリクエストを受け付け、それをタスクに分割し、それらのタスクをマイナーに割り当てます。コーディネーターはネイティブトークン ($CAI) をステークしてネットワークに参加し、マイナーを利用する権利を得ます。彼らは本質的に、ユーザーと GPU プロバイダーの間のインターフェースとなるレイヤー 2 のオーケストレーターとして機能します。
  • GPU/CPU マイナー (タスクノード) – リソースプロバイダーです。マイナーは Cuckoo タスククライアントを実行し、AI アプリの推論タスクを実行するためにハードウェアを提供します。例えば、マイナーはコーディネーターから画像生成リクエスト (特定のモデルとプロンプト付き) を割り当てられ、GPU を使用して結果を計算します。マイナーもまた、コミットメントと良好な行動を保証するために $CAI をステークする必要があります。彼らは正しく完了した各タスクに対してトークン報酬を獲得します。
  • エンドユーザー – AI アプリケーションの消費者です。彼らは Cuckoo のウェブポータルや API を介して対話します (例えば、CooVerse を介してアートを生成したり、AI パーソナリティとチャットしたりします)。ユーザーは使用ごとに暗号通貨で支払うか、あるいは自身のコンピューティングを提供 (またはステーク) して利用コストを相殺することも可能です。重要な側面は検閲耐性です。もし 1 つのコーディネーター (サービスプロバイダー) がブロックされたりダウンしたりしても、ユーザーは同じアプリケーションを提供する別のコーディネーターに切り替えることができます。なぜなら、分散型ネットワークでは複数のコーディネーターが同様のモデルをホストできるからです。
  • ステーカー (デリゲーター) – AI サービスやマイニングハードウェアを運営しないコミュニティメンバーも、$CAI を運営者にステークすることで参加できます。信頼できるコーディネーターやマイナーにステークで投票することで、評判のシグナルを送り、その見返りとしてネットワーク報酬の一部を得ます。この設計は Web3 の評判レイヤーを構築します。良い行為者はより多くのステーク (したがって信頼と報酬) を引き付け、悪い行為者はステークと評判を失います。エンドユーザーでさえもステークできる場合があり、ネットワークの成功と彼らの利害を一致させます。

Cuckoo チェーン (現在はスタンドアロンチェーンから共有セキュリティロールアップへの移行プロセス中) は、これらすべての相互作用を追跡します。ユーザーが AI サービスを呼び出すと、コーディネーターノードはマイナーのためのオンチェーンタスク割り当てを作成します。マイナーはオフチェーンでタスクを実行し、結果をコーディネーターに返します。コーディネーターはそれを検証し (例えば、出力画像やテキストが意味不明でないことを確認)、最終結果をユーザーに届けます。ブロックチェーンは支払い決済を処理します。各タスクに対して、コーディネーターのスマートコントラクトはマイナーに $CAI で支払います (しばしばマイクロペイメントを日々の支払いに集約します)。Cuckoo はトラストネスと透明性を強調しています。すべての参加者はトークンをステークし、すべてのタスクの割り当てと完了が記録されるため、ステークを失う脅威とパフォーマンスの公開性によって不正行為が抑制されます。ネットワークのモジュラー設計は、新しい AI モデルやユースケースを簡単に追加できることを意味します。テキストから画像への生成を概念実証として開始しましたが、そのアーキテクチャは他の AI ワークロード (例: 言語モデルの推論、音声文字起こしなど) をサポートするのに十分な汎用性があります。

Cuckoo のアーキテクチャの注目すべき点は、当初、AI トランザクションのスループットを最大化するために独自のレイヤー 1 ブロックチェーンを立ち上げたことです (テスト中に 1 日あたり 30 万トランザクションのピークに達しました)。これにより、AI タスクスケジューリングのためのカスタム最適化が可能になりました。しかし、チームはスタンドアロン L1 の維持がコストと複雑さを伴うことに気づき、2025 年半ばまでにカスタムチェーンを廃止し、Ethereum 上のロールアップ/AVS (アクティブ検証サービス) モデルに移行することを決定しました。これは、Cuckoo が独自のコンセンサスを実行するのではなく、Ethereum や Arbitrum のような L2 からセキュリティを継承し、その共有セキュリティレイヤー上で分散型 AI マーケットプレイスを運営し続けることを意味します。この変更は、経済的セキュリティを向上させ (Ethereum の堅牢性を活用)、Cuckoo チームが低レベルのチェーンメンテナンスではなく製品に集中できるようにすることを目的としています。要約すると、Cuckoo のアーキテクチャは、誰もがハードウェアを接続したり AI モデルサービスをデプロイしたりでき、世界中のユーザーがより低コストで、大手テックインフラへの依存を減らして AI アプリにアクセスできる分散型 AI サービス提供プラットフォームを構築します。

資産のトークン化メカニズム

これらのネットワークに共通するテーマは、計算、モデル、データを、取引や収益化が可能なオンチェーン資産や経済単位に変換することです。しかし、各プロジェクトはこれらのリソースを異なる方法でトークン化することに焦点を当てています:

  • コンピューティングパワー: 3 つのプラットフォームはすべて、計算作業を報酬トークンに変換します。Bittensor では、有用な計算 (マイナーによる推論やトレーニング) はバリデーターのスコアを介して定量化され、各ブロックで TAO トークン で報酬が与えられます。本質的に、Bittensor は貢献された知性を「測定」し、その貢献を表す商品として TAO を発行します。Gensyn は、計算を商品として 明示的に扱います。そのプロトコルは、GPU 時間が製品であり、価格がトークン建ての需要と供給によって設定されるマーケットプレイスを作成します。開発者はトークンを使用して計算を購入し、プロバイダーはハードウェアサイクルを販売してトークンを獲得します。Gensyn チームは、あらゆる デジタルリソース (計算、データ、アルゴリズム) が同様のトラストレスな市場で表現され、取引できると述べています。Cuckoo は、完了したタスクの支払いとして発行される ERC-20 トークン $CAI を介して計算をトークン化します。GPU プロバイダーは、AI 推論作業を行うことで実質的に CAI を「マイニング」します。Cuckoo のシステムはタスクのオンチェーン記録を作成するため、完了した各 GPU タスクはトークンで支払われる作業の原子単位と考えることができます。3 つすべてに共通する前提は、そうでなければアイドル状態またはアクセス不能な計算能力が、トークン化された流動性のある資産になるということです。これは、プロトコルレベルのトークン発行 (Bittensor や初期の Cuckoo のように) または計算ジョブの売買注文のオープンマーケット (Gensyn のように) を通じて実現されます。

  • AI モデル: AI モデルをオンチェーン資産 (例: NFT やトークン) として表現することはまだ初期段階です。Bittensor はモデル自体をトークン化しません。モデルはマイナーの所有物としてオフチェーンに残ります。代わりに、Bittensor はパフォーマンスの良いモデルに報酬を与えることで、間接的にモデルに価値を置きます。事実上、モデルの「知性」は TAO の収益に変換されますが、モデルの重みを表したり、他者がそのモデルを使用することを許可したりする NFT は存在しません。Gensyn の焦点は計算トランザクションであり、モデルのトークンを明示的に作成することではありません。Gensyn のモデルは通常、開発者によってオフチェーンで提供され (オープンソースまたはプロプライエタリ)、ソルバーによってトレーニングされ、返されます。モデルやその IP を所有するトークンを作成する組み込みのメカニズムはありません。(とはいえ、Gensyn マーケットプレイスは、当事者が選択すればモデルのアーティファクトやチェックポイントの取引を促進する可能性がありますが、プロトコル自体はモデルをトークン化された資産ではなく、計算のコンテンツと見なしています。) Cuckoo はその中間に位置します。「AI エージェント」やネットワークに統合されたモデルについて言及していますが、現在、各モデルを表す非代替性トークンは存在しません。代わりに、モデルはアプリビルダーによってデプロイされ、ネットワークを介して提供されます。そのモデルの使用権は、それが使用されたときに $CAI を稼ぐことができるという点で暗黙的にトークン化されています (それをデプロイしたコーディネーターを介して)。3 つのプラットフォームはすべて、モデルのトークン化の概念 (例えば、トークンを介してコミュニティにモデルの所有権を与える) を認識していますが、実用的な実装は限られています。業界として、AI モデルのトークン化 (例えば、所有権と利益分配権を持つ NFT として) はまだ模索中です。Bittensor のモデルが互いに価値を交換するアプローチは、モデルごとの明示的なトークンがない*「モデルマーケットプレイス」*の一形態です。Cuckoo チームは、分散型モデルの所有権は中央集権型 AI と比較して障壁を下げる有望な方法であると述べていますが、モデルの出力と使用状況をオンチェーンで検証する効果的な方法が必要です。要約すると、コンピューティングパワーは即座にトークン化されますが (作業に対してトークンを支払うのは簡単です)、モデルは間接的または願望的にトークン化されており (出力に対して報酬が与えられ、ステークや評判で表される可能性はありますが、これらのプラットフォームではまだ譲渡可能な NFT として扱われていません)。

  • データ: データのトークン化は最も困難なままです。Bittensor、Gensyn、Cuckoo のいずれも、完全に一般化されたオンチェーンのデータマーケットプレイス (データセットが強制力のある使用権で取引される場所) を統合していません。Bittensor ノードはさまざまなデータセットでトレーニングするかもしれませんが、それらのデータセットはオンチェーンシステムの一部ではありません。Gensyn は開発者がトレーニング用のデータセットを提供することを許可できますが、プロトコルはそのデータをトークン化しません。それは単にソルバーが使用するためにオフチェーンで提供されるだけです。Cuckoo も同様にユーザーデータをトークン化しません。主に推論タスクのために一時的な方法でデータ (ユーザーのプロンプトや出力など) を処理します。Cuckoo のブログは、*「分散型データは、重要なリソースであるにもかかわらず、トークン化が依然として困難である」*と明言しています。データは機密性が高く (プライバシーと所有権の問題)、現在のブロックチェーン技術で扱うのは困難です。したがって、計算は商品化され、モデルも徐々に商品化されつつありますが、データは特別な場合を除いて大部分がオフチェーンにとどまっています (これら 3 つ以外のいくつかのプロジェクトは、データユニオンやデータ貢献に対するトークン報酬を実験していますが、それは現在の範囲外です)。要約すると、これらのネットワークではコンピューティングパワーは今やオンチェーンの商品であり、モデルはトークンを通じて評価されますが、まだ資産として個別にトークン化されておらず、データのトークン化はまだ未解決の問題です (その重要性を認識することを超えて)。

ガバナンスとインセンティブ

これらの分散型 AI ネットワークが自律的かつ公正に機能するためには、堅牢なガバナンスとインセンティブ設計が不可欠です。ここでは、各プラットフォームがどのように自己を統治し (誰が意思決定を行い、アップグレードやパラメータの変更がどのように行われるか)、トークンエコノミクスを通じて参加者のインセンティブをどのように調整しているかを検証します。

  • Bittensor のガバナンス: 初期段階では、Bittensor の開発とサブネットのパラメータは、主にコアチームとメインサブネット上の 64 の「ルート」バリデーターのセットによって制御されていました。これは中央集権化の一点でした。少数の強力なバリデーターが報酬配分に過大な影響力を持ち、一部からは*「寡頭制の投票システム」*と呼ばれていました。これに対処するため、Bittensor は 2025 年に dTAO (分散型 TAO) ガバナンスを導入しました。dTAO システムは、リソース配分を市場主導かつコミュニティ制御に移行させました。具体的には、TAO 保有者は自分のトークンをサブネット固有の流動性プールにステークし (本質的に、どのサブネットがより多くのネットワーク発行量を得るべきかに「投票」する)、それらのサブネットプールの所有権を表すアルファトークンを受け取ります。より多くのステークを集めたサブネットは、アルファトークンの価格が高くなり、日々の TAO 発行量のより大きなシェアを得る一方、人気のない、またはパフォーマンスの低いサブネットからは資本 (したがって発行量) が流出します。これによりフィードバックループが生まれます。あるサブネットが価値ある AI サービスを生み出せば、より多くの人々が TAO をステークし (報酬を求めて)、そのサブネットは参加者に報酬を与えるための TAO をより多く得て、成長を促進します。サブネットが停滞すれば、ステーカーはより収益性の高いサブネットに引き上げます。事実上、TAO 保有者は、どの AI ドメインがより多くのリソースに値するかを財政的にシグナルを送ることで、ネットワークの焦点を集合的に統治します。これは、経済的成果に連動した、トークン加重によるオンチェーンガバナンスの一形態です。リソース配分以外にも、主要なプロトコルのアップグレードやパラメータの変更は、おそらく TAO 保有者が投票するガバナンス提案を通じて行われます (Bittensor には、Bittensor 財団と選出された評議会によって管理されるオンチェーン提案と国民投票のメカニズムがあり、Polkadot のガバナンスに似ています)。時間とともに、Bittensor のガバナンスはますます分散化され、財団が後退し、コミュニティが (TAO ステークを通じて) インフレ率や新しいサブネットの承認などを主導することが期待されます。dTAO への移行は、中央集権的な意思決定者を、インセンティブが一致したトークンステークホルダーの市場に置き換える、その方向への大きな一歩です。

  • Bittensor のインセンティブ: Bittensor のインセンティブ構造は、そのコンセンサスと密接に結びついています。すべてのブロック (12 秒) で、正確に 1 TAO が新たに発行され、各サブネットの貢献者にパフォーマンスに基づいて分割されます。各サブネットのブロック報酬のデフォルトの分割は、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これにより、すべての役割が報酬を得ることが保証されます。マイナーは推論作業を行うことで、バリデーターは評価努力で、そしてサブネットオーナー (そのサブネットのデータ/タスクをブートストラップした可能性がある) は「マーケットプレイス」やタスク設計を提供することで残余利益を得ます。これらのパーセンテージはプロトコルで固定されており、全員のインセンティブを高品質な AI 出力に向けることを目指しています。Yuma コンセンサスメカニズムは、品質スコアに応じて報酬を重み付けすることでインセンティブをさらに洗練させます。より良い回答を提供するマイナー (バリデーターのコンセンサスによる) は、その 41% のより高い部分を得て、正直なコンセンサスに密接に従うバリデーターは、バリデーター部分のより多くを得ます。パフォーマンスの悪い者は経済的に排除されます。さらに、マイナーやバリデーターを支援するデリゲーター (ステーカー) は、通常、そのノードの収益の一部を受け取ります (ノードはしばしば手数料を設定し、残りをデリゲーターに与えます。これは PoS ネットワークのステーキングに似ています)。これにより、パッシブな TAO 保有者は最高の貢献者をサポートし、利回りを得ることができ、実力主義をさらに強化します。したがって、Bittensor のトークン (TAO) はユーティリティトークンです。新しいマイナーの登録に必要であり (マイナーは参加するために少量の TAO を消費する必要があり、これによりシビルスパムと戦います)、影響力を高めたり、デリゲーションを通じて収益を得るためにステークすることができます。また、外部ユーザーが Bittensor のネットワークからサービスを利用したい場合 (例えば、Bittensor 上の言語モデルにクエリするために TAO を支払う)、支払いトークンとしても想定されていますが、これまでのところ内部の報酬メカニズムが主要な「経済」でした。全体的なインセンティブ哲学は、「価値ある知性」、つまり良い AI の成果を生み出すのに役立つモデルに報酬を与え、ネットワーク内のモデルの品質を継続的に向上させる競争を生み出すことです。

  • Gensyn のガバナンス: Gensyn のガバナンスモデルは、ネットワークが成熟するにつれて、コアチームの管理からコミュニティの管理へと進化するように構成されています。当初、Gensyn はGensyn 財団と、プロトコルのアップグレードと財務の決定を監督する選出された評議会を持つことになります。この評議会は、最初はコアチームのメンバーと初期のコミュニティリーダーで構成されることが期待されています。Gensyn は、ネイティブトークン (しばしば GENS と呼ばれる) のトークン生成イベント (TGE) を計画しており、その後、ガバナンスの権限はオンチェーン投票を通じてますますトークン保有者の手に渡ることになります。財団の役割は、プロトコルの利益を代表し、完全な分散化へのスムーズな移行を保証することです。実際には、Gensyn は、パラメータ (例: 検証ゲームの長さ、手数料率) の変更やアップグレードがコミュニティによって投票されるオンチェーン提案メカニズムを持つことになるでしょう。Gensyn は Ethereum のロールアップとして実装されているため、ガバナンスは Ethereum のセキュリティにも関連する可能性があります (例えば、最終的にトークン保有者の DAO に引き渡されるロールアップコントラクトのアップグレードキーを使用するなど)。Gensyn のライトペーパーの分散化とガバナンスのセクションでは、プロトコルは最終的にグローバルに所有されなければならないと強調しており、*「機械知能のためのネットワーク」*は、そのユーザーと貢献者に属するべきであるという精神と一致しています。要約すると、Gensyn のガバナンスは半中央集権的に始まりますが、GENS トークン保有者 (潜在的にステークや参加によって重み付けされる) が集合的に意思決定を行う DAO になるように設計されています。

  • Gensyn のインセンティブ: Gensyn の経済的インセンティブは、暗号経済学的なセキュリティによって補完された、単純な市場のダイナミクスです。開発者 (クライアント) は ML タスクの代金を Gensyn トークンで支払い、ソルバーはそれらのタスクを正しく完了することでトークンを獲得します。計算サイクルの価格はオープンマーケットで決定されます。おそらく、開発者は報奨金付きでタスクを提示し、ソルバーは入札するか、価格が期待に合えば単純にそれを受け入れることができます。これにより、アイドル状態の GPU の供給がある限り、競争がコストを公正なレートまで引き下げることが保証されます (Gensyn のチームは、ネットワークが世界中で最も安価な利用可能なハードウェアを見つけるため、クラウド価格と比較して最大 80% のコスト削減を見込んでいます)。一方、ソルバーは仕事に対してトークンを獲得するというインセンティブを持っています。そうでなければアイドル状態だったかもしれない彼らのハードウェアが収益を生み出します。品質を保証するために、Gensyn はソルバーに仕事を引き受ける際に担保をステークすることを要求します。もし彼らが不正行為をしたり、誤った結果を生成して捕まった場合、彼らはそのステークを失います (それはスラッシュされ、正直なベリファイアに与えられます)。ベリファイアは、不正なソルバーを捕まえた場合に**「ジャックポット」報酬を得る機会によってインセンティブを与えられます。これは、不正な計算を成功裏に特定したベリファイアに定期的に報酬を与える Truebit の設計に似ています。これにより、ソルバーは正直であり続け、一部のノードは監視役として行動する動機付けがされます。最適なシナリオ (不正行為なし) では、ソルバーは単にタスク料金を稼ぎ、ベリファイアの役割はほとんどアイドル状態です (または、参加しているソルバーの 1 人が他の人のベリファイアを兼ねるかもしれません)。したがって、Gensyn のトークンは、計算を購入するためのガス通貨と、プロトコルを保護するステーク担保の両方として機能します。ライトペーパーでは、非永続的なトークンを持つテストネットと、初期のテストネット参加者が TGE で実際のトークンで報酬を受け取ることが言及されています。これは、Gensyn がブートストラップ**のためにいくつかのトークン供給を割り当てたことを示しています。初期の採用者、テストソルバー、コミュニティメンバーに報酬を与えることです。長期的には、実際のジョブからの手数料がネットワークを維持するはずです。また、各タスク支払いのパーセンテージが財務省に入るか、または燃やされる小さなプロトコル手数料があるかもしれません。この詳細はまだ確認されていませんが、多くのマーケットプレイスプロトコルには、開発資金やトークンの買い戻しと燃焼のための手数料が含まれています。要約すると、Gensyn のインセンティブは、ML ジョブの正直な完了を中心に調整されています。仕事をすれば報酬を得る、不正を試みればステークを失う、他人を検証すれば不正を見つければ報酬を得る。これにより、信頼性の高い分散計算を達成することを目的とした、自己監視型の経済システムが生まれます。

  • Cuckoo のガバナンス: Cuckoo Network は、まだ開発段階にありますが、初日からエコシステムにガバナンスを組み込んでいます。CAIトークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckooの哲学は、GPUノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定(プロトコルのアップグレードや経済的な変更など)は、おそらくDAOメカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckooは報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI トークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckoo の哲学は、GPU ノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定 (プロトコルのアップグレードや経済的な変更など) は、おそらく DAO メカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckoo は報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI 保有者 (マイナー、開発者、ユーザーを含む) が投票します。すでに、オンチェーン投票評判システムとして使用されています。Cuckoo は各役割にトークンをステークすることを要求し、その後、コミュニティメンバーは (おそらくステークを委任するか、ガバナンスモジュールを通じて) どのコーディネーターやマイナーが信頼できるかに投票できます。これは評判スコアに影響を与え、タスクのスケジューリングに影響を与える可能性があります (例えば、より多くの票を持つコーディネーターはより多くのユーザーを引き付けるかもしれませんし、より多くの票を持つマイナーはより多くのタスクを割り当てられるかもしれません)。これはガバナンスとインセンティブの融合です。ガバナンストークンを使用して信頼を確立します。Cuckoo 財団またはコアチームは、これまでのところプロジェクトの方向性を導いてきました (例えば、L1 チェーンを廃止するという最近の決定) が、彼らのブログは分散型所有権への移行へのコミットメントを示しています。彼らは、独自のチェーンを運営することは高いオーバーヘッドを伴い、ロールアップに移行することで、よりオープンな開発と既存のエコシステムとの統合が可能になると特定しました。共有レイヤー (Ethereum のような) に移行すれば、Cuckoo はアップグレードのために、コミュニティが CAI を使用して投票する、より伝統的な DAO を実装する可能性が高いです。

  • Cuckoo のインセンティブ: Cuckoo のインセンティブ設計には 2 つのフェーズがあります。固定されたトークン割り当てによる初期のブートストラップフェーズと、使用量主導の収益分配を伴う将来の状態です。ローンチ時に、Cuckoo は 10 億の CAI トークンの**「フェアローンチ」**配布を実施しました。供給の 51% はコミュニティのために確保され、次のように割り当てられました:

    • マイニング報酬: 総供給の 30% が、AI タスクを実行する GPU マイナーへの支払いのために予約されました。
    • ステーキング報酬: ネットワークをステークして保護する人々のために供給の 11%。
    • エアドロップ: 採用インセンティブとして初期のユーザーとコミュニティメンバーに 5%。
    • (さらに 5% は、Cuckoo 上での構築を奨励するための開発者助成金でした。)

    この大規模な割り当ては、初期のネットワークでは、実際のユーザー需要が低くても、マイナーとステーカーが発行プールから報酬を得ていたことを意味します。実際、Cuckoo の初期フェーズでは、ステーキングとマイニングに高い APY 利回りが特徴で、これにより参加者を成功裏に引き付けましたが、トークンだけを目的とした「イールドファーマー」も引き付けました。チームは、報酬率が下がると多くのユーザーが去ったことに気づき、これらのインセンティブが真の利用に結びついていなかったことを示しています。この経験から学び、Cuckoo は報酬が実際の AI ワークロードと直接相関するモデルに移行しています。将来的には (そして部分的にはすでに)、エンドユーザーが AI 推論の代金を支払うと、その支払い (CAI またはおそらく CAI に変換された別の受け入れられたトークン) が貢献者の間で分割されます:

    • GPU マイナーは、提供した計算に対して大部分のシェアを受け取ります。
    • コーディネーター (アプリ開発者) は、モデルを提供し、リクエストを処理したサービスプロバイダーとして一部を受け取ります。
    • それらのマイナーやコーディネーターに委任したステーカーは、信頼できるノードの支援を継続的に奨励するために、少額の分け前またはインフレ報酬を得るかもしれません。
    • ネットワーク/財務省は、継続的な開発資金や将来のインセンティブ資金のために手数料を保持するかもしれません (または、ユーザーの手頃な価格を最大化するために手数料はゼロ/名目上かもしれません)。

    本質的に、Cuckoo は収益分配モデルに移行しています。Cuckoo 上の AI アプリが収益を生み出せば、その収益はそのサービスのすべての貢献者に公正な方法で分配されます。これにより、参加者がインフレだけでなく実際の利用から利益を得るようにインセンティブが調整されます。すでに、ネットワークはすべての当事者に CAI をステークすることを要求していました。これは、マイナーとコーディネーターがフラットな報酬だけでなく、おそらくステークベースの報酬も得られることを意味します (例えば、多くのユーザーが自分にステークしたり、自分自身がより多くステークしたりすると、コーディネーターはより高い報酬を得るかもしれません。これはプルーフ・オブ・ステークのバリデーターの稼ぎ方に似ています)。ユーザーインセンティブの観点から、Cuckoo はエアドロップポータルやフォーセット (一部のユーザーが悪用した) のようなものも導入して、初期の活動を促進しました。今後は、ユーザーはサービスを利用することでトークンリベートや、キュレーションに参加することでガバナンス報酬 (例えば、出力の評価やデータ提供で少額のトークンを獲得するなど) を通じてインセンティブを与えられるかもしれません。結論として、Cuckoo のトークン ($CAI) は多目的です。それはチェーン上のガス/手数料トークン (すべてのトランザクションと支払いがそれを使用します)、ステーキングと投票に使用され、そして行われた仕事に対する報酬の単位です。Cuckoo は、純粋に投機的なインセンティブを避けるために、トークン報酬をサービスレベルの KPI (重要業績評価指標)、例えば、稼働時間、クエリスループット、ユーザー満足度などに結び付けたいと明示的に言及しています。これは、トークン経済が単純な流動性マイニングから、より持続可能でユーティリティ主導のモデルへと成熟していることを反映しています。

モデルの所有権と IP 帰属

AI モデルの知的財産 (IP) と所有権の取り扱いは、分散型 AI ネットワークの複雑な側面です。各プラットフォームはわずかに異なる立場を取っており、一般的にこれはまだ完全な解決策がない進化中の分野です:

  • Bittensor: Bittensor のモデルはマイナーノードによって提供され、それらのマイナーはモデルの重み (オンチェーンで公開されることはない) を完全に管理し続けます。Bittensor は、特定のウォレットアドレスで実行されているという事実を超えて、誰がモデルを「所有」しているかを明示的に追跡しません。マイナーが去れば、彼らのモデルも一緒に去ります。したがって、Bittensor における IP の帰属はオフチェーンです。マイナーがプロプライエタリなモデルを使用しても、オンチェーンでそれを強制したり、知ったりするものはありません。Bittensor の哲学はオープンな貢献を奨励し (多くのマイナーは GPT-J などのオープンソースモデルを使用するかもしれません)、ネットワークはそれらのモデルのパフォーマンスに報酬を与えます。Bittensor はモデルの評判スコアを作成すると言えるかもしれません (バリデーターのランキングを通じて)。これはモデルの価値を認める一形態ですが、モデル自体の権利はトークン化されたり、分配されたりしません。注目すべきは、Bittensor のサブネットオーナーが IP の一部を所有していると見なされる可能性があることです。彼らはタスクを定義します (これにはデータセットや手法が含まれる場合があります)。サブネットオーナーは、サブネットを作成する際にNFT (サブネット UID と呼ばれる) を発行し、その NFT はそのサブネットの報酬の 18% を得る権利を与えます。これは、モデルのインスタンスではなく、モデルマーケットプレイス (サブネット) の作成を効果的にトークン化します。サブネットの定義 (例えば、特定のデータセットを持つ音声認識タスク) を IP と考えるなら、それは少なくとも記録され、報酬が与えられます。しかし、マイナーがトレーニングする個々のモデルの重みについては、オンチェーンの所有権記録はありません。帰属は、そのマイナーのアドレスに支払われる報酬という形で現れます。Bittensor は現在、例えば、複数の人が共同でモデルを所有し、自動的に収益分配を得るようなシステムを実装していません。モデルを実行している人 (マイナー) が報酬を得て、彼らが使用したモデルの IP ライセンスを尊重するかどうかは、オフチェーンで彼ら次第です。

  • Gensyn: Gensyn では、モデルの所有権は単純明快です。サブミッター (モデルのトレーニングを希望する人) がモデルのアーキテクチャとデータを提供し、トレーニング後、結果として得られるモデルのアーティファクトを受け取ります。作業を行うソルバーはモデルに対する権利を持たず、サービスに対して支払いを受ける請負業者のようなものです。したがって、Gensyn のプロトコルは従来の IP モデルを前提としています。提出したモデルとデータに対する法的権利を持っていた場合、トレーニング後もそれらを保持し続けます。計算ネットワークは所有権を主張しません。Gensyn は、マーケットプレイスがアルゴリズムやデータも他のリソースと同様に取引できることにも言及しています。これは、誰かがネットワークで使用するためにモデルやアルゴリズムを有料で提供し、そのモデルへのアクセスをトークン化するシナリオを示唆しています。例えば、モデル作成者が自分の事前トレーニング済みモデルを Gensyn に置き、他の人がネットワークを介してそれを有料でファインチューニングできるようにするかもしれません (これにより、モデルの IP が効果的に収益化されます)。プロトコルはライセンス条項を強制しませんが、支払い要件をエンコードすることは可能です。スマートコントラクトは、ソルバーにモデルの重みをアンロックするために料金を要求することができます。しかし、これらは投機的なユースケースです。Gensyn の主要な設計はトレーニングジョブを可能にすることです。帰属に関しては、複数の当事者がモデルに貢献した場合 (例えば、一方がデータを提供し、他方が計算を提供した場合)、それはおそらく彼らが Gensyn を使用する前に設定した契約や合意によって処理されるでしょう (例えば、スマートコントラクトがデータプロバイダーと計算プロバイダーの間で支払いを分割するなど)。Gensyn 自体は、「このモデルは X、Y、Z によって構築された」ということを、ジョブに対してどのアドレスに支払いが行われたかの記録を超えてオンチェーンで追跡しません。要約すると、Gensyn におけるモデルの IP はサブミッターに帰属し、いかなる帰属やライセンスも、プロトコル外の法的合意またはその上に構築されたカスタムスマートコントラクトを通じて処理されなければなりません。

  • Cuckoo: Cuckoo のエコシステムでは、モデル作成者 (AI アプリビルダー) は第一級の参加者です。彼らは AI サービスをデプロイします。アプリビルダーが言語モデルをファインチューニングしたり、カスタムモデルを開発して Cuckoo でホストしたりする場合、そのモデルは本質的に彼らの所有物であり、彼らはサービスオーナーとして行動します。Cuckoo は所有権を奪うのではなく、彼らが使用量を収益化するためのインフラを提供します。例えば、開発者がチャットボット AI をデプロイすると、ユーザーはそれと対話でき、開発者 (およびマイナー) は各インタラクションから CAI を獲得します。したがって、プラットフォームは使用収益をモデル作成者に帰属させますが、モデルの重みを明示的に公開したり、NFT に変換したりはしません。実際、モデルをマイナーの GPU で実行するために、コーディネーターノードはモデル (またはランタイム) を何らかの形でマイナーに送信する必要があるでしょう。これは IP の問題を提起します。悪意のあるマイナーがモデルの重みをコピーして配布する可能性はあるでしょうか?分散型ネットワークでは、プロプライエタリなモデルが使用される場合、そのリスクは存在します。Cuckoo の現在の焦点は、かなりオープンなモデル (Stable Diffusion、LLaMA 派生モデルなど) とコミュニティの構築にあり、スマートコントラクトを介した IP 権の強制はまだ見られません。プラットフォームは、将来的に IP 保護のために、暗号化されたモデル実行やセキュアエンクレーブのようなツールを統合する可能性がありますが、ドキュメントには具体的な言及はありません。それが追跡するのは、各タスクに対して誰がモデルサービスを提供したかです。コーディネーターはオンチェーンのアイデンティティであるため、彼らのモデルのすべての使用は彼らに帰属し、彼らは自動的に報酬のシェアを得ます。もし誰かにモデルを譲渡または売却する場合、事実上、彼らはコーディネーターノードの制御を移転することになります (コーディネーターの役割がトークン化されていれば、秘密鍵や NFT を渡すだけかもしれません)。現在、モデルのコミュニティ所有権 (トークンシェアを介して) は実装されていませんが、Cuckoo のビジョンは分散型のコミュニティ主導の AI を示唆しているため、人々が集合的に AI モデルに資金を提供したり、統治したりできるようにすることを探求するかもしれません。個人の所有権を超えたモデルのトークン化は、これらのネットワーク全体でまだ未解決の分野です。それは目標として認識されていますが (企業ではなくコミュニティが AI モデルを所有できるようにするため)、実際には上記の IP と検証の課題に対する解決策が必要です。

要約すると、Bittensor、Gensyn、Cuckoo におけるモデルの所有権は、従来の手段によってオフチェーンで処理されます。モデルを実行または提出する個人または団体が事実上の所有者です。ネットワークは、経済的報酬 (モデルの貢献者に彼らの IP や努力に対して支払う) の形で帰属を提供します。3 つのいずれも、まだスマートコントラクトレベルでモデルの使用に関するライセンスやロイヤリティの強制を組み込んでいません。帰属は評判と報酬を通じて行われます。例えば、Bittensor の最高のモデルは高い評判スコア (公開記録) とより多くの TAO を獲得し、これはその作成者への暗黙のクレジットとなります。将来的には、IP をより良く追跡するために、NFT に紐付けられたモデルの重み分散型ライセンスのような機能が見られるかもしれませんが、現在の優先事項は、ネットワークを機能させ、貢献を奨励することです。すべての人が、モデルの来歴と出力を検証することが、真のモデル資産市場を可能にする鍵であることに同意しており、この方向での研究が進行中です。

収益分配構造

3 つのプラットフォームはすべて、複数の当事者が協力して価値ある AI 出力を生み出したときに、経済的なパイをどのように分割するかを決定しなければなりません。AI サービスが使用されたとき、またはトークンが発行されたときに、誰が、いくら支払われるのでしょうか?それぞれに異なる収益分配モデルがあります:

  • Bittensor: インセンティブの項で述べたように、Bittensor の収益分配はプロトコルによってブロックレベルで定義されています。各ブロックの TAO 発行に対して、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これは、各サブネットで生成された価値に対する組み込みの収益分割です。サブネットオーナーのシェア (18%) は、「モデル/タスク設計」またはそのサブネットのエコシステムをブートストラップするためのロイヤリティのように機能します。マイナーとバリデーターが同等のシェアを得ることは、検証がなければマイナーは報酬を得られず (逆もまた然り)、彼らが共生的であり、それぞれが発行された報酬の同等の部分を得ることを保証します。外部ユーザーが TAO を支払ってモデルにクエリする場合を考えると、Bittensor のホワイトペーパーは、その支払いも同様に、回答したマイナーと回答を検証するのを助けたバリデーターの間で分割されることを想定しています (正確な分割はプロトコルまたは市場の力によって決定される可能性があります)。さらに、マイナー/バリデーターにステークするデリゲーターは、事実上のパートナーです。通常、マイナー/バリデーターは、獲得した TAO のパーセンテージをデリゲーターと共有します (これは設定可能ですが、多くの場合、大部分はデリゲーターに)。したがって、マイナーがブロックから 1 TAO を獲得した場合、それはステークに基づいて、例えば、デリゲーターと自分自身の間で 80/20 に分割されるかもしれません。これは、非オペレーターでさえも、彼らのサポートに比例してネットワークの収益のシェアを得ることを意味します。dTAO の導入により、別の共有レイヤーが追加されました。サブネットのプールにステークする人々はアルファトークンを取得し、これによりそのサブネットの発行の一部 (イールドファーミングのようなもの) を得る権利が与えられます。事実上、誰でも特定のサブネットの成功にステークし、アルファトークンを保持することでマイナー/バリデーターの報酬の一部を受け取ることができます (アルファトークンは、サブネットがより多くの使用量と発行を引き付けるにつれて価値が上がります)。要約すると、Bittensor の収益分配は、主要な役割についてはコードによって固定されており、社会的/ステーキングの取り決めによってさらに共有されます。これは比較的に透明で、ルールに基づいた分割です。すべてのブロックで、参加者は 1 TAO がどのように割り当てられるかを正確に知っており、したがって貢献ごとの「収益」を知っています。この明確さが、Bittensor が AI のためのビットコインに例えられる理由の 1 つです。参加者の報酬が数学的に設定される決定論的な通貨発行です。

  • Gensyn: Gensyn の収益分配は、タスクが個別に価格設定されるため、より動的で市場主導です。サブミッターがジョブを作成するとき、彼らは支払う意思のある報酬 (例えば X トークン) を付けます。ジョブを完了したソルバーは、その X (ネットワーク手数料を差し引いたもの) を受け取ります。ベリファイアが関与する場合、通常、次のようなルールがあります。不正が検出されなければ、ソルバーは全額の支払いを保持します。不正が検出された場合、ソルバーはスラッシュされ、ステークの一部または全部を失い、そのスラッシュされた金額はベリファイアに報酬として与えられます。したがって、ベリファイアはすべてのタスクから収益を得るのではなく、不正な結果を捕まえたときにのみ収益を得ます (加えて、実装によっては、参加に対する小さな基本料金があるかもしれません)。ここでは、モデルオーナーに支払うという組み込みの概念はありません。なぜなら、サブミッターがモデルオーナーであるか、モデルを使用する権利を持っていると想定されているからです。サブミッターが他の誰かの事前トレーニング済みモデルをファインチューニングし、支払いの一部が元のモデル作成者に渡るというシナリオを想像することはできますが、それはプロトコル外で処理されなければなりません (例えば、合意や、トークンの支払いを適宜分割する別のスマートコントラクトによって)。Gensyn のプロトコルレベルの共有は、本質的にクライアント -> ソルバー (-> ベリファイア) です。トークンモデルには、プロトコルの財務省や財団のための割り当てが含まれている可能性があります。例えば、すべてのタスクの支払いの小さなパーセンテージが財務省に行き、開発資金や保険プールに使用されるかもしれません (これは利用可能なドキュメントで明示的に述べられていませんが、多くのプロトコルがこれを行っています)。また、初期段階では、Gensyn はインフレを通じてソルバーを補助するかもしれません。テストネットユーザーは TGE で報酬を約束されており、これは事実上、初期のトークン配布からの収益分配です (初期のソルバーとサポーターは、ブートストラップを助けるためにトークンの一部を取得します。これはエアドロップやマイニング報酬に似ています)。時間とともに、実際のジョブが主流になるにつれて、インフレ報酬は減少し、ソルバーの収入は主にユーザーの支払いから得られるようになります。Gensyn のアプローチは、サービスごとの料金収益モデルとして要約できます。ネットワークは、仕事を必要とする人々から仕事をする人々への直接支払いを促進し、ベリファイアとおそらくトークンステーカーは、そのサービスを確保する役割を果たすときにのみ分け前を取ります。

  • Cuckoo: Cuckoo の収益分配は進化してきました。当初、有料のエンドユーザーが多くなかったため、収益分配は本質的にインフレの共有でした。トークン供給からの 30% のマイニングと 11% のステーキングの割り当ては、マイナーとステーカーがネットワークのフェアローンチプールによって発行されたトークンを共有していたことを意味します。実際には、Cuckoo は完了したタスクに比例してマイナーに日々の CAI 支払いのようなものを実行していました。これらの支払いは、主にマイニング報酬の割り当て (予約された固定供給の一部) から来ていました。これは、多くのレイヤー 1 ブロックチェーンがブロック報酬をマイナー/バリデーターに分配する方法に似ています。それは外部ユーザーによる実際の使用に結びついておらず、参加と成長を奨励するためのものでした。しかし、2025 年 7 月のブログで強調されているように、これは実際の需要ではなく、トークンファーミングによって動機付けられた使用につながりました。Cuckoo の次の段階は、サービス料金に基づく真の収益分配モデルです。このモデルでは、エンドユーザーが例えば画像生成サービスを使用し、1 ドル (暗号通貨換算) を支払うと、その 1 ドル相当のトークンが、おそらく次のように分割されます。GPU の仕事をしたマイナーに 0.70、モデルとインターフェースを提供したアプリ開発者 (コーディネーター) に 0.20、そしてステーカーまたはネットワークの財務省に 0.10。(注: 正確な比率は仮説です。Cuckoo はまだ公に指定していませんが、これは概念を示しています。) このようにして、サービスの提供に貢献したすべての人が収益の分け前を得ます。これは、例えば、AI のためのライドシェアリング経済に似ています。車両 (GPU マイナー) が大部分を得て、ドライバーまたはプラットフォーム (モデルサービスを構築したコーディネーター) が分け前を得て、そしておそらくプラットフォームのガバナンス/ステーカーが少額の手数料を得ます。Cuckoo が*「収益分配モデルと、使用メトリクスに直接結びついたトークン報酬」*に言及していることは、特定のサービスやノードが多くの量を処理する場合、そのオペレーターとサポーターがより多くを稼ぐことを示唆しています。彼らは、単にトークンをロックするためのフラットな利回り (当初のステーキング APY の場合) から離れています。具体的には、非常に人気のある AI アプリを動かすコーディネーターにステークすれば、そのアプリの手数料の一部を得ることができるかもしれません。これは、インフレのためだけにステークするのではなく、真のユーティリティへの投資としてのステーキングシナリオです。これにより、AI サービスにお金を払う実際のユーザーを引き付けることに全員のインセンティブが一致し、それがトークン保有者に価値を還元します。Cuckoo のチェーンにはトランザクション手数料 (ガス) もあったため、ブロックを生成したマイナー (当初は GPU マイナーも Cuckoo チェーンのブロック生成に貢献していました) もガス料金を得ていました。チェーンがシャットダウンされ、ロールアップに移行するに伴い、ガス料金は最小限になるか (または Ethereum 上で)、主要な収益は AI サービス料金自体になります。要約すると、Cuckoo は補助金主導モデル (ネットワークが参加者にトークンプールから支払う) から需要主導モデル (参加者が実際のユーザー支払いから稼ぐ) に移行しています。トークンは依然としてステーキングとガバナンスで役割を果たしますが、マイナーとアプリ開発者の日々の収益は、ますます AI サービスを購入するユーザーから得られるようになるはずです。このモデルは長期的により持続可能であり、Web2 の SaaS 収益分配に酷似していますが、透明性のためにスマートコントラクトとトークンを介して実装されています。

攻撃対象領域と脆弱性

AI を分散化することは、いくつかのインセンティブとセキュリティの課題をもたらします。ここでは、主要な攻撃ベクトル (シビル攻撃、共謀、フリーライディング、データ/モデルのポイズニング) を分析し、各プラットフォームがそれらをどのように軽減するか、または脆弱なままであるかを考察します:

  • シビル攻撃 (偽のアイデンティティ): オープンなネットワークでは、攻撃者が多くのアイデンティティ (ノード) を作成して、不釣り合いな報酬や影響力を得ようとする可能性があります。

    • Bittensor: シビル耐性は主に参入コストによって提供されます。Bittensor に新しいマイナーやバリデーターを登録するには、TAO を消費またはステークする必要があります。これはバーンまたはボンディング要件である可能性があります。これは、N 個の偽ノードを作成するには N 倍のコストがかかることを意味し、大規模なシビル集団を高価なものにします。さらに、Bittensor のコンセンサスは影響力をステークとパフォーマンスに結びつけます。ステークがなく、パフォーマンスの低いシビルはほとんど何も稼げません。攻撃者は、大きな報酬を得るためには、多額の投資を行い、かつシビルノードが実際に有用な作業に貢献する必要があります (これは典型的なシビル戦略ではありません)。とはいえ、攻撃者が実際に多くの資本を持っている場合、TAO の過半数を取得し、多くのバリデーターやマイナーを登録することができます。これは事実上、富によるシビルです。これは 51% 攻撃のシナリオと重なります。単一のエンティティがサブネット内のステークされた TAO の 50% 以上を制御する場合、彼らはコンセンサスを大きく揺るがすことができます。Bittensor の dTAO の導入は、ここで少し役立ちます。影響力をサブネット全体に分散させ、サブネットが繁栄するためにはコミュニティのステーキングサポートを必要とするため、1 つのエンティティがすべてを制御することが難しくなります。それでも、資金力のある敵対者によるシビル攻撃は懸念事項です。Arxiv の分析では、現在ステークがかなり集中しているため、過半数攻撃への障壁は望ましいほど高くないと明記されています。これを軽減するために、ウォレットごとのステークキャップ (例えば、1 つのウォレットが支配するのを防ぐために、有効ステークを 88 パーセンタイルでキャップするなど) のような提案がなされています。要約すると、Bittensor はシビルに対処するためにステーク加重アイデンティティ (比例したステークなしに安価にアイデンティティを生成することはできない) に依存しています。これは、非常にリソースの豊富な攻撃者を除いて、かなり効果的です。
    • Gensyn: Gensyn におけるシビル攻撃は、攻撃者がシステムを悪用するために多くのソルバーまたはベリファイアノードを立ち上げるという形で現れるでしょう。Gensyn の防御は純粋に経済的かつ暗号学的です。アイデンティティ自体は重要ではありませんが、作業を行うか、担保を投稿することが重要です。攻撃者が 100 個の偽のソルバーノードを作成しても、ジョブもステークもなければ、何も達成できません。タスクを獲得するためには、シビルノードは競争力のある入札を行い、作業を行うためのハードウェアを持っている必要があります。能力なしに安値で入札すれば、失敗してステークを失います。同様に、攻撃者は検証に選ばれることを期待して多くのベリファイアアイデンティティを作成する可能性があります (プロトコルがランダムにベリファイアを選択する場合)。しかし、数が多すぎると、ネットワークやジョブの投稿者がアクティブなベリファイアの数を制限するかもしれません。また、ベリファイアはそれをチェックするために計算を実行する必要がある可能性があり、これはコストがかかります。多くの偽のベリファイアを持つことは、実際に結果を検証できない限り役に立ちません。Gensyn におけるより適切なシビル攻撃の角度は、攻撃者がネットワークを偽のジョブや応答で満たして他人の時間を無駄にしようとする場合です。これは、サブミッターにもデポジットを要求することで軽減されます (偽のジョブを投稿する悪意のあるサブミッターは、支払いまたはデポジットを失います)。全体として、Gensyn が要求するステーク/ボンド検証のためのランダム選択の使用は、攻撃者が比例したリソースも持ち込まない限り、複数のアイデンティティを持つことによる利益がほとんどないことを意味します。それは安価な攻撃ではなく、よりコストのかかる攻撃になります。オプティミスティックセキュリティモデルは、少なくとも 1 人の正直なベリファイアを前提としています。シビルは、一貫して不正を行うためには、すべてのベリファイアを圧倒し、すべてが自分たちである必要がありますが、これもまた、ステークまたは計算能力の過半数を所有することに戻ります。したがって、Gensyn のシビル耐性は、オプティミスティックロールアップのそれに匹敵します。正直なアクターが 1 人いる限り、シビルは簡単にシステム的な損害を引き起こすことはできません。
    • Cuckoo: Cuckoo におけるシビル攻撃の防止は、ステーキングとコミュニティの審査に依存しています。Cuckoo のすべての役割 (マイナー、コーディネーター、場合によってはユーザーでさえも) は、$CAI のステーキングを必要とします。これは即座にシビルアイデンティティのコストを引き上げます。100 個のダミーマイナーを作成する攻撃者は、それぞれについてステークを取得してロックする必要があります。さらに、Cuckoo の設計には人間/コミュニティの要素があります。新しいノードは、オンチェーン投票を通じて評判を得る必要があります。評判のない新鮮なノードのシビル軍団は、多くのタスクを割り当てられたり、ユーザーに信頼されたりする可能性は低いです。特にコーディネーターはユーザーを引き付ける必要があります。実績のない偽のコーディネーターは利用されません。マイナーについては、コーディネーターは Cuckoo Scan で彼らのパフォーマンス統計 (成功したタスクなど) を見ることができ、信頼できるマイナーを好むでしょう。Cuckoo には比較的小さな数のマイナーしかいませんでした (ベータ版のある時点で 40 GPU)。そのため、多くのノードの奇妙な流入は目立つでしょう。潜在的な弱点は、攻撃者が評判システムもファーミングする場合です。例えば、彼らがシビルノードに多くの CAI をステークして評判が良く見せかけたり、偽の「ユーザー」アカウントを作成して自分自身をアップボートしたりする場合です。これは理論的には可能ですが、すべてがトークンキュレーションされているため、そうするにはトークンがかかります (本質的に、自分のステークで自分のノードに投票することになります)。Cuckoo チームは、シビルの行動が観察された場合 (特に、より中央集権的なロールアップサービスになりつつある現在、彼らは悪意のあるアクターを一時停止またはスラッシュすることができます)、ステーキングと報酬のパラメータを調整することもできます。結局のところ、シビルは利害関係 (ステーク) を要求し、コミュニティの承認を必要とすることによって抑制されます。正直な参加者が実際のハードウェアとステークにより良く費やすことができる多額の投資なしに、何百もの偽の GPU を持ってきて報酬を得ることは誰にもできません。
  • 共謀: ここでは、複数の参加者がシステムを悪用するために共謀することを考えます。例えば、Bittensor でバリデーターとマイナーが共謀したり、Gensyn でソルバーとベリファイアが共謀したりするなどです。

    • Bittensor: 共謀は現実的な懸念として特定されています。元の設計では、一握りのバリデーターが共謀して特定のマイナーや自分自身を常にアップボートし、報酬分配を不公平に歪めることができました (これはルートサブネットでの権力集中として観察されました)。Yuma コンセンサスはいくつかの防御を提供します。バリデーターのスコアの中央値を取り、逸脱するものを罰することで、彼らが多数派でない限り、小さな共謀グループがターゲットを劇的に押し上げるのを防ぎます。言い換えれば、10 人のバリデーターのうち 3 人が共謀してマイナーに非常に高いスコアを与えても、他の 7 人がそうしなければ、共謀者の外れ値スコアは切り捨てられ、マイナーの報酬は中央値スコアに基づきます (したがって、共謀は大きな助けにはなりません)。しかし、共謀者がバリデーターの 50% 以上 (またはバリデーター間のステークの 50% 以上) を形成する場合、彼らは事実上コンセンサスそのものです。彼らは偽の高いスコアに合意でき、中央値は彼らの見解を反映します。これは古典的な 51% 攻撃のシナリオです。残念ながら、Arxiv の研究では、トークンの集中度が高いため、参加者 (数で) のわずか 1〜2% の連合がステークの過半数を支配している Bittensor のサブネットがいくつか見つかりました。これは、少数の大口保有者による共謀が信頼できる脅威であったことを意味します。Bittensor が dTAO を通じて追求している緩和策は、影響力を民主化することです。任意の TAO 保有者がサブネットにステークを向けることを許可することで、閉鎖的なバリデーターグループの力を希薄化します。また、凹型ステーキング (過大なステークに対する収益の逓減) やステークキャップのような提案は、1 つの共謀エンティティがあまりにも多くの投票権を集める能力を打ち破ることを目的としています。Bittensor のセキュリティの前提は、現在、プルーフ・オブ・ステークに似ています。単一のエンティティ (またはカルテル) がアクティブなステークの 50% 以上を制御しないことです。それが維持される限り、正直なバリデーターが悪質なスコアリングを上書きし、共謀するサブネットオーナーが恣意的に自分の報酬を増やすことができないため、共謀は制限されます。最後に、サブネットオーナーとバリデーター間の共謀 (例えば、サブネットオーナーがバリデーターに賄賂を渡して、自分のサブネットのマイナーを高く評価させる) について、dTAO は直接的なバリデーターの制御を取り除き、それをトークン保有者の決定に置き換えます。トークン供給を買い占めない限り、「市場」と共謀することはより困難です。その場合、それはもはや共謀ではなく、乗っ取りです。したがって、Bittensor の主要な反共謀技術はアルゴリズムによるコンセンサス (中央値クリッピング)広範なトークン配布です。

    • Gensyn: Gensyn における共謀は、おそらくソルバーとベリファイア (または複数のベリファイア) がシステムを不正に操作するために共謀することを含むでしょう。例えば、ソルバーが偽の結果を生成し、共謀するベリファイアが意図的にそれに異議を唱えない (または、プロトコルがベリファイアに署名を求めた場合にそれが正しいと証明さえする) 可能性があります。これを軽減するために、Gensyn のセキュリティモデルは少なくとも 1 人の正直なベリファイアを必要とします。もしすべてのベリファイアがソルバーと共謀している場合、不正な結果は異議なく通ります。Gensyn は、多くの独立したベリファイア (誰でも検証できる) を奨励し、ベリファイアが共謀から離脱して異議を唱えることで大きな報酬を得ることができるというゲーム理論によってこれに対処します (なぜなら、彼らはソルバーのステークを得るからです)。本質的に、共謀に同意するグループがあっても、各メンバーは離反して自分のために報奨金を請求するインセンティブを持っています。これは古典的な囚人のジレンマの状況です。これにより、共謀グループが小さいか、効果がない状態に保たれることが期待されます。もう 1 つの潜在的な共謀は、複数のソルバーが価格を吊り上げたり、タスクを独占したりすることです。しかし、開発者はタスクをどこに投稿するかを選択でき (そしてタスクは簡単に独占できる同一の単位ではない)、価格におけるソルバーの共謀は世界的に調整するのが難しいでしょう。共謀していないソルバーは、仕事を勝ち取るために安値で入札することができます。オープンマーケットのダイナミクスは、少なくともいくつかの競争力のある参加者がいると仮定すれば、価格設定の共謀に対抗します。もう 1 つの角度: ソルバーを苦しめるためのベリファイアの共謀。例えば、ベリファイアが正直なソルバーを偽って告発して彼らのステークを盗むなどです。Gensyn の不正証明はバイナリでオンチェーンです。偽の告発は、オンチェーンの再計算でエラーが見つからなければ失敗し、おそらく悪意のあるベリファイアは何か (おそらくデポジットや評判) を失うでしょう。したがって、ソルバーを妨害しようとするベリファイアの共謀は、プロトコルの検証プロセスによって捕らえられます。要約すると、Gensyn のアーキテクチャは、共謀するセットの少なくとも 1 つの当事者が正直であるインセンティブを持つ限り堅牢です。これは、ビットコインで最終的に不正を暴露するために 1 人の正直なマイナーを必要とするのと同様のオプティミスティック検証の特性です。攻撃者がタスク内のすべてのベリファイアとソルバーを制御できる場合 (ネットワークの過半数など)、理論的には共謀は可能ですが、その場合、彼らは共謀を必要とせずに不正を行うことができます。暗号経済学的インセンティブは、共謀を維持することを非合理的にするように配置されています。

    • Cuckoo: Cuckoo における共謀は、いくつかの方法で発生する可能性があります:

      1. コーディネーターとマイナーの共謀 – 例えば、コーディネーターが常に友好的なマイナーのセットにタスクを割り当て、報酬を分割し、他の正直なマイナーを無視することができます。コーディネーターはタスクのスケジューリングに裁量権を持っているため、これは起こり得ます。しかし、友好的なマイナーが標準以下であれば、エンドユーザーは遅いまたは質の悪いサービスに気づき、去っていく可能性があるため、コーディネーターは品質を損なう純粋なえこひいきからインセンティブを失います。共謀が報酬を操作するためである場合 (例えば、マイナーにトークンを与えるために偽のタスクを提出するなど)、それはオンチェーンで検出され (おそらく同一の入力または実際のユーザーがいない多くのタスク)、罰せられる可能性があります。Cuckoo のオンチェーンの透明性は、異常なパターンがコミュニティまたはコアチームによってフラグ付けされる可能性があることを意味します。また、すべての参加者がステークしているため、共謀するコーディネーターとマイナーのリングは、システムを悪用していることが発覚した場合、ステークを失う可能性があります (例えば、ガバナンスが不正行為に対して彼らをスラッシュすることを決定した場合)。
      2. マイナー間の共謀 – 彼らは情報を共有したり、カルテルを結成したりして、例えば、評判でお互いに投票したり、特定のコーディネーターへのサービスを拒否してより高い料金を引き出したりするかもしれません。これらのシナリオは可能性が低いです。評判投票はステーカー (ユーザーを含む) によって行われ、マイナー自身がお互いに投票するわけではありません。そして、サービスの拒否は、コーディネーターを他のマイナーを探すか、警告を発するように促すだけです。現在比較的小規模であることを考えると、どんな共謀も隠すのは難しいでしょう。
      3. ガバナンスを操作するための共謀 – 大口の CAI 保有者が共謀して、自分たちに有利な提案 (法外な手数料の設定や財務省の転用など) を可決する可能性があります。これは、どのトークンガバナンスにもあるリスクです。最善の緩和策は、トークンを広く配布し (Cuckoo のフェアローンチは 51% をコミュニティに与えました)、活発なコミュニティの監督を持つことです。また、Cuckoo は L1 から移行したため、新しいチェーンに再定住するまで、即時のオンチェーンガバナンスは制限されるかもしれません。チームは暫定的にマルチシグ制御を保持している可能性が高く、皮肉なことに、一時的に中央集権化される代わりに、悪意のある部外者による共謀を防ぎます。 全体として、Cuckoo は共謀に対処するために透明性とステーキングに依存しています。コーディネーターが競争環境でユーザーを引き付けたいという理由で行動するという信頼の要素があります。共謀がサービスの質の低下や明らかな報酬の悪用につながる場合、ステークホルダーは悪意のあるアクターを投票で排除したり、ステークを停止したりすることができ、ネットワークは彼らをスラッシュまたはブロックすることができます。かなりオープンな性質 (ステークすれば誰でもコーディネーターやマイナーになれる) は、共謀には大規模な協調的な努力が必要であり、それは明白になることを意味します。Bittensor や Gensyn ほど数学的に防止されてはいませんが、経済的なステークとコミュニティガバナンスの組み合わせがチェック機能を提供します。
  • フリーライディング (フリーライダー問題): これは、参加者が同等の価値を貢献せずに報酬を得ようとすることを指します。例えば、実際には評価しないが報酬を得るバリデーター、計算する代わりに他人の答えをコピーするマイナー、または有用な入力を提供せずに報酬をファーミングするユーザーなどです。

    • Bittensor: Bittensor で知られているフリーライダー問題は、怠惰なバリデーターによる**「ウェイトコピー」です。バリデーターは、独立してマイナーを評価する代わりに、多数派の意見 (または別のバリデーターのスコア) を単にコピーすることができます。そうすることで、AI クエリを実行するコストを回避しながら、提出したスコアがコンセンサスに沿っているように見えれば報酬を得ることができます。Bittensor は、各バリデーターのコンセンサスへの整合性情報貢献度を測定することでこれに対抗します。バリデーターが常に他人をコピーするだけなら、彼らはうまく整合するかもしれませんが (そのため、重く罰せられることはありません)、独自の価値を加えません。プロトコル開発者は、正確だが純粋に冗長ではない評価を提供するバリデーターに、より高い報酬を与えることを議論しています。ノイズ注入 (意図的にバリデーターにわずかに異なるクエリを与える) のような技術は、コピーするのではなく、実際に作業することを強制する可能性がありますが、それが実装されているかどうかは不明です。Arxiv は、バリデーターの努力と報酬をより良く結びつけるために、パフォーマンス加重発行と複合スコアリング手法を提案しています。マイナーについては、考えられるフリーライダーの行動は、マイナーが他のマイナーにクエリを送り、その答えを中継することです (盗作の一形態)。Bittensor の設計 (分散型クエリ) は、マイナーのモデルが自身のデンドライトを介して他を呼び出すことを許可するかもしれません。マイナーが単に他人の答えを中継する場合、優れたバリデーターは、その答えがマイナーの主張するモデル能力と一貫して一致しないため、それに気づくかもしれません。アルゴリズム的に検出するのは難しいですが、元の結果を計算しないマイナーは、最終的にいくつかのクエリでスコアが悪くなり、評判を失うはずです。もう 1 つのフリーライダーのシナリオは、AI の作業をせずに報酬を得るデリゲーターでした。それは意図的なものです (トークン保有者を巻き込むため) ので、攻撃ではありませんが、トークン発行の一部がステークしただけの人々に渡ることを意味します。Bittensor はこれを、報酬の無駄遣いではなく、インセンティブの調整として正当化しています。要するに、Bittensor はバリデーターのフリーライダー問題を認識しており、インセンティブを調整しています (逸脱したりコピーしたりしない人々にブーストを与えるバリデータートラストスコアなど)。彼らの解決策は、本質的に努力と正確さをより明示的に報酬する**ことであり、何もしないことや盲目的にコピーすることが、時間とともにより少ない TAO をもたらすようにすることです。
    • Gensyn: Gensyn では、フリーライダーが稼ぐのは難しいでしょう。なぜなら、トークンを得るためには、計算を提供するか、誰かの不正を捕まえるかしなければならないからです。ソルバーは仕事を「偽る」ことはできません。有効な証明を提出するか、スラッシュされるリスクを負う必要があります。タスクをせずに支払いを受けるメカニズムはありません。ベリファイアは理論的にアイドル状態で、他の人が不正を捕まえることを期待することができますが、それでは何も稼げません (なぜなら、不正証明を提出した人だけが報酬を得るからです)。あまりにも多くのベリファイアがフリーライドしようとすると (実際にタスクを再計算しない)、誰もチェックしていないため、不正なソルバーがすり抜けるかもしれません。Gensyn のインセンティブ設計は、ジャックポット報酬によってこれに対処します。不正を捕まえて大きな支払いを得るには1 人のアクティブなベリファイアで十分なので、少なくとも 1 人が常に仕事をするのが合理的です。仕事をしていない他の人は、役に立たないことを除いてネットワークに害を与えません。彼らも報酬を得ません。したがって、システムは自然にフリーライダーを排除します。実際に検証するベリファイアだけが長期的には利益を上げます (他の人はノードにリソースを費やしても何も得られないか、ごくまれに偶然報酬を得るだけです)。プロトコルはまた、どのベリファイアが異議を唱える機会を得るかをランダム化して、すべてのベリファイアが「誰か他の人がやるだろう」と仮定するのを防ぐかもしれません。タスクは個別に支払われるため、一時的なテストネットのインセンティブを除いて、「仕事なしのステーキング報酬」に相当するものはありません。注意すべき領域はマルチタスク最適化です。ソルバーはタスク間で作業を再利用したり、秘密裏に誰か安い人に外注したりするかもしれません (中央集権型のクラウドを使用するなど)。しかし、それは本当に有害なフリーライディングではありません。時間通りに正しい結果を提供すれば、それをどのように行ったかは問題ではありません。それは攻撃というよりは裁定取引のようなものです。要約すると、Gensyn のメカニズム設計は、フリーライダーが利益を得る余地をほとんど残していません。なぜなら、配布されるすべてのトークンは、行われた仕事または罰せられた不正に対応しているからです。
    • Cuckoo: Cuckoo の初期フェーズは、意図せずしてフリーライダー問題を生み出しました。エアドロップと高利回りのステーキングは、トークンをファーミングするためだけにそこにいるユーザーを引き付けました。これらのユーザーは、フォーセットを通じてトークンを循環させたり、エアドロップタスクを悪用したりしました (例えば、無料のテストプロンプトを継続的に使用したり、報酬を請求するために多くのアカウントを作成したりするなど)。これは、長期的なネットワーク価値に貢献することなく行われました。Cuckoo はこれを問題として認識しました。本質的に、人々は AI の出力のためではなく、投機的な報酬を得るためにネットワークを「使用」していました。L1 チェーンを終了し、再焦点を当てるという決定は、これらのインセンティブの不整合を振り払うための一部でした。将来のトークン報酬を実際の使用量に結びつけることによって (つまり、サービスが実際に有料顧客によって使用されているために稼ぐ)、フリーライダーの魅力は減少します。また、マイナー側のフリーライディングのシナリオもあります。マイナーが参加し、タスクを割り当てられ、何らかの方法でそれらを実行せずに報酬を請求する可能性があります。しかし、コーディネーターは結果を検証しています。マイナーが出力なしまたは不正な出力を返した場合、コーディネーターはそれを完了したタスクとしてカウントしないため、マイナーは支払いを受けません。マイナーはまた、簡単なタスクを選り好みし、難しいタスクをドロップしようとするかもしれません (例えば、一部のプロンプトが遅い場合、マイナーはそれらを避けるために切断するかもしれません)。これは問題になる可能性がありますが、コーディネーターはマイナーの信頼性を記録することができます。マイナーが頻繁にドロップする場合、コーディネーターは彼らへの割り当てを停止するか、彼らのステークをスラッシュすることができます (そのようなメカニズムが存在する場合、または単に報酬を与えない場合)。ユーザーのフリーライディング – 多くの AI サービスには無料トライアルがあるため、ユーザーは支払わずにアウトプットを得るためにリクエストをスパムする可能性があります (補助金付きモデルがある場合)。それはプロトコルレベルというよりはサービスレベルの問題です。各コーディネーターは無料利用をどのように処理するかを決定できます (例えば、少額の支払いを要求したり、スロットルしたりするなど)。Cuckoo は当初、無料の景品 (ユーザーを引き付けるための無料の AI 画像生成など) を提供していたため、一部の人がそれを利用しましたが、それは予想される成長マーケティングの一部でした。それらのプロモーションが終了すると、ユーザーは支払わなければならなくなり、悪用する無料の昼食はなくなります。全体として、Cuckoo のトークン配布を実際のユーティリティにマッピングするという新しい戦略は、「意味のないループを行うためのトークンマイニング」というフリーライダー問題を排除することを明確に目的としています。
  • データまたはモデルのポイズニング: これは、AI モデルが劣化したり、出力が操作されたりするように、悪意を持って不正なデータや行動を導入すること、および有害または偏ったコンテンツが貢献される問題を指します。

    • Bittensor: Bittensor におけるデータポイズニングは、マイナーが意図的に不正確または有害な回答を与えること、またはバリデーターが意図的に良い回答を悪いと誤って評価することを意味します。マイナーが一貫してゴミや悪意のあるコンテンツを出力する場合、バリデーターは低いスコアを与え、そのマイナーはほとんど稼げず、最終的に脱落します。経済的インセンティブは品質を提供することにあるため、他人を「ポイズニング」することは攻撃者に利益をもたらしません (彼らの目標が純粋に自己の費用での妨害である場合を除く)。悪意のあるマイナーが他人をポイズニングすることはできるでしょうか?Bittensor では、マイナーは直接お互いをトレーニングしません (少なくとも設計上はそうではありません。ポイズニングされる可能性のあるグローバルモデルが更新されることはありません)。各マイナーのモデルは別々です。彼らは、マイナーが自分自身をファインチューニングするために他の人から興味深いサンプルを取ることができるという意味で学習しますが、それは完全に任意であり、それぞれ次第です。悪意のあるアクターが無意味な回答をスパムした場合、正直なバリデーターはそれをフィルタリングします (低いスコアを付けます)。したがって、正直なマイナーのトレーニングプロセスに大きな影響を与えることはありません (加えて、マイナーは低いスコアのピアの知識ではなく、高いスコアのピアの知識を使用する可能性が高いです)。したがって、古典的なデータポイズニング (モデルを破損させるために不正なトレーニングデータを注入する) は、Bittensor の現在の設定では最小限です。より関連性の高いリスクはモデル応答の操作です。例えば、バリデーターには明らかではない、微妙に偏った、または危険なコンテンツを出力するマイナーなどです。しかし、バリデーターも人間が設計した、または少なくともアルゴリズムのエージェントであるため、露骨な毒性やエラーは捕捉される可能性が高いです (一部のサブネットには、安全でないコンテンツをチェックする AI バリデーターさえあるかもしれません)。最悪のシナリオは、攻撃者が何らかの方法でバリデーターとマイナーの過半数を共謀させて、特定の不正確な出力を「正しい」として押し通す場合です。彼らは応答に関するネットワークのコンセンサスを偏らせることができます (すべての共謀するバリデーターが悪意のある回答をアップボートするなど)。しかし、外部ユーザーがそれによって害を受けるためには、実際にネットワークにクエリを送り、その出力を信頼する必要があります。Bittensor はまだ能力を構築している段階であり、エンドユーザーによる重要なクエリに広く使用されているわけではありません。その時までには、コンテンツフィルタリングとバリデーターの多様性を持って、そのようなリスクを軽減することを期待しています。バリデーター側では、悪意のあるバリデーターがポイズニングされた評価を与える可能性があります。例えば、競争を排除するために特定の正直なマイナーを一貫してダウンボートするなどです。十分なステークがあれば、彼らはそのマイナーを追い出すことに成功するかもしれません (マイナーの報酬が非常に低くなり、彼らが去る場合)。これはインセンティブメカニズムへの攻撃です。繰り返しになりますが、彼らが多数派でなければ、中央値クリッピングが外れ値のバリデーターを阻止します。彼らが多数派である場合、それは共謀/51% のシナリオと合流します。どの多数派もルールを書き換えることができます。解決策は分散化に戻ります。どの 1 つのエンティティも支配しないようにすることです。要約すると、Bittensor の設計は、そのスコアリングシステムを通じてポイズニングされたデータ/モデルの貢献を本質的に罰します。不正な貢献は低い重み、したがって低い報酬を得ます。ポイズニングするための永続的なモデルリポジトリはありません。すべてが動的で、継続的に評価されます。これにより回復力が提供されます。ネットワークは、バリデーターによって貢献がフィルタリングされるにつれて、悪意のあるアクターを徐々に「忘れる」か無視することができます。
    • Gensyn: ソルバーがトレーニング中のモデルをポイズニングしたい場合 (トレーニング中にバックドアやバイアスを導入するなど)、それを秘密裏に行おうとする可能性があります。Gensyn プロトコルは、トレーニングが指定されたアルゴリズム (確率的勾配降下法のステップなど) に従って進行したことを検証しますが、ソルバーが通常の検証メトリクスには現れない微妙なバックドアトリガーを導入したかどうかを必ずしも検出しません。これはより陰湿な問題です。計算の失敗ではなく、トレーニングの許容される自由度の範囲内での操作です (トリガーフレーズに向けて重みを調整するなど)。それを検出することは、ML セキュリティにおける活発な研究問題です。Gensyn には、サブミッターが最終モデルを自分で選択したテストセットで評価できるという事実を除いて、モデルポイズニングのための特別なメカニズムはありません。賢明なサブミッターは、常に返されたモデルをテストすべきです。いくつかの入力で失敗したり、奇妙な動作をしたりすることを発見した場合、結果に異議を唱えたり、支払いを拒否したりするかもしれません。おそらく、プロトコルはサブミッターが特定の受け入れ基準 (「モデルはこの秘密のテストセットで少なくとも X の精度を達成しなければならない」など) を指定できるようにし、ソルバーの結果が失敗した場合、ソルバーは全額の支払いを受けないようにすることができます。これにより、攻撃者は評価基準を満たさないため、ポイズニングが抑止されます。しかし、ポイズニングが通常のテストでの精度に影響を与えない場合、すり抜ける可能性があります。Gensyn のベリファイアは計算の完全性のみをチェックし、モデルの品質はチェックしないため、トレーニングログが有効に見える限り、意図的な過学習やトロイの木馬を捕まえません。したがって、これはタスクレベルでの信頼の問題として残ります。サブミッターは、ソルバーがモデルをポイズニングしないことを信頼するか、単一のソルバーの影響を薄めるために、異なるソルバーからの複数のトレーニング結果をアンサンブルするような方法を使用する必要があります。もう 1 つの角度はデータポイズニングです。サブミッターがトレーニングデータを提供する場合、悪意のあるソルバーはそのデータを無視して何か別のものでトレーニングしたり、ゴミデータを追加したりする可能性があります。しかし、それはおそらく精度を低下させ、サブミッターは出力モデルのパフォーマンスでそれに気づくでしょう。ソルバーはその後、全額の支払いを受けません (おそらく、彼らはパフォーマンス目標を達成したいからです)。したがって、パフォーマンスを低下させるポイズニングは、ソルバーの報酬にとって自己破壊的です。パフォーマンスに中立だが悪意のあるポイズニング (バックドア) だけが本当の危険であり、それは典型的なブロックチェーン検証の範囲外です。それは機械学習のセキュリティの課題です。Gensyn の最善の緩和策は、おそらく社会的です。既知の評判の良いモデルを使用し、複数のトレーニングランを行い、オープンソースツールを使用することです。推論タスク (Gensyn が推論ジョブにも使用される場合) では、共謀するソルバーが特定の回答を偏らせる不正確な出力を返す可能性があります。しかし、ベリファイアは同じモデルを実行すれば不正な出力を捕まえるので、それはポイズニングというよりは単なる不正行為であり、不正証明が対処します。要約すると、Gensyn はプロセスを保護しますが、意図は保護しません。トレーニング/推論が正しく行われたことを保証しますが、結果が良いか、隠れた悪意がないことを保証するわけではありません。それは未解決の問題として残っており、Gensyn のホワイトペーパーはまだそれを完全には解決していないでしょう (ほとんど誰も解決していません)。
    • Cuckoo: Cuckoo は現在、推論 (既存のモデルの提供) に焦点を当てているため、データ/モデルのポイズニングのリスクは、出力操作またはコンテンツポイズニングに比較的に限定されています。悪意のあるマイナーは、実行するように与えられたモデルを改ざんしようとするかもしれません。例えば、Stable Diffusion のチェックポイントが提供された場合、それを、すべての画像に微妙な透かしや広告を挿入する可能性のある別のモデルと交換するかもしれません。しかし、モデルオーナーであるコーディネーターは、通常、出力形式の期待を持ってタスクを送信します。マイナーが一貫して仕様外の出力を返す場合、コーディネーターはそのマイナーにフラグを立てて禁止します。また、マイナーは、出力に著しく影響を与えることなくモデルを簡単に変更することはできません。もう 1 つのシナリオは、Cuckoo がコミュニティでトレーニングされたモデルを導入する場合です。その場合、マイナーやデータプロバイダーは、トレーニングデータをポイズニングしようとするかもしれません (例えば、多くの間違ったラベルや偏ったテキストを入力するなど)。Cuckoo は、クラウドソースデータの検証または貢献者の重み付けを実装する必要があります。これはまだ機能ではありませんが、チームのパーソナライズされた AI (AI ライフコーチや学習アプリの言及など) への関心は、最終的にユーザー提供のトレーニングデータを扱う可能性があり、それには慎重なチェックが必要になることを意味します。コンテンツの安全性については、Cuckoo のマイナーは推論を実行するため、モデルが通常は出力しない有害なコンテンツを出力することを心配するかもしれません。しかし、マイナーは任意に出力を変更するインセンティブを持っていません。彼らは創造性ではなく、正しい計算に対して報酬を受けます。どちらかといえば、悪意のあるマイナーは時間を節約するために完全な計算をスキップするかもしれません (例えば、ぼやけた画像や一般的な応答を返すなど)。コーディネーターやユーザーはそれに気づき、そのマイナーをダウンレートします (そして、おそらくそのタスクの支払いはしません)。プライバシーは別の側面です。悪意のあるマイナーはユーザーデータを漏洩または記録するかもしれません (ユーザーが機密性の高いテキストや画像を入力した場合など)。これはポイズニングではありませんが、機密性への攻撃です。Cuckoo のプライバシーに関するスタンスは、プライバシー保護手法を模索しているということです (エコシステムにおけるプライバシー保護 VPN の言及は、将来の焦点を示唆しています)。彼らは、セキュアエンクレーブや分割推論のような技術を組み込んで、マイナーからデータをプライベートに保つことができます。まだ実装されていませんが、既知の考慮事項です。 最後に、Cuckoo のブログは、モデルのトークン化を実現可能にする鍵として、モデルの出力を効果的に検証し、安全な分散型モデル運用を保証することを強調しています。これは、AI を真に分散化するためには、ポイズニングされた出力や誤動作するモデルのようなものから保護しなければならないことを認識していることを示しています。おそらく、彼らは暗号経済学的インセンティブ (悪意のあるアクターに対するステークスラッシュ) とユーザー評価システム (ユーザーが悪質な出力をフラグ付けでき、それらのマイナーは評判を失う) の組み合わせを使用するつもりでしょう。評判システムはここで役立ちます。マイナーが 1 つでも明らかに悪意のある、または不正確な結果を返した場合、ユーザー/コーディネーターは彼らをダウンボートでき、将来の収益能力に大きな影響を与えます。これを知っているマイナーは、一貫して正しくあり、ポイズニングを紛れ込ませないようにインセンティブを与えられます。 本質的に、Cuckoo は信頼するが検証するというアプローチに依存しています。誰かが不正行為をした場合、特定して削除する (罰としてステークを失う) という、より伝統的な方法です。まだ微妙なモデルポイズニングに対する専門的な防御策はありませんが、特定のアプリオーナー (コーディネーター) が担当する構造は、監督のレイヤーを追加します。これらのオーナーは、自分たちの収益と評判がそれに依存しているため、モデルの完全性を損なうものがないことを保証する動機付けがあります。

結論として、分散型 AI ネットワークは新しい攻撃対象領域を導入しますが、暗号学的、ゲーム理論的、およびコミュニティガバナンスによる防御の組み合わせも展開しています: シビル耐性は、主に経済的なステークを参加に要求することによって処理されます。共謀耐性は、インセンティブの調整 (正直な行動がより収益性が高い) と、小さな共謀グループの影響を制限するコンセンサスメカニズムから生まれます。フリーライダー防止は、報酬を実際の有用な作業と密接に結びつけ、何も貢献しない者を罰するか排除することによって達成されます。ポイズニングおよび関連する攻撃は依然として困難ですが、システムは継続的な評価と悪意のあるアクターをスラッシュまたは追放する能力を通じて、露骨なケースを軽減します。これらのプラットフォームは、安全で自己持続可能な分散型 AI エコシステムを確保するために、これらの設計を積極的に研究し、反復しています。これは、Bittensor の Yuma と dTAO への継続的な調整、および Cuckoo のトークノミクスの転換によって証明されています。

比較評価

Bittensor、Gensyn、Cuckoo AI の違いと類似点を強調するために、次の表は主要な側面における並列比較を提供します:

側面Bittensor (TAO)GensynCuckoo AI (CAI)
技術スタックカスタム L1 (Substrate ベースの Subtensor チェーン) と 93 以上の専門 AI サブネット。独自のチェーン上で EVM 互換 (最近のアップグレード後)。Ethereum ベースのロールアップ (当初は L1 を計画、現在は ETH ロールアップ)。オンチェーン検証を伴うオフチェーン計算。Arbitrum Orbit レイヤー 2 チェーン (EVM ロールアップ) としてローンチ。フルスタックプラットフォーム (独自のチェーン + コンピューティング + アプリ UI)。カスタム L1 から Ethereum 共有セキュリティ (ロールアップ/AVS) に移行中。
主要な焦点モデルの分散型 AI ネットワーク (「ニューラルインターネット」)。ノードは、タスク (LLM、ビジョンなど) 全体で集合的なモデル推論とトレーニングに貢献する。ML のための分散型コンピューティングマーケットプレイス。ブロックチェーンを介して作業を検証しながら、グローバルな GPU によるオフチェーンのモデルトレーニングと推論に重点を置く。分散型 AI サービスプラットフォーム。分散 GPU マイナーを使用したモデル提供/推論 (例: 生成アート、LLM API) に焦点を当てる。エンドユーザーアプリケーションをバックエンドの GPU マーケットプレイスと統合する。
主要な役割サブネットオーナー: サブネット内のタスクと検証を定義 (18% の報酬を獲得)。
マイナー: AI モデル (推論/トレーニング) を実行し、回答を提供。
バリデーター: クエリを投げかけ、マイナーの出力をスコアリング (品質をキュレーション)。
デリゲーター: マイナー/バリデーターに TAO をステークして増幅し、シェアを獲得。
サブミッター (開発者): ML ジョブ (モデル/データ付き) と支払いを投稿。
ソルバー: 自身のハードウェアでタスクを計算し、結果を提出。
ベリファイア (ウォッチャー): ソルバーの結果をチェック。不正な場合は不正証明を介して異議を申し立てることができる。
(サブミッターがモデルを提供するため、明確な「オーナー」の役割はなし。トークン保有者を介したガバナンスの役割)。
AI アプリビルダー (コーディネーター): AI モデルサービスをデプロイし、CAI をステークし、マイナーへのタスクを管理。
マイナー (GPU/CPU プロバイダー): CAI をステークし、割り当てられた推論タスクを実行し、結果を返す。
エンドユーザー: AI アプリを使用 (暗号通貨で支払うか、リソースを貢献)。
ステーカー (デリゲーター): コーディネーター/マイナーにステークし、ガバナンスで投票し、報酬のシェアを獲得。
コンセンサスと検証Yuma コンセンサス: カスタムの「プルーフ・オブ・インテリジェンス」 – AI 出力のバリデーターのスコアが集計され (ステーク加重中央値)、マイナーの報酬が決定される。基盤となるチェーンのコンセンサスはブロックに対して PoS に似ている (Substrate) が、ブロックの有効性は各エポックの AI コンセンサスにかかっている。外れ値のスコアリングと 50% までの共謀に耐性がある。オプティミスティック検証 (Truebit スタイル): ベリファイアが異議を唱えない限り、ソルバーの結果は正しいと仮定。対話的なオンチェーンの不正証明を使用して、不正なステップを特定。また、再実行なしでトレーニングの進捗を検証するために計算の暗号学的証明 (プルーフ・オブ・ラーニング) を実装中。Ethereum がトランザクションの基本コンセンサスを提供。プルーフ・オブ・ステークチェーン + コーディネーターによるタスク検証: Cuckoo Chain はブロック生成に PoS バリデーターを使用 (当初はマイナーもブロックの保護を支援)。AI タスクの結果は、コーディネーターノードによって検証される (マイナーの出力を期待されるモデルの動作と照合)。まだ専門的な暗号証明はなく、ステークと評判に依存 (不正行為が自動的な数学的証明検出ではなく、スラッシングやダウンボートにつながる範囲でトラストレス)。台帳のセキュリティのために Ethereum コンセンサス (ロールアップ) に移行中。
トークンとユーティリティTAO トークン: Subtensor 上のネイティブ通貨。ステーキング (登録とコンセンサスへの影響に必要)、トランザクション手数料/支払い (例: AI クエリの支払い)、および貢献 (マイニング/検証) に対する報酬として使用。TAO には継続的なインフレがあり (12 秒ブロックごとに 1 TAO)、これが報酬メカニズムを駆動する。また、ガバナンス (サブネットへの dTAO ステーキング) でも使用される。Gensyn トークン (ERC-20、名称未定): プロトコルの支払い単位 (開発者はソルバーにそれで支払う)。ステーク担保として機能 (ソルバー/ベリファイアはトークンをボンドし、不正行為でスラッシュされる)。ガバナンスで使用される (Gensyn 財団の DAO を介したプロトコルアップグレードの投票)。供給に関する詳細はまだない。おそらく一部は初期採用 (テストネットなど) を奨励するために割り当てられる。CAI トークン (ERC-20): Cuckoo Chain のネイティブトークン (10 億の固定供給)。多目的: Cuckoo Chain 上のトランザクションのガス料金、ネットワークの役割 (マイナー、コーディネーターは CAI をロックする必要がある) のためのステーキング、プロトコルの決定に関するガバナンス投票、および貢献に対する報酬 (マイニング/ステーキング報酬は初期割り当てから)。ミーム的な魅力もある (コミュニティトークンの側面)。
資産のトークン化計算: はい – AI 計算作業は TAO 報酬を介してトークン化される (TAO を知性のための「ガス」と考える)。モデル: 間接的に – モデルはパフォーマンスに基づいて TAO を稼ぐが、モデル/重み自体はオンチェーン資産ではない (モデルの NFT はない)。サブネットの所有権は、モデルマーケットプレイスのシェアを表すためにトークン化される (サブネットオーナー NFT + アルファトークン)。データ: トークン化されていない (データはオフチェーン。Bittensor はデータセットではなくモデルの出力に焦点を当てる)。計算: はい – アイドル状態の計算はオンチェーンの商品となり、ジョブマーケットプレイスでトークンと交換される。モデル: 明示的にはない – モデルは開発者によってオフチェーンで提供され、結果が返される。組み込みのモデルトークンはない (ただし、当事者が設定すればプロトコルはライセンスを促進できる)。データ: ない – データセットはサブミッターとソルバーの間でオフチェーンで処理される (暗号化または保護される可能性があるが、オンチェーン資産として表現されない)。Gensyn のビジョンには、計算のようにアルゴリズムやデータを取引する可能性が含まれているが、コア実装は計算中心。計算: はい – GPU 時間は日々の CAI 支払いとタスク報奨金を介してトークン化される。ネットワークは計算能力をマイナーが CAI と「交換」するリソースとして扱う。モデル: 部分的に – プラットフォームはモデルをサービスとして統合する。しかし、モデル自体は NFT としてミントされない。モデルの価値は、それを使用するユーザーから CAI を稼ぐコーディネーターの能力に捉えられる。将来の計画はコミュニティ所有のモデルを示唆しているが、現在モデルの IP はオフチェーン (コーディネーターを運営する者が所有)。データ: 一般的なデータのトークン化はない。ユーザーの入出力は一時的。(Cuckoo は Beancount などのアプリと提携しているが、データはチェーン上のトークンで表現されない)。
ガバナンス分散型、トークン保有者主導 (dTAO): 当初は 64 人の選出されたバリデーターがルートコンセンサスを運営。現在はガバナンスはオープン – TAO 保有者がサブネットにステークして発行を指示 (市場ベースのリソース配分)。プロトコルのアップグレードと変更は、オンチェーン提案 (TAO 投票、Bittensor 財団/評議会が促進) を介して決定される。財団が徐々に制御を譲り、完全にコミュニティによって統治されることを目指す。段階的な分散化: Gensyn 財団 + 選出された評議会が初期の決定を管理。トークンローンチ後、ガバナンスはトークン保有者が提案に投票する DAO に移行する (多くの DeFi プロジェクトと同様)。Ethereum の共有セキュリティ環境は、主要な変更がコミュニティと潜在的にレイヤー 1 のガバナンスを伴うことを意味する。ガバナンスの範囲には、経済パラメータ、コントラクトのアップグレード (セキュリティ監査の対象) が含まれる。まだ稼働していないが、メインネット後のライトペーパーで概説されている。コミュニティと財団の混合: Cuckoo は「フェアローンチ」の精神でローンチ (インサイダー向けのプレマインなし)。コミュニティ DAO が意図されており、主要な決定とプロトコルのアップグレードについて CAI が投票する。実際には、コアチーム (Cuckoo Network 開発者) が主要な決定 (チェーンの廃止など) を主導してきたが、彼らはその根拠を透明に共有し、コミュニティの利益のための進化として位置づけている。オンチェーンガバナンス機能 (提案、投票) は、新しいロールアップが導入されたときに実装される可能性が高い。ステーキングはまた、評判システム (信頼できるノードに対するステーク加重投票) を通じて非公式にガバナンスの影響力を与える。
インセンティブモデル貢献に連動したインフレ報酬: ブロックごとに約 1 TAO がパフォーマンスに基づいて参加者に分配される。品質 = より多くの報酬。マイナーとバリデーターは継続的に (ブロックごとに) 稼ぎ、加えてデリゲーターは分け前を得る。TAO はエンドユーザーがサービスを支払うためにも使用され (トークンの需要側を創出)、トークン経済は長期的な参加 (ステーキング) とモデルの絶え間ない改善を奨励するように設計されている。これはビットコインのマイナーに似ているが、「AI をマイニング」する。潜在的な問題 (ステークの集中化が報酬の不整合につながる) は、インセンティブの調整を通じて対処されている。市場主導、成果報酬: 継続的なインフレ利回りはない (初期のインセンティブの可能性を除く)。ソルバーは仕事を成功裏に完了したときにのみ支払いを受ける。ベリファイアは不正を捕まえたときにのみ支払いを受ける (ジャックポットインセンティブ)。これにより直接的な経済が生まれる: 開発者の支出 = プロバイダーの収益。トークンの価値は、計算に対する実際の需要に結びついている。ブートストラップのために、Gensyn はおそらくローンチ時にテストネットユーザーに報酬を与える (一度きりの配布) が、定常状態では使用量ベース。これにより、インセンティブはネットワークのユーティリティと密接に一致する (AI ジョブが増加すれば、トークンの使用量が増加し、すべての保有者に利益をもたらす)。ハイブリッド (インフレから使用料へ移行): 当初、51% のコミュニティプールからのマイニングとステーキングの割り当ては、外部の使用量に関係なく GPU マイナー (供給の 30%) とステーカー (11%) に報酬を与えた。これはネットワーク効果を始動させるためだった。時間とともに、特に L1 廃止後、収益分配に重点が置かれる: マイナーとアプリ開発者は、実際のユーザー支払い (例: 画像生成の手数料を分割) から稼ぐ。ステーカーの利回りは、実際の使用量の一部から得られるか、生産的なノードのみをサポートするように調整される。したがって、初期のインセンティブは「ネットワークを成長させる」 (高い APY、エアドロップ) であり、後には「ネットワークが実際に有用であれば成長する」 (顧客からの収益) となる。この移行は、フリーライダーを排除し、持続可能性を確保するために設計されている。
セキュリティと攻撃緩和策シビル: 高価な登録 (TAO ステーク) がシビルを抑止。共謀: 中央値コンセンサスが 50% のステークまでの共謀に抵抗。dTAO はトークン保有者の投票を強化することでバリデーターの寡頭制を打破。不正: コンセンサスから逸脱するバリデーターは報酬シェアを失う (正直なスコアリングを奨励)。ステークが高度に集中している場合、51% 攻撃が可能 – 研究では、これを軽減するためにステークキャップとパフォーマンススラッシングを追加することが示唆されている。モデル攻撃: 不良または悪意のあるモデルの出力は、低いスコアによって罰せられる。単一障害点なし – ネットワークはグローバルに分散化されている (TAO マイナーは世界中に存在し、擬似匿名的)。シビル: 参加には経済的なステークが必要。ステーク/仕事のない偽のノードは何も得られない。検証: 少なくとも 1 人の正直なベリファイアが必要 – そうであれば、どんな不正な結果も捕らえられ、罰せられる。不正行為が割に合わないようにするために暗号経済学的インセンティブを使用 (ソルバーはデポジットを失い、ベリファイアは得る)。共謀: すべての当事者が共謀しない限り安全 – 1 人の正直者が不正を明らかにすることでスキームを破る。信頼: ハードウェアや企業への信頼に依存せず、経済的なゲーム理論と暗号学にのみ依存。攻撃: タスクが分散されているため、検閲や DoS が困難。攻撃者は正直なノードを上回る入札をするか、一貫して不正証明を打ち破る必要がある (過半数の制御なしではあり得ない)。しかし、微妙なモデルのバックドアは検出を逃れる可能性があり、これは既知の課題 (ユーザーテストと、単なる正しい実行を超えた将来の監査によって軽減される可能性がある)。全体的なセキュリティは、計算のためのオプティミスティックロールアップに類似。シビル: すべてのアクターは CAI をステークする必要があり、シビルのハードルを上げる。加えて、評判システム (ステーキング + 投票) は、評判のないシビルアイデンティティがタスクを得られないことを意味する。ノードの不正行為: コーディネーターはパフォーマンスの悪い、または疑わしいマイナーをドロップできる。ステーカーはサポートを撤回できる。プロトコルは証明された不正に対してステークをスラッシュできる (L1 にはコンセンサスのためのスラッシング条件があった。同様のことがタスクの不正にも適用できる)。共謀: 部分的に信頼ベース – 共謀が支配するのを防ぐために、オープンな競争とコミュニティの監督に依存。タスクと支払いはオンチェーンで公開されているため、露骨な共謀は特定され、社会的にまたはガバナンスを通じて罰せられる可能性がある。ユーザー保護: ユーザーは、1 つが検閲されたり破損したりした場合にプロバイダーを切り替えることができ、単一の制御点がないことを保証。ポイズニング/コンテンツ: 設計上、マイナーは提供されたモデルをそのまま実行する。悪意を持って出力を変更した場合、評判と報酬を失う。システムは合理的なアクターに賭けている: 全員がステークされた価値と将来の収益の可能性を持っているため、ネットワークへの信頼を損なう攻撃からインセンティブを失う (インセンティブをユーティリティと一致させることに関する L1 実験からの重い教訓によって強化されている)。

表: Bittensor、Gensyn、Cuckoo AI のアーキテクチャ、焦点、役割、コンセンサス、トークン、資産のトークン化、ガバナンス、インセンティブ、セキュリティにおける機能比較。

Camp Network:AIの数十億ドル規模の知的財産問題に挑むブロックチェーン 🏕️

· 約6分
Dora Noda
Software Engineer

生成AIの台頭は爆発的と言っても過言ではありません。驚くべきデジタルアートから人間らしいテキストまで、AIは前例のない規模でコンテンツを生成しています。しかし、このブームには暗い側面があります。AIはどこからトレーニングデータを得ているのでしょうか?多くの場合、インターネット上の膨大な領域、すなわち人間が作成したアート、音楽、文章などから取得されており、これらのクリエイターはクレジットや報酬を受け取っていません。

そこで登場するのが Camp Network です。これは単なる暗号プラットフォームではなく、AI時代におけるクリエイターの所有権とコントロールを提供することを目的とした「自律的知的財産レイヤー」です。Camp Network が注目すべきプロジェクトである理由を見ていきましょう。


大きなアイデアは?

Camp Network の本質は、知的財産(IP)をグローバルかつ検証可能なレジストリとして機能するブロックチェーンです。独立したアーティストからソーシャルメディアユーザーまで、誰でも自分のコンテンツをオンチェーンで登録できるようにし、所有権と出所の永続的かつ改ざん不可能な記録を作ります。

なぜ重要なのでしょうか?AI が Camp に登録されたコンテンツを使用した場合、ネットワークのスマートコントラクトが自動的にライセンス条件を適用できます。これにより、元のクリエイターは帰属表示を受け、ロイヤリティが即座に支払われる可能性があります。Camp のビジョンは、報酬が後付けではなく、プロトコル自体に組み込まれた新しいクリエイターエコノミーを構築することです。


技術スタックの裏側

Camp は概念だけではなく、高性能かつ開発者フレンドリーな実装がなされています。

  • モジュラーアーキテクチャ:Camp は Celestia をデータ可用性レイヤーとした主権ロールアップとして構築されています。この設計により、秒間 50,000 トランザクションを目指す高速かつ低コストな動作が可能で、Ethereum のツール(EVM)との完全互換性も保たれます。
  • Proof of Provenance(PoP):Camp 独自のコンセンサスメカニズムです。エネルギー集約型のマイニングに依存せず、ネットワークのセキュリティはコンテンツの出所検証に結び付けられます。各トランザクションが IP の出所を強化し、所有権を「設計上強制可能」にします。
  • デュアル VM 戦略:パフォーマンス最大化のため、Camp は Solana Virtual Machine(SVM) を EVM 互換性と共に統合しています。これにより、開発者はリアルタイム AI インタラクションなど高スループットが求められるユースケースに最適な環境を選択できます。
  • クリエイター & AI ツールキット:Camp は二つの主要フレームワークを提供します
    • Origin Framework:クリエイターが IP を登録し、NFT としてトークン化し、ライセンス規則を埋め込むためのユーザーフレンドリーなシステム。
    • mAItrix Framework:開発者がオンチェーン IP と安全かつ許可制でやり取りできる AI エージェントを構築・デプロイするためのツールキット。

人材・パートナーシップ・進捗

アイデアは実行力が伴って初めて価値がありますが、Camp はその点で順調に進んでいるようです。

チームと資金調達

プロジェクトは The Raine Group(メディア&IP取引)、Goldman SachsFigmaCoinList の経験豊富なメンバーで構成されています。この金融・テック・暗号エンジニアリングの融合により、1kxBlockchain CapitalMaven 11 といったトップ VC から 3,000 万ドル の資金調達に成功しました。

エコシステムの拡大

Camp は積極的にパートナーシップを構築しています。最大のハイライトは KOR Protocol への戦略的出資です。KOR は音楽 IP をトークン化するプラットフォームで、Deadmau5Black Mirror などの大物アーティストと提携しています。この提携により、Camp は権利クリア済みのハイプロファイルコンテンツを大量に取り込むことができます。他の主要パートナーは以下の通りです:

  • RewardedTV:Camp を利用してオンチェーンコンテンツ権利を管理する分散型動画配信プラットフォーム。
  • Rarible:IP 資産の取引を可能にする NFT マーケットプレイス。
  • LayerZero:他ブロックチェーンとの相互運用性を確保するクロスチェーンプロトコル。

ロードマップとコミュニティ

数万人規模のユーザーを惹きつけたインセンティブテストネットキャンペーンを成功させた後、Camp は 2025 年第3四半期のメインネットローンチ を目指しています。ローンチと同時にネイティブトークン $CAMP のトークンジェネレーションイベントが開催され、ガス代、ステーキング、ガバナンスに利用されます。プロジェクトはすでに、ローンチ初日からプラットフォーム上で構築・利用したいという情熱的なコミュニティを育成しています。


競合比較

Camp Network はこの領域で唯一無二というわけではありません。a16z 支援の Story ProtocolSony 連携の Soneium といった競合プロジェクトが存在します。しかし、Camp は以下の点で差別化されています。

  1. ボトムアップアプローチ:競合が大手企業の IP 保有者を対象にするのに対し、Camp はトークンインセンティブを通じて 独立クリエイターや暗号コミュニティ をエンパワーメントします。
  2. 包括的ソリューション:IP レジストリから AI エージェントフレームワークまで、ワンストップで提供するツール群が揃っています。
  3. パフォーマンスとスケーラビリティ:モジュラーアーキテクチャとデュアル VM の組み合わせにより、AI とメディアの高スループット要求に応えられます。

結論

Camp Network は、Web3 時代における知的財産の基盤レイヤーとなる有力な候補です。革新的な技術、強力なチーム、戦略的パートナーシップ、そしてコミュニティ第一の姿勢が組み合わさり、生成 AI がもたらす最も喫緊の課題に対する実用的な解決策を提示しています。

真の試練はメインネットのローンチと実世界での採用です。しかし、これまでの明確なビジョンと堅実な実行力を見る限り、Camp Network はデジタルクリエイターにとってより公平な未来を築く鍵となるプロジェクトであることは間違いありません。

Meet BeFreed.ai – BlockEden.xyz ビルダーのための学習燃料

· 約5分
Dora Noda
Software Engineer

なぜ BlockEden.xyz が関心を持つのか

Web3 のスピードが命の世界では、迅速さがすべてです。プロダクションレベルの RPC やステーキングインフラを提供するため、私たちのチームとコミュニティは常にイノベーションの最前線に立ち続けなければなりません。つまり、密度の高いプロトコル、画期的な暗号論文、急速に変化するガバナンススレッドを把握し続ける必要があります。コミュニティが新しいアイデアを早く吸収し理解できれば、次世代の分散型アプリケーションをより速く構築できます。ここで BeFreed.ai の出番です。

BeFreed.ai とは何か

BeFreed.ai はサンフランシスコ拠点のスタートアップで、シンプルながら強力なミッションを掲げています。AI 時代に学習を楽しく、個人的なものにすることです。彼らは、ビルダーやクリエイターの過酷なライフスタイルに合わせたインテリジェントなマイクロラーニングコンパニオンを開発しました。

コア要素

  • 複数フォーマット → ワンクリック: BeFreed.ai は長大な書籍や詳細な動画、複雑な技術文書まで、幅広いコンテンツを瞬時に要約、フラッシュカード、詳細ノート、さらにはポッドキャスト形式の音声へと変換します。
  • 適応エンジン: プラットフォームは利用者と共に学習します。学習速度や関心に注意を払い、次に提示する情報を最も関連性の高いものに絞ります。画一的なカリキュラムを強制しません。
  • 組み込みチャット & 「なぜこれ」エクスプラナー: 質問がありますか? すぐに聞くだけで OK。BeFreed.ai はその場で複雑なトピックを明確にし、新たな洞察を全体的な目標に結びつけて説明します。学習プロセスがより意味深いものになります。
  • 4.3万人規模の学習コミュニティ: 学習はしばしば共同作業です。BeFreed.ai は 43,000 人以上の学習者が進捗を共有し、洞察に反応し、重要なポイントをハイライトする活気あるコミュニティを育み、モチベーションと勢いを保ちます。

BlockEden.xyz ビルダーにとっての重要性

BlockEden.xyz エコシステムの献身的なビルダーにとって、BeFreed.ai は単なる学習ツールではなく、戦略的優位性です。以下のようにエッジを研ぎ澄ますことができます。

  • 時間のレバレッジ: 300 ページのホワイトペーパーを 10 分間の音声ブリーフに変換し、重要なガバナンス投票の前に聞くことができます。
  • コンテキスト保持: フラッシュカードやマインドマップを使って、スマートコントラクトインデックス作成時に必要なプロトコル詳細を確実に定着させます。
  • クロススキル成長: 開発環境を離れることなくスキルセットを拡張。デザイン思考の基礎、グロースループの理解、Go の並行処理のヒントなどをダウンタイムに取得できます。
  • 共通語彙: チームレベルのプレイリストを作成し、全員が同じ要約・一貫した情報源から学ぶことで、協働とアラインメントが向上します。

BeFreed.ai を BlockEden.xyz のワークフローに組み込む

BeFreed.ai を既存の開発プロセスに統合するのはシームレスで、すぐに効果が現れます。

  1. スペックを投入: 最新のトークノミクス PDF や YouTube の開発者コールの URL を BeFreed に貼り付け、即座に消化しやすい要約を取得。
  2. フラッシュカードをエクスポート: CI 実行中に重要概念を復習。コンテキストスイッチの疲労よりもはるかに効果的な反復学習が可能です。
  3. ドキュメントにリンク: 各 API リファレンス横に BeFreed の要約 URL を埋め込み、新メンバーが迅速にキャッチアップできるようにします。
  4. 最新情報を保持: 新興 L2 に関する週次ダイジェストを BeFreed で設定し、得た知識を BlockEden.xyz のマルチチェーン RPC サービスで即座にプロトタイピングに活かします。

はじめに

BeFreed.ai は iOS、Android、Web で利用可能です。次の BlockEden.xyz プロジェクトスプリントでぜひ試してみて、学習と構築の速度がどれだけ向上するか体感してください。私たちのチームはすでにより緊密な統合を検討中です—例えば、マージされた PR の説明を自動的に包括的な学習セットに変換する Webhook など、未来を想像してください。

MCP を通じた AI と Web3 の接続:全体像の分析

· 約21分
Dora Noda
Software Engineer

はじめに

AI と Web3 は強力な方法で融合しており、現在では AI 汎用インターフェースが分散型ウェブの結合組織として構想されています。この融合から生まれた重要な概念が MCP であり、これは (Anthropic によって導入された) 「モデルコンテキストプロトコル」の略称であるか、より広範な議論では メタバース接続プロトコルとして緩やかに説明されています。本質的に、MCP は AI システムが外部ツールやネットワークと自然で安全な方法でインターフェースするための標準化されたフレームワークであり、潜在的には AI エージェントを Web3 エコシステムの隅々まで「プラグイン」 することを可能にします。このレポートでは、AI 汎用インターフェース (大規模言語モデルエージェントやニューラルシンボリックシステムなど) が MCP を介して Web3 の世界にあるすべてを接続する方法について、歴史的背景、技術アーキテクチャ、業界の状況、リスク、そして将来の可能性を網羅的に分析します。

1. 開発の背景

1.1 Web3 の進化と未実現の約束

「Web3」という言葉は、ブロックチェーンを動力源とする分散型ウェブを説明するために 2014 年頃に作られました。そのビジョンは野心的なものでした:ユーザー所有権を中心としたパーミッションレスなインターネットです。熱狂的な支持者たちは、Web2 の中央集権的なインフラをブロックチェーンベースの代替手段、例えば Ethereum Name Service (DNS の代替)、Filecoin や IPFS (ストレージの代替)、そして DeFi (金融インフラの代替) に置き換えることを想像しました。理論上、これにより巨大テックプラットフォームからコントロールを奪い、個人にデータ、アイデンティティ、資産に対する自己主権を与えるはずでした。

現実は期待に届きませんでした。 長年の開発と誇大広告にもかかわらず、Web3 の主流への影響は限定的でした。平均的なインターネットユーザーは、分散型ソーシャルメディアに殺到したり、プライベートキーの管理を始めたりはしませんでした。主な理由としては、劣悪なユーザーエクスペリエンス、遅くて高価なトランザクション、注目を集めた詐欺事件、そして規制の不確実性が挙げられます。分散型の「所有権ウェブ」は、ニッチなコミュニティを超えて**「実現に失敗した」**と広く見なされています。2020 年代半ばには、暗号資産の支持者でさえ、Web3 が平均的なユーザーにパラダイムシフトをもたらさなかったことを認めました。

一方、AI は革命の最中にありました。資本と開発者の才能が暗号資産から AI へと移行するにつれて、ディープラーニングと基盤モデル (GPT-3, GPT-4 など) の変革的な進歩が一般の人々の想像力を捉えました。生成 AI は、暗号資産アプリケーションが苦戦していた方法で、コンテンツ、コード、意思決定を生み出すという明確な実用性を示しました。実際、大規模言語モデルがわずか数年で与えた影響は、ブロックチェーンの 10 年間のユーザー採用を著しく上回りました。この対照的な状況から、「Web3 は暗号資産に浪費された」、そして真の Web 3.0 は AI の波から生まれている、と揶揄する声も上がりました。

1.2 AI 汎用インターフェースの台頭

数十年にわたり、ユーザーインターフェースは静的なウェブページ (Web1.0) からインタラクティブなアプリ (Web2.0) へと進化しましたが、常にボタンをクリックしたりフォームに入力したりするという制約の中にありました。現代の AI、特に大規模言語モデル (LLM) の登場により、新しいインターフェースのパラダイムが生まれました:自然言語です。ユーザーは平易な言葉で意図を表現するだけで、AI システムが多くのドメインにわたって複雑なアクションを実行できるようになりました。この変化は非常に profound であり、一部では 「Web 3.0」を以前のブロックチェーン中心の定義ではなく、AI 駆動エージェントの時代 (「エージェントウェブ」) として再定義することが提案されています。

しかし、自律型 AI エージェントの初期の実験では、重大なボトルネックが露呈しました。これらのエージェント (例えば AutoGPT のようなプロトタイプ) はテキストやコードを生成できましたが、外部システムや相互に通信するための堅牢な方法を欠いていました。相互運用性のための*「共通の AI ネイティブ言語」*が存在しなかったのです。ツールやデータソースとの各統合は特注のハックであり、AI 同士の対話には標準プロトコルがありませんでした。実際には、AI エージェントは優れた推論能力を持っていても、ウェブアプリやオンチェーンサービスを使用する必要があるタスクの実行に失敗することがありました。それは単に、それらのシステムと「対話する」方法を知らなかったからです。この不一致 (強力な頭脳、原始的な I/O) は、まるで不器用な GUI の背後に閉じ込められた超賢いソフトウェアのようでした。

1.3 融合と MCP の出現

2024 年までに、AI がその潜在能力を最大限に発揮し (そして Web3 がその約束を果たす) ためには、融合が必要であることが明らかになりました:AI エージェントは Web3 の能力 (分散型アプリ、コントラクト、データ) へのシームレスなアクセスを必要とし、Web3 は AI が提供できるより多くの知性と使いやすさを必要としています。これが MCP (モデルコンテキストプロトコル) が生まれた背景です。2024 年後半に Anthropic によって導入された MCP は、LLM にとって自然に感じられる AI とツールの通信のためのオープンスタンダードです。これは、AI「ホスト」(ChatGPT, Claude など) が MCP サーバーを介してさまざまな外部ツールやリソースを見つけて使用するための、構造化され発見可能な方法を提供します。言い換えれば、MCP は、AI エージェントがウェブサービス、API、さらにはブロックチェーン機能に、各統合をカスタムコーディングすることなくプラグインできるようにする共通のインターフェースレイヤーです。

MCP を 「AI インターフェースの USB-C」 と考えてみてください。USB-C がデバイスの接続方法を標準化したように (各デバイスに異なるケーブルが不要になったように)、MCP は AI エージェントがツールやデータに接続する方法を標準化します。開発者は、各サービス (Slack vs. Gmail vs. Ethereum ノード) ごとに異なる API コールをハードコーディングする代わりに、MCP 仕様を一度実装すれば、MCP 互換の AI はそのサービスの使い方を理解できます。主要な AI プレイヤーはすぐにその重要性を認識しました:Anthropic は MCP をオープンソース化し、OpenAI や Google のような企業は自社のモデルでそのサポートを構築しています。この勢いは、MCP (または類似の 「メタ接続プロトコル」) が、ついに AI と Web3 をスケーラブルな方法で接続するバックボーンになる可能性を示唆しています。

特筆すべきは、一部の技術者が、この AI 中心の接続性こそが Web3.0 の真の実現であると主張していることです。Simba Khadder の言葉を借りれば、「MCP は LLM とアプリケーション間の API を標準化することを目指しており」、これは REST API が Web 2.0 を可能にしたのと同様です。つまり、Web3 の次の時代は、単なるブロックチェーンではなく、インテリジェントなエージェントインターフェースによって定義されるかもしれません。分散化そのものを目的とするのではなく、AI との融合によって、自然言語と自律エージェントの背後に複雑さを隠すことで、分散化を有用なものにすることができるのです。このレポートの残りの部分では、AI 汎用インターフェースが (MCP のようなプロトコルを介して) Web3 の世界にあるすべてを接続する方法について、技術的および実践的に掘り下げていきます。

2. 技術アーキテクチャ:Web3 技術を橋渡しする AI インターフェース

AI エージェントを Web3 スタックに組み込むには、ブロックチェーンネットワークとスマートコントラクト、分散型ストレージ、アイデンティティシステム、トークンベースの経済など、複数のレベルでの統合が必要です。大規模な基盤モデルからハイブリッドなニューラルシンボリックシステムまで、AI 汎用インターフェースは、これらのコンポーネントを接続する**「ユニバーサルアダプター」**として機能します。以下では、そのような統合のアーキテクチャを分析します:

図:MCP のアーキテクチャの概念図。AI ホスト (Claude や ChatGPT のような LLM ベースのアプリ) が MCP クライアントを使用して、さまざまな MCP サーバーにプラグインする様子を示しています。各サーバーは、外部ツールやサービス (例:Slack, Gmail, カレンダー, ローカルデータ) へのブリッジを提供し、これはユニバーサルハブを介して接続される周辺機器に類似しています。この標準化された MCP インターフェースにより、AI エージェントは一つの共通プロトコルを通じてリモートサービスやオンチェーンリソースにアクセスできます。

2.1 Web3 クライアントとしての AI エージェント (ブロックチェーンとの統合)

Web3 の中核には、ブロックチェーンとスマートコントラクトがあります。これらは、トラストレスな方法でロジックを強制できる分散型ステートマシンです。AI インターフェースはこれらとどのように関わることができるでしょうか?考慮すべき 2 つの方向性があります:

  • AI がブロックチェーンから読み取る: AI エージェントは、意思決定のコンテキストとしてオンチェーンデータ (例:トークン価格、ユーザーの資産残高、DAO の提案) を必要とする場合があります。従来、ブロックチェーンデータを取得するには、ノードの RPC API やサブグラフデータベースとのインターフェースが必要でした。MCP のようなフレームワークを使用すると、AI は標準化された*「ブロックチェーンデータ」* MCP サーバーにクエリを送信して、ライブのオンチェーン情報を取得できます。例えば、MCP 対応エージェントは、特定のトークンの最新の取引量を尋ねたり、スマートコントラクトの状態を問い合わせたりすることができ、MCP サーバーはブロックチェーンへの接続の低レベルな詳細を処理し、AI が使用できる形式でデータを返します。これにより、AI を特定のブロックチェーンの API 形式から切り離すことで、相互運用性が向上します。

  • AI がブロックチェーンに書き込む: より強力な機能として、AI エージェントは Web3 統合を通じてスマートコントラクトの呼び出しやトランザクションを実行できます。例えば、AI は分散型取引所で自律的に取引を実行したり、特定の条件が満たされた場合にスマートコントラクトのパラメータを調整したりすることができます。これは、AI がブロックチェーンのトランザクション機能をラップした MCP サーバーを呼び出すことで実現されます。具体的な例の一つは、EVM チェーン用の thirdweb MCP サーバーで、これにより MCP 互換の AI クライアントは、チェーン固有のメカニズムを抽象化することで、Ethereum, Polygon, BSC などと対話できます。このようなツールを使用すると、AI エージェントは*「人間の介入なしに」*オンチェーンアクションをトリガーでき、自律的な dApps を可能にします。例えば、市場状況が変化したときにトランザクションに署名して自己リバランスを行う AI 駆動の DeFi ボールトなどです。

内部的には、これらの対話は依然としてウォレット、キー、ガス代に依存しますが、AI インターフェースには (適切なセキュリティサンドボックスを備えた) ウォレットへの制御されたアクセス権が与えられ、トランザクションを実行できます。オラクルやクロスチェーンブリッジも重要な役割を果たします:Chainlink のようなオラクルネットワークは AI とブロックチェーンの間のブリッジとして機能し、AI の出力を信頼できる方法でオンチェーンに供給できます。例えば、Chainlink のクロスチェーン相互運用性プロトコル (CCIP) は、信頼できると見なされた AI モデルが、ユーザーに代わって複数の異なるチェーンにまたがる複数のコントラクトを同時にトリガーすることを可能にします。要約すると、AI 汎用インターフェースは、標準化されたプロトコルを通じてブロックチェーンデータを消費し、ブロックチェーンのトランザクションを生成できる、新しいタイプの Web3 クライアントとして機能できます。

2.2 ニューラルシンボリックの相乗効果:AI の推論とスマートコントラクトの組み合わせ

AI と Web3 の統合における興味深い側面の一つは、AI の学習能力 (ニューラルネット) とスマートコントラクトの厳密なロジック (シンボリックルール) を組み合わせたニューラルシンボリックアーキテクチャの可能性です。実際には、これは AI エージェントが非構造化された意思決定を処理し、特定のタスクを検証可能な実行のためにスマートコントラクトに渡すことを意味する可能性があります。例えば、AI が市場センチメントを分析し (曖昧なタスク)、その後、事前に設定されたリスクルールに従う決定論的なスマートコントラクトを介して取引を実行する、といった具合です。MCP フレームワークと関連する標準は、AI にコントラクト関数を呼び出したり、行動する前に DAO のルールを問い合わせたりするための共通のインターフェースを提供することで、このような引き継ぎを可能にします。

具体的な例として、SingularityNET の AI-DSL (AI ドメイン固有言語) があります。これは、彼らの分散型ネットワーク上の AI エージェント間の通信を標準化することを目指しています。これはニューラルシンボリック統合への一歩と見なすことができます:エージェントが互いに AI サービスやデータを要求するための形式言語 (シンボリック) です。同様に、DeepMind の AlphaCode のようなプロジェクトも、最終的にはスマートコントラクトがオンチェーンでの問題解決のために AI モデルを呼び出せるように接続される可能性があります。現在、大規模な AI モデルを直接オンチェーンで実行することは非現実的ですが、ハイブリッドなアプローチが登場しています。例えば、特定のブロックチェーンでは、ゼロ知識証明や信頼できる実行環境を介して ML 計算の検証が可能であり、オフチェーンの AI 結果のオンチェーン検証を可能にしています。要約すると、技術アーキテクチャは、AI システムとブロックチェーンのスマートコントラクトを補完的なコンポーネントとして想定しており、共通のプロトコルを介して編成されます:AI は知覚とオープンエンドなタスクを処理し、ブロックチェーンは完全性、メモリ、および合意されたルールの強制を提供します。

2.3 AI のための分散型ストレージとデータ

AI はデータを糧としており、Web3 はデータストレージと共有のための新しいパラダイムを提供します。分散型ストレージネットワーク (IPFS/Filecoin, Arweave, Storj など) は、AI モデルのアーティファクトのリポジトリとしても、トレーニングデータのソースとしても機能し、ブロックチェーンベースのアクセス制御を備えています。AI 汎用インターフェースは、MCP などを通じて、Web2 API からと同じくらい簡単に分散型ストレージからファイルや知識を取得できます。例えば、AI エージェントは、適切なキーや支払いがあれば、Ocean Protocol の市場からデータセットを、または分散型ストレージから暗号化されたファイルを取得することができます。

特に Ocean Protocol は、自らを**「AI データ経済」プラットフォームとして位置づけており、ブロックチェーンを使用してデータや AI サービスさえもトークン化**しています。Ocean では、データセットはアクセスをゲートするデータトークンによって表現されます。AI エージェントはデータトークンを取得し (おそらく暗号資産で支払うか、何らかのアクセス権を介して)、その後 Ocean MCP サーバーを使用して実際のデータを分析のために取得できます。Ocean の目標は、プライバシーを保護しながら共有を奨励することで、AI のために「休眠中のデータ」を解き放つことです。したがって、Web3 に接続された AI は、以前はサイロ化されていた、個人のデータ保管庫からオープンな政府データまで、広大で分散化された情報コーパスにアクセスできる可能性があります。ブロックチェーンは、データの使用が透明であり、公正に報酬が支払われることを保証し、より多くのデータが AI に利用可能になり、より多くの AI の貢献 (訓練済みモデルなど) が収益化されるという好循環を促進します。

分散型アイデンティティシステムもここで役割を果たします (次のサブセクションで詳しく説明します):これらは、誰または何が特定のデータにアクセスできるかを制御するのに役立ちます。例えば、医療 AI エージェントは、患者の個人 IPFS ストレージから医療データセットを復号化する前に、検証可能なクレデンシャル (HIPAA または同様の規制への準拠のオンチェーン証明) を提示する必要があるかもしれません。このようにして、技術アーキテクチャは、データが AI に流れることを保証しつつ、オンチェーンのガバナンスと監査証跡によって権限を強制します。

2.4 分散環境におけるアイデンティティとエージェント管理

自律型 AI エージェントが Web3 のようなオープンなエコシステムで活動する場合、アイデンティティと信頼が最も重要になります。分散型アイデンティティ (DID) フレームワークは、暗号学的に検証可能な AI エージェントのデジタルアイデンティティを確立する方法を提供します。各エージェント (またはそれを展開する人間/組織) は、DID と、その属性と権限を特定する関連する検証可能なクレデンシャルを持つことができます。例えば、AI 取引ボットは、特定の制限内で運用できることを証明する規制サンドボックスによって発行されたクレデンシャルを保持することができます。また、AI コンテンツモデレーターは、信頼できる組織によって作成され、バイアステストを受けたことを証明できます。

オンチェーンのアイデンティティレジストリと評判システムを通じて、Web3 の世界は AI の行動に対する説明責任を強制できます。AI エージェントが実行するすべてのトランザクションは、その ID にまで追跡でき、何か問題が発生した場合、クレデンシャルは誰がそれを作成したか、または誰が責任を負うかを教えてくれます。これは重大な課題に対処します:アイデンティティがなければ、悪意のある攻撃者が偽の AI エージェントを立ち上げてシステムを悪用したり、誤情報を広めたりする可能性があり、誰もボットと正当なサービスを区別できません。分散型アイデンティティは、堅牢な認証を可能にし、本物の AI エージェントと偽物を区別することで、そのリスクを軽減します。

実際には、Web3 と統合された AI インターフェースは、アイデンティティプロトコルを使用してその行動と要求に署名します。例えば、AI エージェントが MCP サーバーを呼び出してツールを使用する際、その分散型アイデンティティに紐づいたトークンや署名を含めることで、サーバーは呼び出しが承認されたエージェントからのものであることを検証できます。ブロックチェーンベースのアイデンティティシステム (Ethereum の ERC-725 や台帳にアンカーされた W3C DID など) は、この検証がトラストレスでグローバルに検証可能であることを保証します。**「AI ウォレット」**という新しい概念もこれに関連しています。これは本質的に、AI エージェントにアイデンティティにリンクされた暗号資産ウォレットを与え、キーの管理、サービスの支払い、または (不正行為に対して没収される可能性のある) 債券としてのトークンのステーキングを可能にするものです。例えば、ArcBlock は、*「AI エージェントにはウォレットが必要」*であり、分散環境で責任を持って活動するためには DID が必要であると議論しています。

要約すると、技術アーキテクチャは、AI エージェントを Web3 のファーストクラス市民として想定しており、それぞれがオンチェーンのアイデンティティとおそらくシステムへのステークを持ち、MCP のようなプロトコルを使用して対話します。これにより信頼のウェブが生まれます:スマートコントラクトは協力する前に AI のクレデンシャルを要求でき、ユーザーは特定のオンチェーン認証を満たす AI にのみタスクを委任することを選択できます。これは、AI の能力とブロックチェーンの信頼保証の融合です。

2.5 AI のためのトークン経済とインセンティブ

トークン化は Web3 の特徴であり、AI 統合の領域にも及びます。トークンを介して経済的インセンティブを導入することで、ネットワークは AI 開発者とエージェント自身の両方から望ましい行動を奨励できます。いくつかのパターンが現れています:

  • サービスへの支払い: AI モデルとサービスはオンチェーンで収益化できます。SingularityNET は、開発者が AI サービスを展開し、各呼び出しに対してネイティブトークン (AGIX) でユーザーに課金できるようにすることで、これを先駆けました。MCP が有効になった未来では、あらゆる AI ツールやモデルがプラグアンドプレイのサービスとなり、その使用がトークンやマイクロペイメントを介して計測されることが想像できます。例えば、AI エージェントが MCP を介してサードパーティのビジョン API を使用する場合、サービスプロバイダーのスマートコントラクトにトークンを転送することで、自動的に支払いを処理できます。Fetch.ai も同様に、*「自律型経済エージェント」*がサービスやデータを取引する市場を構想しており、新しい Web3 LLM (ASI-1) は価値交換のために暗号資産トランザクションを統合すると考えられます。

  • ステーキングと評判: 品質と信頼性を保証するために、一部のプロジェクトでは開発者やエージェントにトークンのステーキングを要求します。例えば、DeMCP プロジェクト (分散型 MCP サーバーマーケットプレイス) は、有用な MCP サーバーを作成した開発者に報酬を与えるためにトークンインセンティブを使用し、サーバーのセキュリティへのコミットメントの証としてトークンをステークさせることを計画しています。評判もトークンに結びつけられる可能性があります。例えば、一貫して優れた

zkMLと暗号学的証明による検証可能なオンチェーンAI

· 約53分
Dora Noda
Software Engineer

イントロダクション:ブロックチェーン上で検証可能なAIの必要性

AIシステムの影響力が増すにつれて、その出力が信頼できるものであることを保証することが重要になります。従来のメソッドは制度的な保証(本質的には 「ただ信頼してください」)に依存しており、暗号学的な保証は提供されません。これは、スマートコントラクトやユーザーが、重いモデルをオンチェーンで再実行することなくAI由来の結果を信頼しなければならないブロックチェーンのような分散型コンテキストでは特に問題となります。ゼロ知識機械学習 (zkML) は、ML計算の 暗号学的な検証 を可能にすることでこの問題に対処します。本質的に、zkMLはプルーバーが 「出力 $Y$ は、入力 $X$ に対してモデル $M$ を実行した結果である」 という簡潔な証明を、$X$ や $M$ の内部詳細を 明かすことなく 生成することを可能にします。これらのゼロ知識証明 (ZKP) は、誰でも(あるいはどのコントラクトでも)効率的に検証でき、AIへの信頼を 「ポリシーから証明へ」 と移行させます。

AIのオンチェーン検証可能性とは、ブロックチェーンが計算自体を実行する代わりに、正しい実行の証明を検証することによって、高度な計算(ニューラルネットワークの推論など)を組み込むことができることを意味します。これには広範な影響があります。スマートコントラクトはAIの予測に基づいて意思決定を行うことができ、分散型自律エージェントはアルゴリズムに従ったことを証明でき、クロスチェーンまたはオフチェーンの計算サービスは検証不可能なオラクルではなく 検証可能な出力 を提供できます。最終的に、zkMLは トラストレスでプライバシーを保護するAI への道を提供します。例えば、AIモデルの決定が正しく、承認されていることを、プライベートデータや独自のモデルの重みを公開することなく証明できます。これは、安全な医療分析からブロックチェーンゲーム、DeFiオラクルまで、幅広いアプリケーションにとって鍵となります。

zkMLの仕組み:ML推論を簡潔な証明に圧縮する

大まかに言うと、zkMLは暗号学的証明システムとML推論を組み合わせることで、複雑なモデル評価を小さな証明に「圧縮」できるようにします。内部的には、MLモデル(例:ニューラルネットワーク)は、多くの算術演算(行列乗算、活性化関数など)からなるサーキットまたはプログラムとして表現されます。すべての中間値を公開する代わりに、プルーバーはオフチェーンで完全な計算を実行し、その後 ゼロ知識証明プロトコル を使用して、すべてのステップが正しく行われたことを証明します。ベリファイアは、証明といくつかの公開データ(最終出力やモデルの識別子など)のみを与えられ、モデルを再実行することなく、その正当性を 暗号学的に確信 することができます。

これを達成するために、zkMLフレームワークは通常、モデルの計算をZKPに適した形式に変換します:

  • サーキットコンパイル: SNARKベースのアプローチでは、モデルの計算グラフは 算術サーキット または多項式制約の集合にコンパイルされます。ニューラルネットワークの各層(畳み込み、行列乗算、非線形活性化)は、入力に対して出力が正しいことを保証する制約を持つサブサーキットになります。ニューラルネットワークには、多項式に自然に適さない非線形演算(ReLU、Sigmoidなど)が含まれるため、これらを効率的に処理するために ルックアップテーブル のような技術が使用されます。例えば、ReLU(出力 = max(0, 入力))は、input≥0の場合は出力が入力と等しく、それ以外はゼロであることを検証するカスタム制約またはルックアップによって強制できます。最終結果は、プルーバーが満たさなければならない暗号学的制約の集合であり、これによりモデルが正しく実行されたことが暗黙的に証明されます。
  • 実行トレースと仮想マシン: 別の方法は、zkVM アプローチで行われるように、モデルの推論をプログラムトレースとして扱うことです。例えば、JOLT zkVMはRISC-V命令セットを対象としています。MLモデル(またはそれを計算するコード)をRISC-Vにコンパイルし、各CPU命令が適切に実行されたことを証明できます。JOLTは 「ルックアップ特異点」 技術を導入し、高価な算術制約を、各有効なCPU操作のための高速なテーブルルックアップに置き換えます。すべての操作(加算、乗算、ビット単位演算など)は、事前計算された有効な結果の巨大なテーブルでのルックアップを介してチェックされ、これを効率的に保つために特殊な引数(Lasso/SHOUT)が使用されます。これにより、プルーバーの作業負荷が劇的に削減されます。複雑な64ビット操作でさえ、多くの算術制約の代わりに、証明内で単一のテーブルルックアップになります。
  • 対話型プロトコル (GKRサムチェック): 3番目のアプローチは、GKR(Goldwasser–Kalai–Rotblum)のような対話型証明を使用して、層状の計算を検証します。ここでは、モデルの計算は層状の算術サーキットとして見なされます(各ニューラルネットワーク層はサーキットグラフの1つの層です)。プルーバーは通常通りモデルを実行しますが、その後、各層の出力がその入力に対して正しいことを証明するために サムチェックプロトコル に参加します。Lagrangeのアプローチ(DeepProve、次に詳述)では、プルーバーとベリファイアは、各層の計算を再実行することなく、その一貫性をチェックする対話型多項式プロトコル(Fiat-Shamirヒューリスティックにより非対話型にされる)を実行します。このサムチェックメソッドは、一枚岩の静的サーキットを生成するのを避け、代わりに最小限の暗号操作(主にハッシュ化または多項式評価)で段階的に 計算の一貫性 を検証します。

どのアプローチであっても、結果は推論全体の正当性を証明する 簡潔な証明(通常は数キロバイトから数十キロバイト)です。この証明は ゼロ知識 であり、秘密の入力(プライベートデータやモデルパラメータ)を隠しておくことができることを意味します。それらは証明に影響を与えますが、ベリファイアには公開されません。意図された公開出力または表明のみが公開されます。これにより、「モデル $M$ を患者データ $X$ に適用すると診断 $Y$ が得られることを、$X$ やモデルの重みを公開せずに証明する」 といったシナリオが可能になります。

オンチェーン検証の実現: 証明が生成されると、ブロックチェーンに投稿できます。スマートコントラクトには、プリコンパイルされた暗号プリミティブを使用して、証明をチェックするための検証ロジックを含めることができます。例えば、Ethereumには多くのzk-SNARKベリファイアで使用されるBLS12-381ペアリング操作のためのプリコンパイルがあり、SNARK証明のオンチェーン検証を効率的にします。STARK(ハッシュベースの証明)はサイズが大きくなりますが、慎重な最適化や、場合によってはいくつかの信頼の仮定(例えば、StarkWareのL2は、SNARKよりも高いガス代がかかるものの、オンチェーンのベリファイアコントラクトによってEthereum上でSTARK証明を検証します)によって、オンチェーンで検証することが可能です。重要なのは、チェーンがMLモデルを実行する必要がなく、元の計算よりも はるかに安価な 検証のみを実行する点です。要約すると、zkMLは 高価なAI推論を、ブロックチェーン(または任意のベリファイア)がミリ秒から数秒でチェックできる小さな証明に圧縮します

Lagrange DeepProve:zkMLのブレークスルーのアーキテクチャとパフォーマンス

Lagrange Labsによる DeepProve は、速度とスケーラビリティに焦点を当てた最先端のzkML推論フレームワークです。2025年に発表されたDeepProveは、Ezklのような以前のソリューションよりも劇的に高速な新しい証明システムを導入しました。その設計は、サムチェック付きGKR対話型証明プロトコル とニューラルネットワークサーキット向けの特殊な最適化を中心にしています。以下にDeepProveの仕組みとそのパフォーマンス達成方法を説明します:

  • ワンタイム前処理: 開発者は、訓練済みのニューラルネットワーク(現在サポートされているタイプには、多層パーセプトロンや一般的なCNNアーキテクチャが含まれます)から始めます。モデルは標準的なグラフ表現であるONNX形式にエクスポートされます。次に、DeepProveのツールがONNXモデルを解析し、効率的な体演算のために 量子化(重みを固定小数点/整数形式に変換)します。この段階で、暗号プロトコルのための証明鍵と検証鍵も生成します。このセットアップはモデルごとに1回行われ、推論ごとに繰り返す必要はありません。DeepProveは統合の容易さを強調しています:「モデルをONNXにエクスポート → ワンタイムセットアップ → 証明を生成 → どこでも検証」

  • 証明 (推論 + 証明生成): セットアップ後、プルーバー(ユーザー、サービス、またはLagrangeの分散型プルーバーネットワークによって実行可能)は新しい入力 $X$ を受け取り、それに対してモデル $M$ を実行して出力 $Y$ を得ます。この実行中、DeepProveは各層の計算の 実行トレース を記録します。SNARKアプローチのようにすべての乗算を事前に静的サーキットに変換するのではなく、DeepProveは 線形時間のGKRプロトコル を使用して各層をその場で検証します。各ネットワーク層について、プルーバーは層の入力と出力にコミットし(例えば、暗号学的ハッシュや多項式コミットメントを介して)、その後、出力が層の関数に従って入力から実際に得られたものであることを証明するためにサムチェック引数に参加します。サムチェックプロトコルは、実際の値を明らかにすることなく、層の計算をエンコードする多項式の評価の合計の正しさをベリファイアに繰り返し納得させます。非線形操作(ReLU、softmaxなど)は、DeepProveでは ルックアップ引数 を通じて効率的に処理されます。活性化関数の出力が計算された場合、DeepProveは各出力がその関数のために事前計算されたテーブルからの有効な入力-出力ペアに対応することを証明できます。層ごとに証明が生成され、その後、モデル全体のフォワードパスをカバーする 1つの簡潔な証明に集約 されます。暗号技術の重い処理は最小限に抑えられます。DeepProveのプルーバーは、巨大な制約システムを解くのではなく、主に通常の数値計算(実際の推論)といくつかの軽い暗号コミットメントを実行します。

  • 検証: ベリファイアは、最終的な簡潔な証明といくつかの公開値(通常はモデルのコミットされた識別子($M$ の重みへの暗号コミットメント)、入力 $X$(プライベートでない場合)、および主張された出力 $Y$)を使用して正しさをチェックします。DeepProveのシステムでの検証には、サムチェックプロトコルのトランスクリプトと最終的な多項式またはハッシュコミットメントの検証が含まれます。これは古典的なSNARKの検証(数回のペアリングかもしれない)よりも複雑ですが、モデルを再実行するよりもはるかに安価 です。Lagrangeのベンチマークでは、中規模のCNNに対するDeepProve証明の検証には、ソフトウェアで 0.5秒 程度かかります。これは、例えば、数十万のパラメータを持つ畳み込みネットワークが正しく実行されたことを確認するのに約0.5秒かかることを意味し、検証のためにGPUでそのCNNをナイーブに再計算するよりも 500倍以上高速 です。(実際、DeepProveはCNNで最大 521倍、MLPで 671倍 の検証高速化を再実行と比較して測定しました。)証明サイズはオンチェーンで送信するのに十分小さく(数十KB)、検証は必要であればスマートコントラクトで実行できますが、0.5秒の計算には慎重なガス最適化またはレイヤー2での実行が必要になるかもしれません。

アーキテクチャとツール: DeepProveはRustで実装されており、開発者向けにツールキット(zkml ライブラリ)を提供しています。ONNXモデルグラフをネイティブにサポートしているため、PyTorchやTensorFlowからのモデル(エクスポート後)と互換性があります。証明プロセスは現在、数百万パラメータまでのモデルを対象としています(テストには400万パラメータの密結合ネットワークが含まれます)。DeepProveは、多線形多項式コミットメント(層の出力にコミットするため)、計算を検証するためのサムチェックプロトコル、非線形操作のためのルックアップ引数など、暗号コンポーネントの組み合わせを活用しています。特筆すべきは、Lagrangeのオープンソースリポジトリが、以前の研究(ScrollのCenoプロジェクトからのサムチェックとGKRの実装)に基づいていることを認めており、zkMLとゼロ知識ロールアップ研究の交差点を示していることです。

リアルタイムのスケーラビリティを達成するために、LagrangeはDeepProveをその プルーバーネットワーク(特殊なZKプルーバーの分散型ネットワーク)と組み合わせています。重い証明生成はこのネットワークにオフロードできます。アプリケーションが推論の証明を必要とするとき、ジョブをLagrangeのネットワークに送信し、そこで多くのオペレーター(セキュリティのためにEigenLayerにステークされている)が証明を計算して結果を返します。このネットワークは、信頼性の高い証明生成を経済的にインセンティブ付けします(悪意のあるまたは失敗したジョブはオペレーターをスラッシングします)。プルーバー間で作業を分散させることで(そして潜在的にGPUやASICを活用することで)、Lagrangeプルーバーネットワーク はエンドユーザーから複雑さとコストを隠します。その結果、高速でスケーラブル、かつ分散型のzkMLサービスが実現します:「検証可能なAI推論を高速かつ手頃な価格で」

パフォーマンスのマイルストーン: DeepProveの主張は、以前の最先端技術であるEzklに対するベンチマークによって裏付けられています。約26.4万パラメータを持つCNN(CIFAR-10スケールのモデル)に対して、DeepProveの証明時間は約1.24秒であったのに対し、Ezklでは 約196秒 であり、約 158倍高速 でした。400万パラメータを持つより大きな密結合ネットワークでは、DeepProveは約2.3秒で推論を証明したのに対し、Ezklでは約126.8秒(約54倍高速)でした。検証時間も短縮されました。DeepProveは26.4万CNNの証明を約0.6秒で検証しましたが、Ezklの証明(Halo2ベース)をCPUで検証するにはそのテストで5分以上かかりました。この高速化は、DeepProveのほぼ線形な複雑さから来ています。そのプルーバーは操作の数に対してほぼ O(n) でスケールしますが、サーキットベースのSNARKプルーバーはしばしば超線形なオーバーヘッド(FFTと多項式コミットメントのスケーリング)を持ちます。実際、DeepProveの プルーバーのスループット は、プレーンな推論ランタイムの1桁以内に収まることがあります。最近のGKRシステムは、大規模な行列乗算において生の実行よりも10倍未満の遅さであり、これはZKにおける印象的な成果です。これにより、リアルタイムまたはオンデマンドの証明 がより実現可能になり、対話型アプリケーションにおける検証可能なAIへの道が開かれます。

ユースケース: LagrangeはすでにWeb3およびAIプロジェクトと協力してzkMLを適用しています。ユースケースの例としては、検証可能なNFTの特性(ゲームキャラクターやコレクティブルのAI生成による進化が、承認されたモデルによって計算されたことを証明する)、AIコンテンツの来歴(ディープフェイクと戦うために、画像やテキストが特定のモデルによって生成されたことを証明する)、DeFiリスクモデル(独自のデータを明らかにすることなく、金融リスクを評価するモデルの出力を証明する)、および医療や金融における プライベートAI推論(病院が患者データを公開することなく、正しさを保証する証明付きでAI予測を得ることができる)などがあります。AIの出力を 検証可能かつプライバシー保護 にすることで、DeepProveは分散システムにおける 「信頼できるAI」 への扉を開きます。これは 「ブラックボックスモデルへの盲目的な信頼」 の時代から 「客観的な保証」 の時代への移行を意味します。

SNARKベースのzkML:EzklとHalo2アプローチ

zkMLへの従来のアプローチは、zk-SNARK (Succinct Non-interactive Arguments of Knowledge) を使用してニューラルネットワークの推論を証明します。Ezkl (ZKonduit/Modulus Labsによる) は、このアプローチの代表的な例です。これはHalo2証明システム(BLS12-381上の多項式コミットメントを持つPLONKスタイルのSNARK)を基盤としています。Ezklは、開発者がPyTorchやTensorFlowモデルを取得し、ONNXにエクスポートし、Ezklがそれを自動的にカスタム算術サーキットにコンパイルするツールチェーンを提供します。

仕組み: ニューラルネットワークの各層は制約に変換されます:

  • 線形層(密結合または畳み込み)は、入力、重み、出力間のドット積を強制する乗算-加算制約の集合になります。
  • 非線形層(ReLU、sigmoidなど)は、そのような関数が多項式ではないため、ルックアップまたは区分的制約 を介して処理されます。例えば、ReLUは、ブールセレクタ $b$ と、$y = x \cdot b$、$0 \le b \le 1$、そして $x>0$ の場合に $b=1$ を保証する制約によって実装できます(これは一つの方法です)。あるいは、より効率的には、$x$ の値の範囲に対して $x \mapsto \max(0,x)$ をマッピングするルックアップテーブルを使用します。Halo2のルックアップ引数は16ビット(またはそれ以下)の値のチャンクをマッピングできるため、大きなドメイン(すべての32ビット値など)は通常、いくつかの小さなルックアップに 「チャンク化」 されます。このチャンク化は制約の数を増やします。
  • 大きな整数の演算や除算(もしあれば)も同様に小さな部分に分割されます。結果として、特定のモデルアーキテクチャに合わせた大規模な R1CS/PLONK制約 の集合ができあがります。

Ezklはその後、Halo2を使用して、秘密の入力(モデルの重み、プライベートな入力)と公開の出力が与えられた場合にこれらの制約が成り立つという証明を生成します。ツールと統合: SNARKアプローチの利点の一つは、よく知られたプリミティブを活用することです。Halo2はすでにEthereumのロールアップ(例:Zcash、zkEVM)で使用されているため、実戦でテストされており、オンチェーンベリファイアがすぐに利用できます。Ezklの証明はBLS12-381曲線を使用しており、これはEthereumがプリコンパイルを介して検証できるため、スマートコントラクトでEzklの証明を検証するのは簡単です。チームはまた、ユーザーフレンドリーなAPIも提供しています。例えば、データサイエンティストはPythonでモデルを扱い、EzklのCLIを使用して、サーキットに関する深い知識がなくても証明を生成できます。

長所: Ezklのアプローチは、SNARKの一般性とエコシステムから恩恵を受けます。それは合理的に複雑なモデルをサポートし、すでに 「実用的な統合(DeFiリスクモデルからゲーミングAIまで)」 を実現し、現実世界のMLタスクを証明しています。モデルの計算グラフのレベルで動作するため、ML固有の最適化を適用できます。例えば、重要でない重みを枝刈りしたり、パラメータを量子化してサーキットサイズを削減したりします。これはまた、モデルの機密性 が自然に保たれることを意味します。重みはプライベートなウィットネスデータとして扱うことができるため、ベリファイアは 何らかの 有効なモデルが出力を生成したこと、あるいはせいぜいモデルへのコミットメントしか見ることができません。SNARK証明の検証は非常に高速 であり(通常、オンチェーンで数ミリ秒以下)、証明サイズも小さい(数キロバイト)ため、ブロックチェーンでの使用に理想的です。

短所: パフォーマンスがアキレス腱です。サーキットベースの証明は、特にモデルが大きくなるにつれて、大きなオーバーヘッドを伴います。歴史的に、SNARKサーキットは、プルーバーにとってモデルを単に実行するよりも 百万倍もの作業 になる可能性があると指摘されています。Halo2とEzklはこれを最適化していますが、それでも、大規模な行列乗算のような操作は 大量の 制約を生成します。モデルに数百万のパラメータがある場合、プルーバーはそれに対応する数百万の制約を処理し、その過程で重いFFTや多重指数演算を実行する必要があります。これにより、証明時間が長くなり(重要でないモデルでもしばしば数分から数時間)、メモリ使用量も多くなります。例えば、比較的小さなCNN(例:数十万パラメータ)でさえ、Ezklを単一のマシンで実行すると証明に数十分かかることがあります。DeepProveのチームは、DeepProveが数分でできる特定のモデルの証明にEzklが数時間かかったと述べています。大規模なモデルはメモリに収まらないか、複数の証明に分割する必要があるかもしれません(その場合、再帰的な集約が必要になります)。Halo2は 「適度に最適化」 されていますが、ルックアップを「チャンク化」したり、広範なビット操作を処理したりする必要がある場合は、追加のオーバーヘッドが発生します。要約すると、スケーラビリティは限定的 です。Ezklは小から中規模のモデルにはうまく機能しますが(そして実際、ベンチマークではいくつかの初期の代替案、例えばナイーブなStarkベースのVMを 上回りました)、モデルサイズがある点を超えると苦戦します。

これらの課題にもかかわらず、Ezklや同様のSNARKベースのzkMLライブラリは重要な足がかりです。それらは、検証済みML推論がオンチェーンで可能である ことを証明し、活発に利用されています。特筆すべきは、Modulus Labs のようなプロジェクトが、SNARKを使用して(重い最適化を伴い)1800万パラメータのモデルをオンチェーンで検証したことを実証したことです。コストは些細なものではありませんでしたが、それはその軌道を示しています。さらに、Mina Protocol は独自のzkMLツールキットを持っており、SNARKを使用してMina上のスマートコントラクト(Snarkベース)がMLモデルの実行を検証できるようにしています。これは、SNARKベースのzkMLに対するマルチプラットフォームサポートの拡大を示しています。

STARKベースのアプローチ:MLのための透明でプログラム可能なZK

zk-STARK (Scalable Transparent ARguments of Knowledge) は、zkMLへのもう一つのルートを提供します。STARKはハッシュベースの暗号技術(多項式コミットメントのためのFRIなど)を使用し、信頼できるセットアップを回避します。これらはしばしばCPUやVMをシミュレートし、実行トレースが正しいことを証明することによって動作します。MLの文脈では、ニューラルネットワーク用のカスタムSTARKを構築するか、汎用STARK VMを使用してモデルコードを実行するかのいずれかが可能です。

汎用STARK VM (RISC Zero, Cairo): 簡単なアプローチは、推論コードを書いてSTARK VMで実行することです。例えば、Risc0 はRISC-V環境を提供し、そこでは任意のコード(例:ニューラルネットワークのC++またはRust実装)を実行し、STARKを介して証明できます。同様に、StarkWareの Cairo 言語は任意の計算(LSTMやCNNの推論など)を表現でき、それらはStarkNetのSTARKプルーバーによって証明されます。利点は柔軟性です。各モデルに対してカスタムサーキットを設計する必要がありません。しかし、初期のベンチマークでは、ナイーブなSTARK VMはML用の最適化されたSNARKサーキットと比較して遅いことが示されました。あるテストでは、Halo2ベースの証明(Ezkl)はCairo上のSTARKベースのアプローチよりも約 3倍速く、2024年のあるベンチマークではRISC-V STARK VMよりも 66倍速い ことさえありました。この差は、STARKですべての低レベル命令をシミュレートするオーバーヘッドと、STARK証明の定数が大きいこと(ハッシュは速いが大量に必要、STARKの証明サイズは大きいなど)によるものです。しかし、STARK VMは改善されており、透明なセットアップ(信頼できるセットアップ不要)と ポスト量子セキュリティ という利点があります。STARKフレンドリーなハードウェアとプロトコルが進歩するにつれて、証明速度は向上するでしょう。

DeepProveのアプローチ vs STARK: 興味深いことに、DeepProveがGKRとサムチェックを使用することで得られる証明は、精神的にはSTARKに似ています。それは対話的でハッシュベースの証明であり、構造化された参照文字列を必要としません。トレードオフは、その証明がSNARKよりも大きく、検証が重いことです。しかし、DeepProveは、慎重なプロトコル設計(MLの層状構造に特化)が、証明時間において汎用STARK VMとSNARKサーキットの両方を大幅に上回ることができることを示しています。DeepProveは 特注のSTARKスタイル のzkMLプルーバーと考えることができます(彼らは簡潔さのためにzkSNARKという用語を使用していますが、0.5秒の検証は典型的なSNARK検証よりも大きいため、従来のSNARKの小さな定数サイズの検証はありません)。従来のSTARK証明(StarkNetのものなど)は、検証に数万の体演算を伴うことが多いのに対し、SNARKは数十回程度で検証します。したがって、一つの トレードオフ が明らかです:SNARKはより小さな証明とより速いベリファイアをもたらし、STARK(またはGKR)は証明サイズと検証速度を犠牲にして、より簡単なスケーリングと信頼できるセットアップ不要を提供します。

新たな改善: JOLT zkVM(前述のJOLTxで議論)は実際にはSNARK(PLONK風のコミットメントを使用)を出力していますが、STARKの文脈にも適用できるアイデアを具現化しています(Lassoルックアップは理論的にはFRIコミットメントと共に使用できます)。StarkWareなどは、一般的な操作の証明を高速化する方法を研究しています(例えば、Cairoで大きな整数演算のためにカスタムゲートやヒントを使用するなど)。また、Privacy & Scaling Explorations (PSE) による Circomlib-ML もあり、これはCNN層などのためのCircomテンプレートを提供します。これはSNARK指向ですが、概念的に類似したテンプレートをSTARK言語用に作成することもできます。

実際には、STARKを活用する 非Ethereumエコシステム には、StarkNet(誰かがベリファイアを書けばMLのオンチェーン検証が可能になるかもしれないが、コストは高い)や Risc0のBonsai サービス(様々なチェーンで検証可能なSTARK証明を発行するオフチェーン証明サービス)があります。2025年現在、ブロックチェーン上のほとんどのzkMLデモは(ベリファイアの効率性から)SNARKを好んでいますが、STARKアプローチは、その透明性と高セキュリティまたは耐量子設定での可能性から、依然として魅力的です。例えば、分散型計算ネットワークは、信頼できるセットアップなしで誰でも作業を検証できるようにSTARKを使用するかもしれません。これは長寿のために有用です。また、一部の特殊なMLタスクは、STARKフレンドリーな構造を活用するかもしれません。例えば、XOR/ビット操作を多用する計算は、SNARKの体演算よりもSTARK(ブール代数とハッシュでは安価なため)の方が速い可能性があります。

MLにおけるSNARK vs STARKの概要:

  • パフォーマンス: SNARK(Halo2など)はゲートあたりの証明オーバーヘッドが大きいですが、強力な最適化と検証のための小さな定数の恩恵を受けます。STARK(汎用)は定数オーバーヘッドが大きいですが、より線形にスケールし、ペアリングのような高価な暗号を回避します。DeepProveは、アプローチをカスタマイズする(サムチェック)ことで、ほぼ線形の証明時間(高速)をSTARKのような証明で実現することを示しています。JOLTは、汎用VMでさえルックアップを多用することで高速化できることを示しています。経験的に、数百万の操作までのモデルでは、十分に最適化されたSNARK(Ezkl)は処理できますが、数十分かかる可能性があり、一方DeepProve(GKR)は数秒でできます。2024年のSTARK VMは、特化されていない限り、SNARKの中間かそれ以下でした(テストではRisc0は遅く、Cairoはカスタムヒントなしでは遅かった)。
  • 検証: SNARK証明は最も速く検証されます(ミリ秒単位、オンチェーンでのデータは最小限で約数百バイトから数KB)。STARK証明はより大きく(数十KB)、多くのハッシュステップのため検証に時間がかかります(数十ミリ秒から数秒)。ブロックチェーンの観点から言えば、SNARKの検証は例えば約20万ガスかかるかもしれませんが、STARKの検証は数百万ガスかかる可能性があり、L1には高すぎることが多く、L2や簡潔な検証スキームでは許容範囲です。
  • セットアップとセキュリティ: Groth16のようなSNARKはサーキットごとに信頼できるセットアップを必要としますが(任意のモデルには不親切)、ユニバーサルSNARK(PLONK、Halo2)は、特定のサイズまでの任意のサーキットに再利用できる一度きりのセットアップを持ちます。STARKはセットアップを必要とせず、ハッシュの仮定(および古典的な多項式複雑性の仮定)のみを使用し、ポスト量子セキュア です。これにより、STARKは長寿のために魅力的です。量子コンピュータが出現しても証明は安全なままですが、現在のSNARK(BLS12-381ベース)は量子攻撃によって破られます。

これらの違いを、まもなく比較表にまとめます。

MLのためのFHE (FHE-o-ML):プライベート計算 vs. 検証可能計算

完全準同型暗号 (FHE) は、暗号化されたデータ上で直接計算を実行できる暗号技術です。MLの文脈では、FHEは一種の プライバシー保護推論 を可能にします。例えば、クライアントは暗号化された入力をモデルホストに送信し、ホストはそれを復号せずに暗号文上でニューラルネットワークを実行し、クライアントが復号できる暗号化された結果を返します。これにより データ機密性 が保証されます。モデルの所有者は入力について何も知ることができず(そして、クライアントは出力のみを知り、モデルの内部については知らない可能性があります)。しかし、FHE自体は、ZKPのように 正当性の証明を生成しません。クライアントは、モデルの所有者が実際に正直に計算を実行したと信頼しなければなりません(暗号文が操作された可能性があります)。通常、クライアントがモデルを持っているか、特定の出力分布を期待している場合、露骨な不正は検出できますが、微妙なエラーや間違ったモデルバージョンの使用は、暗号化された出力だけからは明らかになりません。

パフォーマンスのトレードオフ: FHEは計算が非常に重いことで知られています。FHE下でディープラーニング推論を実行すると、桁違いの速度低下が発生します。初期の実験(例:2016年のCryptoNets)では、暗号化されたデータ上で小さなCNNを評価するのに数十秒かかりました。2024年までに、CKKS(近似算術用) やより良いライブラリ(Microsoft SEAL、ZamaのConcrete)などの改善により、このオーバーヘッドは減少しましたが、依然として大きいです。例えば、あるユーザーは、ZamaのConcrete-MLを使用してCIFAR-10分類器を実行するのに、自分のハードウェアで推論ごとに 25〜30分 かかったと報告しています。最適化後、Zamaのチームは192コアサーバーでその推論を約40秒で達成しました。40秒でさえ、平文の推論(0.01秒かもしれない)と比較して非常に遅く、約 $10^3$–$10^4\times$ のオーバーヘッドを示しています。より大きなモデルやより高い精度は、コストをさらに増加させます。さらに、FHE操作は多くのメモリを消費し、時折 ブートストラップ(ノイズ削減ステップ)を必要とし、これは計算コストが高いです。要約すると、スケーラビリティは大きな問題 です。最先端のFHEは小さなCNNや単純なロジスティック回帰を処理できるかもしれませんが、大規模なCNNやTransformerへのスケーリングは現在の実用的な限界を超えています。

プライバシーの利点: FHEの大きな魅力は データプライバシー です。入力はプロセス全体を通じて完全に暗号化されたままでいられます。これは、信頼できないサーバーがクライアントのプライベートデータについて何も知ることなく計算できることを意味します。逆に、モデルが機密(独自)である場合、モデルパラメータを暗号化し、クライアント側でFHE推論を実行することも考えられますが、クライアントが重いFHE計算を行わなければならない場合、強力なサーバーにオフロードするという考えが無意味になるため、これはあまり一般的ではありません。通常、モデルは公開されているか、サーバーが平文で保持しており、データはクライアントの鍵で暗号化されます。そのシナリオでのモデルのプライバシーは、デフォルトでは 提供されません(サーバーはモデルを知っており、クライアントは出力を知りますが重みは知りません)。モデルとデータの両方を互いに秘密に保つことができる、よりエキゾチックな設定(安全な二者間計算やマルチキーFHEなど)もありますが、それらはさらに複雑さを増します。対照的に、ZKPを介したzkMLは、モデルのプライバシーデータのプライバシー を同時に保証できます。プルーバーはモデルとデータの両方を秘密のウィットネスとして持ち、ベリファイアに必要なものだけを明らかにします。

オンチェーン検証は不要 (そして不可能): FHEでは、結果はクライアントに暗号化されて返されます。クライアントはそれを復号して実際の予測を取得します。その結果をオンチェーンで使用したい場合、クライアント(または復号鍵を持つ者)は平文の結果を公開し、それが正しいことを他の人に納得させる必要があります。しかし、その時点で、信頼は再びループに戻ります。ZKPと組み合わせない限り。原則として、FHEとZKPを組み合わせることは可能です。例えば、計算中にデータをプライベートに保つためにFHEを使用し、その後、平文の結果が正しい計算に対応するというZK証明を生成します。しかし、それらを組み合わせることは、FHE ZKPのパフォーマンスペナルティを支払うことを意味し、今日の技術では非常に非現実的です。したがって、実際にはFHE-of-MLとzkMLは異なるユースケースに対応します:

  • FHE-of-ML: 二者間(クライアントとサーバー)の機密性 が目標である場合に理想的です。例えば、クラウドサービスがMLモデルをホストし、ユーザーはクラウドにデータを明らかにすることなく機密データでクエリできます(そしてモデルが機密である場合、FHEフレンドリーなエンコーディングを介してデプロイするかもしれません)。これはプライバシー保護MLサービス(医療予測など)に最適です。ユーザーは依然としてサービスが忠実にモデルを実行することを信頼する必要がありますが(証明がないため)、少なくとも データ漏洩 は防がれます。Zamaのような一部のプロジェクトは、スマートコントラクトが暗号化された入力で動作できる 「FHE対応EVM (fhEVM)」 を探求していますが、それらの計算をオンチェーンで検証するには、コントラクトが何らかの方法で正しい計算を強制する必要があり、これはZK証明や特殊なセキュアハードウェアを必要とする可能性が高い未解決の課題です。
  • zkML (ZKP): 検証可能性と公開監査可能性 が目標である場合に理想的です。誰でも(またはどのコントラクトでも)「モデル $M$ が $X$ で正しく評価され、$Y$ を生成した」 ことを確認したい場合、ZKPが解決策です。それらはボーナスとしてプライバシーも提供しますが(必要に応じて $X$、$Y$、または $M$ を証明のプライベートな入力として扱うことで隠すことができます)、その主な特徴は正しい実行の証明です。

補完的な関係: ZKPは ベリファイア を保護し(彼らは秘密について何も知らず、計算が正しく行われたことだけを知ります)、一方FHEは計算を行う当事者から プルーバー のデータを保護することに注意する価値があります。一部のシナリオでは、これらを組み合わせることができます。例えば、信頼できないノードのネットワークがFHEを使用してユーザーのプライベートデータで計算し、その後、計算がプロトコルに従って行われたことをユーザー(またはブロックチェーン)にZK証明で提供することができます。これにより、プライバシーと正当性の両方がカバーされますが、今日のアルゴリズムではパフォーマンスコストが莫大です。近い将来、より実現可能なのは、Trusted Execution Environments (TEE) + ZKPFunctional Encryption + ZKP のようなハイブリッドです。これらは私たちの範囲を超えていますが、同様のものを提供することを目指しています(TEEは計算中にデータ/モデルを秘密に保ち、その後ZKPがTEEが正しいことを行ったことを証明できます)。

要約すると、FHE-of-MLは入力/出力の機密性を優先 し、zkMLは検証可能な正当性(プライバシーの可能性あり)を優先 します。以下の表1は、主要な特性を対比しています:

アプローチプルーバーのパフォーマンス (推論と証明)証明サイズと検証プライバシー機能信頼できるセットアップ?ポスト量子?
zk-SNARK (Halo2, Groth16, PLONKなど)重いプルーバーオーバーヘッド(最適化なしで通常のランタイムの最大10^6倍、実際には10^3–10^5倍)。特定のモデル/サーキットに最適化。中規模モデルで数分、大規模モデルで数時間の証明時間。最近のzkML SNARK(GKR付きDeepProve)はこれを大幅に改善(ほぼ線形のオーバーヘッド、例:数百万パラメータモデルで数分の代わりに数秒)。非常に小さな証明(多くは100KB未満、時には数KB程度)。検証は高速:数回のペアリングまたは多項式評価(通常、オンチェーンで50ms未満)。DeepProveのGKRベースの証明はより大きく(数十〜数百KB)、約0.5秒で検証(モデルの再実行よりはるかに高速)。データ機密性: はい – 入力は証明内でプライベートにでき、公開されません。モデルプライバシー: はい – プルーバーはモデルの重みにコミットし、それらを公開しません。出力の隠蔽: オプション – 証明は出力を明らかにせずにステートメントについてのものであることができます(例:「出力はプロパティPを持つ」)。しかし、出力自体がオンチェーンで必要な場合、通常は公開されます。全体として、SNARKは完全な ゼロ知識 の柔軟性を提供します(隠したい部分を隠せます)。スキームによる。Groth16/EZKLはサーキットごとに信頼できるセットアップが必要。PLONK/Halo2はユニバーサルセットアップ(一度きり)を使用。DeepProveのサムチェックGKRは透明(セットアップ不要)– その設計のボーナス。古典的なSNARK(BLS12-381曲線)は PQセキュアではない(楕円曲線離散対数問題に対する量子攻撃に脆弱)。一部の新しいSNARKはPQセキュアなコミットメントを使用しますが、Ezklで使用されるHalo2/PLONKはPQセキュアではありません。GKR(DeepProve)はハッシュコミットメント(例:Poseidon/Merkle)を使用し、これらはPQセキュアであると推測されています(ハッシュの原像困難性に依存)。
zk-STARK (FRI, ハッシュベースの証明)プルーバーのオーバーヘッドは高いが、より 線形 なスケーリング。通常、大規模タスクではネイティブより10^2–10^4倍遅く、並列化の余地あり。汎用STARK VM(Risc0, Cairo)は2024年にMLでSNARKと比較して遅いパフォーマンスを示した(例:一部のケースでHalo2より3倍–66倍遅い)。特殊なSTARK(またはGKR)は線形オーバーヘッドに近づき、大規模サーキットでSNARKを上回ることができます。証明はより大きい:しばしば数十KB(サーキットサイズ/log(n)と共に増加)。ベリファイアは複数のハッシュとFFTチェックを行う必要があり、検証時間は小さなεに対して約O(n^ε)(例:証明サイズに応じて約50msから500ms)。オンチェーンでは、これはより高価です(StarkWareのL1ベリファイアは証明ごとに数百万ガスかかることがあります)。一部のSTARKは、プルーバー時間を犠牲にしてサイズを圧縮するために再帰的証明をサポートします。データとモデルのプライバシー: STARKはトレースデータをランダム化する(多項式評価にブラインディングを追加する)ことでゼロ知識にすることができ、SNARKと同様にプライベートな入力を隠すことができます。多くのSTARK実装は完全性に焦点を当てていますが、zk-STARKの変種はプライバシーを可能にします。したがって、はい、SNARKのように入力/モデルを隠すことができます。出力の隠蔽: 理論的には同様に可能ですが(プルーバーが出力を公開として宣言しない)、通常は出力が公開/検証したいものであるため、めったに使用されません。信頼できるセットアップは不要。 透明性はSTARKの特徴です – 共通のランダム文字列のみを必要とします(Fiat-Shamirが導出可能)。これにより、オープンエンドな使用(任意のモデル、いつでも、モデルごとのセレモニーなし)に魅力的です。はい、STARKはハッシュと情報理論的なセキュリティの仮定(ランダムオラクルやFRIにおける特定のコードワード復号の困難性など)に依存しています。これらは量子攻撃者に対して安全であると考えられています。したがって、STARK証明はPQ耐性があり、検証可能なAIを将来にわたって保証する上で利点があります。
MLのためのFHE (推論に適用される完全準同型暗号)プルーバー = 暗号化データ上で計算を行う当事者。 計算時間は非常に高い:平文推論より10^3–10^5倍遅いのが一般的。ハイエンドハードウェア(多コアサーバー、FPGAなど)でこれを緩和できます。一部の最適化(低精度推論、レベル化FHEパラメータ)はオーバーヘッドを削減できますが、基本的なパフォーマンスヒットがあります。FHEは現在、小さなモデルや単純な線形モデルには実用的ですが、ディープネットワークはトイサイズを超えると依然として困難です。証明は生成されません。結果は暗号化された出力です。正当性をチェックするという意味での 検証 はFHE単独では提供されません – 計算を行う当事者が不正をしないと信頼します。(セキュアハードウェアと組み合わせれば、アテステーションが得られるかもしれませんが、そうでなければ、悪意のあるサーバーは不正な暗号化結果を返し、クライアントは違いを知らずに間違った出力に復号する可能性があります)。データ機密性: はい – 入力は暗号化されているため、計算を行う当事者はそれについて何も知りません。モデルプライバシー: モデルの所有者が暗号化された入力で計算を行っている場合、モデルは彼らの側で平文です(保護されていません)。役割が逆の場合(クライアントがモデルを暗号化して保持し、サーバーが計算する)、モデルは暗号化されたままにできますが、このシナリオはあまり一般的ではありません。FHE/MPCを組み合わせて両方を保護する安全な二者間MLのような技術もありますが、これらはプレーンなFHEを超えています。出力の隠蔽: デフォルトでは、計算の出力は暗号化されています(秘密鍵を持つ当事者、通常は入力の所有者のみが復号可能)。したがって、出力は計算サーバーから隠されています。出力を公開したい場合、クライアントは復号して公開できます。セットアップは不要。各ユーザーは暗号化のために独自の鍵ペアを生成します。信頼は鍵が秘密に保たれることに依存します。FHEスキーム(例:BFV, CKKS, TFHE)のセキュリティは、格子問題(Learning With Errors)に基づいており、これらは量子攻撃に耐性があると考えられています(少なくとも効率的な量子アルゴリズムは知られていません)。したがって、FHEは一般的に ポスト量子セキュア と考えられています。

表1:機械学習推論のためのzk-SNARK、zk-STARK、およびFHEアプローチの比較(パフォーマンスとプライバシーのトレードオフ)。

Web3アプリケーションへのユースケースと影響

zkMLを介したAIとブロックチェーンの融合は、Web3における強力な新しいアプリケーションパターンを解き放ちます:

  • 分散型自律エージェントとオンチェーンでの意思決定: スマートコントラクトやDAOは、正当性の保証付きでAI駆動の意思決定を組み込むことができます。例えば、取引を実行する前に市場状況を分析するためにニューラルネットワークを使用するDAOを想像してみてください。zkMLを使用すると、DAOのスマートコントラクトは、アクションが受け入れられる前に、承認されたMLモデル(既知のハッシュコミットメントを持つ)が最新のデータで実行され、推奨されたアクションを生成したというzkSNARK証明を要求できます。これにより、悪意のあるアクターが偽の予測を注入するのを防ぎます – チェーンが AIの計算を検証します。時間が経てば、DeFiやゲームで意思決定を行う完全にオンチェーンの自律エージェント(オフチェーンAIをクエリするか、簡略化されたモデルを含むコントラクト)を持つことさえ可能になり、そのすべての動きはzk証明を介して正しく、ポリシーに準拠していることが証明されます。これにより、自律エージェントの「思考」がブラックボックスではなく、透明で検証可能になるため、信頼性が向上します。

  • 検証可能な計算市場: Lagrangeのようなプロジェクトは、効果的に 検証可能な計算マーケットプレイス を作成しています – 開発者は重いML推論をプルーバーのネットワークにアウトソースし、結果と共に証明を受け取ることができます。これは分散型クラウドコンピューティングに似ていますが、信頼が組み込まれています。サーバーを信頼する必要はなく、証明だけを信頼すればよいのです。これはオラクルやオフチェーン計算にとってパラダイムシフトです。Ethereumの今後のDSC(分散型シーケンシングレイヤー)やオラクルネットワークのようなプロトコルは、これを使用して暗号学的な保証付きのデータフィードや分析フィードを提供できます。例えば、オラクルは「入力Yに対するモデルXの結果」を提供し、誰もがオラクルの言葉を信頼するのではなく、添付された証明をオンチェーンで検証できます。これにより、ブロックチェーン上で サービスとしての検証可能なAI が可能になります。どのコントラクトも計算(「私のプライベートモデルでこれらの信用リスクをスコアリングして」など)を要求し、有効な証明がある場合にのみ回答を受け入れることができます。Gensyn のようなプロジェクトは、これらの検証技術を使用して分散型のトレーニングおよび推論マーケットプレイスを探求しています。

  • NFTとゲーミング – 来歴と進化: ブロックチェーンゲームやNFTコレクティブルでは、zkMLは特性やゲームの動きが正当なAIモデルによって生成されたことを証明できます。例えば、ゲームがAIにNFTペットの属性を進化させることを許可するかもしれません。ZKがなければ、賢いユーザーはAIや結果を改変して優れたペットを手に入れるかもしれません。zkMLを使用すると、ゲームは 「ペットの新しいステータスは、ペットの古いステータスに対して公式の進化モデルによって計算された」 という証明を要求でき、不正を防ぎます。ジェネレーティブアートNFTについても同様です。アーティストはジェネレーティブモデルをコミットメントとしてリリースできます。後でNFTをミントするときに、各画像が特定のシードを与えられてそのモデルによって生成されたことを証明し、真正性を保証します(そして、アーティストのIPを保護するために、正確なモデルを公開することなくそれを行うことさえできます)。この 来歴検証 は、検証可能なランダム性に似た方法で真正性を保証します – ここでは検証可能な創造性です。

  • 機密領域におけるプライバシー保護AI: zkMLは 入力を公開することなく結果の確認 を可能にします。医療では、患者のデータがクラウドプロバイダーによってAI診断モデルに通されるかもしれません。病院は診断と、そのモデル(製薬会社が非公開で保有している可能性がある)が患者データで正しく実行された という証明を受け取ります。患者データはプライベートなままであり(証明では暗号化またはコミットされた形式のみが使用された)、モデルの重みは独自のままです – それでも結果は信頼されます。規制当局や保険会社も、承認されたモデルのみが使用されたことを検証できます。金融では、企業は監査人や規制当局に対して、そのリスクモデルが内部データに適用され、特定のメトリクスを生成した ことを、基礎となる機密性の高い財務データを明らかにすることなく証明できます。これにより、手動の信頼ではなく、暗号学的な保証によるコンプライアンスと監督が可能になります。

  • クロスチェーンおよびオフチェーンの相互運用性: ゼロ知識証明は基本的にポータブルであるため、zkMLは クロスチェーンAI の結果を促進できます。あるチェーンがオフチェーンで実行されるAI集約的なアプリケーションを持っているかもしれません。その結果の証明を別のブロックチェーンに投稿でき、そのブロックチェーンはそれをトラストレスに受け入れます。例えば、ソーシャルメディア全体のセンチメントを集約するためにAIを使用するマルチチェーンDAOを考えてみましょう(オフチェーンデータ)。AI分析(大規模データに対する複雑なNLP)はオフチェーンのサービスによって行われ、その後、「分析は正しく行われ、出力センチメントスコア = 0.85」 という証明を小さなブロックチェーン(または複数のチェーン)に投稿します。すべてのチェーンは、それぞれが分析を再実行する必要なく、その結果を検証し、ガバナンスロジックで使用できます。この種の 相互運用可能な検証可能計算 は、Lagrangeのネットワークが複数のロールアップやL1に同時にサービスを提供することでサポートしようとしているものです。これにより、チェーン間で結果を移動する際に、信頼できるブリッジやオラクルの仮定が不要になります。

  • AIアライメントとガバナンス: より未来志向の観点から、zkMLは AIガバナンスと安全性 のためのツールとして注目されています。例えば、Lagrangeのビジョンステートメントでは、AIシステムがより強力になるにつれて(超知能でさえ)、合意されたルールに従うことを保証するために暗号学的検証が不可欠になると主張しています。AIモデルにその推論や制約の証明を生成させることを要求することで、人間はある程度の制御を維持します – 「検証できないものは信頼できない」。これは推測的であり、技術的な側面だけでなく社会的な側面も関わりますが、この技術は、自律的に実行されているAIエージェントが、承認されたモデルを使用しており、改ざんされていないことを証明することを強制できます。分散型AIネットワークは、貢献を検証するためにオンチェーン証明を使用するかもしれません(例:モデルを共同でトレーニングするノードのネットワークは、各更新が忠実に計算されたことを証明できます)。したがって、zkMLは、分散型または制御されていない環境であっても、AIシステムが人間定義のプロトコルに対して説明責任を負い続けることを保証する 上で役割を果たす可能性があります。

結論として、zkMLと検証可能なオンチェーンAI は、AIアプリケーションにおける信頼、透明性、プライバシーを向上させる可能性のある、高度な暗号技術と機械学習の融合を表しています。主要なアプローチ – zk-SNARK、zk-STARK、FHE – を比較することで、パフォーマンスとプライバシーの間のトレードオフのスペクトルが見え、それぞれが異なるシナリオに適しています。EzklのようなSNARKベースのフレームワークやLagrangeのDeepProveのような革新により、実質的なニューラルネットワーク推論を現実的な労力で証明することが可能になり、検証可能なAIの現実世界での展開への扉が開かれました。STARKベースおよびVMベースのアプローチは、より大きな柔軟性とポスト量子セキュリティを約束しており、これは分野が成熟するにつれて重要になるでしょう。FHEは、検証可能性の解決策ではありませんが、機密性の高いML計算という補完的なニーズに対応し、ZKPとの組み合わせや特定のプライベートな文脈では、ユーザーがデータプライバシーを犠牲にすることなくAIを活用できるようにします。

Web3への影響 は重要です。AIの予測に反応するスマートコントラクト(それが正しいと知っている)、結果がトラストレスに販売される計算市場、zkMLによって保護された デジタルアイデンティティ(Worldcoinの虹彩AIによる人格証明のように、生体認証画像を漏らすことなく人間であることを確認する)、そして一般的にブロックチェーンアプリケーションを豊かにする新しいクラスの 「証明可能なインテリジェンス」 が予見できます。非常に大規模なモデルのパフォーマンス、開発者のエルゴノミクス、特殊なハードウェアの必要性など、多くの課題が残っていますが、その軌道は明確です。あるレポートが指摘したように、「今日のZKPは小さなモデルをサポートできるが、中規模から大規模なモデルはそのパラダイムを壊す」。しかし、急速な進歩(DeepProveによる従来技術に対する50倍–150倍の高速化)がその境界を押し広げています。継続的な研究(ハードウェアアクセラレーションや分散証明など)により、ますます大きく複雑なAIモデルが証明可能になることが期待できます。zkMLは、ニッチなデモから、信頼できるAIインフラストラクチャの不可欠なコンポーネント へとすぐに進化するかもしれません。これにより、AIがユビキタスになるにつれて、それが 監査可能で、分散化され、ユーザーのプライバシーとセキュリティに沿った 方法で行われることが保証されます。

ETHDenver 2025: フェスティバルから見る主要な Web3 トレンドとインサイト

· 約36分

「再生者の年 (Year of The Regenerates)」と銘打たれた ETHDenver 2025 は、世界最大級の Web3 の祭典としての地位を確固たるものにしました。BUIDLWeek (2 月 23 日~ 26 日)、メインイベント (2 月 27 日~ 3 月 2 日)、そしてカンファレンス後のマウンテンリトリートにわたり、このフェスティバルには 25,000 人以上の参加者が見込まれました。125 以上の国からビルダー、開発者、投資家、クリエイターがデンバーに集結し、イーサリアムの分散化とイノベーションの精神を祝いました。そのコミュニティのルーツに忠実に、ETHDenver は参加無料で、コミュニティ資金によって運営され、ハッカソンやワークショップからパネルディスカッション、ピッチイベント、パーティーまで、コンテンツが溢れていました。分散化を守る*「再生者 (Regenerates)」*の物語は、競争の激しい技術環境の中にあっても、公共財と協調的な構築を強調するトーンを設定しました。その結果、1 週間にわたるエネルギッシュなビルダー活動と未来志向の議論が繰り広げられ、Web3 の新たなトレンドと業界専門家にとって実用的なインサイトのスナップショットが提供されました。

ETHDenver 2025

登壇者が注目した新たな Web3 トレンド

ETHDenver 2025 では、単一の物語が支配することはなく、代わりに幅広い Web3 トレンドが主役となりました。 昨年 (EigenLayer を介したリステーキングが注目を集めた) とは異なり、2025 年のアジェンダはあらゆるものが散りばめられていました。分散型物理インフラネットワーク (DePIN) から AI エージェント、規制遵守から現実世界資産のトークン化 (RWA)、さらにプライバシー、相互運用性など、多岐にわたりました。実際、ETHDenver の創設者である John Paller 氏は、マルチチェーンのコンテンツに関する懸念に対し、「スポンサーの 95% 以上、コンテンツの 90% が ETH/EVM に沿ったものである」と述べましたが、非イーサリアムエコシステムの存在は相互運用性が主要なテーマであることを強調していました。主要な登壇者はこれらのトレンド分野を反映しており、例えば、zk ロールアップとレイヤー 2 スケーリングは Alex Gluchowski 氏 (Matter Labs/zkSync CEO) によって、マルチチェーンのイノベーションは Mysten Labs (Sui) の Adeniyi Abiodun 氏と Injective の Albert Chon 氏によって強調されました。

AI と Web3 の融合は、強力な底流として現れました。 多くの講演やサイドイベントが分散型 AI エージェントと「DeFi+AI」のクロスオーバーに焦点を当てていました。専用の AI Agent Day ではオンチェーン AI のデモが披露され、14 のチーム (Coinbase の開発者キットや NEAR の AI ユニットを含む) の集合体は、Web3 インフラをプールすることでパーミッションレスで無料の AI アクセスを提供するためのイニシアチブであるオープン・エージェント・アライアンス (OAA) を発表しました。これは、ビルダーにとってのフロンティアとして、自律エージェントと AI 駆動の DApp への関心が高まっていることを示しています。AI と密接に関連して、DePIN (分散型物理インフラ) ももう一つのバズワードでした。複数のパネル (Day of DePINDePIN Summit など) では、ブロックチェーンと物理ネットワーク (通信からモビリティまで) を橋渡しするプロジェクトが探求されました。

Cuckoo AI Network は ETHDenver 2025 で注目を集め、クリエイターや開発者向けに設計された革新的な分散型 AI モデル提供マーケットプレイスを披露しました。ハッカソンとコミュニティ主導のサイドイベントの両方で説得力のある存在感を示し、Cuckoo AI は GPU/CPU リソースを収益化し、オンチェーン AI API を簡単に統合できる能力に興味をそそられた開発者から大きな注目を集めました。専用のワークショップとネットワーキングセッションで、Cuckoo AI は分散型インフラがどのようにして高度な AI サービスへのアクセスを効率的に民主化できるかを強調しました。これは、イベントのより広範なトレンド、特にブロックチェーンと AI、DePIN、公共財への資金提供との交差点に直接合致しています。ETHDenver の投資家や開発者にとって、Cuckoo AI は、分散型アプローチが次世代の AI 駆動 DApp とインフラをどのように強化できるかの明確な例として浮上し、Web3 エコシステム内で魅力的な投資機会として位置づけられました。

プライバシー、アイデンティティ、セキュリティは依然として最重要課題でした。 登壇者やワークショップでは、ゼロ知識証明 (zkSync の存在)、アイデンティティ管理と検証可能なクレデンシャル (ハッカソンには専用のプライバシー & セキュリティトラックがありました)、法規制の問題 (オンチェーンの法律サミットがフェスティバルのトラックの一部でした) といったトピックが取り上げられました。もう一つの注目すべき議論は、資金調達の未来と資金調達の分散化でした。Dragonfly Capital の Haseeb Qureshi 氏と Legion (「ICO のような」プラットフォーム) の Matt O’Connor 氏によるICO 対 VC ファンディングに関するメインステージでの討論は、参加者を魅了しました。この討論は、従来の VC ルートに挑戦するコミュニティトークンセールのような新たなモデルを浮き彫りにしました。これは、資金調達を行う Web3 スタートアップにとって重要なトレンドです。専門家にとっての教訓は明らかです。2025 年の Web3 は多分野にわたるものであり、金融、AI、現実資産、文化にまたがっています。情報を常に把握するということは、一つのハイプサイクルだけでなく、イノベーションの全スペクトルに目を向けることを意味します。

スポンサーとその戦略的重点分野

2025 年の ETHDenver のスポンサーリストは、レイヤー 1、レイヤー 2、Web3 インフラプロジェクトの錚々たる顔ぶれであり、各社がイベントを活用して戦略的目標を推進していました。クロスチェーンおよびマルチチェーンプロトコルが強力な存在感を示しました。例えば、Polkadot はトップスポンサーとして 8 万ドルの高額な報奨金プールを提供し、ビルダーにクロスチェーン DApp やアプリチェーンの作成を奨励しました。同様に、BNB Chain、Flow、Hedera、Base (Coinbase の L2) はそれぞれ、自社のエコシステムと統合するプロジェクトに最大 5 万ドルを提供し、イーサリアム開発者を引きつけようとする姿勢を示しました。Solana や Internet Computer のような伝統的に独立したエコシステムでさえ、スポンサー付きのチャレンジに参加しました (例: Solana は DePIN イベントを共催し、Internet Computer は「ICP でのみ可能」な報奨金を提供)。このエコシステム間の存在感は一部のコミュニティから精査されましたが、ETHDenver のチームはコンテンツの大部分がイーサリアムに沿ったものであると指摘しました。最終的な効果として、相互運用性が中心的なテーマとなり、スポンサーは自社のプラットフォームをイーサリアムユニバースの補完的な拡張機能として位置づけることを目指しました。

スケーリングソリューションとインフラプロバイダーもまた、前面に出ていました。Optimism や Arbitrum のような主要なイーサリアム L2 は、大きなブースを構え、スポンサー付きのチャレンジ (Optimism の報奨金は最大 4 万ドル) を提供し、開発者をロールアップにオンボーディングすることに注力していることを再確認させました。ZkSync や Zircuit (L2 ロールアップアプローチを披露するプロジェクト) のような新規参入者は、ゼロ知識技術を強調し、SDK も提供しました (ZkSync はユーザーフレンドリーなログインのための Smart Sign-On SDK を推進し、ハッカソンチームはこれを熱心に利用しました)。リステーキングとモジュラーブロックチェーンインフラもスポンサーの関心事でした。EigenLayer (リステーキングのパイオニア) は独自の 5 万ドルのトラックを持ち、「Restaking & DeFAI (Decentralized AI)」に関するイベントを共催し、そのセキュリティモデルを AI のトピックと結びつけました。オラクルと相互運用性ミドルウェアは、Chainlink や Wormhole などが代表し、それぞれが自社のプロトコルを使用するための報奨金を発行しました。

特筆すべきは、Web3 のコンシューマーアプリケーションとツールが、ユーザーエクスペリエンスを向上させるためにスポンサーの支援を受けていたことです。Uniswap の存在感 (最大級のブースの一つ) は、単なる見せ物ではありませんでした。この DeFi の巨人は、イベントを利用して、統合された法定通貨のオフランプのような新しいウォレット機能を発表し、DeFi の使いやすさに焦点を当てたスポンサーシップと一致させました。Galxe (Gravity)Lens Protocol のようなアイデンティティとコミュニティに焦点を当てたプラットフォームは、オンチェーンソーシャルとクレデンシャルに関するチャレンジを後援しました。主流のテクノロジー企業も関心を示しました。PayPal と Google Cloud は、暗号資産における決済の未来について議論するために、ステーブルコイン/決済に関するハッピーアワーを主催しました。このスポンサーの組み合わせは、戦略的関心がコアインフラからエンドユーザーアプリケーションまで多岐にわたることを示しており、それらすべてが ETHDenver に集結し、開発者にリソース (API、SDK、助成金) を提供しました。Web3 の専門家にとって、レイヤー 1、レイヤー 2、さらには Web2 のフィンテック企業からの多額のスポンサーシップは、業界がどこに投資しているかを浮き彫りにしています。それは、相互運用性、スケーラビリティ、セキュリティ、そして次世代のユーザーにとって暗号資産を役立つものにすることです。

ハッカソンのハイライト: 革新的なプロジェクトと受賞者

ETHDenver の中心にあるのは、伝説的な #BUIDLathon です。これは、数千人の開発者が参加する世界最大のブロックチェーンハックフェストに成長したハッカソンです。2025 年、このハッカソンはイノベーションを促進するために、記録的な 1,043,333 ドル以上の賞金プールを提供しました。60 以上のスポンサーからの報奨金は、主要な Web3 ドメインをターゲットとし、コンペティションを次のようなトラックに分けました: DeFi & AINFT & ゲーミングインフラ & スケーラビリティプライバシー & セキュリティ、そして DAO & 公共財。このトラック設計自体が示唆に富んでいます。例えば、DeFi と AI を組み合わせることは、AI 駆動の金融アプリケーションの出現を示唆しており、専用の公共財トラックは、再生金融とオープンソース開発へのコミュニティの焦点を再確認するものです。各トラックは、自社の技術の最良の使用例に対して賞金を提供するスポンサーによって支援されました (例: DeFi のための Polkadot と Uniswap、相互運用性のための Chainlink、スケーリングソリューションのための Optimism)。主催者は審査にクアドラティック・ボーティングを導入し、コミュニティがトッププロジェクトを浮かび上がらせるのを助け、最終的な受賞者は専門家の審査員によって選ばれました。

その結果、最先端のプロジェクトが多数生まれ、その多くが Web3 の未来を垣間見せてくれます。注目すべき受賞者には、オンチェーンマルチプレイヤーゲーム**「0xCaliber」がありました。これは、古典的な FPS ゲーム内でリアルタイムのブロックチェーンインタラクションを実行する一人称シューティングゲームです。0xCaliber は、真のオンチェーンゲーミングを実証して審査員を驚かせました。プレイヤーは暗号資産で購入し、オンチェーンの弾丸を「撃ち」、クロスチェーンのトリックを使って戦利品を収集し、現金化します。これらすべてがリアルタイムで行われます。このようなプロジェクトは、Web3 ゲーミングの成熟度 (Unity ゲームエンジンとスマートコントラクトの統合) と、エンターテイメントと暗号経済を融合させる創造性を示しています。もう一つの際立ったハックのカテゴリーは、AI とイーサリアムを融合させたものでした。チームは、Open Agents Alliance の発表に触発され、スマートコントラクトを使用して AI サービスを調整する「エージェント」プラットフォームを構築しました。例えば、あるハッカソンプロジェクトは、AI 駆動のスマートコントラクト監査人 (コントラクトのセキュリティテストケースを自動生成) を統合し、カンファレンスで観察された分散型 AI トレンド**と一致していました。

インフラとツーリングのプロジェクトも目立ちました。一部のチームは、zkSync の Smart Sign-On のようなスポンサーのツールキットを使用して、DApp のためのウォレットレスなログインフローを作成し、アカウント抽象化とユーザーエクスペリエンスに取り組みました。他のチームは、クロスチェーンブリッジやレイヤー 2 の統合に取り組み、相互運用性への開発者の継続的な関心を反映していました。公共財 & DAO トラックでは、いくつかのプロジェクトが現実世界の社会的影響に取り組みました。例えば、ホームレスを支援するための分散型アイデンティティと援助のための DApp (NFT とコミュニティ資金を活用、以前の ReFi ハックを彷彿とさせるアイデア) などです。再生金融 (ReFi) のコンセプト、例えば新しいメカニズムを介して公共財に資金を提供するようなものは、ETHDenver の再生のテーマを反映して、引き続き登場しました。

最終的な受賞者はメインイベントの終わりまでに祝福されましたが、真の価値はイノベーションのパイプラインにありました。400 以上のプロジェクト提出があり、その多くはイベント後も存続します。ETHDenver のハッカソンは、将来のスタートアップを生み出す実績があります (実際、過去の BUIDLathon プロジェクトのいくつかは、自らスポンサーに成長しました)。投資家や技術者にとって、このハッカソンは最先端のアイデアへの窓を提供し、次世代の Web3 スタートアップがオンチェーンゲーミング、AI を注入した DApp、クロスチェーンインフラ、社会的影響をターゲットにしたソリューションなどの分野で出現する可能性を示唆しています。開発者に約 100 万ドルの報奨金が支払われたことで、スポンサーはこれらのイノベーションを育成するために、言葉だけでなく実際に行動で示したことになります。

ネットワーキングイベントと投資家との交流

ETHDenver はコードを書くだけの場ではありません。つながりを作ることも同様に重要です。2025 年、このフェスティバルは、スタートアップ、投資家、コミュニティビルダー向けに調整された公式および非公式のイベントでネットワーキングをさらに強化しました。目玉イベントの一つは、Bufficorn Ventures (BV) Startup Rodeo でした。これは、厳選された 20 のスタートアップがサイエンスフェア形式の展示会で投資家にデモを行う、エネルギッシュなショーケースです。3 月 1 日にメインホールで開催された Startup Rodeo は、ピッチコンテストというよりも「スピードデート」のようだと評されました。創設者たちはテーブルに陣取り、参加しているすべての投資家がアリーナを歩き回りながら、1 対 1 でプロジェクトを売り込みました。この形式により、初期段階のチームでさえ、VC や戦略的パートナー、提携先と有意義な対面時間を確保できました。多くのスタートアップは、ETHDenver に集中している Web3 ファンドの存在を活用し、これを顧客と資金を見つけるための出発点として利用しました。

カンファレンスの最終日には、メインステージで BV BuffiTank Pitchfest が注目を集めました。これは、ETHDenver コミュニティから選ばれた「最も革新的な」初期段階のスタートアップ 10 社が登場する、より伝統的なピッチコンペティションです。これらのチーム (ハッカソンの受賞者とは別) は、トップ VC や業界リーダーのパネルにビジネスモデルを売り込み、称賛と潜在的な投資オファーを競いました。Pitchfest は、ETHDenver がディールフローの創出源としての役割を果たしていることを示していました。これは、特に SporkDAO コミュニティに関連する、*「すでに組織化され…投資、顧客、露出を求めている」*チームを明確にターゲットにしていました。受賞者への報酬は単純な賞金ではなく、Bufficorn Ventures のポートフォリオや他のアクセラレーターコホートに参加するという約束でした。本質的に、ETHDenver は Web3 版のミニ「マネーの虎」を創出し、コミュニティの最高のプロジェクトに投資家の注目を集めました。

これらの公式ショーケース以外にも、1 週間は投資家と創設者の交流会で満載でした。Belong が編集したガイドによると、注目すべきサイドイベントには、2 月 27 日に CertiK Ventures が主催した**「VC と会おう」ハッピーアワー**、3 月 1 日の StarkNet VC & Founders Lounge、さらには**「Pitch & Putt」というゴルフをテーマにしたピッチイベントのようなカジュアルな催しもありました。これらの集まりは、創設者がベンチャーキャピタリストと気軽に交流できるリラックスした環境を提供し、しばしばカンファレンス後のフォローアップミーティングにつながりました。多くの新興 VC ファーム**の存在もパネルで感じられました。例えば、EtherKnight Stage のセッションでは、Reflexive Capital、Reforge VC、Topology、Metalayer、Hash3 のような新しいファンドが、どのトレンドに最も興奮しているかを強調しました。初期の兆候によれば、これらの VC は、分散型ソーシャルメディア、AI、新しいレイヤー 1 インフラなどの分野に熱心でした (各ファンドは、競争の激しい VC 環境で差別化するためにニッチを切り開いています)。

ETHDenver のネットワーキングを活用しようとする専門家にとって、重要な教訓はサイドイベントやターゲットを絞った交流会の価値です。取引やパートナーシップは、ステージ上よりもコーヒーやカクテルを飲みながら生まれることがよくあります。ETHDenver 2025 の無数の投資家向けイベントは、Web3 の資金調達コミュニティが、低迷する市場であっても積極的に才能とアイデアを探していることを示しています。洗練されたデモと明確な価値提案 (しばしばイベントのハッカソンの勢いを活用) を準備してきたスタートアップは、受容的な聴衆を見つけました。一方、投資家はこれらの交流を利用して、開発者コミュニティの動向を測りました。今年の最も優秀なビルダーはどのような問題を解決しているのか?要するに、ETHDenver はネットワーキングが BUIDLing と同じくらい重要であることを再確認させました。それは、偶然の出会いがシード投資につながったり、洞察に満ちた会話が次の大きなコラボレーションの火付け役になったりする場所なのです。

Web3 におけるベンチャーキャピタルのトレンドと投資機会

ETHDenver 2025 を通じて、微妙ながらも重要な物語は、Web3 ベンチャーキャピタル自体の進化する状況でした。より広範な暗号資産市場の浮き沈みにもかかわらず、ETHDenver の投資家は、有望な Web3 プロジェクトに対する強い意欲を示しました。現地の Blockworks の記者たちは、「マクロの逆風にもかかわらず、どれだけ多くのプライベートキャピタルが暗号資産に流れ込み続けているか」を指摘し、最もホットなアイデアのシードステージの評価額はしばしば非常に高額でした。実際、暗号資産ネイティブのファンドから Web3 に手を出す伝統的なテック投資家まで、多数の VC が存在していたことは、ETHDenver が依然としてディールメイキングのハブであることを明確にしました。

VC が議論し、後援していた内容から、新たなテーマ別の焦点を読み取ることができました。AI x 暗号資産のコンテンツ (ハッカソントラック、パネルなど) の普及は、開発者のトレンドであるだけでなく、**「DeFi と AI の出会い」**という結びつきに対するベンチャーの関心を反映しています。多くの投資家は、ベンチャーが後援する AI ハックハウスやサミットが証明するように、ブロックチェーン上で機械学習や自律エージェントを活用するスタートアップに注目しています。同様に、DePIN と現実世界資産 (RWA) のトークン化への強い焦点は、ファンドがブロックチェーンを実体経済の資産や物理デバイスに接続するプロジェクトに機会を見出していることを示しています。専用の RWA Day (2 月 26 日) は、トークン化された資産の未来に関する B2B イベントであり、ベンチャースカウトがその分野で次の Goldfinch や Centrifuge (つまり、現実世界の金融をオンチェーンにもたらすプラットフォーム) を積極的に探していることを示唆しています。

もう一つの観察可能なトレンドは、資金調達モデルの実験の増加でした。前述の ICO 対 VC の議論は、単なるカンファレンスの演劇ではありませんでした。それは、よりコミュニティ中心の資金調達への実際のベンチャーの動きを反映しています。ETHDenver の一部の VC は、ハイブリッドモデル (例: 初期ラウンドにコミュニティを巻き込むベンチャー支援のトークンローンチ) へのオープンな姿勢を示しました。さらに、公共財への資金提供とインパクト投資も議論の対象となりました。ETHDenver の再生の精神に基づき、投資家でさえ、次の DeFi や NFT のブームを追いかけるだけでなく、オープンソースのインフラと開発者を長期的にどのように支援するかについて議論しました。*「未来への資金提供: オンチェーンスタートアップのための進化するモデル」*のようなパネルでは、従来の VC 資金を補完するために、助成金、DAO の財務投資、クアドラティック・ファンディングなどの代替案が探求されました。これは、プロジェクトが資本化される方法が成熟していることを示しています。ベンチャーキャピタル、エコシステムファンド、コミュニティ資金が連携して機能する混合モデルです。

機会の観点から、Web3 の専門家と投資家は、ETHDenver のベンチャーダイナミクスからいくつかの実用的なインサイトを得ることができます。(1) インフラは依然として王様である – 多くの VC は、業界のバックボーンとして、つるはしとシャベル (L2 スケーリング、セキュリティ、開発ツール) が依然として価値の高い投資であると表明しました。(2) AI/ブロックチェーンの融合や DePIN のような新しい垂直分野は、新たな投資フロンティアである – これらの分野で最新情報を入手したり、そこでスタートアップを見つけたりすることは、やりがいのあることかもしれません。(3) コミュニティ主導のプロジェクトや公共財は、新しい資金調達方法を見出すかもしれない – 賢明な投資家は、これらを持続的に支援する方法を見つけ出しています (例えば、分散型ガバナンスや共有所有権を可能にするプロトコルへの投資)。全体として、ETHDenver 2025 は、Web3 のベンチャー環境は競争が激しいものの、確信に満ちていることを示しました。DeFi、NFT、ゲーミングなどの未来を構築する人々には資本が利用可能であり、弱気市場で生まれたアイデアでさえ、適切なトレンドをターゲットにすれば支援を見つけることができます。

開発者向けリソース、ツールキット、サポートシステム

ETHDenver は常にビルダー中心であり、2025 年も例外ではありませんでした。Web3 開発者向けの豊富なリソースとサポートを備えたオープンソース開発者カンファレンスとしても機能しました。BUIDLWeek 中、参加者は様々な分野にわたるライブワークショップ、技術ブートキャンプ、ミニサミットにアクセスできました。例えば、開発者は Bleeding Edge Tech Summit に参加して最新のプロトコルを試したり、On-Chain Legal Summit に立ち寄ってコンプライアンスに準拠したスマートコントラクト開発について学んだりすることができました。主要なスポンサーやブロックチェーンチームは、実践的なセッションを実施しました。Polkadot のチームは、パラチェーンを立ち上げるためのハッカーハウスやワークショップを主催しました。EigenLayer は、開発者にそのセキュリティレイヤーの活用方法を教えるための「リステーキングブートキャンプ」を主導しました。Polygon と zkSync は、ゼロ知識技術でスケーラブルな DApp を構築するためのチュートリアルを提供しました。これらのセッションは、コアエンジニアとの貴重な対面時間を提供し、開発者が統合に関する支援を受け、新しいツールキットを直接学ぶことを可能にしました。

メインイベント期間中、会場には専用の #BUIDLHub とメーカースペースが設けられ、ビルダーは協力的な環境でコーディングし、メンターにアクセスすることができました。ETHDenver の主催者は、詳細な BUIDLer ガイドを公開し、現場でのメンターシッププログラムを促進しました (スポンサーからの専門家が技術的な問題でチームの障害を取り除くために待機していました)。開発者向けツール企業も多数参加していました。Alchemy や Infura (ブロックチェーン API) から Hardhat や Foundry (スマートコントラクト開発) まで。多くがイベントで新しいリリースやベータツールを発表しました。例えば、MetaMask のチームは、ガス代の抽象化と DApp 開発者向けの改善された SDK を特徴とする主要なウォレットアップデートをプレビューし、アプリがユーザーのためにガス代をカバーする方法を簡素化することを目指しました。いくつかのプロジェクトはSDK やオープンソースライブラリをローンチしました。Coinbase の AI エージェント用 「Agent Kit」 と共同の Open Agents Alliance ツールキットが紹介され、Story.xyz は独自のハッカソンイベント中にオンチェーン知的財産ライセンスのための Story SDK を宣伝しました。

報奨金とハッカーサポートが、開発者体験をさらに向上させました。62 のスポンサーから 180 以上の報奨金が提供され、ハッカーは事実上、特定の課題のメニューから選択することができ、それぞれにドキュメント、オフィスアワー、時には特注のサンドボックスが付属していました。例えば、Optimism の報奨金は、開発者に最新の Bedrock オペコードを使用するよう挑戦し (彼らのエンジニアが支援のために待機)、Uniswap のチャレンジは、オフランプ統合のための新しい API へのアクセスを提供しました。公式の ETHDenver モバイルアプリや Discord チャンネルのような調整と学習のためのツールは、開発者にスケジュールの変更、サイドクエスト、さらには ETHDenver の求人掲示板を介した求人情報を知らせ続けました。

注目すべきリソースの一つは、クアドラティック・ファンディングの実験とオンチェーン投票への重点でした。ETHDenver はハッカソンの審査にクアドラティック・ボーティングシステムを統合し、多くの開発者にその概念を紹介しました。さらに、Gitcoin や他の公共財グループの存在は、開発者がイベント後に自分たちのプロジェクトのための助成金について学ぶことができることを意味しました。要するに、ETHDenver 2025 は、開発者に最先端のツール (SDK、API)専門家の指導、そしてプロジェクトを継続するためのフォローアップサポートを提供しました。業界の専門家にとって、これは教育、ツール、資金提供を通じて開発者コミュニティを育成することが重要であることの再認識です。ハイライトされたリソースの多く (新しい SDK や改善された開発環境など) は現在公開されており、世界中のチームに ETHDenver で共有されたものの肩の上に立って構築する機会を提供しています。

ETHDenver 体験を豊かにするサイドイベントとコミュニティの集まり

ETHDenver を真に際立たせているのは、そのフェスティバルのような雰囲気です。公式・非公式を問わず、数十のサイドイベントがメインカンファレンスの周りで豊かな経験のタペストリーを創り出しました。2025 年、公式コンテンツが開催された National Western Complex を超えて、街全体がミートアップ、パーティー、ハッカソン、コミュニティの集まりで賑わいました。これらのサイドイベントは、しばしばスポンサーや地元の Web3 グループによって主催され、より広範な ETHDenver 体験に大きく貢献しました。

公式面では、ETHDenver 自身のスケジュールにテーマ別のミニイベントが含まれていました。会場にはNFT アートギャラリー、ブロックチェーンアーケード、DJ チルドーム、さらにはリラックスするための禅ゾーンのようなゾーンがありました。主催者はまた、オープニングやクロージングパーティーなどの夜のイベントも開催しました。例えば、Story Protocol による 2 月 26 日の**「Crack’d House」非公式オープニングパーティーは、芸術的なパフォーマンスとハッカソンの授賞式を融合させました。しかし、真に増殖したのはコミュニティ主導のサイドイベント**でした。イベントガイドによると、ETHDenver の Luma カレンダーでは 100 以上のサイドイベントが追跡されていました。

いくつかの例が、これらの集まりの多様性を示しています:

  • 技術サミット & ハッカーハウス: ElizaOS と EigenLayer は、AI+Web3 愛好家のために 9 日間の Vault AI Agent Hacker House レジデンシーを実施しました。StarkNet のチームは、数日間のハッカーハウスを主催し、その ZK ロールアップ上のプロジェクトのためのデモナイトで締めくくりました。これらは、開発者がメインのハッカソンの外で特定の技術スタックで協力するための集中した環境を提供しました。
  • ネットワーキングミキサー & パーティー: 毎晩、選択肢のリストが提供されました。2 月 27 日の Builder Nights Denver は、MetaMask、Linea、EigenLayer、Wormhole などがスポンサーとなり、イノベーターたちが食事や飲み物を片手にカジュアルなトークを交わすために集まりました。Belong が支援する 3VO’s Mischief Minded Club Takeover は、コミュニティトークン化のリーダーたちのためのハイレベルなネットワーキングパーティーでした。純粋に楽しみたい人々のために、BEMO Rave (Berachain などと共に) や rAIve the Night (AI をテーマにしたレイブ) は、暗号資産の群衆を夜遅くまで踊らせ続け、音楽、アート、暗号文化を融合させました。
  • 特定関心事の集まり: ニッチなコミュニティも自分たちの場所を見つけました。Meme Combat は、純粋にミーム愛好家が暗号資産におけるミームの役割を祝うためのイベントでした。House of Ink は、NFT アーティストやコレクターを対象とし、没入型アート会場 (Meow Wolf Denver) をデジタルアートのショーケースに変えました。2 月 26 日の SheFi Summit は、World of Women や Celo のようなグループの支援を受け、Web3 の女性たちが講演やネットワーキングのために集まり、多様性と包括性へのコミットメントを強調しました。
  • 投資家 & コンテンツクリエーターのミートアップ: VC イベントについてはすでに触れましたが、さらに、2 月 28 日の KOL (キーオピニオンリーダー) Gathering では、暗号資産のインフルエンサーやコンテンツクリエーターがエンゲージメント戦略について議論し、ソーシャルメディアと暗号コミュニティの交差点を示しました。

重要なことに、これらのサイドイベントは単なるエンターテイメントではありませんでした。それらはしばしば、それ自体がアイデアと関係性のインキュベーターとして機能しました。例えば、Tokenized Capital Summit 2025 は、オンチェーンでの資本市場の未来を深く掘り下げ、参加したフィンテック起業家とブロックチェーン開発者の間のコラボレーションを 촉発した可能性があります。On-Chain Gaming Hacker House は、ゲーム開発者がベストプラクティスを共有する場を提供し、ブロックチェーンゲームプロジェクト間の相互作用につながるかもしれません。

大規模なカンファレンスに参加する専門家にとって、ETHDenver のモデルは、価値はメインステージ上と同じくらい、その外にもあることを強調しています。非公式なプログラミングの幅広さにより、参加者は自分の経験を調整することができました。目標が投資家に会うこと、新しいスキルを学ぶこと、共同創設者を見つけること、あるいは単にリラックスして仲間意識を築くことであっても、そのためのイベントがありました。多くのベテランは新参者にこうアドバイスします。「講演に参加するだけでなく、ミートアップに行って挨拶をしなさい。」Web3 のようなコミュニティ主導の空間では、これらの人間的なつながりが、しばしば DAO のコラボレーション、投資取引、あるいは少なくとも、大陸を越えて続く友情に変わります。ETHDenver 2025 の活気に満ちたサイドシーンは、コアカンファレンスを増幅させ、デンバーでの 1 週間を多次元的なイノベーションのフェスティバルに変えました。

主要な教訓と実用的なインサイト

ETHDenver 2025 は、イノベーションとコラボレーションが花開いた Web3 業界を実証しました。この分野の専門家にとって、この詳細な分析からいくつかの明確な教訓と行動項目が浮かび上がります:

  • トレンドの多様化: このイベントは、Web3 がもはや一枚岩ではないことを明らかにしました。AI 統合、DePIN、RWA トークン化のような新たな領域は、DeFi や NFT と同じくらい顕著です。実用的なインサイト: 常に情報を入手し、適応性を保つこと。 リーダーは、次の成長の波に乗るために、これらの台頭する垂直分野に研究開発や投資を割り当てるべきです (例: AI が自社の DApp をどのように強化できるか、または現実世界の資産が DeFi プラットフォームにどのように統合されるかを調査する)。
  • クロスチェーンが未来: 主要な非イーサリアムプロトコルが積極的に参加することで、エコシステム間の壁は低くなっています。相互運用性とマルチチェーンのユーザーエクスペリエンスは、MetaMask が Bitcoin/Solana のサポートを追加したことから、Polkadot や Cosmos ベースのチェーンがイーサリアム開発者を惹きつけたことまで、大きな注目を集めました。実用的なインサイト: マルチチェーンの世界を前提に設計すること。 プロジェクトは、他のチェーンの流動性やユーザーを活用する統合やブリッジを検討すべきであり、専門家は孤立するのではなく、コミュニティを越えたパートナーシップを求めるかもしれません。
  • コミュニティ & 公共財の重要性: 「再生者の年」というテーマは単なる美辞麗句ではありませんでした。それは、公共財への資金提供に関する議論、ハックのためのクアドラティック・ボーティング、SheFi Summit のようなイベントを通じて、コンテンツに浸透していました。倫理的で持続可能な開発とコミュニティの所有権は、イーサリアムの精神における重要な価値です。実用的なインサイト: 再生の原則を取り入れること。 オープンソースイニシアチブを支援すること、公正なローンチメカニズムを使用すること、またはビジネスモデルをコミュニティの成長と一致させることを通じて、Web3 企業は純粋に収奪的でないことで、好意と長寿を得ることができます。
  • 投資家心理 – 慎重かつ大胆: 弱気市場の噂にもかかわらず、ETHDenver は VC が積極的にスカウトしており、Web3 の次の章に大きく賭ける意欲があることを示しました。しかし、彼らはまた、投資方法を再考しています (例: より戦略的に、プロダクトマーケットフィットに対する監視を強化し、コミュニティ資金調達へのオープンな姿勢)。実用的なインサイト: スタートアップであれば、ファンダメンタルズとストーリーテリングに集中すること。 際立っていたプロジェクトは、明確なユースケースと、しばしば動作するプロトタイプ (週末に構築されたものも) を持っていました。投資家であれば、カンファレンスはインフラ (L2、セキュリティ、開発ツール) が依然として優先度が高いことを確認しましたが、AI、ゲーミング、ソーシャルにおけるテーゼを通じて差別化することで、ファンドを最前線に位置づけることができます。
  • 開発者体験の向上: ETHDenver は、アカウント抽象化ツールからオンチェーン AI ライブラリまで、Web3 開発の障壁を下げる多くの新しいツールキット、SDK、フレームワークを浮き彫りにしました。実用的なインサイト: これらのリソースを活用すること。 チームは、発表された最新の開発ツールを試すべきです (例: より簡単なログインのために zkSync Smart SSO を試す、または AI プロジェクトのために Open Agents Alliance のリソースを使用する) เพื่อ開発を加速し、競争の先を行くために。さらに、企業は才能とアイデアを発掘する方法として、ハッカソンやオープンな開発者フォーラムに引き続き関与すべきです。ETHDenver がハッカーを創業者に変えることに成功したことは、そのモデルの証明です。
  • サイドイベントの力: 最後に、サイドイベントの爆発的な増加は、ネットワーキングにおける重要な教訓を教えてくれました – 機会はしばしばカジュアルな場で現れます。ハッピーアワーでの偶然の出会いや、小さなミートアップでの共通の関心が、キャリアを決定づけるつながりを生み出すことがあります。実用的なインサイト: 業界のカンファレンスに参加する人は、公式のアジェンダを超えて計画すること。 自分の目標に合ったサイドイベント (投資家に会う、ニッチなスキルを学ぶ、人材を募集するなど) を特定し、積極的に関与すること。デンバーで見たように、1 週間のエコシステムに完全に没頭した人々は、知識だけでなく、新しいパートナー、採用者、友人を得て帰りました。

結論として、ETHDenver 2025 は Web3 業界の勢いの縮図でした – 最先端の技術談義、情熱的なコミュニティのエネルギー、戦略的な投資の動き、そして真剣なイノベーションと楽しさを融合させた文化のブレンドです。専門家は、このイベントからのトレンドとインサイトを、Web3 が向かう先のロードマップとして見るべきです。実用的な次のステップは、これらの学び (AI への新たな焦点、L2 チームとのつながり、ハッカソンプロジェクトからのインスピレーションなど) を戦略に変換することです。ETHDenver のお気に入りのモットーの精神に基づき、これらのインサイトを基に #BUIDL し、デンバーに集まった多くの人々が思い描いた分散型の未来を形作る手助けをする時です。

Altera.al は採用中:デジタルヒューマン開発のパイオニアに参加しよう($600K-1M 報酬)

· 約3分

Altera.al の変革的な機会をご紹介できることを嬉しく思います。同社はデジタルヒューマンの開発で画期的な成果を上げた AI スタートアップで、最近 MIT Technology Review に取り上げられました。AI エージェントが人間らしい行動を学習し、コミュニティを形成し、デジタル空間で意味のある相互作用を行えるようになるという、画期的な研究を実証しています。

Altera.al:デジタルヒューマン開発の最前線に参加し、$600K-1M の報酬を得よう

Altera.al について

MIT の計算神経科学助教を辞めてこのビジョンに挑んだロバート・ヤンが創業。A16Z やエリック・シュミット氏の新興テック VC など、権威ある投資家から 1,100 万ドル以上の資金調達に成功しています。最近の Project Sid デモでは、AI エージェントが自発的に専門的役割を持ち、社会的つながりを形成し、Minecraft 内で文化システムさえ構築する様子が示されました。これは、スケールで協働できる真に自律的な AI エージェントを創出するという目標に向けた重要な一歩です。

今が参加の絶好のタイミングである理由

Altera.al は、人間の根本的な特性を備えた機械の開発というミッションで、重要な技術的ブレークスルーを達成しました。従来の AI 開発を超えて、以下のようなデジタル存在を創り出しています。

  • コミュニティと社会階層の形成
  • 専門的役割と責任の開発
  • 文化的パターンの創造と拡散
  • デジタル空間で人間と意味のある相互作用

求める人材

最近のブレークスルーに続き、Altera.al はチームを拡大中です。以下の分野で活躍できる方に、600,000から600,000 から 1,000,000 の報酬パッケージを提供します。

  • AI エージェント研究のエキスパート
  • 以下の領域で高い個人貢献力を持つ方
    • 分散システム
    • セキュリティ
    • オペレーティングシステム

応募方法

この画期的な旅に参加したい方は、直接キャリアページからご応募ください: https://jobs.ashbyhq.com/altera.al

デジタルヒューマン開発の未来へ

AI と人間行動モデリングの交差点で、すでに顕著な成果を上げているチームと共に働くユニークな機会です。AI と人間‑機械相互作用の可能性を押し広げる情熱がある方は、Altera.al が次なる冒険の舞台になるでしょう。


最新のテック・ブロックチェーン分野の画期的な機会については、Twitter または Discord コミュニティでフォローしてください。

本投稿は、イノベーションを支援し、テック業界における変革的な機会と才能を結びつけるという当社の継続的なコミットメントの一環です。

A16ZのCrypto 2025展望:次のインターネットを再構築するかもしれない12のアイデア

· 約9分

毎年、a16z は私たちの未来を形作るテクノロジーについて大胆な予測を発表しています。今回は、暗号チームがブロックチェーン、AI、そして高度なガバナンス実験が衝突する 2025 年の鮮やかなビジョンを描きました。

以下に主要な洞察を要約し、コメントを付けました。変化を促す大きなレバーと、潜在的な障壁に焦点を当てています。テックビルダー、投資家、あるいは次のインターネット波に興味がある方はぜひご一読ください。

1. AI と暗号ウォレットの出会い

重要な洞察: AI モデルは「背景の NPC」から「主役」へと変わり、オンライン(そして場合によっては物理的)経済で独立して行動します。つまり、AI も自分専用の暗号ウォレットを必要とします。

  • 意味すること: AI が単に回答を出すだけでなく、デジタル資産を保有・支出・投資し、人間オーナーの代わり、あるいは完全に自律的に取引できるようになる。
  • 潜在的なリターン: 高効率な「エージェント AI」はサプライチェーン調整、データ管理、アルゴリズム取引などで企業を支援できる。
  • 注意点: AI が本当に自律的で、人間に裏で操作されていないことをどう保証するか。TEE(信頼実行環境)は技術的保証を提供できるが、「ウォレットを持つロボット」への信頼は一朝一夕には築けない。

2. 分散型自律チャットボット(DAC)の台頭

重要な洞察: TEE 内で自律的に動作するチャットボットは、鍵管理、SNS への投稿、フォロワー獲得、収益化までを人間の介入なしで行える。

  • 意味すること: 任意の個人に黙らせられない AI インフルエンサー。文字通り自分自身を制御している。
  • 潜在的なリターン: コンテンツクリエイターが個人ではなく、自己統治型アルゴリズムとして数百万(あるいは数十億)ドルの評価を受ける世界の先駆け。
  • 注意点: AI が法令違反をした場合の責任は誰にあるのか。コードだけが存在する「実体」の規制は非常に難しい。

3. 本人性証明(Proof of Personhood)の必須化

重要な洞察: AI が超リアルな偽造コンテンツを安価に生成できる時代、オンラインで本物の人間とやり取りしているかを確認する手段が必要になる。プライバシー保護型のユニーク ID が鍵となる。

  • 意味すること: すべてのユーザーに認証済みの「人間スタンプ」が付与される可能性。個人データを犠牲にしないことが前提。
  • 潜在的なリターン: スパム・詐欺・ボット軍団の激減。信頼性の高いソーシャルネットワークやコミュニティプラットフォームの基盤が整う。
  • 注意点: 採用率が最大の壁。最良の本人性証明でも、悪意あるアクターが追い抜く前に広範な受容が必要。

4. 予測市場から情報集約への拡張

重要な洞察: 2024 年の選挙予測市場は話題になったが、a16z はそれ以上のトレンドを見ている。ブロックチェーンを使って真実を公開・集約する新手法が、ガバナンス、金融、コミュニティ意思決定に応用される。

  • 意味すること: 分散型インセンティブメカニズムが正直なインプットやデータ提供を報酬化。ローカルなセンサーネットワークからグローバルなサプライチェーンまで、あらゆる領域に「真実市場」が誕生するかもしれない。
  • 潜在的なリターン: 社会全体のデータ層が透明化され、ゲーム化しにくくなる。
  • 注意点: 十分な流動性とユーザー参加が課題。ニッチな質問では「予測プール」の規模が小さく、意味のあるシグナルが得られにくい。

5. ステーブルコインのエンタープライズ化

重要な洞察: ステーブルコインはすでにデジタルドルの最安搬送手段だが、大企業はまだ本格導入していない ― まだ

  • 意味すること: 中小企業や高頻度取引業者は、クレジットカード手数料を削減できることに気付くだろう。年商数十億ドル規模の企業が同様に採用すれば、利益率が約 2% 向上する可能性がある。
  • 潜在的なリターン: 迅速で低コストな国際決済、ステーブルコインを基盤とした新たな金融商品群の誕生。
  • 注意点: 企業は詐欺防止、本人確認、返金処理といった、従来はカード会社が担っていた機能を自前で構築する必要がある。

6. ブロックチェーン上の国債

重要な洞察: 政府がオンチェーン国債を検討すれば、中央銀行デジタル通貨(CBDC)とは異なるプライバシー問題を抱えない金利付デジタル資産が生まれる。

  • 意味すること: オンチェーン国債は DeFi における高品質担保として機能し、主権債務が分散型貸付プロトコルとシームレスに統合できる。
  • 潜在的なリターン: 透明性向上、発行コスト削減の可能性、より民主的な債券市場の実現。
  • 注意点: 規制当局の懐疑心と、既存の大手金融機関の慣性。レガシーのクリアリングシステムは簡単には消えない。

7. 『DUNA』― DAO の法的基盤

重要な洞察: ワイオミング州は「分散型非法人非営利協会(DUNA)」という新カテゴリーを創設し、米国における DAO の法的地位を確立しようとしている。

  • 意味すること: DAO は資産保有、契約締結、トークン保有者の責任限定が可能になる。これにより、主流の商取引や実務活動への参入障壁が下がる。
  • 潜在的なリターン: 他州がワイオミングに続けば(LLC がそうだったように)DAO は普通の事業体として扱われるようになる。
  • 注意点: DAO が実際に「何をするのか」についての世間認識はまだ曖昧。実社会に利益をもたらす成功事例が求められる。

8. リアルワールドでのリキッド・デモクラシー

重要な洞察: ブロックチェーンベースのガバナンス実験は、オンライン DAO だけでなく地方選挙へも拡大できる。投票者は投票権を委任したり、直接投票したりできる ― 「リキッド・デモクラシー」。

  • 意味すること: 柔軟な代表制。特定課題だけ投票するか、信頼できる人物に委任できる。
  • 潜在的なリターン: 市民参加の活性化と、動的な政策決定プロセス。
  • 注意点: セキュリティリスク、技術リテラシー、そしてブロックチェーンと公的選挙の組み合わせに対する一般的な懐疑心。

9. 既存インフラの活用(再発明の回避)

重要な洞察: スタートアップはしばしばコンセンサスプロトコルやプログラミング言語といった基盤技術を再発明しがちだが、2025 年には既製コンポーネントの採用が増えるだろう。

  • 意味すること: 市場投入までのスピードが上がり、システムの信頼性が向上し、コンポジション性も高まる。
  • 潜在的なリターン: ゼロからブロックチェーンを構築する時間が削減され、ユーザー課題の解決に注力できる。
  • 注意点: パフォーマンス向上を狙って過度に特殊化すると、開発者にとってのオーバーヘッドが増えるリスクがある。

10. ユーザー体験優先、インフラは後回し

重要な洞察: 暗号は「配線を隠す」必要がある。メール送信に SMTP を学ばせないのと同様に、ユーザーに EIP やロールアップを学ばせるべきではない。

  • 意味すること: プロダクトチームは優れたユーザー体験を実現できる技術基盤を選択し、逆に技術が体験を決めるのではなくなる。
  • 潜在的なリターン: ユーザーオンボーディングが大幅に改善し、専門用語やフリクションが減少。
  • 注意点: 「作ってみれば来る」戦略は、体験が本当に優れていなければ機能しない。プライベートキー管理や暗号用語の暗記を強要され続ける限り、ユーザーは離脱する。

11. 暗号独自のアプリストアの出現

重要な洞察: Worldcoin の World App マーケットプレイスや Solana の dApp Store など、暗号フレンドリーなプラットフォームは Apple や Google のゲートキーパーから解放された配布・発見の場を提供する。

  • 意味すること: 分散型アプリを構築すれば、突然のプラットフォーム停止を恐れずにユーザーにリーチできる。
  • 潜在的なリターン: 数日で数万(あるいは数十万)ユーザーが dApp に出会える可能性。集中型アプリストアの海に埋もれる心配が減る。
  • 注意点: これらのストアが Apple・Google に匹敵するユーザーベースと勢いを持つかが鍵。ハードウェア(暗号専用スマホ)との連携が助けになるかもしれない。

12. 「非伝統的」資産のトークン化

重要な洞察: ブロックチェーンインフラが成熟し手数料が下がるにつれ、生体データから実物の珍品まで、あらゆるものをトークン化するハードルが低くなる。

  • 意味すること: 「ロングテール」的なユニーク資産が分割所有・グローバル取引可能になる。個人データを本人の同意のもとで収益化できる可能性も。
  • 潜在的なリターン: これまで「ロックされた」資産に対する巨大な新市場と、AI が活用できる新たなデータプールの創出。
  • 注意点: プライバシーリスクと倫理的ジレンマ。イノベーションが社会的に受容されるかは、慎重なガバナンス次第。

0Gの分散AIオペレーティングシステムは、スケールでAIをオンチェーンに本当に推進できるか?

· 約11分

2024年11月13日、0G LabsHack VC、Delphi Digital、OKX Ventures、Samsung Next、Animoca Brandsが主導する4000万ドルの資金調達ラウンドを発表し、分散AIオペレーティングシステムの開発チームが注目を浴びました。モジュラーアプローチで分散ストレージ、データ可用性検証、分散決済を組み合わせ、オンチェーンでAIアプリケーションを実現します。しかし、GB/秒レベルのスループットを実現し、Web3上で次世代AI採用を加速できるでしょうか?本稿では、0Gのアーキテクチャ、インセンティブ設計、エコシステムの動向、潜在的リスクを徹底評価し、0Gが約束を実現できるかを検証します。

背景

AI分野は、ChatGPTERNIE Botといった大規模言語モデルに牽引され、急速に拡大しています。AIはチャットボットや生成テキストに留まらず、AlphaGoの囲碁勝利やMidJourneyの画像生成など多岐にわたります。多くの開発者が目指す究極の目標は、AGI(汎用人工知能)、すなわち人間に近い学習・認知・意思決定・実行能力を持つAI「エージェント」です。

しかし、AIおよびAIエージェントはデータ集約型であり、膨大なデータセットがトレーニング・推論に必要です。従来は集中型インフラでデータを保管・処理してきましたが、ブロックチェーンの登場により**DeAI(分散AI)**という新概念が生まれました。DeAIは分散ネットワークを活用し、データの保存・共有・検証を行うことで、集中型AIの課題を克服しようとします。

0G LabsはこのDeAIインフラ領域で際立った存在であり、**「0G」**という分散AIオペレーティングシステムの構築を目指しています。

0G Labsとは?

従来のコンピュータでは、**OS(オペレーティングシステム)**がハードウェアとソフトウェア資源を管理し、ユーザーや開発者が容易に利用できるよう抽象化します(例:Windows、Linux、macOS、iOS、Android)。

0G OSはWeb3における同様の役割を担うことを目指しています:

  • 分散ストレージ、計算、データ可用性を管理する
  • オンチェーンAIアプリケーションのデプロイを簡素化する

なぜ分散化か? 従来のAIシステムはデータを集中型サイロに保存・処理し、透明性・プライバシー・データ提供者への公正な報酬といった課題があります。0Gは分散ストレージ、暗号証明、オープンインセンティブモデルを組み合わせ、これらのリスクを低減します。

**「0G」**は “Zero Gravity(無重力)” の略で、データ交換や計算が「重さを感じない」環境をイメージしています。2024年10月に正式設立された 0G Foundation は、AIを「公共財」として、誰でもアクセス・検証・利用できる状態にすることをミッションとしています。

0Gオペレーティングシステムの主要コンポーネント

0GはAIアプリケーション向けに設計されたモジュラーアーキテクチャで、3つの柱から構成されます:

  1. 0G Storage – 分散ストレージネットワーク
  2. 0G DA(Data Availability) – データ可用性レイヤー
  3. 0G Compute Network – 分散計算リソース管理・決済レイヤー

これらは 0G Chain と呼ばれる Layer1 ネットワークの下で連携し、コンセンサスと決済を担います。

0G Whitepaper(「0G: Towards Data Availability 2.0」)によれば、0G Storage と 0G DA は 0G Chain 上に構築され、開発者はカスタム PoS コンセンサスネットワーク を複数立ち上げて、DA と Storage のフレームワークとして利用できます。システム負荷が増大すれば、バリデータセットや専用ノードを動的に追加して水平スケーリングが可能です。

0G Storage

0G Storage は大規模データ向けの分散ストレージシステムで、インセンティブ付きノードがユーザーデータを保管します。データは Erasure Coding(EC) によって 小さな冗長「チャンク」 に分割され、複数ノードに分散保存されます。ノードが故障しても、冗長チャンクからデータ復元が可能です。

サポートされるデータタイプ

0G Storage は 構造化データ非構造化データ の両方に対応します。

  1. 構造化データKey-Value(KV)レイヤー に格納され、データベースや共同編集ドキュメントなど頻繁に更新される情報に適しています。
  2. 非構造化データLog レイヤー に格納され、時系列でデータを追記していく方式です。大規模なファイルやモデルウェイトの保存に最適です。

KV レイヤーを Log レイヤー上に積むことで、モデルウェイト(非構造化)からリアルタイムメトリクスやユーザー設定(構造化)まで、幅広いAIユースケースに対応できます。

PoRA コンセンサス

PoRA(Proof of Random Access) はストレージノードが実際にチャンクを保持していることを証明します。

  • ストレージマイナーは定期的に ランダムに選ばれたチャンク のハッシュ計算を要求されます。
  • 正しいハッシュを返すことで、PoW に似た暗号的証明を提供します。

公平性を保つため、マイニング競争は 8 TB セグメント に限定されます。大規模マイナーはハードウェアを複数の 8 TB パーティションに分割し、小規模マイナーは単一の 8 TB 境界内で競争します。

インセンティブ設計

データは 8 GB の「Pricing Segment」 に分割され、各セグメントに 寄付プール報酬プール が用意されます。ユーザーは ZG(0G Token) でストレージ料金を支払い、その一部がノード報酬に回ります。

  • ベース報酬:ノードが有効な PoRA 証明を提出すると、即座にブロック報酬が支払われます。
  • 継続報酬:寄付プールの一部(現在は年率 4 %)が報酬プールへ移行し、永続的な保存 をインセンティブ化します。保存ノードが少ないほど、各ノードのシェアは大きくなります。

ユーザーは 一度だけ 永続保存料を支払えばよく、システムが定める最低寄付額以上を設定すれば、マイナーがデータを複製しやすくなります。

ロイヤリティ機構:0G Storage では「ロイヤリティレコード」を作成し、他ノードが同じチャンクを保存する際に元ノードがデータを共有できます。新ノードが PoRA 証明を行うたびに、元データ提供者に継続的ロイヤリティが支払われます。データが広く複製されるほど、初期提供者の総報酬は増加します。

Filecoin・Arweave との比較

類似点

  • いずれも分散データ保存をインセンティブ化
  • 永続保存を目指す点(Arweave と 0G Storage)

相違点

  • ネイティブ統合:0G Storage は独立ブロックチェーンではなく 0G Chain に直接組み込まれ、AIユースケースに特化。
  • 構造化データ:KV レイヤーにより頻繁な読み書きが可能。
  • コスト:永続保存費用は $10–11/TB とされ、Arweave より安価。
  • パフォーマンス志向:AI スループット向けに最適化されており、Filecoin/Arweave は汎用的。

0G DA(Data Availability Layer)

データ可用性は、ネットワーク参加者全員がトランザクションデータを完全に検証・取得できることを保証します。データが欠損または隠蔽されると、ブロックチェーンの信頼前提が崩れます。

0G ではデータを オフチェーンでチャンク化 し、Merkle ルートをチェーン上に記録します。DA ノードは サンプリング によりチャンクが Merkle ルートと EC コミットメントに一致するか検証し、合格すれば可用性が確保されたとみなします。

ノード選択とコンセンサス

  • 画像パラメータ?title= に URL エンコードされたタイトルが渡されます。
  • バリデータ:PoS に基づくカスタムコンセンサスネットワークを複数立ち上げ、各ネットワークが独自の DA プロトコルを実装可能。
  • 水平スケーリング:負荷増大時に追加 DA ノードを投入し、サンプリング頻度と検証精度を維持します。

0G Compute Network

0G Compute は オンチェーンで計算リソースを予約・決済 できる分散コンピューティングレイヤーです。主な機能は以下の通りです:

  • 計算リソースのマーケットプレイス:インセンティブ付きノードが CPU / GPU 時間を提供。
  • 決済インフラ:0G Storage と同様に ZG で報酬・手数料を支払う仕組み。
  • プライバシー保護:計算結果は暗号化されたままチェーンに記録可能(将来的な zk‑Rollup との統合を想定)。

0G の技術的ハイライト

  • モジュラー設計:Storage、DA、Compute が独立かつ相互参照可能。
  • PoRA + PoS:データ保存とコンセンサスを分離し、スループット向上を実現。
  • 永続保存とロイヤリティ:データの長期保存と提供者報酬を自動的に循環。
  • EVM 互換性:0G Chain は EVM に対応し、既存のスマートコントラクトとシームレスに統合可能。
  • 高スループット志向:Erasure Coding と水平スケーリングにより、AI 推論の大量リクエストを処理できる見込み。

エコシステムとユースケース

0G は現在、以下の領域でパートナーシップを拡大中です:

  • 分散AIモデルホスティング:大規模言語モデルやマルチモーダルモデルの永続保存。
  • オンチェーンデータマーケット:データ提供者が ZG で報酬を受け取るデータ販売プラットフォーム。
  • プライバシー保護推論:ゼロ知識証明と組み合わせた機密推論サービス。
  • DAO 主導の AI ガバナンス:0G のインセンティブメカニズムを利用した DAO がモデル更新やパラメータ調整を投票で決定。

リスクと課題

項目説明
技術的成熟度PoRA、EC、サンプリングは理論上は有効だが、実装規模が大きくなるとネットワーク遅延や証明生成コストが増大する可能性。
トークンエコノミクスZG の価格変動がインセンティブの安定性に直結。市場価格が下落した場合、永続保存料が不足するリスク。
規制リスク分散ストレージと AI データの組み合わせは、データプライバシー法(GDPR、個人情報保護法)との整合性が求められる。
競合Filecoin、Arweave、IPFS、Ocean Protocol など既存分散ストレージ・データマーケットが成熟しつつある。差別化が持続できるかが鍵。
ユーザー体験日本語を含む多言語 UI の整備や、開発者向け SDK の充実が遅れると、採用が進まない恐れ。

結論と今後の展望

0G は AI スループットデータ可用性 を同時に解決しようとする、非常に野心的かつ技術的に高度なプロジェクトです。PoRA による永続保存ロイヤリティや、KV/Log の二層ストレージ設計は、AI モデルとリアルタイムデータのハイブリッド保存に適しています。一方で、GB/秒規模のスループットを実現するためには、バリデータ・ストレージノードの大規模な水平展開と、ネットワーク遅延の最適化が不可欠です。

現時点では、資金調達により 4000万ドル の開発リソースが確保され、プロトタイプの実装が進行中です。エコシステムパートナーシップ(例:DeFi プロトコル、AI スタートアップ)も拡大しており、Web3 上での AI 高スループット が実現すれば、分散AI市場のリーダーシップを獲得できる可能性があります。

次のステップ としては、以下が重要です:

  1. ベンチマークテスト:実際のモデル推論ワークロードで GB/秒レベルのスループットを測定。
  2. インセンティブチューニング:寄付率・ロイヤリティ率を市場状況に合わせて動的に調整。
  3. 開発者向け SDK のリリース:0G OS の API を標準化し、簡単にオンチェーン AI アプリを構築できる環境を提供。
  4. 規制対応:データプライバシーとトークンエコノミクスの法的枠組みを明確化。

総合的に見て、0G は 分散AIインフラの先駆者 としてのポテンシャルを有していますが、スケーラビリティとエコシステム成熟度が鍵となります。今後の技術実装と市場受容の動向を注視すべきでしょう。