メインコンテンツまでスキップ

「分散型コンピューティング」タグの記事が 3 件 件あります

分散型コンピューティングとクラウド

すべてのタグを見る

JAM Chain: Polkadotの分散型グローバルコンピュータへのパラダイムシフト

· 約 67 分
Dora Noda
Software Engineer

PolkadotのJAM (Join-Accumulate Machine) Chainは、Ethereumのローンチ以来最も重要なブロックチェーンアーキテクチャの革新であり、分散型コンピューティングの動作方法を根本的に再考するものです。2024年4月にGavin Wood博士によってJAM Gray Paperで発表されたJAMは、Polkadotをパラチェーンに特化したリレーチェーンから、42倍のデータ可用性(850 MB/秒)と理論上340万TPS以上の容量を持つ、汎用かつパーミッションレスな「ほぼコヒーレントなトラストレススーパーコンピュータ」へと変革します。このプロトコルは、350以上のコアにわたる並列実行を維持しつつ、動的なシャード境界内での同期的なコンポーザビリティを可能にすることで、現在のブロックチェーンシステムを悩ませる永続的なパーティショニング問題を解決します。EthereumのL2中心のロールアップ戦略やCosmosのソブリンゾーンモデルとは異なり、JAMは、新しいRISC-VベースのPolkadot Virtual Machine (PVM)と、すべての計算がRefine→Accumulateパイプラインを通じて流れるトランザクションレスアーキテクチャを使用して、コヒーレントな状態を持つシャーディングされた実行をコンセンサス層に直接組み込みます。43の実装チームが1,000万DOTの賞金を競い、複数のクライアントが2025年8月までに100%の適合性を達成し、2026年初頭のメインネット展開を目標としているJAMは、Ethereum 2.0の当初のビジョンが約束した、コンポーザビリティやセキュリティを犠牲にしないネイティブなスケーラブル実行を実現する位置にあります。

計算モデル: JAMプロセスが大規模にどのように機能するか

JAMは、CoreJAM (Collect, Refine, Join, Accumulate) と呼ばれる根本的に新しい計算パラダイムを導入します。これは、ブロックチェーンの実行を並列化と効率のために最適化された明確なフェーズに分割します。JAMという名前は、オンチェーン部分であるJoinとAccumulateに由来し、CollectとRefineはオフチェーンで発生します。このアーキテクチャは、連携して機能する2つの主要な実行環境を確立します。重い並列計算のためのインコア実行と、状態統合のためのオンチェーン実行です。

Refineステージ(インコア実行)では、ワークアイテムは複数のバリデータコアにわたってステートレスな並列処理を受け、各コアは6秒のタイムスロットあたり最大15 MBの入力データを処理し、最大90 KBの圧縮出力を生成します。これは驚くべき166倍の圧縮率です。このステージは、コアあたり6秒のPVM実行時間を提供し、現在のPolkadotパラチェーン検証機能(PVF)の2秒制限を3倍にします。Refine関数は、計算量の多い処理を完全にオフチェーンで実行し、プリイメージルックアップのみをステートフルな操作として、状態競合のない大規模な並列化を可能にします。

Refineの後、Accumulateステージ(オンチェーン実行)は、出力あたり約10ミリ秒に制限されたステートフルな操作を通じて、ワーク結果をチェーンの状態に統合します。この関数はすべてのバリデータで実行され、任意のサービスからストレージを読み取り、自身のキーバリューストアに書き込み、サービス間で資金を転送し、新しいサービスを作成し、コードをアップグレードし、プリイメージの可用性を要求できます。実行予算のシャープな対比 — オフチェーンで6秒、オンチェーンで10ミリ秒 — は、JAMの根本的な洞察を反映しています。高価な計算をオフチェーンにプッシュして並列化することで、システムは貴重なオンチェーン時間を重要な状態遷移のためだけに確保します。

JAMのサービスは、非同期のサービス間通信を処理するonTransferと呼ばれる3番目のエントリーポイントを定義します。このメッセージングシステムにより、サービスはブロッキングなしで相互作用でき、メッセージは即座の戻り値なしで送信されます。この設計は、複雑なクロスサービスインタラクションのためにセカンダリコアを介して追加のガスを割り当てるなどの将来の機能強化を想定しています。

この二元的な実行モデルは、Woodが半コヒーレンスと表現するものを達成します。同じブロックの同じコアにスケジュールされたサービスは同期的に相互作用し(コヒーレントなサブセット)、異なるコア上のサービスは非同期的に通信します(全体として非コヒーレント)。コヒーレントな実行と非コヒーレントな実行の境界は、プロトコルによって強制されるのではなく、流動的かつ経済的に駆動されるままであり、頻繁に通信するサービスが同期的な動作のためにコアに共存することを可能にしつつ、システム全体のスケーラビリティを維持します。これは、以前のブロックチェーンアーキテクチャを制約してきたサイズと同期のアンタゴニズムを解決する画期的な進歩を表しています。

リレーチェーンからサービスベースのコンピューティングへのアーキテクチャ変革

JAMは、Polkadotのアーキテクチャを根本的に再考し、非常に意見が強く、パラチェーンに特化した設計から、ミニマリストで汎用的な計算基盤へと移行します。現在のPolkadotリレーチェーンは、約50スロットという厳格な制限でパラチェーンをプロトコルに直接組み込み、数百万DOTを要するオークションベースのアクセスを必要とし、固定された検証パスを通じてすべてのパラチェーンロジックを実行します。JAMはこれを、ガバナンスの承認やオークションなしで誰でもデプロイできる、暗号経済的要因(DOTデポジット)によってのみ制限される、パーミッションレスでカプセル化された実行環境であるサービスに置き換えます。

アーキテクチャ哲学の転換は深遠です。アップグレード可能なリレーチェーンから、アップグレード可能なサービスを持つ固定プロトコルへ。Polkadot 1.0が時間とともに複雑さを蓄積する高度にアップグレード可能なリレーチェーンを維持していたのに対し、JAMはコアプロトコルパラメータ(ブロックヘッダーエンコーディング、ハッシュスキーム、QUICネットワークプロトコル、タイミングパラメータ)を固定して、積極的な最適化を可能にし、複数の実装を簡素化します。ステーキング、ガバナンス、コアタイム割り当てを含むアプリケーションレベルの機能は、コアプロトコルに触れることなく独立してアップグレードできるサービス内に存在します。このアップグレード不可能なチェーンアーキテクチャは、最も重要なアプリケーション層での柔軟性を維持しつつ、複雑さを劇的に軽減します。

JAMのモデルでは、パラチェーンは多くのサービスタイプの一つとなります。すべてのPolkadot 1.1パラチェーン機能は、単一の「パラチェーン」または「コアチェーン」サービスに統合され、ハードコードされた保証による完全な後方互換性を確保します。既存のパラチェーンは、リレーチェーンがアップグレードされると、コード変更なしで自動的にJAM上で実行されるように移行します。サービスモデルは、パラチェーンが実行できることを任意の実行パターンに一般化します。コアに直接デプロイされるスマートコントラクト、CorePlayのようなアクターベースのフレームワーク、ZKロールアップ、データ可用性サービス、およびまだ考案されていない全く新しい実行モデルなどです。

状態管理モデルも大きく変革されます。現在のPolkadotは、ブロックヘッダーに後方状態ルートを使用します。これは、ブロックが配布される前に完全な計算が完了するのを待つことを意味します。JAMは、1ブロック遅延する前方状態ルートを採用し、パイプライン処理を可能にします。軽量な計算(ワークロードの約5%)は即座に実行され、重いアキュムレーションタスクが完了する前にブロックが配布され、現在のブロックの実行が完了する前に次のブロックの処理が開始されます。このアーキテクチャ上の選択は、JAMが計算に6秒のブロック時間をフル活用し、現在のPolkadotの2秒未満に対し、ブロックあたり3〜3.5秒の実効計算時間を達成することを意味します。

JAMがWebAssemblyからRISC-VベースのPolkadot Virtual Machine (PVM)に移行することは、もう一つの根本的な転換を表しています。RISC-Vは、わずか47のベースライン命令で、優れた決定性、従来のハードウェアでの優れた実行速度、x86/x64/ARMへの容易なトランスパイル、公式LLVMツールチェーンサポート、およびメモリ内のスタックによる自然な継続処理を提供します。決定的に重要なのは、PVMがWebAssemblyのメータリングオーバーヘッドと比較して「フリーメータリング」を提供することです。また、レジスタベースのアーキテクチャ(WASMのスタックベース設計と比較して)は、NP完全なレジスタ割り当て問題を回避します。これにより、スケーラブルなマルチコアコーディングの新しい標準を確立するRISC-V対応の継続が可能になり、プログラムがブロック境界を越えて一時停止および再開できるようになります。これはJAMの非同期で並列化されたアーキテクチャにとって不可欠です。

技術仕様: パフォーマンス目標とバリデータ要件

JAMは、ブロックチェーンの計算容量における世代的飛躍として位置付けられる並外れたパフォーマンス指標を目標としています。システムは、850 MB/秒のデータ可用性を目指しています。これは、非同期バッキング改善前のバニラPolkadotと比較して42倍の改善であり、Ethereumの1.3 MB/秒を桁違いに上回ります。これは、すべてのコアで合計約2.3 Gbpsのスループットに相当し、各コアは6秒のスロットあたり5 MBの入力を処理します。

トランザクションスループット容量は劇的にスケールします。850 MB/秒のデータ可用性目標に基づくと、理論上340万TPS以上の最大値です。実世界のストレステストはこれらの予測を検証しています。Kusamaは2025年8月にわずか23%の負荷容量で143,000 TPSを達成し、Polkadotの「Spammening」ストレステストは2024年に623,000 TPSに達しました。JAMの追加の最適化と拡張されたコア数(弾力的なスケーリングで350コアを目標)により、本番環境で100万TPS以上のしきい値が達成可能になります。

計算容量は、Gray Paperの推定によると、完全に稼働した場合、全コアにわたるPVM実行の合計を反映して、1秒あたり1,500億ガスと測定されます。コンセンサスメカニズムは、6秒のブロック時間を維持し、GRANDPAを介して約18秒(約3ブロック)決定論的ファイナリティを実現します。JAMのSNARKベースのブロック生成アルゴリズムであるSAFROLEは、zkSNARKsとRingVRFを使用した匿名バリデータ選択を通じて、ほぼフォークフリーな操作を提供し、チケットは2エポック前にブロック生成への匿名エントリーとして機能します。

バリデータのハードウェア要件は、プロのオペレーターがアクセス可能でありながら、かなりのリソースを要求します。

  • CPU: 最小8物理コア @ 3.4 GHz(シングルスレッド性能を優先)
  • RAM: 最小128 GB
  • ストレージ: 最小2 TB NVMe SSD(スループットよりもレイテンシを優先)、月間50 GBの継続的な増加を推定
  • ネットワーク: 最小500 Mbit/s対称接続(1 Gbit/s推奨)、多数のサービスを処理し、輻輳制御を確保するため
  • オペレーティングシステム: Linuxベース(カーネル5.16以降)
  • アップタイム: スラッシングペナルティを避けるため99%以上が必要

バリデータセットは1,023のバリデータで構成されます。これは現在のPolkadotと同じ数であり、ステークの裏付けに関わらず、すべてのバリデータが均等なブロック報酬を受け取ります。この均等な報酬分配は、ステークが少数の大規模オペレーターに集中するのではなく、バリデータ全体に分散する経済的インセンティブを生み出し、分散化を促進します。最小ステーク要件は動的です。歴史的に、アクティブなバリデータセットに入るには、合計約175万DOTのステーク(自己ステークとノミネーションを含む)が必要でしたが、最小ノミネーション意図は250 DOTです。28日間のアンボンディング期間は、現在のPolkadotから変更ありません。

JAMのネットワーク層は、1,000以上のすべてのバリデータ間の直接的なポイントツーポイント接続のためにQUICプロトコルに移行し、従来のネットワークスタックのソケット枯渇問題を回避します。JAMは根本的にトランザクションレスであるため(mempoolやゴシップなし)、システムはブロードキャストのためにグリッド拡散を採用します。バリデータは論理的なグリッドに配置され、メッセージは行ごとに、次に列ごとに伝播し、フルゴシッププロトコルと比較して帯域幅要件を劇的に削減します。

JAM Toasterテスト環境は、開発をサポートするインフラストラクチャの規模を示しています。リスボンのPolkadot Palace施設に設置された1,023ノード12,276コア16 TB RAMは、世界のスーパーコンピュータ上位500〜1000位にランクインします。このフルスケールテストインフラストラクチャは、小規模なテストネットワークでは大規模なネットワークダイナミクスをシミュレートできなかったという歴史的な制限や、本番ネットワークには包括的な監視機能が不足していたという問題を解決します。

経済モデル: DOTトークノミクスとコアタイムベースの価格設定

JAMは、DOTを唯一のネイティブトークンとして維持し、新しいトークン作成は行わず、Polkadotの経済モデルとの継続性を保ちつつ、重要な構造的変更を導入します。経済アーキテクチャは、パーミッションレスなサービス展開を中心に据え、誰でも利用されたリソースに見合った料金でコードをアップロードおよび実行できます。サービスには、コード、データ、または状態に事前定義された制限はありません。容量は暗号経済的要因、具体的には経済的担保としてデポジットされたDOTの量によって決定されます。

トークノミクスは2025年に大きな変革を遂げ、レファレンダム1710が21億DOTの供給上限と段階的なインフレスケジュールを導入しました。年間トークン排出量は2026年3月から2年ごとに半減し、ビットコインのような希少性モデルを生み出します。現在の年間インフレ率は7.56%(当初の10%から減少)であり、以前のモデルでは34億だったのに対し、2040年までに合計供給量が約19.1億DOTに達すると予測されています。このデフレ圧力は、長期的な価値蓄積をサポートしつつ、ネットワークセキュリティのための十分な報酬を維持することを目指します。

手数料構造は、パラチェーンオークションからコアタイムベースの価格設定に移行し、Polkadot 1.0の複雑なスロットオークションメカニズムを柔軟なオプションに置き換えます。

バルクコアタイムは、計算コアへの安定したアクセスを月額サブスクリプションで提供し、保証されたスループットを必要とするプロジェクトの予算を予測可能にします。オンデマンドコアタイムは、散発的な使用に対して従量課金制のアクセスを提供し、数百万ドル規模のパラチェーンスロットオークションと比較して参入障壁を劇的に下げるものです。このアジャイルコアタイムモデルは、計算リソースを数秒から数年までの期間で購入することを可能にし、資本効率を最適化します。

JAMは、計算量の多いタスクとデータ量の多い操作を組み合わせることができる混合リソース消費モデルを導入します。例えば、ゼロ知識証明検証(計算量が多い)とデータ可用性(ストレージ量が多い)のように、多様なリソース要件を持つサービスを組み合わせることで、システムはバリデータのハードウェア利用率を最適化し、全体的なコストを削減します。経済的インセンティブは、シーケンサーが関連するワークアイテムをバッチ処理し、頻繁に通信するサービスを同じコアに共存させるように自然に調整します。

トランザクションレスアーキテクチャは、従来のトランザクション手数料構造を完全に排除します。ユーザーがガス料金を伴うトランザクションをmempoolに送信する代わりに、すべての行動は、結果がオンチェーンに統合される前にオフチェーンのRefineステージを経ます。この根本的に異なる経済モデルは、トランザクションごとのガスではなく、コアタイムの調達とワークパッケージの処理に対して課金し、料金はRefineおよびAccumulateステージで消費された計算リソースとデータリソースによって決定されます。

バリデータ経済はPolkadotのNominated Proof-of-Stake (NPoS)を継続し、ステークサイズに関わらず、各エラで全てのアクティブなバリデータに均等なブロック報酬が分配されます。バリデータは、ノミネーターへの分配前に総報酬から差し引かれる自身のコミッション率を設定します。収益源には、ブロック報酬(主要)、積極的な参加に対するエラポイントボーナス、ユーザーからのチップ(100%バリデータへ)、およびノミネーターからのコミッション手数料が含まれます。現在のステーキング統計によると、600のアクティブなバリデータに8億2504万5000 DOTがステークされ、**参加率は58%**です。

サービスはトークン残高をコードと状態に直接関連付け、純粋にアップグレード可能なチェーンでは容易に達成できない経済モデルの調整を可能にします。この革新により、サービスはDOTを保有および管理できるようになり、自身の運用費用を支払い、新しいトークノミクスメカニズムを実装し、またはユーザー資金の保管者として機能できる経済主体を作成します。これらすべてを信頼できる仲介者なしで実現します。

経済セキュリティモデルは、ランダムに選択されたバリデータが作業を再実行して正確性を検証するシニカルなロールアップメカニズムであるEconomic Validators (ELV)に依存します。このアプローチは、計算の正確性を確保するためにZK証明よりも約4,000倍費用対効果が高いと主張されており、Polkadotの実証済みの暗号経済セキュリティモデルを活用しています。作業結果が異議を唱えられた場合、バリデータが合意に達するまで判断メカニズムがファイナリティを最大1時間一時停止でき、敵対的な条件下でもセキュリティ保証を維持します。

開発状況: 実装、テストネット、メインネットへのロードマップ

2025年10月現在、JAMの開発は43のアクティブな実装チームが5つの言語カテゴリにわたって1,000万DOT + 10万KSMの賞金プール(6,000万〜1億米ドル相当)を競い、クリティカルマスに達しています。この前例のない実装者の多様性は、単一チームを超えて専門知識を広め、クライアントの多様性を通じてプロトコルの回復力を確保し、独立した実装を通じて仕様の曖昧さを特定することを目指しています。

複数の実装が2025年8月までに100%のJAM適合性を達成しました。これには、JAM DUNA (Go)、JamZig (Zig)、Jamzilla (Go)、JavaJAM (Java)、SpaceJam (Rust)、Vinwolf (Rust)、Jamixir (Elixir)、Boka (Swift)が含まれます。JAM適合性ダッシュボードは、リアルタイムのパフォーマンスベンチマーク、ファズテスト結果、および実装比較を提供し、各クライアントの成熟度を透明に評価することを可能にします。ParityのRustによるPolkaJAM実装は現在、パフォーマンス指標でリードしています。

JAM Gray Paperは複数の改訂を経て進展しています。2025年6月25日にリリースされたv0.7.0では、PVM実行とAggregating Schedulerの詳細な擬似コードが追加され、2025年7月26日のv0.7.1ではコミュニティからのフィードバックが組み込まれました。Gray PaperはEthereumのYellow Paperのアプローチを模倣し、単一のリファレンスクライアントに依存するのではなく、複数の独立した実装を可能にする正式な数学的仕様を提供します。

テストネット活動は2025年を通じて加速し、リスボンでのJAM Experience Event(5月9-11日)は、国際的な開発者が参加する主要な公開テストネットローンチパーティーとなりました。Minimum Viable Rollupテストネットは2025年6月にローンチされ、開発者がライブネットワーク環境で基本的なJAM機能をテストできるようにしました。複数の実装チームがプライベートテストネットを継続的に実行しており、Parityは開発者が独自のJAMテストネットを作成して実験できるようにする実験的なPolkaJAMバイナリをリリースしました。

JAM実装者賞は、実装パス(バリデートノード、非PVMバリデートノード、またはライトノード)ごとに5つのマイルストーンにわたって報酬を構成します。

マイルストーン1(IMPORTER): 状態遷移適合性テストに合格し、ブロックをインポートするために100,000 DOT + 1,000 KSM。提出は2025年6月に開始され、Polkadot Fellowshipが提出物をレビューしています。 マイルストーン2(AUTHORER): ブロック生成、ネットワーキング、オフチェーンコンポーネントを含む完全な適合性のために追加の100,000 DOT + 1,000 KSM。 マイルストーン3(HALF-SPEED): Kusamaレベルのパフォーマンスを達成し、フルスケールテストのためにJAM Toasterへのアクセスを許可するために100,000 DOT + 1,000 KSM。 マイルストーン4(FULL-SPEED): 無料の専門的な外部セキュリティ監査付きでPolkadotメインネットレベルのパフォーマンスのために100,000 DOT + 1,000 KSM。 マイルストーン5(SECURE): 重大な脆弱性なしに完全なセキュリティ監査に合格するために最後の100,000 DOT + 1,000 KSM。

言語の多様性は、従来のエンタープライズ言語(セットAのJava、Kotlin、C#、Go)、ネイティブパフォーマンス言語(セットBのC、C++、Rust、Swift、Zig)、簡潔なスクリプト言語(セットCのPython、JavaScript、TypeScript)、および正確性重視の言語(セットDのOCaml、Elixir、Julia、Haskell)に及びます。セットZは、BrainfuckやWhitespaceのような難解な言語での実装に対して最大5,000 KSMを提供し、コミュニティの遊び心を示しつつ、仕様の明確さを証明しています。

メインネット展開へのタイムラインは野心的なスケジュールに従います。

  • 2025年後半: Gray Paperの最終改訂(v0.8.0、v0.9.0、v1.0に近づく)、マイルストーンの提出とレビューの継続、テストネット参加の拡大
  • 2026年第1四半期: OpenGovレファレンダムによるガバナンス承認後、PolkadotネットワークでのJAMメインネットアップグレードを目標
  • 2026年: CoreChainフェーズ1展開、公式公開JAMテストネット、Polkadotネットワーク全体のJAMアーキテクチャへの移行

展開戦略は、反復的な増分変更ではなく、単一の包括的なアップグレードを伴い、アップグレード後のアクションの正確な制限を可能にし、絶え間ない破壊的変更による開発者のオーバーヘッドを最小限に抑えます。このアプローチは、すべての破壊的変更を1つの移行に統合し、Polkadot 1.0の進化を悩ませた複雑さの蓄積を回避します。ただし、ガバナンスの承認は必須のままであり、JAMはDOTトークンホルダーの投票によるPolkadotの分散型オンチェーンガバナンスを通過する必要があります。2024年5月のレファレンダム682のほぼ満場一致の承認(3,100万DOT以上の支持)は、強力なコミュニティサポートを示唆していますが、最終的なメインネット展開には別途ガバナンス承認が必要です。

実世界での実装はすでに現れています。Acala Networkは2025年8月にJAMVerseを発表し、SwiftベースのBクラスJAMクライアント(Boka)で最初のJAMネイティブdAppチェーンを構築しています。彼らのロードマップには、サブブロックレイテンシ操作のためにコアDeFiサービス(Swap、Staking、LDOT)をJAMに移行すること、Substrateパラチェーンとの相互運用性を維持するためのJAM-XCMアダプターを開発すること、および同期的なコンポーザビリティによって可能になるクロスチェーンフラッシュローンを実証することが含まれます。Unique NetworkのQuartzは、JAMアーキテクチャのための内部テスト環境に移行しており、2025年10月までに計画が完了する予定です。

エコシステムへの影響: 後方互換性と移行戦略

JAMの設計は、既存のPolkadotパラチェーンとの完全な後方互換性を優先し、移行がエコシステムを破壊するのではなく強化することを保証します。公式ドキュメントは「提案の一部には、ツールとハードコードされた互換性保証が含まれる」ことを確認しており、Web3 Foundationは「JAM後もパラチェーンはファーストクラスの市民であり続ける」と保証しています。JAMがローンチすると、リレーチェーンがアップグレードされ、パラチェーンはコード変更なしで自動的にJAM上で実行されるサービスとなります。

パラチェーンサービス(別名CoreChainsまたはChainService)は、Polkadot 1.1のすべてのパラチェーン機能を単一のJAMサービスに統合します。既存のSubstrateベースのパラチェーンは、この互換性レイヤーを通じて機能的に変更のない動作で運用を継続します — 「現在Polkadot上で稼働しているどのパラチェーンの機能も影響を受けません。」パラチェーンチームの視点からは、「技術スタックはそれほど変わらないように見えます。彼らは引き続きバリデータによって検証されます」と、同様の開発ワークフローで。

3つの移行パスにより、チームは自身のペースでJAMの機能を導入できます。

オプションA:移行なし。パラチェーンチームは、一切の労力なしにこれまで通り運用を継続できます。パラチェーンサービスがすべての互換性に関する懸念を処理し、現在のパフォーマンス特性と開発ワークフローを維持します。このデフォルトパスは、既存の機能に満足しているチームや、技術が成熟するまでJAM固有の機能を延期したいチームに適しています。

オプションB:部分移行。チームが従来のパラチェーンとして運用を継続しつつ、特定の機能をJAMネイティブサービスとしてデプロイするハイブリッドアプローチを可能にします。例えば、DeFiパラチェーンは、メインチェーンの運用をそのまま継続しつつ、プライバシー機能のためのZKロールアップサービスや、価格フィードのためのオラクルサービスをJAMコアに直接デプロイする可能性があります。この段階的な移行により、完全なコミットメントなしに新しい機能をテストでき、後方互換性を維持しつつ、高度な機能を選択的に利用できます。

オプションC:完全移行。JAMのサービスモデルを使用して、Refine、Accumulate、onTransferという明確なエントリーポイントを持つ再構築を伴います。このパスは最大限の柔軟性を提供します — パーミッションレスなデプロイ、Accordsを介した同期的なコンポーザビリティ、CorePlayアクターベースのフレームワーク、およびJAMの新しい実行モデルへの直接アクセスです。AcalaのJAMVerseはこのアプローチを例示しています。移行中にレガシーパラチェーンの運用を維持しつつ、完全なJAMネイティブ実装を構築するものです。完全移行にはかなりの開発努力が必要ですが、JAMの可能性を最大限に引き出します。

移行サポートインフラストラクチャには、Acalaのドキュメントで「ランタイムロジックを変更する必要なくJAMへのスムーズな移行」を可能にすると述べられているOmicode移行ツールが含まれます。これは既存のSubstrateパラチェーンのための互換性レイヤーであると思われます。Polkadot SDKはJAMと互換性を維持しますが、パラチェーン検証機能(PVF)はWebAssemblyからPVMにリターゲットされます。PVMはRISC-Vのわずかな変更(すでに公式LLVMターゲット)を表すため、WASMにコンパイルされた既存のコードベースは、通常、最小限の変更でPVMに再コンパイルできます。

WASMからPVMへの移行はいくつかの利点を提供します。フリーメータリングは実行中のガスオーバーヘッドを排除し、レジスタベースのアーキテクチャはWASMのスタックベース設計に固有のNP完全なレジスタ割り当て問題を回避し、自然な継続サポートにより、プログラムはブロック境界を越えて一時停止および再開でき、従来のハードウェアでの優れた実行速度は、インフラストラクチャの変更なしにパフォーマンス向上を提供します。Substrate FRAMEパレットはパラチェーンサービス内で引き続き機能しますが、JAMのメータリングシステムは、Substrate開発を負担していた頻繁なベンチマーク要件をしばしば不要にします。

XCM (Cross-Consensus Message format) の進化は、移行全体での相互運用性を保証します。JAMでは完全なXCMP (Cross-Chain Message Passing) が必須となります。現在のHRMP (Horizontal Relay-routed Message Passing) は、すべてのメッセージデータをリレーチェーンに4 KBのペイロード制限で保存するのに対し、JAMのXCMPは、メッセージヘッダーのみをオンチェーンに配置し、オフチェーンデータ送信は無制限です。このアーキテクチャ要件は、RefineとAccumulateステージ間の厳格なデータ送信制限に起因し、リレーチェーンのボトルネックなしに現実的なデータペイロードを可能にします。

JAM-XCMアダプターは、移行期間中にJAMサービスとSubstrateパラチェーン間の相互運用性を維持します。2025年にリリースされるXCM v5の改善には、マルチホップトランザクション、マルチチェーン手数料支払い、必要な署名の削減、およびより良いエラー防止が含まれ、これらはすべてPolkadotからJAMへの移行全体でシームレスに機能するように設計されています。Accordsは同期XCM機能を導入し、準備金ベースの仲介者なしでチェーン間で直接トークンテレポートのような信頼最小化されたインタラクションを可能にします。

ステーキング、トレジャリー、プロトコルアップグレードのためのガバナンスメカニズムは、コアプロトコルに組み込むのではなく、サービスに移行します。この関心の分離はJAMチェーン自体を簡素化しつつ、アップグレード可能なサービスコードに必要なすべての機能を保持します。ステーキング報酬の分配、コアタイム市場、ガバナンス投票を含むアプリケーションレベルの機能はすべてサービス内に存在し、プロトコルレベルの変更を必要とせずに、独自のアップグレードメカニズムを通じて独立して進化できます。

バリデータの移行は引き続き簡単です。オペレーターは現在のPolkadotクライアントではなくJAM互換クライアントを実行する必要がありますが、ブロックの生成、トランザクション(現在はワークパッケージ)の検証、コンセンサスの維持というバリデータの責任は変わりません。コンセンサスのBABE+GRANDPAからSAFROLE+GRANDPAへの移行は、主に運用手順ではなくクライアント実装の内部に影響します。99%以上のアップタイムを維持し、検証リクエストに迅速に応答し、コンセンサスに参加するバリデータは、現在のPolkadotと同様に各エラで均等な報酬を受け取り続けます。

開発者体験: スマートコントラクトからサービス、そしてその先へ

JAMは、参入障壁を取り除きつつ、機能オプションを拡大することで、開発者体験を根本的に変革します。Polkadot 1.0が、チームにスマートコントラクト(機能が限定的でデプロイが容易)かパラチェーン(フル機能でオークションベースのアクセス)のいずれかを選択することを強制したのに対し、JAMは、両方と新しい実行モデルのための柔軟で豊かな環境を提供します。

パーミッションレスなサービスデプロイモデルは、Ethereum上のスマートコントラクトデプロイに似ています。開発者は、ガバナンスの承認やスロットオークションなしで、コードをサービスとしてデプロイでき、コアタイム調達を通じて利用したリソースに対してのみ支払います。これにより、財政的障壁が劇的に下がります。数百万ドル規模のオークション入札、2年間のスロットコミットメント、複雑なクラウドローンメカニズムは不要です。サービスは、暗号経済的にリソース消費を制限するDOTデポジットを通じて経済的にスケールし、政治的または財政的なゲートキーピングを通じてではありません。

ink!スマートコントラクトはJAMのエコシステムで引き続き繁栄し、専用サービスを介してJAMコアに直接デプロイされる可能性があります。これにより、中間的なパラチェーンホスティングの必要性が排除されます。ツールは成熟したままである:コンパイル用のcargo-contract、実験用のink! playground、開発用のrustfmtとrust-analyzer、コントラクト検証用のChainlensエクスプローラー、および統合テストフレームワーク。概念実証から本番への卒業パスは明確なままです。迅速なイテレーションのためにink!コントラクトから始め、プロダクトマーケットフィットを検証し、パフォーマンス要件がそれを要求するときにJAMサービスまたはパラチェーンに移行します。このプロセス全体でRustコード、テスト、フロントエンドコンポーネントを再利用できます。

3つのサービスエントリーポイントがJAMプログラミングモデルを定義し、開発者に計算について異なる考え方を要求します。

Refine関数は、ロールアップ入力を出力に変換するステートレスな計算を処理します。6秒のスロットあたり最大15 MBのワークアイテムを受け入れ、最大6秒のPVMガスで実行され、最大90 KBの圧縮結果を生成します。Refineはバリデータサブセット間でオフチェーンで並列実行され、データアクセスにはプリイメージルックアップのみが利用可能です。この関数は、グローバル状態から完全に隔離された状態で、計算量の多い処理(トランザクション処理、証明検証、データ変換)を実行します。

Accumulate関数は、Refineの出力を、出力あたり約10ミリ秒に制限されたステートフルな操作を通じてサービス状態に統合します。任意のサービスからストレージを読み取り(クロスサービスクエリを可能にする)、自身のキーバリューストアに書き込み、サービス間で資金を転送し、新しいサービスを作成し、自身のコードをアップグレードし、プリイメージの可用性を要求できます。Accumulateはすべてのバリデータで同期的に実行され、高価ですがデフォルトで安全性が確保されています。Refineに6秒、Accumulateに10ミリ秒という非対称性は、アーキテクチャ上の規律を強制します。計算をオフチェーンにプッシュし、状態更新を最小限に抑えることです。

onTransfer関数は、非同期メッセージングを通じてサービス間通信を処理します。サービスは応答を待たずにメッセージを送信でき、ブロッキングを回避しつつ疎結合を可能にします。将来の機能強化により、複雑なクロスサービスインタラクションに追加のガスを割り当てたり、Accordsを通じて同期パターンを処理したりできるようになる可能性があります。

CorePlayは、JAMのユニークな機能を示す実験的なアクターベースのフレームワークです。コアに直接デプロイされたアクターは、async/await構文を持つ標準的なfn main()スタイルのコードなど、通常の同期プログラミングパターンを使用できます。同じコア上のアクターが互いに呼び出すと、実行は同期的に進行します。異なるコア上のアクターを呼び出す場合、PVMの継続は自動的に実行を一時停止し、状態をシリアライズし、結果が到着した後のブロックで再開します。この抽象化により、マルチブロックの非同期実行が開発者には同期的に見えるようになり、分散アプリケーションロジックを劇的に簡素化します。

開発者ツール改善には、パーミッションレスなサービス作成によるよりシンプルなデプロイ、JAMのメータリングされたPVM実行によるベンチマーク要件の削減、透明で予測可能なコアタイム価格設定(Ethereumのような手数料の変動を回避)、および現実的なパフォーマンステストのために完全な1,023ノードネットワークシミュレーションを提供するマイルストーン3以上の実装者向けのJAM Toasterアクセスが含まれます。Rust、Go、Swift、Zig、Elixir、OCamlなどで作業するチームによる複数の言語サポートは、仕様の明確さを示し、開発者が使い慣れたツールチェーンを選択できるようにします。

同期的なコンポーザビリティは、マルチチェーンアプリケーションで可能なことを変革します。現在のPolkadotパラチェーンはXCMを介して非同期的に通信し、アプリケーションが遅延応答、タイムアウト、ロールバックシナリオを処理する必要があります。JAMのAccordsは、同期実行保証付きでサービス間のインタラクションプロトコルを管理するマルチインスタンススマートコントラクトを可能にします。例えば、Acalaのロードマップは、「Ethereumでフラッシュローンを開始し、単一の同期呼び出しを通じて複数のチェーン間でアービトラージを実行する」ことを示しています。これは、断片化されたブロックチェーンエコシステムではこれまで不可能だったアトミック性です。

SubstrateパレットからJAMサービスへの移行は、ガバナンスの摩擦を軽減します。Substrateパレットは、デプロイと更新のためにオンチェーンガバナンスの承認を必要とするのに対し、JAMサービスはスマートコントラクトのようにパーミッションレスにデプロイされます。開発者はSubstrate SDKの互換性を維持し、パラチェーンサービスにFRAMEを使い続けることができますが、JAMネイティブサービスは、パレットアップグレード調整のオーバーヘッドなしに簡素化された開発モデルにアクセスできます。

ドキュメントと教育リソースは2025年を通じて大幅に拡大しました。JAM 2025ワールドツアーは2大陸9都市を巡り、1,300人以上の開発者と交流しました。技術ドキュメントには、包括的なGray Paper、Polkadot WikiのJAMセクション、公式開発者ガイド、およびコミュニティ作成のチュートリアルが含まれます。Web3 FoundationのDecentralized Futuresプログラムは、JAM教育イニシアチブに資金を提供しており、実装者賞は、高品質のドキュメントと開発ツールを制作するための経済的インセンティブを生み出します。

戦略的ビジョン: アーキテクチャ革新によるブロックチェーンのトリレンマの解決

Gavin WoodのJAMに対するビジョンは、彼がブロックチェーンの根本的な限界と認識しているもの、すなわちシステムがスケールとコヒーレンスの間で選択しなければならないサイズと同期のアンタゴニズムに対処します。BitcoinやEthereum L1のようなモノリシックチェーンは、高い同期性とコンポーザビリティを達成するが、単一ノードの計算限界を超えてスケールすることはできません。Ethereum L2、Polkadotパラチェーン、Cosmosゾーンのようなシャーディングされたシステムは、パーティショニングを通じてスケールを達成するが、コヒーレンスを犠牲にし、アプリケーションを非同期のクロスシャード通信のみを持つ孤立したサイロに閉じ込めます。

JAMは、部分的なコヒーレンスを通じてこの誤った二分法を超越しようと試みます。これは、並列化を通じてスケーラビリティを維持しつつ、「重要な期間にコヒーレンスを保証する」システムです。同じブロックの同じコアにスケジュールされたサービスは同期的に相互作用し、コヒーレントなサブセットを作成します。異なるコア上のサービスは非同期的に通信し、並列実行を可能にします。決定的に重要なのは、シャード境界がプロトコルによって強制されるのではなく、流動的かつ経済的に駆動されるままであることです。シーケンサーは、頻繁に通信するサービスを共存させるインセンティブを持ち、開発者は、グローバルなシステム同期なしで、必要に応じて同期的な相互作用を最適化できます。

戦略的目標は、歴史的に互換性のない3つの特性を組み合わせた**「ほぼコヒーレントなトラストレススーパーコンピュータ」**の作成を中心に据えます。

Ethereumに似たパーミッションレスなスマートコントラクト環境は、誰でも権限の承認や経済的ゲートキーピングなしにコードをデプロイできるようにします。サービスは、ガバナンス投票、オークションでの勝利、スロットコミットメントなしで作成およびアップグレードされます。この開放性は、制度的障壁を取り除き、迅速な実験を可能にし、政治的に割り当てられたリソースではなく、競争力のあるサービス市場を育成することでイノベーションを推進します。

Polkadotが先駆けたスケーラブルなノードネットワーク上で並列化されたセキュアなサイドバンド計算は、完全な1,023バリデータセットを通じてすべてのサービスに共有セキュリティを提供します。独立したセキュリティを持つCosmosゾーンや、信頼仮定が異なるEthereum L2とは異なり、すべてのJAMサービスは初日から同一のセキュリティ保証を継承します。コアにわたる並列実行は、セキュリティを断片化することなく計算スケーリングを可能にします。サービスを追加してもセキュリティは希薄化せず、システム全体の処理能力が増加します。

コヒーレントな実行境界内での同期的なコンポーザビリティは、ネットワーク効果を解き放ちます。DeFiプロトコルは、フラッシュローン、アービトラージ、清算のためにサービス間でアトミックに構成できます。NFTマーケットプレイスは、複数のチェーンからのアセットをアトミックにバンドルできます。ゲームアプリケーションは、ゲーム内経済のためにDeFiプリミティブと同期的に相互作用できます。このコンポーザビリティは、歴史的にモノリシックチェーンに限定されていたが、スケールされた並列環境で利用可能になります。

WoodのJAMに対する長期的な位置付けは、ブロックチェーンを超えて汎用計算にまで及びます。「分散型グローバルコンピュータ」というタグラインは、Ethereumの初期の記述を意図的に踏襲しているが、そのメタファーを大規模にサポートするアーキテクチャ基盤を備えています。Ethereumの「ワールドコンピュータ」がすぐにスケーラビリティの限界に達し、L2のプラグマティズムを必要としたのに対し、JAMはRefine-AccumulateパラダイムとPVMの継続サポートを通じて、計算スケーリングをその基盤に組み込んでいます。

Polkadot 1.0からJAMへの進化は、「より少ない意見」という哲学を反映しています。ドメイン固有から汎用へ、組み込まれたパラチェーンから任意のサービスへ、アップグレード可能なプロトコル複雑性からアップグレード可能なアプリケーションを持つ固定されたシンプルさへ。このアーキテクチャのミニマリズムは、常に進化するシステムでは不可能な最適化の機会を可能にします。固定されたパラメータは積極的なネットワークトポロジー最適化を可能にし、既知のタイミングは正確なスケジューリングアルゴリズムを可能にし、不変の仕様は陳腐化のリスクなしにハードウェアアクセラレーションを可能にします。

5つの推進要因がJAMの設計を動機付けています。

分散化による回復力は、すべてのサービスにわたってセキュリティを維持する1,000以上の独立したバリデータオペレーターを必要とします。JAMの設計は、Polkadotの先駆的なNPoSを均等なバリデータ報酬で維持し、ステークの集中を防ぎつつ、堅牢なビザンチンフォールトトレランスを維持します。

任意の計算を可能にする汎用性は、ブロックチェーン固有のユースケースを超えて拡大します。PVMは任意のRISC-Vコードを受け入れ、RustやC++からよりエキゾチックな実装まで幅広い言語をサポートします。サービスは、ブロックチェーン、スマートコントラクトプラットフォーム、ZKロールアップ、データ可用性レイヤー、オラクル、ストレージネットワーク、または全く新しい計算パターンを実装できます。

「多かれ少なかれ無限のスケーリング」を達成するパフォーマンスは、水平並列化から生まれます。コアを追加することで、アーキテクチャ上の制限なしにスループットがスケールします。850 MB/秒の目標はローンチ容量を表します。弾力的なスケーリングと経済的なコアタイム市場は、プロトコル変更なしに需要の増加に応じて容量を増やすことを可能にします。

必要に応じて同期的な相互作用を提供するコヒーレンスは、シャーディングされたシステムを悩ませるコンポーザビリティの問題を解決します。Accordsは、サービス間の信頼最小化されたプロトコル強制、同期的なクロスチェーントークン転送、および断片化されたエコシステムではこれまで不可能だったアトミックなマルチサービス操作を可能にします。

障壁を下げるアクセシビリティは、インフラストラクチャを民主化します。数百万ドル規模のパラチェーンオークションを、従量課金制のコアタイム、パーミッションレスなサービス展開、柔軟なリソース割り当てに置き換えることで、ソロ開発者からエンタープライズチームまで、あらゆる規模のプロジェクトが世界クラスのインフラストラクチャにアクセスできるようになります。

競合状況: JAMと代替のレイヤー0およびレイヤー1アプローチ

JAMのEthereumのロードマップに対する位置付けは、根本的に異なるスケーリング哲学を明らかにしています。EthereumはL2中心のモジュール性を追求しており、L1はデータ可用性と決済を提供し、実行はArbitrum、Optimism、Base、zkSyncのようなオプティミスティックおよびZKロールアップに移行します。Proto-danksharding (EIP-4844)は、一時的なデータ可用性を提供するブロブトランザクションを追加し、完全なdankshardingは容量を100倍に増やす計画です。Proposer-Builder Separation (PBS)と発表されたBeam Chainコンセンサス層の再設計は、L1の役割を狭めるための最適化を継続しています。

この戦略は永続的なパーティショニングを生み出します。L2は、流動性の断片化、多様な信頼仮定、オプティミスティックロールアップの7日間の引き出し期間、シーケンサーの集中化リスク、およびすべてのL2に波及するL1混雑時の手数料の変動を伴う孤立したエコシステムのままであるためです。コンポーザビリティは各L2内でスムーズに機能するが、L2間の相互作用はブリッジリスクを伴う非同期メッセージングに戻ります。Ethereumコミュニティは、Ethereum 2.0の当初のシャーディングビジョンが複雑すぎると判明した後、L2のプラグマティズムを受け入れましたが、このプラグマティズムは、固有のトレードオフとして根本的な制限を受け入れています。

JAMは、Ethereum 2.0が当初約束したこと、すなわちコンセンサス層に組み込まれたコヒーレントな状態を持つネイティブなシャーディングされた実行を追求します。Ethereumが実行をオフチェーンのL2に移動させたのに対し、JAMはRefine-Accumulateモデルを通じて並列実行をL1コンセンサスに組み込みます。Ethereumが断片化されたL2エコシステムを受け入れたのに対し、JAMはサービスとAccordsを通じて統一されたセキュリティとプロトコルレベルのコンポーザビリティを提供します。アーキテクチャ上の賭けは根本的に異なります。Ethereumは専門化されたL2イノベーションに賭け、JAMは汎用化されたL1スケーラビリティに賭けます。

パフォーマンス目標は野心を示しています。EthereumはL1で1秒あたり約15トランザクションを処理し、ブロックあたり1.3 MBのデータ可用性を持つ一方、L2は多様なセキュリティ仮定の下で、合計で数千TPSを処理します。JAMは、統一されたセキュリティで850 MB/秒のデータ可用性(Ethereum L1の約650倍)と理論上340万TPS以上の容量を目標とします。計算モデルも分岐します。EthereumのシーケンシャルなEVM実行とJAMの並列350コア処理は、スケーリング問題に対する根本的に異なるアプローチを表しています。

Inter-Blockchain Communication (IBC) プロトコルを持つCosmosは、共有セキュリティよりも主権を優先する代替のレイヤー0ビジョンを表しています。Cosmosゾーンは、独自のバリデータセット、ガバナンス、セキュリティモデルを持つ独立したソブリンブロックチェーンです。IBCは、ライトクライアント検証を通じてトラストレスな通信を可能にします。チェーンは、共有バリデータやセキュリティプールに依存することなく、相手方の状態を独立して検証します。

この主権第一の哲学は、各ゾーンに完全な自律性を与えます。カスタムコンセンサスメカニズム、専門化された経済モデル、および調整オーバーヘッドなしの独立したガバナンス決定。しかし、主権にはコストが伴います。新しいゾーンはバリデータセットとセキュリティを独立してブートストラップする必要があり、断片化されたセキュリティに直面し(1つのゾーンへの攻撃は他のゾーンを危険にさらさないが、ゾーン間でセキュリティレベルが異なることも意味する)、同期的なコンポーザビリティオプションなしで真に非同期的な通信を経験します。

JAMは逆のアプローチを取ります。共有検証によるセキュリティ第一です。1,023のすべてのバリデータがローンチからすべてのサービスを保護し、ブートストラップの課題を排除し、均一なセキュリティ保証を提供します。サービスは主権を犠牲にします。JAMの実行モデル内で動作し、共有バリデータセットに依存しますが、即座のセキュリティ、プロトコルレベルのコンポーザビリティ、および低い運用オーバーヘッドを得ます。哲学的な違いは深く、Cosmosは主権的独立性を最適化し、JAMはコヒーレントな統合を最適化します。

Avalancheサブネットは、バリデータが検証を選択するソブリンなレイヤー1ブロックチェーンであるサブネットを提供する別の比較アーキテクチャです。プライマリネットワークバリデータ(2,000 AVAXのステークが必要)は、選択した任意のサブネットを追加で検証でき、サブネットごとにカスタマイズされたバリデータセットを可能にします。この水平セキュリティモデル(サブネットが多いほどバリデータセットが多い)は、JAMの垂直セキュリティモデル(すべてのサービスが完全なバリデータセットを共有する)とは対照的です。

サブネットアーキテクチャはアプリケーション固有の最適化を可能にします。ゲームサブネットは高スループットと低ファイナリティを持つことができ、DeFiサブネットはセキュリティと分散化を優先でき、エンタープライズサブネットはパーミッション付きバリデータを実装できます。AvalancheのSnowmanコンセンサスは、サブネット内でサブ秒のファイナリティを提供します。しかし、サブネットは大部分が孤立したままであり、Avalanche Warp Messaging (AWM)は基本的なクロスサブネット通信を提供するが、JAMのAccordsが実現するプロトコルレベルのコンポーザビリティや同期実行はありません。

パフォーマンスの位置付けは、Avalancheがサブ秒のファイナリティ(約1秒対JAMの18秒)を強調していることを示していますが、JAMのサービスごとの統一された1,023バリデータではなく、サブネット全体でより断片化されたセキュリティを持ちます。状態アーキテクチャも根本的に異なります。Avalancheサブネットは完全に隔離された状態マシンを維持するのに対し、JAMサービスはアキュムレーション層を共有し、同じコアにスケジュールされた場合にクロスサービス読み取りと同期的な相互作用を可能にします。

LayerZero、Wormhole、Chainlink CCIP、Axelarのような外部相互運用性プロトコルは、JAMのネイティブXCMPとは異なる目的を果たします。これらのプロトコルは、EthereumからSolana、BitcoinからCosmosへと、完全に異なるブロックチェーンエコシステム間を橋渡しし、セキュリティのために外部バリデータ、オラクル、またはリレーヤーネットワークに依存します。LayerZeroは、50以上のチェーンで60億ドル以上の総ロック価値を保護するOracle + Relayerモデルを使用しています。Wormholeは、19のガーディアンが10億以上のメッセージを検証し、完全希薄化評価額は107億ドルです。

JAMのXCMPは異なるレイヤーで動作します。外部セキュリティ仮定ではなく、ネイティブプロトコルバリデータとのエコシステム内通信です。JAMのサービスは、相互作用するために外部ブリッジを必要としません。それらは同じバリデータセット、コンセンサスメカニズム、およびセキュリティ保証を共有します。これにより、外部ブリッジでは不可能なトラストレスな相互作用が可能になります。同期呼び出し、アトミックなマルチサービス操作、保証されたメッセージ配信、およびプロトコルレベルのファイナリティです。

戦略的な位置付けは、競争ではなく共存を示唆しています。JAMは内部通信にXCMPを使用しつつ、外部チェーン接続のためにLayerZero、Wormhole、または同様のプロトコルを統合する可能性があります。JAMサービスは、Ethereum、Solana、Bitcoin、またはCosmosへのブリッジングのために外部プロトコルをラップでき、トラストレスな内部操作と実用的な外部ブリッジという、両方の長所を兼ね備えた接続性を提供します。

研究基盤: 学術的厳密性と新しいコンピュータサイエンスへの貢献

JAM Gray Paperは、プロトコルの学術的基盤を確立し、複数の独立した実装を可能にする正式な数学的仕様を提供することで、EthereumのYellow Paperを模倣しています。2024年4月にバージョン0.1でリリースされたこのドキュメントは、継続的な改良を経て進展しており、2025年6月のv0.7.0では詳細なPVM擬似コードが追加され、7月のv0.7.1ではコミュニティからのフィードバックが組み込まれ、2026年初頭に予定されているv1.0に近づいています。このコミュニティの精査を伴う反復的な仕様開発は、学術的なピアレビューに類似しており、明確性を向上させ、曖昧さを捉えます。

Gray Paperの要約は、JAMの理論的貢献を明確にしています。「我々は、PolkadotとEthereumの両方の要素を組み合わせたプロトコルであるJamの包括的かつ形式的な定義を提示します。単一のコヒーレントなモデルにおいて、JamはEthereumが先駆けたスマートコントラクト環境と非常によく似た、グローバルなシングルトンパーミッションレスオブジェクト環境を、Polkadotが先駆けたスケーラブルなノードネットワーク上で並列化されたセキュアなサイドバンド計算と組み合わせて提供します。」一見すると互換性のない特性 — EthereumのパーミッションレスなコンポーザビリティとPolkadotの並列化された共有セキュリティ — の統合は、JAMが対処する中核的な理論的課題を表しています。

PVM基盤のためのRISC-Vの選択は、厳密なコンピュータアーキテクチャ分析を反映しています。RISC-Vは、UC Berkeleyの研究から、シンプルさと拡張性を優先するオープンソースの命令セットアーキテクチャとして登場しました。x86やARMの数百の命令と比較してわずか47のベースライン命令を持つRISC-Vは、計算の完全性を維持しつつ実装の複雑さを最小限に抑えます。レジスタベースのアーキテクチャは、WebAssemblyのようなスタックベースの仮想マシンに固有のNP完全なレジスタ割り当て問題を回避し、より高速なコンパイルとより予測可能なパフォーマンスを可能にします。

JAMのPVMは、標準RISC-Vに最小限の変更を加え、主に決定論的なメモリ管理とガス計測を追加しつつ、既存のRISC-Vツールチェーンとの互換性を維持します。この設計の保守性は、カスタムコンパイラインフラストラクチャを構築するのではなく、数十年にわたるコンピュータアーキテクチャ研究とプロダクショングレードのコンパイラ(LLVM)を活用することを可能にします。RISC-Vにコンパイルされる言語 — Rust、C、C++、Go、その他多数 — は、ブロックチェーン固有のコンパイラ変更なしに自動的にJAM互換となります。

PVMにおける継続サポートは、重要な理論的貢献を表しています。継続 — 実行を一時停止し、状態をシリアライズし、後で再開する能力 — は、複雑な手動状態管理なしにマルチブロックの非同期計算を可能にします。従来のブロックチェーンVMは継続サポートを欠いており、開発者は手動で計算をチャンク化し、中間状態を永続化し、トランザクション間でコンテキストを再構築する必要があるためです。PVMのスタックインメモリ設計と決定論的実行は、ファーストクラスの継続サポートを可能にし、長時間実行される計算やクロスブロック計算を劇的に簡素化します。

Refine-Accumulateの二元論は、Googleが分散計算のために先駆けたMapReduceプログラミングモデルに概念的にマッピングされます。RefineはMapフェーズとして機能します。これは、分散ワーカー(バリデータコア)間で入力から出力への並列でステートレスな変換です。AccumulateはReduceフェーズとして機能します。これは、変換された結果を統合された状態にシーケンシャルに統合するものです。従来の分散システムで大規模に効果的であることが証明されたこのコンピュータサイエンスパターンは、集中型調整を暗号学的検証に置き換えるブロックチェーンの信頼最小化環境にエレガントに適応します。

SAFROLEコンセンサスメカニズムは、数十年にわたる分散システム研究に基づいています。このアルゴリズムはSASSAFRAS(固定時間のリズミカルなスロット割り当てのためのステークされた割り当て者の半匿名ソート)から進化しており、JAMの特定の要件に合わせて簡素化されつつ、主要な特性を保持しています。匿名バリデータ選択によるフォークフリーなブロック生成、ブロック生成までのzkSNARKベースの匿名性による標的型DoS攻撃への耐性、および正確なリソーススケジューリングを可能にする決定論的タイミングです。

暗号学的基盤は、バリデータセットメンバーシップを匿名で証明するためのRing Verifiable Random Functions (RingVRF)と、効率的な検証のためのzkSNARKsを組み合わせています。2エポック先行チケットシステム — バリデータはブロック生成の2エポック前にチケットを提出する — は、匿名性保証を維持しつつ様々な攻撃を防ぎます。これは、現代の暗号プリミティブの実用的なコンセンサス課題解決へのエレガントな応用を表しています。

ZK証明検証の代替としてのEconomic Validators (ELV)は、セキュリティ対コストの新しいトレードオフ分析を提供します。JAMのドキュメントは、ELVが計算の正確性を確保するためにゼロ知識証明よりも約4,000倍費用対効果が高いと主張しています。このモデルは暗号経済的セキュリティに依存します。ランダムに選択されたバリデータが作業を再実行して正確性を検証し、誤った結果は紛争と潜在的なスラッシングを引き起こします。正確性が異議を唱えられない限り仮定されるこの「楽観的」アプローチは、オプティミスティックロールアップを反映しているが、バリデータ監査後に即座のファイナリティを伴うプロトコルレベルで動作します。

将来は、ELVとZK証明をハイブリッドセキュリティモデルで組み合わせる可能性があります。暗号経済的保証で十分な有界セキュリティにはELV、数学的確実性が必要な無界セキュリティにはZK証明です。この柔軟性により、アプリケーションは、画一的なアプローチを強制されるのではなく、要件と経済的制約に合ったセキュリティモデルを選択できます。

JAMからの新しい理論的貢献には以下が含まれます。

トランザクションレスブロックチェーンパラダイムは、ブロックチェーンアーキテクチャの根本的な仮定に挑戦します。Bitcoin、Ethereum、およびほぼすべての後続ブロックチェーンは、ブロックへの包含を競うmempool内の署名されたユーザーアクションであるトランザクションを中心に組織されています。JAMはトランザクションを完全に排除します。すべての状態変更は、RefineおよびAccumulateステージを経るワークアイテムを含むワークパッケージを通じて流れます。この根本的に異なるモデルは、MEV(Maximal Extractable Value)、検閲耐性、およびユーザーエクスペリエンスに関する興味深い研究課題を提起しており、学術研究はまだ完全に探求していません。

部分的にコヒーレントなコンセンサスは、完全にコヒーレントな(モノリシックチェーン)システムと完全に非コヒーレントな(孤立したシャード)システムの中間の新しい位置を表しています。JAMは、サービスがコアに共存する重要な6秒間ウィンドウでコヒーレンスを保証しつつ、コア間の非同期性を受け入れます。コヒーレンスパターンを駆動する経済メカニズム — スループットを最大化しレイテンシを最小化するためにワークパッケージ構成を最適化するシーケンサー — は、興味深いゲーム理論の問題を生み出します。合理的な経済主体はどのようにコア間でサービスを組織するのか?どのような均衡が出現するのか?これらの疑問は経験的検証を待っています。

Accordsは、独立したサービス間のインタラクションプロトコルを管理するマルチインスタンススマートコントラクトとして、新しい信頼最小化プリミティブを導入します。クロスサービス通信のためにブリッジやリレーヤーを信頼するのではなく、AccordsはJAMコンセンサスレベルでプロトコルを強制しつつ、サービス境界を越えて実行を分散します。この抽象化により、直接トークンテレポート、アトミックなマルチサービス操作、同期的なクロスサービス呼び出しといった信頼最小化パターンが可能になります。これらはセキュリティ特性と経済的実現可能性について経験的検証を必要とする理論的能力です。

混合リソース消費の最適化は、興味深いスケジューリングと経済学の問題を生み出します。サービスは多様なリソースプロファイルを持ちます。計算量に制約されるもの(ZK証明検証)、データ量に制約されるもの(可用性サービス)、その他バランスの取れたものなどです。最適なバリデータリソース利用には、ワークパッケージ内で補完的なサービスをペアリングする必要があります。このペアリングを調整するためのどのようなメカニズムが出現するのか?補完的なサービスバンドリングの市場はどのように発展するのか?これはブロックチェーン経済学研究における未開拓の領域です。

後方状態ルートではなく前方状態ルートを介したパイプライン処理は、ブロック処理の重複を可能にするが、紛争処理に複雑さを導入します。ブロックNの重いAccumulateワークロードがブロックN+1の処理開始後に発生した場合、バリデータは不一致をどのように処理するのか?紛争解決のために最大1時間のファイナリティ一時停止を可能にする判断メカニズムは答えを提供しますが、この設計選択のセキュリティ上の影響は正式な分析を必要とします。

形式検証の取り組みが進行中であり、Runtime VerificationがPVM用のK Frameworkセマンティクスを開発しています。K Frameworkは、プログラミング言語と仮想マシンのセマンティクスを定義するための数学的厳密性を提供し、正確性特性の形式的な証明を可能にします。成果物には、参照仕様、デバッガ、およびプロパティテストツールが含まれます。このレベルの数学的厳密性は、航空宇宙および軍事ソフトウェアでは一般的であるものの、ブロックチェーン開発では比較的まれであり、形式手法への分野の成熟を表しています。

統合: ブロックチェーン進化におけるJAMの位置付けとWeb3への影響

JAMは、10年以上にわたるブロックチェーンスケーラビリティ研究の集大成であり、以前の世代が約束しながらも実現できなかったものを構築しようと試みています。Bitcoinは分散型コンセンサスを導入したが、7 TPSを超えてスケールすることはできませんでした。Ethereumはプログラマビリティを追加したが、同様のスループット制限に達しました。Ethereum 2.0の当初のビジョンは、64のシャードチェーンを持つネイティブシャーディングを提案したが、複雑すぎると判明し、L2中心のプラグマティズムに転換しました。Polkadotはパラチェーンの共有セキュリティを先駆けたが、50チェーンの固定制限とオークションベースのアクセスがありました。

JAMはこれらの試みから得られた教訓を統合します。分散化とセキュリティを維持し(Bitcoinの教訓)、任意の計算を可能にし(Ethereumの教訓)、並列化を通じてスケールし(Ethereum 2.0の試み)、共有セキュリティを提供し(Polkadotの革新)、同期的なコンポーザビリティを追加し(欠けていたピース)、参入障壁を下げる(アクセシビリティ)ことです。

理論的な優雅さと実践的な複雑さのトレードオフは、JAMの中心的なリスクのままである。プロトコルの設計は知的にコヒーレントです。Refine-Accumulateの二元論、PVMの継続、SAFROLEコンセンサス、部分的にコヒーレントな実行はすべて論理的に整合しています。しかし、理論的な健全性は実践的な成功を保証しません。EthereumがネイティブシャーディングからL2に転換したのは、理論的な不可能性のためではなく、実装、テスト、調整における実践的な複雑さのためでした。

JAMの単一の包括的なアップグレード戦略は、メリットとデメリットの両方を増幅させます。成功すれば、42倍のデータ可用性、パーミッションレスサービス、同期的なコンポーザビリティ、RISC-Vパフォーマンスといったすべての改善が、1つの協調されたデプロイで同時に提供されます。失敗または遅延は、増分的な改善を出荷するのではなく、アップグレード全体に影響を与えます。43の独立した実装チーム、広範なテストネットフェーズ、およびJAM Toasterのフルスケールテストは、リスクを軽減することを目指していますが、主要なアーキテクチャ移行を通じて1,023のバリデータを調整することは、ブロックチェーンの歴史において前例がありません。

パラチェーンオークションからコアタイム市場への経済モデル移行は、大規模ではほとんどテストされていないメカニズムです。Polkadotのアジャイルコアタイムは2024年に稼働しましたが、JAMのパーミッションレスデプロイメントを伴うサービスベースモデルは、全く新しい経済ダイナミクスを生み出します。コアタイム市場は異なるサービスタイプをどのように価格設定するのか?流動性は特定のコアに集中するのか?シーケンサーはワークパッケージの構成をどのように最適化するのか?これらの疑問は、メインネット展開まで経験的な答えがありません。

開発者の採用は、JAMの新しいプログラミングモデル — Refine/Accumulate/onTransferエントリーポイント、ステートレスからステートフルへの実行、継続ベースの非同期 — が学習曲線に見合う十分な価値を提供するかどうかにかかっています。Ethereumの成功は、非効率性にもかかわらず、EVMが開発者にとって馴染み深かったことにも一部起因しています。JAMのPVMは優れたパフォーマンスを提供するが、ワークパッケージとサービスを中心にアプリケーションアーキテクチャを再考する必要があるためです。パーミッションレスなデプロイとオークションの排除は、財政的障壁を劇的に下げるが、メンタルモデルの転換は財政的なものよりも困難であると判明する可能性があります。

JAMの展開に伴い、競争ダイナミクスは進化します。Ethereum L2は、重要なネットワーク効果、流動性、および開発者のマインドシェアを持っています。Solanaは、よりシンプルなプログラミングモデルで優れたパフォーマンスを提供します。Cosmosは、一部のプロジェクトが高く評価する主権を提供します。JAMは、技術的な機能を提供するだけでなく、ブロックチェーンネットワークを価値あるものにするエコシステム参加者 — 開発者、ユーザー、資本 — を引き付ける必要があります。Polkadotの既存のエコシステムは基盤を提供しますが、現在の参加者を超えて拡大するには、移行のための説得力のある価値提案が必要です。

JAMが導入する研究貢献は、商業的成功に関わらず価値を提供します。トランザクションレスブロックチェーンアーキテクチャ、部分的にコヒーレントなコンセンサス、信頼最小化クロスサービスプロトコルのためのAccords、混合リソース消費最適化、およびPVMの継続ベース実行モデルはすべて、ブロックチェーンコンピュータサイエンスを進歩させる新しいアプローチを表しています。JAM自体が支配的な市場地位を達成しなくても、これらの革新は将来のプロトコル設計に情報を提供し、ブロックチェーンスケーラビリティのソリューション空間を拡大します。

JAMが成功した場合のWeb3への長期的な影響には、分散型アプリケーションのアーキテクチャ方法における根本的な変化が含まれます。「ブロックチェーンにデプロイする」(Ethereum L1、Solana、Avalanche)または「独自のブロックチェーンを構築する」(Cosmos、Polkadotパラチェーン)という現在のパラダイムに、中間オプションが追加されます。「サービスとしてデプロイする」ことで、即座の共有セキュリティ、柔軟なリソース割り当て、およびより広範なエコシステムとのコンポーザビリティが実現します。これにより、インフラストラクチャの懸念が取り除かれ、イノベーションが加速する可能性があります。チームはアプリケーションロジックに集中し、JAMがコンセンサス、セキュリティ、スケーラビリティを処理するためです。

JAMがパフォーマンス目標を達成すれば、分散型グローバルコンピュータのビジョンはアーキテクチャ的に実現可能になります。850 MB/秒のデータ可用性、1秒あたり1,500億ガス、340万TPS以上の容量により、計算スループットは、重要な従来のアプリケーションが分散型インフラストラクチャに移行できるレベルに近づきます。すべてのユースケースに適用されるわけではありません。レイテンシに敏感なアプリケーションは依然として根本的な光速の制限に直面し、プライバシー要件は透明な実行と衝突する可能性があります。しかし、調整問題、金融インフラストラクチャ、サプライチェーン追跡、デジタルID、その他多数のアプリケーションにとって、分散型コンピューティングは大規模に技術的に実現可能になります。

JAMの今後2〜5年間の成功指標には、レガシーパラチェーンを超えてデプロイされたサービスの数(エコシステムの拡大を測定)、本番環境で達成された実際のスループットとデータ可用性(パフォーマンス主張の検証)、コアタイム市場の経済的持続可能性(経済モデルの機能証明)、開発者採用指標(GitHubアクティビティ、ドキュメントトラフィック、教育プログラムへの参加)、およびセキュリティ実績(主要なエクスプロイトやコンセンサス障害の欠如)が含まれます。

究極の疑問は、JAMがブロックチェーン設計空間における漸進的な改善 — 代替案よりも優れているが、機能的には根本的に異ならない — なのか、それとも現在のインフラストラクチャでは不可能な全く新しいカテゴリのアプリケーションを可能にする世代的飛躍なのか、ということです。アーキテクチャ基盤 — 部分的にコヒーレントな実行、PVMの継続、Refine-Accumulateの二元論、Accords — は後者の可能性を示唆しています。可能性が現実になるかどうかは、純粋な技術的メリットを超えた実行品質、エコシステム構築、市場タイミング要因に依存します。

Web3研究者にとって、JAMは新しいコンセンサスメカニズム、実行アーキテクチャ、経済調整メカニズム、およびセキュリティモデルを研究するための豊かな実験プラットフォームを提供します。今後数年間で、部分的にコヒーレントなコンセンサス、トランザクションレスアーキテクチャ、およびサービスベースのブロックチェーン組織に関する理論的予測をテストする経験的データが生成されるでしょう。商業的成果に関わらず、得られた知識は今後数十年にわたるブロックチェーンプロトコル設計に情報を提供するでしょう。

分散型 AI 推論市場: Bittensor、Gensyn、Cuckoo AI

· 約 108 分
Dora Noda
Software Engineer

はじめに

分散型 AI 推論/トレーニング市場は、グローバルな計算リソースとコミュニティモデルをトラストレスな方法で活用することを目指しています。BittensorGensynCuckoo Network (Cuckoo AI) のようなプロジェクトは、ブロックチェーン技術がオープンな AI マーケットプレイスをどのように強化できるかを示しています。各プラットフォームは、コンピューティングパワー、機械学習モデル、そして時にはデータといった主要な AI 資産を、オンチェーンの経済単位にトークン化します。以下では、これらのネットワークを支える技術アーキテクチャ、リソースのトークン化方法、ガバナンスとインセンティブ構造、モデル所有権の追跡方法、収益分配メカニズム、そして発生する攻撃対象領域 (シビル攻撃、共謀、フリーライディング、ポイズニングなど) について詳しく掘り下げます。最後に、Bittensor、Gensyn、Cuckoo AI のすべての主要な側面をまとめた比較表を掲載します。

技術アーキテクチャ

Bittensor: サブネット上の分散型「ニューラルインターネット」

Bittensor は、多くの専門的なサブネットにまたがる AI モデルノードのネットワークを調整する、カスタムのレイヤー 1 ブロックチェーン (Substrate ベースの Subtensor チェーン) 上に構築されています。各サブネットは、特定の AI タスク (例えば、言語生成用のサブネット、画像生成用の別のサブネットなど) に焦点を当てた独立したミニネットワークです。Bittensor の参加者は、それぞれ異なる役割を担います:

  • マイナー – ハードウェア上で機械学習モデルを実行し、サブネットのタスクに対する推論の回答を提供します (トレーニングを行うことさえあります)。本質的に、マイナーはクエリに回答する AI モデルをホストするノードです。
  • バリデーター – マイナーのモデルにプロンプトでクエリを送り、応答の品質を評価し、どのマイナーが価値ある結果を提供しているかについての意見を形成します。バリデーターは事実上、マイナーのパフォーマンスをスコアリングします。
  • サブネットオーナー – サブネットを作成・定義し、そのサブネットでどのようなタスクが実行され、どのように検証が行われるかのルールを設定します。例えば、サブネットオーナーは、特定のデータセットやモダリティのためのサブネットを指定し、検証手順を定義することができます。
  • デリゲーター – ノードを運営しないトークン保有者は、自身の Bittensor トークン (TAO) をマイナーやバリデーターにデリゲート (ステーク) して、最高のパフォーマーを支援し、報酬の一部を得ることができます (プルーフ・オブ・ステークネットワークのステーキングに似ています)。

Bittensor のコンセンサスメカニズムは斬新です。従来のブロック検証の代わりに、Bittensor は「プルーフ・オブ・インテリジェンス」の一形態である Yuma コンセンサス を使用します。Yuma コンセンサスでは、バリデーターによるマイナーの評価がオンチェーンで集計され、報酬の分配が決定されます。12 秒ごとのブロックで、ネットワークは新しい TAO トークンをミントし、どのマイナーが有用な作業を提供したかに関するバリデーターのコンセンサスに従って分配します。バリデーターのスコアは、ステーク加重中央値スキームで結合されます。外れ値の意見は切り捨てられ、正直な多数派の意見が優先されます。つまり、ほとんどのバリデーターがあるマイナーが高品質であると同意すれば、そのマイナーは高い報酬を得ます。もしあるバリデーターが他から大きく逸脱した場合 (共謀やエラーの可能性がある)、そのバリデーターは報酬が少なくなることでペナルティを受けます。このようにして、Bittensor のブロックチェーンはマイナーとバリデーターのフィードバックループを調整します。マイナーは最高の AI 出力を生み出すために競争し、バリデーターはそれらの出力をキュレーションしてランク付けし、両者が追加した価値に比例してトークンを獲得します。このアーキテクチャは、しばしば「分散型ニューラルネットワーク」や「グローバルブレイン」と表現され、モデルが互いのシグナルから学び、集合的に進化します。特筆すべきは、Bittensor が最近チェーンをアップグレードして EVM 互換性 (スマートコントラクト用) をサポートし、リソース割り当ての制御をさらに分散化するために、サブネット固有のトークンとステーキングのシステムである dTAO を導入したことです (詳細は後述)。

Gensyn: トラストレスな分散コンピューティングプロトコル

Gensyn は、機械学習のための分散コンピューティングプロトコルという角度から分散型 AI にアプローチしています。そのアーキテクチャは、AI タスク (モデルのトレーニングや推論ジョブの実行など) を持つ開発者 (サブミッター) と、世界中に余剰の GPU/TPU リソースを持つ計算プロバイダー (ソルバー) を接続します。当初、Gensyn は Substrate L1 チェーンを計画していましたが、より強力なセキュリティと流動性を求めて Ethereum 上のロールアップとして構築する方向に転換しました。したがって、Gensyn ネットワークは Ethereum のレイヤー 2 ( Ethereum ロールアップ) であり、ジョブの投稿と支払いを調整し、計算はプロバイダーのハードウェア上でオフチェーンで行われます。

Gensyn の設計における中心的な革新は、オフチェーン作業の検証システムです。Gensyn は、オプティミスティック検証 (不正証明) と暗号技術を組み合わせて、ソルバーがトレーニング/推論タスクを実行したと主張した際に、その結果が正しいことを保証します。実際には、プロトコルには複数の参加者の役割が含まれます:

  • サブミッター – ジョブを要求する当事者 (例えば、モデルのトレーニングが必要な人)。ネットワークの手数料を支払い、モデル/データまたはタスクの仕様を提供します。
  • ソルバー – ML タスクに入札し、自身のハードウェアで実行するノード。要求に応じてモデルをトレーニングまたは推論を実行し、結果と計算の証明を提出します。
  • ベリファイア/チャレンジャー – ソルバーの作業を監査またはスポットチェックできるノード。Gensyn は Truebit スタイルのスキームを実装しており、デフォルトではソルバーの結果は受け入れられますが、ベリファイアが不正な計算を疑った場合、一定期間内に異議を申し立てることができます。チャレンジでは、計算ステップを対話的に「二分探索」する (不正証明プロトコル) ことで、不一致を特定します。これにより、チェーンは高価なタスク全体をやり直すのではなく、計算の最小限の重要な部分のみをオンチェーンで実行することで紛争を解決できます。

重要なのは、Gensyn が単純なアプローチの巨大な冗長性を避けるように設計されていることです。多くのノードがすべて同じ ML ジョブを繰り返す (コスト削減を台無しにする) 代わりに、Gensyn の 「プルーフ・オブ・ラーニング」 アプローチは、トレーニングのメタデータを使用して学習の進捗があったことを検証します。例えば、ソルバーは中間モデルの重みの暗号ハッシュやチェックポイント、およびこれらがトレーニングの更新に従って進んだことを示す簡潔な証明を提供するかもしれません。この確率的な学習証明は、トレーニング全体を再実行するよりもはるかに安価にチェックでき、完全な複製なしでのトラストレスな検証を可能にします。ベリファイアが異常を検出した場合にのみ、最後の手段としてより重いオンチェーン計算がトリガーされます。このアプローチは、総当たり的な検証と比較してオーバーヘッドを劇的に削減し、分散型 ML トレーニングをより実現可能にします。したがって、Gensyn のアーキテクチャは暗号経済学的なゲームデザインを重視しています。ソルバーはステークやボンドを預け、もし不正行為 (誤った結果を提出) をすれば、それを見つけた正直なベリファイアにそのステークを失います。ブロックチェーンによる調整 (支払いと紛争解決のため) と、オフチェーンの計算および巧妙な検証を組み合わせることで、Gensyn は、信頼性を維持しながらどこでもアイドル状態の GPU を活用できる ML コンピューティングのマーケットプレイス を作り出します。その結果、どんな開発者でも手頃な価格で、グローバルに分散されたトレーニングパワーにオンデマンドでアクセスできる、ハイパースケールの「コンピューティングプロトコル」が実現します。

Cuckoo AI: フルスタックの分散型 AI サービスプラットフォーム

Cuckoo Network (または Cuckoo AI) は、より垂直統合されたアプローチを取り、単なる生の計算能力だけでなく、エンドツーエンドの分散型 AI サービス を提供することを目指しています。Cuckoo は、すべてを調整するために独自のブロックチェーン (当初は Arbitrum Orbit、Ethereum 互換のロールアップフレームワーク上の Cuckoo Chain と呼ばれるレイヤー 1) を構築しました。これは、ジョブと GPU をマッチングするだけでなく、AI アプリケーションをホストし、支払いを 1 つのシステムで処理します。設計はフルスタックです。トランザクションとガバナンスのためのブロックチェーン、分散型 GPU/CPU リソースレイヤー、そしてその上にユーザー向けの AI アプリケーションと API を組み合わせています。言い換えれば、Cuckoo は ブロックチェーンコンピューティングAI アプリケーション の 3 つのレイヤーすべてを単一のプラットフォーム内に統合しています。

Cuckoo の参加者は 4 つのグループに分かれます:

  • AI アプリビルダー (コーディネーター) – Cuckoo 上に AI モデルやサービスをデプロイする開発者です。例えば、開発者は Stable Diffusion 画像ジェネレーターや LLM チャットボットをサービスとしてホストするかもしれません。彼らはコーディネーターノードを運営し、サービスの管理を担当します。ユーザーのリクエストを受け付け、それをタスクに分割し、それらのタスクをマイナーに割り当てます。コーディネーターはネイティブトークン ($CAI) をステークしてネットワークに参加し、マイナーを利用する権利を得ます。彼らは本質的に、ユーザーと GPU プロバイダーの間のインターフェースとなるレイヤー 2 のオーケストレーターとして機能します。
  • GPU/CPU マイナー (タスクノード) – リソースプロバイダーです。マイナーは Cuckoo タスククライアントを実行し、AI アプリの推論タスクを実行するためにハードウェアを提供します。例えば、マイナーはコーディネーターから画像生成リクエスト (特定のモデルとプロンプト付き) を割り当てられ、GPU を使用して結果を計算します。マイナーもまた、コミットメントと良好な行動を保証するために $CAI をステークする必要があります。彼らは正しく完了した各タスクに対してトークン報酬を獲得します。
  • エンドユーザー – AI アプリケーションの消費者です。彼らは Cuckoo のウェブポータルや API を介して対話します (例えば、CooVerse を介してアートを生成したり、AI パーソナリティとチャットしたりします)。ユーザーは使用ごとに暗号通貨で支払うか、あるいは自身のコンピューティングを提供 (またはステーク) して利用コストを相殺することも可能です。重要な側面は検閲耐性です。もし 1 つのコーディネーター (サービスプロバイダー) がブロックされたりダウンしたりしても、ユーザーは同じアプリケーションを提供する別のコーディネーターに切り替えることができます。なぜなら、分散型ネットワークでは複数のコーディネーターが同様のモデルをホストできるからです。
  • ステーカー (デリゲーター) – AI サービスやマイニングハードウェアを運営しないコミュニティメンバーも、$CAI を運営者にステークすることで参加できます。信頼できるコーディネーターやマイナーにステークで投票することで、評判のシグナルを送り、その見返りとしてネットワーク報酬の一部を得ます。この設計は Web3 の評判レイヤーを構築します。良い行為者はより多くのステーク (したがって信頼と報酬) を引き付け、悪い行為者はステークと評判を失います。エンドユーザーでさえもステークできる場合があり、ネットワークの成功と彼らの利害を一致させます。

Cuckoo チェーン (現在はスタンドアロンチェーンから共有セキュリティロールアップへの移行プロセス中) は、これらすべての相互作用を追跡します。ユーザーが AI サービスを呼び出すと、コーディネーターノードはマイナーのためのオンチェーンタスク割り当てを作成します。マイナーはオフチェーンでタスクを実行し、結果をコーディネーターに返します。コーディネーターはそれを検証し (例えば、出力画像やテキストが意味不明でないことを確認)、最終結果をユーザーに届けます。ブロックチェーンは支払い決済を処理します。各タスクに対して、コーディネーターのスマートコントラクトはマイナーに $CAI で支払います (しばしばマイクロペイメントを日々の支払いに集約します)。Cuckoo はトラストネスと透明性を強調しています。すべての参加者はトークンをステークし、すべてのタスクの割り当てと完了が記録されるため、ステークを失う脅威とパフォーマンスの公開性によって不正行為が抑制されます。ネットワークのモジュラー設計は、新しい AI モデルやユースケースを簡単に追加できることを意味します。テキストから画像への生成を概念実証として開始しましたが、そのアーキテクチャは他の AI ワークロード (例: 言語モデルの推論、音声文字起こしなど) をサポートするのに十分な汎用性があります。

Cuckoo のアーキテクチャの注目すべき点は、当初、AI トランザクションのスループットを最大化するために独自のレイヤー 1 ブロックチェーンを立ち上げたことです (テスト中に 1 日あたり 30 万トランザクションのピークに達しました)。これにより、AI タスクスケジューリングのためのカスタム最適化が可能になりました。しかし、チームはスタンドアロン L1 の維持がコストと複雑さを伴うことに気づき、2025 年半ばまでにカスタムチェーンを廃止し、Ethereum 上のロールアップ/AVS (アクティブ検証サービス) モデルに移行することを決定しました。これは、Cuckoo が独自のコンセンサスを実行するのではなく、Ethereum や Arbitrum のような L2 からセキュリティを継承し、その共有セキュリティレイヤー上で分散型 AI マーケットプレイスを運営し続けることを意味します。この変更は、経済的セキュリティを向上させ (Ethereum の堅牢性を活用)、Cuckoo チームが低レベルのチェーンメンテナンスではなく製品に集中できるようにすることを目的としています。要約すると、Cuckoo のアーキテクチャは、誰もがハードウェアを接続したり AI モデルサービスをデプロイしたりでき、世界中のユーザーがより低コストで、大手テックインフラへの依存を減らして AI アプリにアクセスできる分散型 AI サービス提供プラットフォームを構築します。

資産のトークン化メカニズム

これらのネットワークに共通するテーマは、計算、モデル、データを、取引や収益化が可能なオンチェーン資産や経済単位に変換することです。しかし、各プロジェクトはこれらのリソースを異なる方法でトークン化することに焦点を当てています:

  • コンピューティングパワー: 3 つのプラットフォームはすべて、計算作業を報酬トークンに変換します。Bittensor では、有用な計算 (マイナーによる推論やトレーニング) はバリデーターのスコアを介して定量化され、各ブロックで TAO トークン で報酬が与えられます。本質的に、Bittensor は貢献された知性を「測定」し、その貢献を表す商品として TAO を発行します。Gensyn は、計算を商品として 明示的に扱います。そのプロトコルは、GPU 時間が製品であり、価格がトークン建ての需要と供給によって設定されるマーケットプレイスを作成します。開発者はトークンを使用して計算を購入し、プロバイダーはハードウェアサイクルを販売してトークンを獲得します。Gensyn チームは、あらゆる デジタルリソース (計算、データ、アルゴリズム) が同様のトラストレスな市場で表現され、取引できると述べています。Cuckoo は、完了したタスクの支払いとして発行される ERC-20 トークン $CAI を介して計算をトークン化します。GPU プロバイダーは、AI 推論作業を行うことで実質的に CAI を「マイニング」します。Cuckoo のシステムはタスクのオンチェーン記録を作成するため、完了した各 GPU タスクはトークンで支払われる作業の原子単位と考えることができます。3 つすべてに共通する前提は、そうでなければアイドル状態またはアクセス不能な計算能力が、トークン化された流動性のある資産になるということです。これは、プロトコルレベルのトークン発行 (Bittensor や初期の Cuckoo のように) または計算ジョブの売買注文のオープンマーケット (Gensyn のように) を通じて実現されます。

  • AI モデル: AI モデルをオンチェーン資産 (例: NFT やトークン) として表現することはまだ初期段階です。Bittensor はモデル自体をトークン化しません。モデルはマイナーの所有物としてオフチェーンに残ります。代わりに、Bittensor はパフォーマンスの良いモデルに報酬を与えることで、間接的にモデルに価値を置きます。事実上、モデルの「知性」は TAO の収益に変換されますが、モデルの重みを表したり、他者がそのモデルを使用することを許可したりする NFT は存在しません。Gensyn の焦点は計算トランザクションであり、モデルのトークンを明示的に作成することではありません。Gensyn のモデルは通常、開発者によってオフチェーンで提供され (オープンソースまたはプロプライエタリ)、ソルバーによってトレーニングされ、返されます。モデルやその IP を所有するトークンを作成する組み込みのメカニズムはありません。(とはいえ、Gensyn マーケットプレイスは、当事者が選択すればモデルのアーティファクトやチェックポイントの取引を促進する可能性がありますが、プロトコル自体はモデルをトークン化された資産ではなく、計算のコンテンツと見なしています。) Cuckoo はその中間に位置します。「AI エージェント」やネットワークに統合されたモデルについて言及していますが、現在、各モデルを表す非代替性トークンは存在しません。代わりに、モデルはアプリビルダーによってデプロイされ、ネットワークを介して提供されます。そのモデルの使用権は、それが使用されたときに $CAI を稼ぐことができるという点で暗黙的にトークン化されています (それをデプロイしたコーディネーターを介して)。3 つのプラットフォームはすべて、モデルのトークン化の概念 (例えば、トークンを介してコミュニティにモデルの所有権を与える) を認識していますが、実用的な実装は限られています。業界として、AI モデルのトークン化 (例えば、所有権と利益分配権を持つ NFT として) はまだ模索中です。Bittensor のモデルが互いに価値を交換するアプローチは、モデルごとの明示的なトークンがない*「モデルマーケットプレイス」*の一形態です。Cuckoo チームは、分散型モデルの所有権は中央集権型 AI と比較して障壁を下げる有望な方法であると述べていますが、モデルの出力と使用状況をオンチェーンで検証する効果的な方法が必要です。要約すると、コンピューティングパワーは即座にトークン化されますが (作業に対してトークンを支払うのは簡単です)、モデルは間接的または願望的にトークン化されており (出力に対して報酬が与えられ、ステークや評判で表される可能性はありますが、これらのプラットフォームではまだ譲渡可能な NFT として扱われていません)。

  • データ: データのトークン化は最も困難なままです。Bittensor、Gensyn、Cuckoo のいずれも、完全に一般化されたオンチェーンのデータマーケットプレイス (データセットが強制力のある使用権で取引される場所) を統合していません。Bittensor ノードはさまざまなデータセットでトレーニングするかもしれませんが、それらのデータセットはオンチェーンシステムの一部ではありません。Gensyn は開発者がトレーニング用のデータセットを提供することを許可できますが、プロトコルはそのデータをトークン化しません。それは単にソルバーが使用するためにオフチェーンで提供されるだけです。Cuckoo も同様にユーザーデータをトークン化しません。主に推論タスクのために一時的な方法でデータ (ユーザーのプロンプトや出力など) を処理します。Cuckoo のブログは、*「分散型データは、重要なリソースであるにもかかわらず、トークン化が依然として困難である」*と明言しています。データは機密性が高く (プライバシーと所有権の問題)、現在のブロックチェーン技術で扱うのは困難です。したがって、計算は商品化され、モデルも徐々に商品化されつつありますが、データは特別な場合を除いて大部分がオフチェーンにとどまっています (これら 3 つ以外のいくつかのプロジェクトは、データユニオンやデータ貢献に対するトークン報酬を実験していますが、それは現在の範囲外です)。要約すると、これらのネットワークではコンピューティングパワーは今やオンチェーンの商品であり、モデルはトークンを通じて評価されますが、まだ資産として個別にトークン化されておらず、データのトークン化はまだ未解決の問題です (その重要性を認識することを超えて)。

ガバナンスとインセンティブ

これらの分散型 AI ネットワークが自律的かつ公正に機能するためには、堅牢なガバナンスとインセンティブ設計が不可欠です。ここでは、各プラットフォームがどのように自己を統治し (誰が意思決定を行い、アップグレードやパラメータの変更がどのように行われるか)、トークンエコノミクスを通じて参加者のインセンティブをどのように調整しているかを検証します。

  • Bittensor のガバナンス: 初期段階では、Bittensor の開発とサブネットのパラメータは、主にコアチームとメインサブネット上の 64 の「ルート」バリデーターのセットによって制御されていました。これは中央集権化の一点でした。少数の強力なバリデーターが報酬配分に過大な影響力を持ち、一部からは*「寡頭制の投票システム」*と呼ばれていました。これに対処するため、Bittensor は 2025 年に dTAO (分散型 TAO) ガバナンスを導入しました。dTAO システムは、リソース配分を市場主導かつコミュニティ制御に移行させました。具体的には、TAO 保有者は自分のトークンをサブネット固有の流動性プールにステークし (本質的に、どのサブネットがより多くのネットワーク発行量を得るべきかに「投票」する)、それらのサブネットプールの所有権を表すアルファトークンを受け取ります。より多くのステークを集めたサブネットは、アルファトークンの価格が高くなり、日々の TAO 発行量のより大きなシェアを得る一方、人気のない、またはパフォーマンスの低いサブネットからは資本 (したがって発行量) が流出します。これによりフィードバックループが生まれます。あるサブネットが価値ある AI サービスを生み出せば、より多くの人々が TAO をステークし (報酬を求めて)、そのサブネットは参加者に報酬を与えるための TAO をより多く得て、成長を促進します。サブネットが停滞すれば、ステーカーはより収益性の高いサブネットに引き上げます。事実上、TAO 保有者は、どの AI ドメインがより多くのリソースに値するかを財政的にシグナルを送ることで、ネットワークの焦点を集合的に統治します。これは、経済的成果に連動した、トークン加重によるオンチェーンガバナンスの一形態です。リソース配分以外にも、主要なプロトコルのアップグレードやパラメータの変更は、おそらく TAO 保有者が投票するガバナンス提案を通じて行われます (Bittensor には、Bittensor 財団と選出された評議会によって管理されるオンチェーン提案と国民投票のメカニズムがあり、Polkadot のガバナンスに似ています)。時間とともに、Bittensor のガバナンスはますます分散化され、財団が後退し、コミュニティが (TAO ステークを通じて) インフレ率や新しいサブネットの承認などを主導することが期待されます。dTAO への移行は、中央集権的な意思決定者を、インセンティブが一致したトークンステークホルダーの市場に置き換える、その方向への大きな一歩です。

  • Bittensor のインセンティブ: Bittensor のインセンティブ構造は、そのコンセンサスと密接に結びついています。すべてのブロック (12 秒) で、正確に 1 TAO が新たに発行され、各サブネットの貢献者にパフォーマンスに基づいて分割されます。各サブネットのブロック報酬のデフォルトの分割は、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これにより、すべての役割が報酬を得ることが保証されます。マイナーは推論作業を行うことで、バリデーターは評価努力で、そしてサブネットオーナー (そのサブネットのデータ/タスクをブートストラップした可能性がある) は「マーケットプレイス」やタスク設計を提供することで残余利益を得ます。これらのパーセンテージはプロトコルで固定されており、全員のインセンティブを高品質な AI 出力に向けることを目指しています。Yuma コンセンサスメカニズムは、品質スコアに応じて報酬を重み付けすることでインセンティブをさらに洗練させます。より良い回答を提供するマイナー (バリデーターのコンセンサスによる) は、その 41% のより高い部分を得て、正直なコンセンサスに密接に従うバリデーターは、バリデーター部分のより多くを得ます。パフォーマンスの悪い者は経済的に排除されます。さらに、マイナーやバリデーターを支援するデリゲーター (ステーカー) は、通常、そのノードの収益の一部を受け取ります (ノードはしばしば手数料を設定し、残りをデリゲーターに与えます。これは PoS ネットワークのステーキングに似ています)。これにより、パッシブな TAO 保有者は最高の貢献者をサポートし、利回りを得ることができ、実力主義をさらに強化します。したがって、Bittensor のトークン (TAO) はユーティリティトークンです。新しいマイナーの登録に必要であり (マイナーは参加するために少量の TAO を消費する必要があり、これによりシビルスパムと戦います)、影響力を高めたり、デリゲーションを通じて収益を得るためにステークすることができます。また、外部ユーザーが Bittensor のネットワークからサービスを利用したい場合 (例えば、Bittensor 上の言語モデルにクエリするために TAO を支払う)、支払いトークンとしても想定されていますが、これまでのところ内部の報酬メカニズムが主要な「経済」でした。全体的なインセンティブ哲学は、「価値ある知性」、つまり良い AI の成果を生み出すのに役立つモデルに報酬を与え、ネットワーク内のモデルの品質を継続的に向上させる競争を生み出すことです。

  • Gensyn のガバナンス: Gensyn のガバナンスモデルは、ネットワークが成熟するにつれて、コアチームの管理からコミュニティの管理へと進化するように構成されています。当初、Gensyn はGensyn 財団と、プロトコルのアップグレードと財務の決定を監督する選出された評議会を持つことになります。この評議会は、最初はコアチームのメンバーと初期のコミュニティリーダーで構成されることが期待されています。Gensyn は、ネイティブトークン (しばしば GENS と呼ばれる) のトークン生成イベント (TGE) を計画しており、その後、ガバナンスの権限はオンチェーン投票を通じてますますトークン保有者の手に渡ることになります。財団の役割は、プロトコルの利益を代表し、完全な分散化へのスムーズな移行を保証することです。実際には、Gensyn は、パラメータ (例: 検証ゲームの長さ、手数料率) の変更やアップグレードがコミュニティによって投票されるオンチェーン提案メカニズムを持つことになるでしょう。Gensyn は Ethereum のロールアップとして実装されているため、ガバナンスは Ethereum のセキュリティにも関連する可能性があります (例えば、最終的にトークン保有者の DAO に引き渡されるロールアップコントラクトのアップグレードキーを使用するなど)。Gensyn のライトペーパーの分散化とガバナンスのセクションでは、プロトコルは最終的にグローバルに所有されなければならないと強調しており、*「機械知能のためのネットワーク」*は、そのユーザーと貢献者に属するべきであるという精神と一致しています。要約すると、Gensyn のガバナンスは半中央集権的に始まりますが、GENS トークン保有者 (潜在的にステークや参加によって重み付けされる) が集合的に意思決定を行う DAO になるように設計されています。

  • Gensyn のインセンティブ: Gensyn の経済的インセンティブは、暗号経済学的なセキュリティによって補完された、単純な市場のダイナミクスです。開発者 (クライアント) は ML タスクの代金を Gensyn トークンで支払い、ソルバーはそれらのタスクを正しく完了することでトークンを獲得します。計算サイクルの価格はオープンマーケットで決定されます。おそらく、開発者は報奨金付きでタスクを提示し、ソルバーは入札するか、価格が期待に合えば単純にそれを受け入れることができます。これにより、アイドル状態の GPU の供給がある限り、競争がコストを公正なレートまで引き下げることが保証されます (Gensyn のチームは、ネットワークが世界中で最も安価な利用可能なハードウェアを見つけるため、クラウド価格と比較して最大 80% のコスト削減を見込んでいます)。一方、ソルバーは仕事に対してトークンを獲得するというインセンティブを持っています。そうでなければアイドル状態だったかもしれない彼らのハードウェアが収益を生み出します。品質を保証するために、Gensyn はソルバーに仕事を引き受ける際に担保をステークすることを要求します。もし彼らが不正行為をしたり、誤った結果を生成して捕まった場合、彼らはそのステークを失います (それはスラッシュされ、正直なベリファイアに与えられます)。ベリファイアは、不正なソルバーを捕まえた場合に**「ジャックポット」報酬を得る機会によってインセンティブを与えられます。これは、不正な計算を成功裏に特定したベリファイアに定期的に報酬を与える Truebit の設計に似ています。これにより、ソルバーは正直であり続け、一部のノードは監視役として行動する動機付けがされます。最適なシナリオ (不正行為なし) では、ソルバーは単にタスク料金を稼ぎ、ベリファイアの役割はほとんどアイドル状態です (または、参加しているソルバーの 1 人が他の人のベリファイアを兼ねるかもしれません)。したがって、Gensyn のトークンは、計算を購入するためのガス通貨と、プロトコルを保護するステーク担保の両方として機能します。ライトペーパーでは、非永続的なトークンを持つテストネットと、初期のテストネット参加者が TGE で実際のトークンで報酬を受け取ることが言及されています。これは、Gensyn がブートストラップ**のためにいくつかのトークン供給を割り当てたことを示しています。初期の採用者、テストソルバー、コミュニティメンバーに報酬を与えることです。長期的には、実際のジョブからの手数料がネットワークを維持するはずです。また、各タスク支払いのパーセンテージが財務省に入るか、または燃やされる小さなプロトコル手数料があるかもしれません。この詳細はまだ確認されていませんが、多くのマーケットプレイスプロトコルには、開発資金やトークンの買い戻しと燃焼のための手数料が含まれています。要約すると、Gensyn のインセンティブは、ML ジョブの正直な完了を中心に調整されています。仕事をすれば報酬を得る、不正を試みればステークを失う、他人を検証すれば不正を見つければ報酬を得る。これにより、信頼性の高い分散計算を達成することを目的とした、自己監視型の経済システムが生まれます。

  • Cuckoo のガバナンス: Cuckoo Network は、まだ開発段階にありますが、初日からエコシステムにガバナンスを組み込んでいます。CAIトークンは、そのユーティリティの役割に加えて、明示的にガバナンストークンです。Cuckooの哲学は、GPUノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定(プロトコルのアップグレードや経済的な変更など)は、おそらくDAOメカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckooは報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI トークンは、そのユ��ーティリティの役割に加えて、明示的にガバナンストークンです。Cuckoo の哲学は、GPU ノードオペレーター、アプリ開発者、さらにはエンドユーザーでさえも、ネットワークの進化について発言権を持つべきであるというものです。これは、コミュニティ主導のビジョンを反映しています。実際には、重要な決定 (プロトコルのアップグレードや経済的な変更など) は、おそらく DAO メカニズムを通じて、トークン加重投票によって決定されるでしょう。例えば、Cuckoo は報酬分配の変更や新機能の採用についてオンチェーン投票を行うことができ、CAI 保有者 (マイナー、開発者、ユーザーを含む) が投票します。すでに、オンチェーン投票評判システムとして使用されています。Cuckoo は各役割にトークンをステークすることを要求し、その後、コミュニティメンバーは (おそらくステークを委任するか、ガバナンスモジュールを通じて) どのコーディネーターやマイナーが信頼できるかに投票できます。これは評判スコアに影響を与え、タスクのスケジューリングに影響を与える可能性があります (例えば、より多くの票を持つコーディネーターはより多くのユーザーを引き付けるかもしれませんし、より多くの票を持つマイナーはより多くのタスクを割り当てられるかもしれません)。これはガバナンスとインセンティブの融合です。ガバナンストークンを使用して信頼を確立します。Cuckoo 財団またはコアチームは、これまでのところプロジェクトの方向性を導いてきました (例えば、L1 チェーンを廃止するという最近の決定) が、彼らのブログは分散型所有権への移行へのコミットメントを示しています。彼らは、独自のチェーンを運営することは高いオーバーヘッドを伴い、ロールアップに移行することで、よりオープンな開発と既存のエコシステムとの統合が可能になると特定しました。共有レイヤー (Ethereum のような) に移行すれば、Cuckoo はアップグレードのために、コミュニティが CAI を使用して投票する、より伝統的な DAO を実装する可能性が高いです。

  • Cuckoo のインセンティブ: Cuckoo のインセンティブ設計には 2 つのフェーズがあります。固定されたトークン割り当てによる初期のブートストラップフェーズと、使用量主導の収益分配を伴う将来の状態です。ローンチ時に、Cuckoo は 10 億の CAI トークンの**「フェアローンチ」**配布を実施しました。供給の 51% はコミュニティのために確保され、次のように割り当てられました:

    • マイニング報酬: 総供給の 30% が、AI タスクを実行する GPU マイナーへの支払いのために予約されました。
    • ステーキング報酬: ネットワークをステークして保護する人々のために供給の 11%。
    • エアドロップ: 採用インセンティブとして初期のユーザーとコミュニティメンバーに 5%。
    • (さらに 5% は、Cuckoo 上での構築を奨励するための開発者助成金でした。)

    この大規模な割り当ては、初期のネットワークでは、実際のユーザー需要が低くても、マイナーとステーカーが発行プールから報酬を得ていたことを意味します。実際、Cuckoo の初期フェーズでは、ステーキングとマイニングに高い APY 利回りが特徴で、これにより参加者を成功裏に引き付けましたが、トークンだけを目的とした「イールドファーマー」も引き付けました。チームは、報酬率が下がると多くのユーザーが去ったことに気づき、これらのインセンティブが真の利用に結びついていなかったことを示しています。この経験から学び、Cuckoo は報酬が実際の AI ワークロードと直接相関するモデルに移行しています。将来的には (そして部分的にはすでに)、エンドユーザーが AI 推論の代金を支払うと、その支払い (CAI またはおそらく CAI に変換された別の受け入れられたトークン) が貢献者の間で分割されます:

    • GPU マイナーは、提供した計算に対して大部分のシェアを受け取ります。
    • コーディネーター (アプリ開発者) は、モデルを提供し、リクエストを処理したサービスプロバイダーとして一部を受け取ります。
    • それらのマイナーやコーディネーターに委任したステーカーは、信頼できるノードの支援を継続的に奨励するために、少額の分け前またはインフレ報酬を得るかもしれません。
    • ネットワーク/財務省は、継続的な開発資金や将来のインセンティブ資金のために手数料を保持するかもしれません (または、ユーザーの手頃な価格を最大化するために手数料はゼロ/名目上かもしれません)。

    本質的に、Cuckoo は収益分配モデルに移行しています。Cuckoo 上の AI アプリが収益を生み出せば、その収益はそのサービスのすべての貢献者に公正な方法で分配されます。これにより、参加者がインフレだけでなく実際の利用から利益を得るようにインセンティブが調整されます。すでに、ネットワークはすべての当事者に CAI をステークすることを要求していました。これは、マイナーとコーディネーターがフラットな報酬だけでなく、おそらくステークベースの報酬も得られることを意味します (例えば、多くのユーザーが自分にステークしたり、自分自身がより多くステークしたりすると、コーディネーターはより高い報酬を得るかもしれません。これはプルーフ・オブ・ステークのバリデーターの稼ぎ方に似ています)。ユーザーインセンティブの観点から、Cuckoo はエアドロップポータルやフォーセット (一部のユーザーが悪用した) のようなものも導入して、初期の活動を促進しました。今後は、ユーザーはサービスを利用することでトークンリベートや、キュレーションに参加することでガバナンス報酬 (例えば、出力の評価やデータ提供で少額のトークンを獲得するなど) を通じてインセンティブを与えられるかもしれません。結論として、Cuckoo のトークン ($CAI) は多目的です。それはチェーン上のガス/手数料トークン (すべてのトランザクションと支払いがそれを使用します)、ステーキングと投票に使用され、そして行われた仕事に対する報酬の単位です。Cuckoo は、純粋に投機的なインセンティブを避けるために、トークン報酬をサービスレベルの KPI (重要業績評価指標)、例えば、稼働時間、クエリスループット、ユーザー満足度などに結び付けたいと明示的に言及しています。これは、トークン経済が単純な流動性マイニングから、より持続可能でユーティリティ主導のモデルへと成熟していることを反映しています。

モデルの所有権と IP 帰属

AI モデルの知的財産 (IP) と所有権の取り扱いは、分散型 AI ネットワークの複雑な側面です。各プラットフォームはわずかに異なる立場を取っており、一般的にこれはまだ完全な解決策がない進化中の分野です:

  • Bittensor: Bittensor のモデルはマイナーノードによって提供され、それらのマイナーはモデルの重み (オンチェーンで公開されることはない) を完全に管理し続けます。Bittensor は、特定のウォレットアドレスで実行されているという事実を超えて、誰がモデルを「所有」しているかを明示的に追跡しません。マイナーが去れば、彼らのモデルも一緒に去ります。したがって、Bittensor における IP の帰属はオフチェーンです。マイナーがプロプライエタリなモデルを使用しても、オンチェーンでそれを強制したり、知ったりするものはありません。Bittensor の哲学はオープンな貢献を奨励し (多くのマイナーは GPT-J などのオープンソースモデルを使用するかもしれません)、ネットワークはそれらのモデルのパフォーマンスに報酬を与えます。Bittensor はモデルの評判スコアを作成すると言えるかもしれません (バリデーターのランキングを通じて)。これはモデルの価値を認める一形態ですが、モデル自体の権利はトークン化されたり、分配されたりしません。注目すべきは、Bittensor のサブネットオーナーが IP の一部を所有していると見なされる可能性があることです。彼らはタスクを定義します (これにはデータセットや手法が含まれる場合があります)。サブネットオーナーは、サブネットを作成する際にNFT (サブネット UID と呼ばれる) を発行し、その NFT はそのサブネットの報酬の 18% を得る権利を与えます。これは、モデルのインスタンスではなく、モデルマーケットプレイス (サブネット) の作成を効果的にトークン化します。サブネットの定義 (例えば、特定のデータセットを持つ音声認識タスク) を IP と考えるなら、それは少なくとも記録され、報酬が与えられます。しかし、マイナーがトレーニングする個々のモデルの重みについては、オンチェーンの所有権記録はありません。帰属は、そのマイナーのアドレスに支払われる報酬という形で現れます。Bittensor は現在、例えば、複数の人が共同でモデルを所有し、自動的に収益分配を得るようなシステムを実装していません。モデルを実行している人 (マイナー) が報酬を得て、彼らが使用したモデルの IP ライセンスを尊重するかどうかは、オフチェーンで彼ら次第です。

  • Gensyn: Gensyn では、モデルの所有権は単純明快です。サブミッター (モデルのトレーニングを希望する人) がモデルのアーキテクチャとデータを提供し、トレーニング後、結果として得られるモデルのアーティファクトを受け取ります。作業を行うソルバーはモデルに対する権利を持たず、サービスに対して支払いを受ける請負業者のようなものです。したがって、Gensyn のプロトコルは従来の IP モデルを前提としています。提出したモデルとデータに対する法的権利を持っていた場合、トレーニング後もそれらを保持し続けます。計算ネットワークは所有権を主張しません。Gensyn は、マーケットプレイスがアルゴリズムやデータも他のリソースと同様に取引できることにも言及しています。これは、誰かがネットワークで使用するためにモデルやアルゴリズムを有料で提供し、そのモデルへのアクセスをトークン化するシナリオを示唆しています。例えば、モデル作成者が自分の事前トレーニング済みモデルを Gensyn に置き、他の人がネットワークを介してそれを有料でファインチューニングできるようにするかもしれません (これにより、モデルの IP が効果的に収益化されます)。プロトコルはライセンス条項を強制しませんが、支払い要件をエンコードすることは可能です。スマートコントラクトは、ソルバーにモデルの重みをアンロックするために料金を要求することができます。しかし、これらは投機的なユースケースです。Gensyn の主要な設計はトレーニングジョブを可能にすることです。帰属に関しては、複数の当事者がモデルに貢献した場合 (例えば、一方がデータを提供し、他方が計算を提供した場合)、それはおそらく彼らが Gensyn を使用する前に設定した契約や合意によって処理されるでしょう (例えば、スマートコントラクトがデータプロバイダーと計算プロバイダーの間で支払いを分割するなど)。Gensyn 自体は、「このモデルは X、Y、Z によって構築された」ということを、ジョブに対してどのアドレスに支払いが行われたかの記録を超えてオンチェーンで追跡しません。要約すると、Gensyn におけるモデルの IP はサブミッターに帰属し、いかなる帰属やライセンスも、プロトコル外の法的合意またはその上に構築されたカスタムスマートコントラクトを通じて処理されなければなりません。

  • Cuckoo: Cuckoo のエコシステムでは、モデル作成者 (AI アプリビルダー) は第一級の参加者です。彼らは AI サービスをデプロイします。アプリビルダーが言語モデルをファインチューニングしたり、カスタムモデルを開発して Cuckoo でホストしたりする場合、そのモデルは本質的に彼らの所有物であり、彼らはサービスオーナーとして行動します。Cuckoo は所有権を奪うのではなく、彼らが使用量を収益化するためのインフラを提供します。例えば、開発者がチャットボット AI をデプロイすると、ユーザーはそれと対話でき、開発者 (およびマイナー) は各インタラクションから CAI を獲得します。したがって、プラットフォームは使用収益をモデル作成者に帰属させますが、モデルの重みを明示的に公開したり、NFT に変換したりはしません。実際、モデルをマイナーの GPU で実行するために、コーディネーターノードはモデル (またはランタイム) を何らかの形でマイナーに送信する必要があるでしょう。これは IP の問題を提起します。悪意のあるマイナーがモデルの重みをコピーして配布する可能性はあるでしょうか?分散型ネットワークでは、プロプライエタリなモデルが使用される場合、そのリスクは存在します。Cuckoo の現在の焦点は、かなりオープンなモデル (Stable Diffusion、LLaMA 派生モデルなど) とコミュニティの構築にあり、スマートコントラクトを介した IP 権の強制はまだ見られません。プラットフォームは、将来的に IP 保護のために、暗号化されたモデル実行やセキュアエンクレーブのようなツールを統合する可能性がありますが、ドキュメントには具体的な言及はありません。それが追跡するのは、各タスクに対して誰がモデルサービスを提供したかです。コーディネーターはオンチェーンのアイデンティティであるため、彼らのモデルのすべての使用は彼らに帰属し、彼らは自動的に報酬のシェアを得ます。もし誰かにモデルを譲渡または売却する場合、事実上、彼らはコーディネーターノードの制御を移転することになります (コーディネーターの役割がトークン化されていれば、秘密鍵や NFT を渡すだけかもしれません)。現在、モデルのコミュニティ所有権 (トークンシェアを介して) は実装されていませんが、Cuckoo のビジョンは分散型のコミュニティ主導の AI を示唆しているため、人々が集合的に AI モデルに資金を提供したり、統治したりできるようにすることを探求するかもしれません。個人の所有権を超えたモデルのトークン化は、これらのネットワーク全体でまだ未解決の分野です。それは目標として認識されていますが (企業ではなくコミュニティが AI モデルを所有できるようにするため)、実際には上記の IP と検証の課題に対する解決策が必要です。

要約すると、Bittensor、Gensyn、Cuckoo におけるモデルの所有権は、従来の手段によってオフチェーンで処理されます。モデルを実行または提出する個人または団体が事実上の所有者です。ネットワークは、経済的報酬 (モデルの貢献者に彼らの IP や努力に対して支払う) の形で帰属を提供します。3 つのいずれも、まだスマートコントラクトレベルでモデルの使用に関するライセンスやロイヤリティの強制を組み込んでいません。帰属は評判と報酬を通じて行われます。例えば、Bittensor の最高のモデルは高い評判スコア (公開記録) とより多くの TAO を獲得し、これはその作成者への暗黙のクレジットとなります。将来的には、IP をより良く追跡するために、NFT に紐付けられたモデルの重み分散型ライセンスのような機能が見られるかもしれませんが、現在の優先事項は、ネットワークを機能させ、貢献を奨励することです。すべての人が、モデルの来歴と出力を検証することが、真のモデル資産市場を可能にする鍵であることに同意しており、この方向での研究が進行中です。

収益分配構造

3 つのプラットフォームはすべて、複数の当事者が協力して価値ある AI 出力を生み出したときに、経済的なパイをどのように分割するかを決定しなければなりません。AI サービスが使用されたとき、またはトークンが発行されたときに、誰が、いくら支払われるのでしょうか?それぞれに異なる収益分配モデルがあります:

  • Bittensor: インセンティブの項で述べたように、Bittensor の収益分配はプロトコルによってブロックレベルで定義されています。各ブロックの TAO 発行に対して、マイナーに 41%、バリデーターに 41%、サブネットオーナーに 18% です。これは、各サブネットで生成された価値に対する組み込みの収益分割です。サブネットオーナーのシェア (18%) は、「モデル/タスク設計」またはそのサブネットのエコシステムをブートストラップするためのロイヤリティのように機能します。マイナーとバリデーターが同等のシェアを得ることは、検証がなければマイナーは報酬を得られず (逆もまた然り)、彼らが共生的であり、それぞれが発行された報酬の同等の部分を得ることを保証します。外部ユーザーが TAO を支払ってモデルにクエリする場合を考えると、Bittensor のホワイトペーパーは、その支払いも同様に、回答したマイナーと回答を検証するのを助けたバリデーターの間で分割されることを想定しています (正確な分割はプロトコルまたは市場の力によって決定される可能性があります)。さらに、マイナー/バリデーターにステークするデリゲーターは、事実上のパートナーです。通常、マイナー/バリデーターは、獲得した TAO のパーセンテージをデリゲーターと共有します (これは設定可能ですが、多くの場合、大部分はデリゲーターに)。したがって、マイナーがブロックから 1 TAO を獲得した場合、それはステークに基づいて、例えば、デリゲーターと自分自身の間で 80/20 に分割されるかもしれません。これは、非オペレーターでさえも、彼らのサポートに比例してネットワークの収益のシェアを得ることを意味します。dTAO の導入により、別の共有レイヤーが追加されました。サブネットのプールにステークする人々はアルファトークンを取得し、これによりそのサブネットの発行の一部 (イールドファーミングのようなもの) を得る権利が与えられます。事実上、誰でも特定のサブネットの成功にステークし、アルファトークンを保持することでマイナー/バリデーターの報酬の一部を受け取ることができます (アルファトークンは、サブネットがより多くの使用量と発行を引き付けるにつれて価値が上がります)。要約すると、Bittensor の収益分配は、主要な役割についてはコードによって固定されており、社会的/ステーキングの取り決めによってさらに共有されます。これは比較的に透明で、ルールに基づいた分割です。すべてのブロックで、参加者は 1 TAO がどのように割り当てられるかを正確に知っており、したがって貢献ごとの「収益」を知っています。この明確さが、Bittensor が AI のためのビットコインに例えられる理由の 1 つです。参加者の報酬が数学的に設定される決定論的な通貨発行です。

  • Gensyn: Gensyn の収益分配は、タスクが個別に価格設定されるため、より動的で市場主導です。サブミッターがジョブを作成するとき、彼らは支払う意思のある報酬 (例えば X トークン) を付けます。ジョブを完了したソルバーは、その X (ネットワーク手数料を差し引いたもの) を受け取ります。ベリファイアが関与する場合、通常、次のようなルールがあります。不正が検出されなければ、ソルバーは全額の支払いを保持します。不正が検出された場合、ソルバーはスラッシュされ、ステークの一部または全部を失い、そのスラッシュされた金額はベリファイアに報酬として与えられます。したがって、ベリファイアはすべてのタスクから収益を得るのではなく、不正な結果を捕まえたときにのみ収益を得ます (加えて、実装によっては、参加に対する小さな基本料金があるかもしれません)。ここでは、モデルオーナーに支払うという組み込みの概念はありません。なぜなら、サブミッターがモデルオーナーであるか、モデルを使用する権利を持っていると想定されているからです。サブミッターが他の誰かの事前トレーニング済みモデルをファインチューニングし、支払いの一部が元のモデル作成者に渡るというシナリオを想像することはできますが、それはプロトコル外で処理されなければなりません (例えば、合意や、トークンの支払いを適宜分割する別のスマートコントラクトによって)。Gensyn のプロトコルレベルの共有は、本質的にクライアント -> ソルバー (-> ベリファイア) です。トークンモデルには、プロトコルの財務省や財団のための割り当てが含まれている可能性があります。例えば、すべてのタスクの支払いの小さなパーセンテージが財務省に行き、開発資金や保険プールに使用されるかもしれません (これは利用可能なドキュメントで明示的に述べられていませんが、多くのプロトコルがこれを行っています)。また、初期段階では、Gensyn はインフレを通じてソルバーを補助するかもしれません。テストネットユーザーは TGE で報酬を約束されており、これは事実上、初期のトークン配布からの収益分配です (初期のソルバーとサポーターは、ブートストラップを助けるためにトークンの一部を取得します。これはエアドロップやマイニング報酬に似ています)。時間とともに、実際のジョブが主流になるにつれて、インフレ報酬は減少し、ソルバーの収入は主にユーザーの支払いから得られるようになります。Gensyn のアプローチは、サービスごとの料金収益モデルとして要約できます。ネットワークは、仕事を必要とする人々から仕事をする人々への直接支払いを促進し、ベリファイアとおそらくトークンステーカーは、そのサービスを確保する役割を果たすときにのみ分け前を取ります。

  • Cuckoo: Cuckoo の収益分配は進化してきました。当初、有料のエンドユーザーが多くなかったため、収益分配は本質的にインフレの共有でした。トークン供給からの 30% のマイニングと 11% のステーキングの割り当ては、マイナーとステーカーがネットワークのフェアローンチプールによって発行されたトークンを共有していたことを意味します。実際には、Cuckoo は完了したタスクに比例してマイナーに日々の CAI 支払いのようなものを実行していました。これらの支払いは、主にマイニング報酬の割り当て (予約された固定供給の一部) から来ていました。これは、多くのレイヤー 1 ブロックチェーンがブロック報酬をマイナー/バリデーターに分配する方法に似ています。それは外部ユーザーによる実際の使用に結びついておらず、参加と成長を奨励するためのものでした。しかし、2025 年 7 月のブログで強調されているように、これは実際の需要ではなく、トークンファーミングによって動機付けられた使用につながりました。Cuckoo の次の段階は、サービス料金に基づく真の収益分配モデルです。このモデルでは、エンドユーザーが例えば画像生成サービスを使用し、1 ドル (暗号通貨換算) を支払うと、その 1 ドル相当のトークンが、おそらく次のように分割されます。GPU の仕事をしたマイナーに 0.70、モデルとインターフェースを提供したアプリ開発者 (コーディネーター) に 0.20、そしてステーカーまたはネットワークの財務省に 0.10。(注: 正確な比率は仮説です。Cuckoo はまだ公に指定していませんが、これは概念を示しています。) このようにして、サービスの提供に貢献したすべての人が収益の分け前を得ます。これは、例えば、AI のためのライドシェアリング経済に似ています。車両 (GPU マイナー) が大部分を得て、ドライバーまたはプラットフォーム (モデルサービスを構築したコーディネーター) が分け前を得て、そしておそらくプラットフォームのガバナンス/ステーカーが少額の手数料を得ます。Cuckoo が*「収益分配モデルと、使用メトリクスに直接結びついたトークン報酬」*に言及していることは、特定のサービスやノードが多くの量を処理する場合、そのオペレーターとサポーターがより多くを稼ぐことを示唆しています。彼らは、単にトークンをロックするためのフラットな利回り (当初のステーキング APY の場合) から離れています。具体的には、非常に人気のある AI アプリを動かすコーディネーターにステークすれば、そのアプリの手数料の一部を得ることができるかもしれません。これは、インフレのためだけにステークするのではなく、真のユーティリティへの投資としてのステーキングシナリオです。これにより、AI サービスにお金を払う実際のユーザーを引き付けることに全員のインセンティブが一致し、それがトークン保有者に価値を還元します。Cuckoo のチェーンにはトランザクション手数料 (ガス) もあったため、ブロックを生成したマイナー (当初は GPU マイナーも Cuckoo チェーンのブロック生成に貢献していました) もガス料金を得ていました。チェーンがシャットダウンされ、ロールアップに移行するに伴い、ガス料金は最小限になるか (または Ethereum 上で)、主要な収益は AI サービス料金自体になります。要約すると、Cuckoo は補助金主導モデル (ネットワークが参加者にトークンプールから支払う) から需要主導モデル (参加者が実際のユーザー支払いから稼ぐ) に移行しています。トークンは依然としてステーキングとガバナンスで役割を果たしますが、マイナーとアプリ開発者の日々の収益は、ますます AI サービスを購入するユーザーから得られるようになるはずです。このモデルは長期的により持続可能であり、Web2 の SaaS 収益分配に酷似していますが、透明性のためにスマートコントラクトとトークンを介して実装されています。

攻撃対象領域と脆弱性

AI を分散化することは、いくつかのインセンティブとセキュリティの課題をもたらします。ここでは、主要な攻撃ベクトル (シビル攻撃、共謀、フリーライディング、データ/モデルのポイズニング) を分析し、各プラットフォームがそれらをどのように軽減するか、または脆弱なままであるかを考察します:

  • シビル攻撃 (偽のアイデンティティ): オープンなネットワークでは、攻撃者が多くのアイデンティティ (ノード) を作成して、不釣り合いな報酬や影響力を得ようとする可能性があります。

    • Bittensor: シビル耐性は主に参入コストによって提供されます。Bittensor に新しいマイナーやバリデーターを登録するには、TAO を消費またはステークする必要があります。これはバーンまたはボンディング要件である可能性があります。これは、N 個の偽ノードを作成するには N 倍のコストがかかることを意味し、大規模なシビル集団を高価なものにします。さらに、Bittensor のコンセンサスは影響力をステークとパフォーマンスに結びつけます。ステークがなく、パフォーマンスの低いシビルはほとんど何も稼げません。攻撃者は、大きな報酬を得るためには、多額の投資を行い、かつシビルノードが実際に有用な作業に貢献する必要があります (これは典型的なシビル戦略ではありません)。とはいえ、攻撃者が実際に多くの資本を持っている場合、TAO の過半数を取得し、多くのバリデーターやマイナーを登録することができます。これは事実上、富によるシビルです。これは 51% 攻撃のシナリオと重なります。単一のエンティティがサブネット内のステークされた TAO の 50% 以上を制御する場合、彼らはコンセンサスを大きく揺るがすことができます。Bittensor の dTAO の導入は、ここで少し役立ちます。影響力をサブネット全体に分散させ、サブネットが繁栄するためにはコミュニティのステーキングサポートを必要とするため、1 つのエンティティがすべてを制御することが難しくなります。それでも、資金力のある敵対者によるシビル攻撃は懸念事項です。Arxiv の分析では、現在ステークがかなり集中しているため、過半数攻撃への障壁は望ましいほど高くないと明記されています。これを軽減するために、ウォレットごとのステークキャップ (例えば、1 つのウォレットが支配するのを防ぐために、有効ステークを 88 パーセンタイルでキャップするなど) のような提案がなされています。要約すると、Bittensor はシビルに対処するためにステーク加重アイデンティティ (比例したステークなしに安価にアイデンティティを生成することはできない) に依存しています。これは、非常にリソースの豊富な攻撃者を除いて、かなり効果的です。
    • Gensyn: Gensyn におけるシビル攻撃は、攻撃者がシステムを悪用するために多くのソルバーまたはベリファイアノードを立ち上げるという形で現れるでしょう。Gensyn の防御は純粋に経済的かつ暗号学的です。アイデンティティ自体は重要ではありませんが、作業を行うか、担保を投稿することが重要です。攻撃者が 100 個の偽のソルバーノードを作成しても、ジョブもステークもなければ、何も達成できません。タスクを獲得するためには、シビルノードは競争力のある入札を行い、作業を行うためのハードウェアを持っている必要があります。能力なしに安値で入札すれば、失敗してステークを失います。同様に、攻撃者は検証に選ばれることを期待して多くのベリファイアアイデンティティを作成する可能性があります (プロトコルがランダムにベリファイアを選択する場合)。しかし、数が多すぎると、ネットワークやジョブの投稿者がアクティブなベリファイアの数を制限するかもしれません。また、ベリファイアはそれをチェックするために計算を実行する必要がある可能性があり、これはコストがかかります。多くの偽のベリファイアを持つことは、実際に結果を検証できない限り役に立ちません。Gensyn におけるより適切なシビル攻撃の角度は、攻撃者がネットワークを偽のジョブや応答で満たして他人の時間を無駄にしようとする場合です。これは、サブミッターにもデポジットを要求することで軽減されます (偽のジョブを投稿する悪意のあるサブミッターは、支払いまたはデポジットを失います)。全体として、Gensyn が要求するステーク/ボンド検証のためのランダム選択の使用は、攻撃者が比例したリソースも持ち込まない限り、複数のアイデンティティを持つことによる利益がほとんどないことを意味します。それは安価な攻撃ではなく、よりコストのかかる攻撃になります。オプティミスティックセキュリティモデルは、少なくとも 1 人の正直なベリファイアを前提としています。シビルは、一貫して不正を行うためには、すべてのベリファイアを圧倒し、すべてが自分たちである必要がありますが、これもまた、ステークまたは計算能力の過半数を所有することに戻ります。したがって、Gensyn のシビル耐性は、オプティミスティックロールアップのそれに匹敵します。正直なアクターが 1 人いる限り、シビルは簡単にシステム的な損害を引き起こすことはできません。
    • Cuckoo: Cuckoo におけるシビル攻撃の防止は、ステーキングとコミュニティの審査に依存しています。Cuckoo のすべての役割 (マイナー、コーディネーター、場合によってはユーザーでさえも) は、$CAI のステーキングを必要とします。これは即座にシビルアイデンティティのコストを引き上げます。100 個のダミーマイナーを作成する攻撃者は、それぞれについてステークを取得してロックする必要があります。さらに、Cuckoo の設計には人間/コミュニティの要素があります。新しいノードは、オンチェーン投票を通じて評判を得る必要があります。評判のない新鮮なノードのシビル軍団は、多くのタスクを割り当てられたり、ユーザーに信頼されたりする可能性は低いです。特にコーディネーターはユーザーを引き付ける必要があります。実績のない偽のコーディネーターは利用されません。マイナーについては、コーディネーターは Cuckoo Scan で彼らのパフォーマンス統計 (成功したタスクなど) を見ることができ、信頼できるマイナーを好むでしょう。Cuckoo には比較的小さな数のマイナーしかいませんでした (ベータ版のある時点で 40 GPU)。そのため、多くのノードの奇妙な流入は目立つでしょう。潜在的な弱点は、攻撃者が評判システムもファーミングする場合です。例えば、彼らがシビルノードに多くの CAI をステークして評判が良く見せかけたり、偽の「ユーザー」アカウントを作成して自分自身をアップボートしたりする場合です。これは理論的には可能ですが、すべてがトークンキュレーションされているため、そうするにはトークンがかかります (本質的に、自分のステークで自分のノードに投票することになります)。Cuckoo チームは、シビルの行動が観察された場合 (特に、より中央集権的なロールアップサービスになりつつある現在、彼らは悪意のあるアクターを一時停止またはスラッシュすることができます)、ステーキングと報酬のパラメータを調整することもできます。結局のところ、シビルは利害関係 (ステーク) を要求し、コミュニティの承認を必要とすることによって抑制されます。正直な参加者が実際のハードウェアとステークにより良く費やすことができる多額の投資なしに、何百もの偽の GPU を持ってきて報酬を得ることは誰にもできません。
  • 共謀: ここでは、複数の参加者がシステムを悪用するために共謀することを考えます。例えば、Bittensor でバリデーターとマイナーが共謀したり、Gensyn でソルバーとベリファイアが共謀したりするなどです。

    • Bittensor: 共謀は現実的な懸念として特定されています。元の設計では、一握りのバリデーターが共謀して特定のマイナーや自分自身を常にアップボートし、報酬分配を不公平に歪めることができました (これはルートサブネットでの権力集中として観察されました)。Yuma コンセンサスはいくつかの防御を提供します。バリデーターのスコアの中央値を取り、逸脱するものを罰することで、彼らが多数派でない限り、小さな共謀グループがターゲットを劇的に押し上げるのを防ぎます。言い換えれば、10 人のバリデーターのうち 3 人が共謀してマイナーに非常に高いスコアを与えても、他の 7 人がそうしなければ、共謀者の外れ値スコアは切り捨てられ、マイナーの報酬は中央値スコアに基づきます (したがって、共謀は大きな助けにはなりません)。しかし、共謀者がバリデーターの 50% 以上 (またはバリデーター間のステークの 50% 以上) を形成する場合、彼らは事実上コンセンサスそのものです。彼らは偽の高いスコアに合意でき、中央値は彼らの見解を反映します。これは古典的な 51% 攻撃のシナリオです。残念ながら、Arxiv の研究では、トークンの集中度が高いため、参加者 (数で) のわずか 1〜2% の連合がステークの過半数を支配している Bittensor のサブネットがいくつか見つかりました。これは、少数の大口保有者による共謀が信頼できる脅威であったことを意味します。Bittensor が dTAO を通じて追求している緩和策は、影響力を民主化することです。任意の TAO 保有者がサブネットにステークを向けることを許可することで、閉鎖的なバリデーターグループの力を希薄化します。また、凹型ステーキング (過大なステークに対する収益の逓減) やステークキャップのような提案は、1 つの共謀エンティティがあまりにも多くの投票権を集める能力を打ち破ることを目的としています。Bittensor のセキュリティの前提は、現在、プルーフ・オブ・ステークに似ています。単一のエンティティ (またはカルテル) がアクティブなステークの 50% 以上を制御しないことです。それが維持される限り、正直なバリデーターが悪質なスコアリングを上書きし、共謀するサブネットオーナーが恣意的に自分の報酬を増やすことができないため、共謀は制限されます。最後に、サブネットオーナーとバリデーター間の共謀 (例えば、サブネットオーナーがバリデーターに賄賂を渡して、自分のサブネットのマイナーを高く評価させる) について、dTAO は直接的なバリデーターの制御を取り除き、それをトークン保有者の決定に置き換えます。トークン供給を買い占めない限り、「市場」と共謀することはより困難です。その場合、それはもはや共謀ではなく、乗っ取りです。したがって、Bittensor の主要な反共謀技術はアルゴリズムによるコンセンサス (中央値クリッピング)広範なトークン配布です。

    • Gensyn: Gensyn における共謀は、おそらくソルバーとベリファイア (または複数のベリファイア) がシステムを不正に操作するために共謀することを含むでしょう。例えば、ソルバーが偽の結果を生成し、共謀するベリファイアが意図的にそれに異議を唱えない (または、プロトコルがベリファイアに署名を求めた場合にそれが正しいと証明さえする) 可能性があります。これを軽減するために、Gensyn のセキュリティモデルは少なくとも 1 人の正直なベリファイアを必要とします。もしすべてのベリファイアがソルバーと共謀している場合、不正な結果は異議なく通ります。Gensyn は、多くの独立したベリファイア (誰でも検証できる) を奨励し、ベリファイアが共謀から離脱して異議を唱えることで大きな報酬を得ることができるというゲーム理論によってこれに対処します (なぜなら、彼らはソルバーのステークを得るからです)。本質的に、共謀に同意するグループがあっても、各メンバーは離反して自分のために報奨金を請求するインセンティブを持っています。これは古典的な囚人のジレンマの状況です。これにより、共謀グループが小さいか、効果がない状態に保たれることが期待されます。もう 1 つの潜在的な共謀は、複数のソルバーが価格を吊り上げたり、タスクを独占したりすることです。しかし、開発者はタスクをどこに投稿するかを選択でき (そしてタスクは簡単に独占できる同一の単位ではない)、価格におけるソルバーの共謀は世界的に調整するのが難しいでしょう。共謀していないソルバーは、仕事を勝ち取るために安値で入札することができます。オープンマーケットのダイナミクスは、少なくともいくつかの競争力のある参加者がいると仮定すれば、価格設定の共謀に対抗します。もう 1 つの角度: ソルバーを苦しめるためのベリファイアの共謀。例えば、ベリファイアが正直なソルバーを偽って告発して彼らのステークを盗むなどです。Gensyn の不正証明はバイナリでオンチェーンです。偽の告発は、オンチェーンの再計算でエラーが見つからなければ失敗し、おそらく悪意のあるベリファイアは何か (おそらくデポジットや評判) を失うでしょう。したがって、ソルバーを妨害しようとするベリファイアの共謀は、プロトコルの検証プロセスによって捕らえられます。要約すると、Gensyn のアーキテクチャは、共謀するセットの少なくとも 1 つの当事者が正直であるインセンティブを持つ限り堅牢です。これは、ビットコインで最終的に不正を暴露するために 1 人の正直なマイナーを必要とするのと同様のオプティミスティック検証の特性です。攻撃者がタスク内のすべてのベリファイアとソルバーを制御できる場合 (ネットワークの過半数など)、理論的には共謀は可能ですが、その場合、彼らは共謀を必要とせずに不正を行うことができます。暗号経済学的インセンティブは、共謀を維持することを非合理的にするように配置されています。

    • Cuckoo: Cuckoo における共謀は、いくつかの方法で発生する可能性があります:

      1. コーディネーターとマイナーの共謀 – 例えば、コーディネーターが常に友好的なマイナーのセットにタスクを割り当て、報酬を分割し、他の正直なマイナーを無視することができます。コーディネーターはタスクのスケジューリングに裁量権を持っているため、これは起こり得ます。しかし、友好的なマイナーが標準以下であれば、エンドユーザーは遅いまたは質の悪いサービスに気づき、去っていく可能性があるため、コーディネーターは品質を損なう純粋なえこひいきからインセンティブを失います。共謀が報酬を操作するためである場合 (例えば、マイナーにトークンを与えるために偽のタスクを提出するなど)、それはオンチェーンで検出され (おそらく同一の入力または実際のユーザーがいない多くのタスク)、罰せられる可能性があります。Cuckoo のオンチェーンの透明性は、異常なパターンがコミュニティまたはコアチームによってフラグ付けされる可能性があることを意味します。また、すべての参加者がステークしているため、共謀するコーディネーターとマイナーのリングは、システムを悪用していることが発覚した場合、ステークを失う可能性があります (例えば、ガバナンスが不正行為に対して彼らをスラッシュすることを決定した場合)。
      2. マイナー間の共謀 – 彼らは情報を共有したり、カルテルを結成したりして、例えば、評判でお互いに投票したり、特定のコーディネーターへのサービスを拒否してより高い料金を引き出したりするかもしれません。これらのシナリオは可能性が低いです。評判投票はステーカー (ユーザーを含む) によって行われ、マイナー自身がお互いに投票するわけではありません。そして、サービスの拒否は、コーディネーターを他のマイナーを探すか、警告を発するように促すだけです。現在比較的小規模であることを考えると、どんな共謀も隠すのは難しいでしょう。
      3. ガバナンスを操作するための共謀 – 大口の CAI 保有者が共謀して、自分たちに有利な提案 (法外な手数料の設定や財務省の転用など) を可決する可能性があります。これは、どのトークンガバナンスにもあるリスクです。最善の緩和策は、トークンを広く配布し (Cuckoo のフェアローンチは 51% をコミュニティに与えました)、活発なコミュニティの監督を持つことです。また、Cuckoo は L1 から移行したため、新しいチェーンに再定住するまで、即時のオンチェーンガバナンスは制限されるかもしれません。チームは暫定的にマルチシグ制御を保持している可能性が高く、皮肉なことに、一時的に中央集権化される代わりに、悪意のある部外者による共謀を防ぎます。 全体として、Cuckoo は共謀に対処するために透明性とステーキングに依存しています。コーディネーターが競争環境でユーザーを引き付けたいという理由で行動するという信頼の要素があります。共謀がサービスの質の低下や明らかな報酬の悪用につながる場合、ステークホルダーは悪意のあるアクターを投票で排除したり、ステークを停止したりすることができ、ネットワークは彼らをスラッシュまたはブロックすることができます。かなりオープンな性質 (ステークすれば誰でもコーディネーターやマイナーになれる) は、共謀には大規模な協調的な努力が必要であり、それは明白になることを意味します。Bittensor や Gensyn ほど数学的に防止されてはいませんが、経済的なステークとコミュニティガバナンスの組み合わせがチェック機能を提供します。
  • フリーライディング (フリーライダー問題): これは、参加者が同等の価値を貢献せずに報酬を得ようとすることを指します。例えば、実際には評価しないが報酬を得るバリデーター、計算する代わりに他人の答えをコピーするマイナー、または有用な入力を提供せずに報酬をファーミングするユーザーなどです。

    • Bittensor: Bittensor で知られているフリーライダー問題は、怠惰なバリデーターによる**「ウェイトコピー」です。バリデーターは、独立してマイナーを評価する代わりに、多数派の意見 (または別のバリデーターのスコア) を単にコピーすることができます。そうすることで、AI クエリを実行するコストを回避しながら、提出したスコアがコンセンサスに沿っているように見えれば報酬を得ることができます。Bittensor は、各バリデーターのコンセンサスへの整合性情報貢献度を測定することでこれに対抗します。バリデーターが常に他人をコピーするだけなら、彼らはうまく整合するかもしれませんが (そのため、重く罰せられることはありません)、独自の価値を加えません。プロトコル開発者は、正確だが純粋に冗長ではない評価を提供するバリデーターに、より高い報酬を与えることを議論しています。ノイズ注入 (意図的にバリデーターにわずかに異なるクエリを与える) のような技術は、コピーするのではなく、実際に作業することを強制する可能性がありますが、それが実装されているかどうかは不明です。Arxiv は、バリデーターの努力と報酬をより良く結びつけるために、パフォーマンス加重発行と複合スコアリング手法を提案しています。マイナーについては、考えられるフリーライダーの行動は、マイナーが他のマイナーにクエリを送り、その答えを中継することです (盗作の一形態)。Bittensor の設計 (分散型クエリ) は、マイナーのモデルが自身のデンドライトを介して他を呼び出すことを許可するかもしれません。マイナーが単に他人の答えを中継する場合、優れたバリデーターは、その答えがマイナーの主張するモデル能力と一貫して一致しないため、それに気づくかもしれません。アルゴリズム的に検出するのは難しいですが、元の結果を計算しないマイナーは、最終的にいくつかのクエリでスコアが悪くなり、評判を失うはずです。もう 1 つのフリーライダーのシナリオは、AI の作業をせずに報酬を得るデリゲーターでした。それは意図的なものです (トークン保有者を巻き込むため) ので、攻撃ではありませんが、トークン発行の一部がステークしただけの人々に渡ることを意味します。Bittensor はこれを、報酬の無駄遣いではなく、インセンティブの調整として正当化しています。要するに、Bittensor はバリデーターのフリーライダー問題を認識しており、インセンティブを調整しています (逸脱したりコピーしたりしない人々にブーストを与えるバリデータートラストスコアなど)。彼らの解決策は、本質的に努力と正確さをより明示的に報酬する**ことであり、何もしないことや盲目的にコピーすることが、時間とともにより少ない TAO をもたらすようにすることです。
    • Gensyn: Gensyn では、フリーライダーが稼ぐのは難しいでしょう。なぜなら、トークンを得るためには、計算を提供するか、誰かの不正を捕まえるかしなければならないからです。ソルバーは仕事を「偽る」ことはできません。有効な証明を提出するか、スラッシュされるリスクを負う必要があります。タスクをせずに支払いを受けるメカニズムはありません。ベリファイアは理論的にアイドル状態で、他の人が不正を捕まえることを期待することができますが、それでは何も稼げません (なぜなら、不正証明を提出した人だけが報酬を得るからです)。あまりにも多くのベリファイアがフリーライドしようとすると (実際にタスクを再計算しない)、誰もチェックしていないため、不正なソルバーがすり抜けるかもしれません。Gensyn のインセンティブ設計は、ジャックポット報酬によってこれに対処します。不正を捕まえて大きな支払いを得るには1 人のアクティブなベリファイアで十分なので、少なくとも 1 人が常に仕事をするのが合理的です。仕事をしていない他の人は、役に立たないことを除いてネットワークに害を与えません。彼らも報酬を得ません。したがって、システムは自然にフリーライダーを排除します。実際に検証するベリファイアだけが長期的には利益を上げます (他の人はノードにリソースを費やしても何も得られないか、ごくまれに偶然報酬を得るだけです)。プロトコルはまた、どのベリファイアが異議を唱える機会を得るかをランダム化して、すべてのベリファイアが「誰か他の人がやるだろう」と仮定するのを防ぐかもしれません。タスクは個別に支払われるため、一時的なテストネットのインセンティブを除いて、「仕事なしのステーキング報酬」に相当するものはありません。注意すべき領域はマルチタスク最適化です。ソルバーはタスク間で作業を再利用したり、秘密裏に誰か安い人に外注したりするかもしれません (中央集権型のクラウドを使用するなど)。しかし、それは本当に有害なフリーライディングではありません。時間通りに正しい結果を提供すれば、それをどのように行ったかは問題ではありません。それは攻撃というよりは裁定取引のようなものです。要約すると、Gensyn のメカニズム設計は、フリーライダーが利益を得る余地をほとんど残していません。なぜなら、配布されるすべてのトークンは、行われた仕事または罰せられた不正に対応しているからです。
    • Cuckoo: Cuckoo の初期フェーズは、意図せずしてフリーライダー問題を生み出しました。エアドロップと高利回りのステーキングは、トークンをファーミングするためだけにそこにいるユーザーを引き付けました。これらのユーザーは、フォーセットを通じてトークンを循環させたり、エアドロップタスクを悪用したりしました (例えば、無料のテストプロンプトを継続的に使用したり、報酬を請求するために多くのアカウントを作成したりするなど)。これは、長期的なネットワーク価値に貢献することなく行われました。Cuckoo はこれを問題として認識しました。本質的に、人々は AI の出力のためではなく、投機的な報酬を得るためにネットワークを「使用」していました。L1 チェーンを終了し、再焦点を当てるという決定は、これらのインセンティブの不整合を振り払うための一部でした。将来のトークン報酬を実際の使用量に結びつけることによって (つまり、サービスが実際に有料顧客によって使用されているために稼ぐ)、フリーライダーの魅力は減少します。また、マイナー側のフリーライディングのシナリオもあります。マイナーが参加し、タスクを割り当てられ、何らかの方法でそれらを実行せずに報酬を請求する可能性があります。しかし、コーディネーターは結果を検証しています。マイナーが出力なしまたは不正な出力を返した場合、コーディネーターはそれを完了したタスクとしてカウントしないため、マイナーは支払いを受けません。マイナーはまた、簡単なタスクを選り好みし、難しいタスクをドロップしようとするかもしれません (例えば、一部のプロンプトが遅い場合、マイナーはそれらを避けるために切断するかもしれません)。これは問題になる可能性がありますが、コーディネーターはマイナーの信頼性を記録することができます。マイナーが頻繁にドロップする場合、コーディネーターは彼らへの割り当てを停止するか、彼らのステークをスラッシュすることができます (そのようなメカニズムが存在する場合、または単に報酬を与えない場合)。ユーザーのフリーライディング – 多くの AI サービスには無料トライアルがあるため、ユーザーは支払わずにアウトプットを得るためにリクエストをスパムする可能性があります (補助金付きモデルがある場合)。それはプロトコルレベルというよりはサービスレベルの問題です。各コーディネーターは無料利用をどのように処理するかを決定できます (例えば、少額の支払いを要求したり、スロットルしたりするなど)。Cuckoo は当初、無料の景品 (ユーザーを引き付けるための無料の AI 画像生成など) を提供していたため、一部の人がそれを利用しましたが、それは予想される成長マーケティングの一部でした。それらのプロモーションが終了すると、ユーザーは支払わなければならなくなり、悪用する無料の昼食はなくなります。全体として、Cuckoo のトークン配布を実際のユーティリティにマッピングするという新しい戦略は、「意味のないループを行うためのトークンマイニング」というフリーライダー問題を排除することを明確に目的としています。
  • データまたはモデルのポイズニング: これは、AI モデルが劣化したり、出力が操作されたりするように、悪意を持って不正なデータや行動を導入すること、および有害または偏ったコンテンツが貢献される問題を指します。

    • Bittensor: Bittensor におけるデータポイズニングは、マイナーが意図的に不正確または有害な回答を与えること、またはバリデーターが意図的に良い回答を悪いと誤って評価することを意味します。マイナーが一貫してゴミや悪意のあるコンテンツを出力する場合、バリデーターは低いスコアを与え、そのマイナーはほとんど稼げず、最終的に脱落します。経済的インセンティブは品質を提供することにあるため、他人を「ポイズニング」することは攻撃者に利益をもたらしません (彼らの目標が純粋に自己の費用での妨害である場合を除く)。悪意のあるマイナーが他人をポイズニングすることはできるでしょうか?Bittensor では、マイナーは直接お互いをトレーニングしません (少なくとも設計上はそうではありません。ポイズニングされる可能性のあるグローバルモデルが更新されることはありません)。各マイナーのモデルは別々です。彼らは、マイナーが自分自身をファインチューニングするために他の人から興味深いサンプルを取ることができるという意味で学習しますが、それは完全に任意であり、それぞれ次第です。悪意のあるアクターが無意味な回答をスパムした場合、正直なバリデーターはそれをフィルタリングします (低いスコアを付けます)。したがって、正直なマイナーのトレーニングプロセスに大きな影響を与えることはありません (加えて、マイナーは低いスコアのピアの知識ではなく、高いスコアのピアの知識を使用する可能性が高いです)。したがって、古典的なデータポイズニング (モデルを破損させるために不正なトレーニングデータを注入する) は、Bittensor の現在の設定では最小限です。より関連性の高いリスクはモデル応答の操作です。例えば、バリデーターには明らかではない、微妙に偏った、または危険なコンテンツを出力するマイナーなどです。しかし、バリデーターも人間が設計した、または少なくともアルゴリズムのエージェントであるため、露骨な毒性やエラーは捕捉される可能性が高いです (一部のサブネットには、安全でないコンテンツをチェックする AI バリデーターさえあるかもしれません)。最悪のシナリオは、攻撃者が何らかの方法でバリデーターとマイナーの過半数を共謀させて、特定の不正確な出力を「正しい」として押し通す場合です。彼らは応答に関するネットワークのコンセンサスを偏らせることができます (すべての共謀するバリデーターが悪意のある回答をアップボートするなど)。しかし、外部ユーザーがそれによって害を受けるためには、実際にネットワークにクエリを送り、その出力を信頼する必要があります。Bittensor はまだ能力を構築している段階であり、エンドユーザーによる重要なクエリに広く使用されているわけではありません。その時までには、コンテンツフィルタリングとバリデーターの多様性を持って、そのようなリスクを軽減することを期待しています。バリデーター側では、悪意のあるバリデーターがポイズニングされた評価を与える可能性があります。例えば、競争を排除するために特定の正直なマイナーを一貫してダウンボートするなどです。十分なステークがあれば、彼らはそのマイナーを追い出すことに成功するかもしれません (マイナーの報酬が非常に低くなり、彼らが去る場合)。これはインセンティブメカニズムへの攻撃です。繰り返しになりますが、彼らが多数派でなければ、中央値クリッピングが外れ値のバリデーターを阻止します。彼らが多数派である場合、それは共謀/51% のシナリオと合流します。どの多数派もルールを書き換えることができます。解決策は分散化に戻ります。どの 1 つのエンティティも支配しないようにすることです。要約すると、Bittensor の設計は、そのスコアリングシステムを通じてポイズニングされたデータ/モデルの貢献を本質的に罰します。不正な貢献は低い重み、したがって低い報酬を得ます。ポイズニングするための永続的なモデルリポジトリはありません。すべてが動的で、継続的に評価されます。これにより回復力が提供されます。ネットワークは、バリデーターによって貢献がフィルタリングされるにつれて、悪意のあるアクターを徐々に「忘れる」か無視することができます。
    • Gensyn: ソルバーがトレーニング中のモデルをポイズニングしたい場合 (トレーニング中にバックドアやバイアスを導入するなど)、それを秘密裏に行おうとする可能性があります。Gensyn プロトコルは、トレーニングが指定されたアルゴリズム (確率的勾配降下法のステップなど) に従って進行したことを検証しますが、ソルバーが通常の検証メトリクスには現れない微妙なバックドアトリガーを導入したかどうかを必ずしも検出しません。これはより陰湿な問題です。計算の失敗ではなく、トレーニングの許容される自由度の範囲内での操作です (トリガーフレーズに向けて重みを調整するなど)。それを検出することは、ML セキュリティにおける活発な研究問題です。Gensyn には、サブミッターが最終モデルを自分で選択したテストセットで評価できるという事実を除いて、モデルポイズニングのための特別なメカニズムはありません。賢明なサブミッターは、常に返されたモデルをテストすべきです。いくつかの入力で失敗したり、奇妙な動作をしたりすることを発見した場合、結果に異議を唱えたり、支払いを拒否したりするかもしれません。おそらく、プロトコルはサブミッターが特定の受け入れ基準 (「モデルはこの秘密のテストセットで少なくとも X の精度を達成しなければならない」など) を指定できるようにし、ソルバーの結果が失敗した場合、ソルバーは全額の支払いを受けないようにすることができます。これにより、攻撃者は評価基準を満たさないため、ポイズニングが抑止されます。しかし、ポイズニングが通常のテストでの精度に影響を与えない場合、すり抜ける可能性があります。Gensyn のベリファイアは計算の完全性のみをチェックし、モデルの品質はチェックしないため、トレーニングログが有効に見える限り、意図的な過学習やトロイの木馬を捕まえません。したがって、これはタスクレベルでの信頼の問題として残ります。サブミッターは、ソルバーがモデルをポイズニングしないことを信頼するか、単一のソルバーの影響を薄めるために、異なるソルバーからの複数のトレーニング結果をアンサンブルするような方法を使用する必要があります。もう 1 つの角度はデータポイズニングです。サブミッターがトレーニングデータを提供する場合、悪意のあるソルバーはそのデータを無視して何か別のものでトレーニングしたり、ゴミデータを追加したりする可能性があります。しかし、それはおそらく精度を低下させ、サブミッターは出力モデルのパフォーマンスでそれに気づくでしょう。ソルバーはその後、全額の支払いを受けません (おそらく、彼らはパフォーマンス目標を達成したいからです)。したがって、パフォーマンスを低下させるポイズニングは、ソルバーの報酬にとって自己破壊的です。パフォーマンスに中立だが悪意のあるポイズニング (バックドア) だけが本当の危険であり、それは典型的なブロックチェーン検証の範囲外です。それは機械学習のセキュリティの課題です。Gensyn の最善の緩和策は、おそらく社会的です。既知の評判の良いモデルを使用し、複数のトレーニングランを行い、オープンソースツールを使用することです。推論タスク (Gensyn が推論ジョブにも使用される場合) では、共謀するソルバーが特定の回答を偏らせる不正確な出力を返す可能性があります。しかし、ベリファイアは同じモデルを実行すれば不正な出力を捕まえるので、それはポイズニングというよりは単なる不正行為であり、不正証明が対処します。要約すると、Gensyn はプロセスを保護しますが、意図は保護しません。トレーニング/推論が正しく行われたことを保証しますが、結果が良いか、隠れた悪意がないことを保証するわけではありません。それは未解決の問題として残っており、Gensyn のホワイトペーパーはまだそれを完全には解決していないでしょう (ほとんど誰も解決していません)。
    • Cuckoo: Cuckoo は現在、推論 (既存のモデルの提供) に焦点を当てているため、データ/モデルのポイズニングのリスクは、出力操作またはコンテンツポイズニングに比較的に限定されています。悪意のあるマイナーは、実行するように与えられたモデルを改ざんしようとするかもしれません。例えば、Stable Diffusion のチェックポイントが提供された場合、それを、すべての画像に微妙な透かしや広告を挿入する可能性のある別のモデルと交換するかもしれません。しかし、モデルオーナーであるコーディネーターは、通常、出力形式の期待を持ってタスクを送信します。マイナーが一貫して仕様外の出力を返す場合、コーディネーターはそのマイナーにフラグを立てて禁止します。また、マイナーは、出力に著しく影響を与えることなくモデルを簡単に変更することはできません。もう 1 つのシナリオは、Cuckoo がコミュニティでトレーニングされたモデルを導入する場合です。その場合、マイナーやデータプロバイダーは、トレーニングデータをポイズニングしようとするかもしれません (例えば、多くの間違ったラベルや偏ったテキストを入力するなど)。Cuckoo は、クラウドソースデータの検証または貢献者の重み付けを実装する必要があります。これはまだ機能ではありませんが、チームのパーソナライズされた AI (AI ライフコーチや学習アプリの言及など) への関心は、最終的にユーザー提供のトレーニングデータを扱う可能性があり、それには慎重なチェックが必要になることを意味します。コンテンツの安全性については、Cuckoo のマイナーは推論を実行するため、モデルが通常は出力しない有害なコンテンツを出力することを心配するかもしれません。しかし、マイナーは任意に出力を変更するインセンティブを持っていません。彼らは創造性ではなく、正しい計算に対して報酬を受けます。どちらかといえば、悪意のあるマイナーは時間を節約するために完全な計算をスキップするかもしれません (例えば、ぼやけた画像や一般的な応答を返すなど)。コーディネーターやユーザーはそれに気づき、そのマイナーをダウンレートします (そして、おそらくそのタスクの支払いはしません)。プライバシーは別の側面です。悪意のあるマイナーはユーザーデータを漏洩または記録するかもしれません (ユーザーが機密性の高いテキストや画像を入力した場合など)。これはポイズニングではありませんが、機密性への攻撃です。Cuckoo のプライバシーに関するスタンスは、プライバシー保護手法を模索しているということです (エコシステムにおけるプライバシー保護 VPN の言及は、将来の焦点を示唆しています)。彼らは、セキュアエンクレーブや分割推論のような技術を組み込んで、マイナーからデータをプライベートに保つことができます。まだ実装されていませんが、既知の考慮事項です。 最後に、Cuckoo のブログは、モデルのトークン化を実現可能にする鍵として、モデルの出力を効果的に検証し、安全な分散型モデル運用を保証することを強調しています。これは、AI を真に分散化するためには、ポイズニングされた出力や誤動作するモデルのようなものから保護しなければならないことを認識していることを示しています。おそらく、彼らは暗号経済学的インセンティブ (悪意のあるアクターに対するステークスラッシュ) とユーザー評価システム (ユーザーが悪質な出力をフラグ付けでき、それらのマイナーは評判を失う) の組み合わせを使用するつもりでしょう。評判システムはここで役立ちます。マイナーが 1 つでも明らかに悪意のある、または不正確な結果を返した場合、ユーザー/コーディネーターは彼らをダウンボートでき、将来の収益能力に大きな影響を与えます。これを知っているマイナーは、一貫して正しくあり、ポイズニングを紛れ込ませないようにインセンティブを与えられます。 本質的に、Cuckoo は信頼するが検証するというアプローチに依存しています。誰かが不正行為をした場合、特定して削除する (罰としてステークを失う) という、より伝統的な方法です。まだ微妙なモデルポイズニングに対する専門的な防御策はありませんが、特定のアプリオーナー (コーディネーター) が担当する構造は、監督のレイヤーを追加します。これらのオーナーは、自分たちの収益と評判がそれに依存しているため、モデルの完全性を損なうものがないことを保証する動機付けがあります。

結論として、分散型 AI ネットワークは新しい攻撃対象領域を導入しますが、暗号学的、ゲーム理論的、およびコミュニティガバナンスによる防御の組み合わせも展開しています: シビル耐性は、主に経済的なステークを参加に要求することによって処理されます。共謀耐性は、インセンティブの調整 (正直な行動がより収益性が高い) と、小さな共謀グループの影響を制限するコンセンサスメカニズムから生まれます。フリーライダー防止は、報酬を実際の有用な作業と密接に結びつけ、何も貢献しない者を罰するか排除することによって達成されます。ポイズニングおよび関連する攻撃は依然として困難ですが、システムは継続的な評価と悪意のあるアクターをスラッシュまたは追放する能力を通じて、露骨なケースを軽減します。これらのプラットフォームは、安全で自己持続可能な分散型 AI エコシステムを確保するために、これらの設計を積極的に研究し、反復しています。これは、Bittensor の Yuma と dTAO への継続的な調整、および Cuckoo のトークノミクスの転換によって証明されています。

比較評価

Bittensor、Gensyn、Cuckoo AI の違いと類似点を強調するために、次の表は主要な側面における並列比較を提供します:

側面Bittensor (TAO)GensynCuckoo AI (CAI)
技術スタックカスタム L1 (Substrate ベースの Subtensor チェーン) と 93 以上の専門 AI サブネット。独自のチェーン上で EVM 互換 (最近のアップグレード後)。Ethereum ベースのロールアップ (当初は L1 を計画、現在は ETH ロールアップ)。オンチェーン検証を伴うオフチェーン計算。Arbitrum Orbit レイヤー 2 チェーン (EVM ロールアップ) としてローンチ。フルスタックプラットフォーム (独自のチェーン + コンピューティング + アプリ UI)。カスタム L1 から Ethereum 共有セキュリティ (ロールアップ/AVS) に移行中。
主要な焦点モデルの分散型 AI ネットワーク (「ニューラルインターネット」)。ノードは、タスク (LLM、ビジョンなど) 全体で集合的なモデル推論とトレーニングに貢献する。ML のための分散型コンピューティングマーケットプレイス。ブロックチェーンを介して作業を検証しながら、グローバルな GPU によるオフチェーンのモデルトレーニングと推論に重点を置く。分散型 AI サービスプラットフォーム。分散 GPU マイナーを使用したモデル提供/推論 (例: 生成アート、LLM API) に焦点を当てる。エンドユーザーアプリケーションをバックエンドの GPU マーケットプレイスと統合する。
主要な役割サブネットオーナー: サブネット内のタスクと検証を定義 (18% の報酬を獲得)。
マイナー: AI モデル (推論/トレーニング) を実行し、回答を提供。
バリデーター: クエリを投げかけ、マイナーの出力をスコアリング (品質をキュレーション)。
デリゲーター: マイナー/バリデーターに TAO をステークして増幅し、シェアを獲得。
サブミッター (開発者): ML ジョブ (モデル/データ付き) と支払いを投稿。
ソルバー: 自身のハードウェアでタスクを計算し、結果を提出。
ベリファイア (ウォッチャー): ソルバーの結果をチェック。不正な場合は不正証明を介して異議を申し立てることができる。
(サブミッターがモデルを提供するため、明確な「オーナー」の役割はなし。トークン保有者を介したガバナンスの役割)。
AI アプリビルダー (コーディネーター): AI モデルサービスをデプロイし、CAI をステークし、マイナーへのタスクを管理。
マイナー (GPU/CPU プロバイダー): CAI をステークし、割り当てられた推論タスクを実行し、結果を返す。
エンドユーザー: AI アプリを使用 (暗号通貨で支払うか、リソースを貢献)。
ステーカー (デリゲーター): コーディネーター/マイナーにステークし、ガバナンスで投票し、報酬のシェアを獲得。
コンセンサスと検証Yuma コンセンサス: カスタムの「プルーフ・オブ・インテリジェンス」 – AI 出力のバリデーターのスコアが集計され (ステーク加重中央値)、マイナーの報酬が決定される。基盤となるチェーンのコンセンサスはブロックに対して PoS に似ている (Substrate) が、ブロックの有効性は各エポックの AI コンセンサスにかかっている。外れ値のスコアリングと 50% までの共謀に耐性がある。オプティミスティック検証 (Truebit スタイル): ベリファイアが異議を唱えない限り、ソルバーの結果は正しいと仮定。対話的なオンチェーンの不正証明を使用して、不正なステップを特定。また、再実行なしでトレーニングの進捗を検証するために計算の暗号学的証明 (プルーフ・オブ・ラーニング) を実装中。Ethereum がトランザクションの基本コンセンサスを提供。プルーフ・オブ・ステークチェーン + コーディネーターによるタスク検証: Cuckoo Chain はブロック生成に PoS バリデーターを使用 (当初はマイナーもブロックの保護を支援)。AI タスクの結果は、コーディネーターノードによって検証される (マイナーの出力を期待されるモデルの動作と照合)。まだ専門的な暗号証明はなく、ステークと評判に依存 (不正行為が自動的な数学的証明検出ではなく、スラッシングやダウンボートにつながる範囲でトラストレス)。台帳のセキュリティのために Ethereum コンセンサス (ロールアップ) に移行中。
トークンとユーティリティTAO トークン: Subtensor 上のネイティブ通貨。ステーキング (登録とコンセンサスへの影響に必要)、トランザクション手数料/支払い (例: AI クエリの支払い)、および貢献 (マイニング/検証) に対する報酬として使用。TAO には継続的なインフレがあり (12 秒ブロックごとに 1 TAO)、これが報酬メカニズムを駆動する。また、ガバナンス (サブネットへの dTAO ステーキング) でも使用される。Gensyn トークン (ERC-20、名称未定): プロトコルの支払い単位 (開発者はソルバーにそれで支払う)。ステーク担保として機能 (ソルバー/ベリファイアはトークンをボンドし、不正行為でスラッシュされる)。ガバナンスで使用される (Gensyn 財団の DAO を介したプロトコルアップグレードの投票)。供給に関する詳細はまだない。おそらく一部は初期採用 (テストネットなど) を奨励するために割り当てられる。CAI トークン (ERC-20): Cuckoo Chain のネイティブトークン (10 億の固定供給)。多目的: Cuckoo Chain 上のトランザクションのガス料金、ネットワークの役割 (マイナー、コーディネーターは CAI をロックする必要がある) のためのステーキング、プロトコルの決定に関するガバナンス投票、および貢献に対する報酬 (マイニング/ステーキング報酬は初期割り当てから)。ミーム的な魅力もある (コミュニティトークンの側面)。
資産のトークン化計算: はい – AI 計算作業は TAO 報酬を介してトークン化される (TAO を知性のための「ガス」と考える)。モデル: 間接的に – モデルはパフォーマンスに基づいて TAO を稼ぐが、モデル/重み自体はオンチェーン資産ではない (モデルの NFT はない)。サブネットの所有権は、モデルマーケットプレイスのシェアを表すためにトークン化される (サブネットオーナー NFT + アルファトークン)。データ: トークン化されていない (データはオフチェーン。Bittensor はデータセットではなくモデルの出力に焦点を当てる)。計算: はい – アイドル状態の計算はオンチェーンの商品となり、ジョブマーケットプレイスでトークンと交換される。モデル: 明示的にはない – モデルは開発者によってオフチェーンで提供され、結果が返される。組み込みのモデルトークンはない (ただし、当事者が設定すればプロトコルはライセンスを促進できる)。データ: ない – データセットはサブミッターとソルバーの間でオフチェーンで処理される (暗号化または保護される可能性があるが、オンチェーン資産として表現されない)。Gensyn のビジョンには、計算のようにアルゴリズムやデータを取引する可能性が含まれているが、コア実装は計算中心。計算: はい – GPU 時間は日々の CAI 支払いとタスク報奨金を介してトークン化される。ネットワークは計算能力をマイナーが CAI と「交換」するリソースとして扱う。モデル: 部分的に – プラットフォームはモデルをサービスとして統合する。しかし、モデル自体は NFT としてミントされない。モデルの価値は、それを使用するユーザーから CAI を稼ぐコーディネーターの能力に捉えられる。将来の計画はコミュニティ所有のモデルを示唆しているが、現在モデルの IP はオフチェーン (コーディネーターを運営する者が所有)。データ: 一般的なデータのトークン化はない。ユーザーの入出力は一時的。(Cuckoo は Beancount などのアプリと提携しているが、データはチェーン上のトークンで表現されない)。
ガバナンス分散型、トークン保有者主導 (dTAO): 当初は 64 人の選出されたバリデーターがルートコンセンサスを運営。現在はガバナンスはオープン – TAO 保有者がサブネットにステークして発行を指示 (市場ベースのリソース配分)。プロトコルのアップグレードと変更は、オンチェーン提案 (TAO 投票、Bittensor 財団/評議会が促進) を介して決定される。財団が徐々に制御を譲り、完全にコミュニティによって統治されることを目指す。段階的な分散化: Gensyn 財団 + 選出された評議会が初期の決定を管理。トークンローンチ後、ガバナンスはトークン保有者が提案に投票する DAO に移行する (多くの DeFi プロジェクトと同様)。Ethereum の共有セキュリティ環境は、主要な変更がコミュニティと潜在的にレイヤー 1 のガバナンスを伴うことを意味する。ガバナンスの範囲には、経済パラメータ、コントラクトのアップグレード (セキュリティ監査の対象) が含まれる。まだ稼働していないが、メインネット後のライトペーパーで概説されている。コミュニティと財団の混合: Cuckoo は「フェアローンチ」の精神でローンチ (インサイダー向けのプレマインなし)。コミュニティ DAO が意図されており、主要な決定とプロトコルのアップグレードについて CAI が投票する。実際には、コアチーム (Cuckoo Network 開発者) が主要な決定 (チェーンの廃止など) を主導してきたが、彼らはその根拠を透明に共有し、コミュニティの利益のための進化として位置づけている。オンチェーンガバナンス機能 (提案、投票) は、新しいロールアップが導入されたときに実装される可能性が高い。ステーキングはまた、評判システム (信頼できるノードに対するステーク加重投票) を通じて非公式にガバナンスの影響力を与える。
インセンティブモデル貢献に連動したインフレ報酬: ブロックごとに約 1 TAO がパフォーマンスに基づいて参加者に分配される。品質 = より多くの報酬。マイナーとバリデーターは継続的に (ブロックごとに) 稼ぎ、加えてデリゲーターは分け前を得る。TAO はエンドユーザーがサービスを支払うためにも使用され (トークンの需要側を創出)、トークン経済は長期的な参加 (ステーキング) とモデルの絶え間ない改善を奨励するように設計されている。これはビットコインのマイナーに似ているが、「AI をマイニング」する。潜在的な問題 (ステークの集中化が報酬の不整合につながる) は、インセンティブの調整を通じて対処されている。市場主導、成果報酬: 継続的なインフレ利回りはない (初期のインセンティブの可能性を除く)。ソルバーは仕事を成功裏に完了したときにのみ支払いを受ける。ベリファイアは不正を捕まえたときにのみ支払いを受ける (ジャックポットインセンティブ)。これにより直接的な経済が生まれる: 開発者の支出 = プロバイダーの収益。トークンの価値は、計算に対する実際の需要に結びついている。ブートストラップのために、Gensyn はおそらくローンチ時にテストネットユーザーに報酬を与える (一度きりの配布) が、定常状態では使用量ベース。これにより、インセンティブはネットワークのユーティリティと密接に一致する (AI ジョブが増加すれば、トークンの使用量が増加し、すべての保有者に利益をもたらす)。ハイブリッド (インフレから使用料へ移行): 当初、51% のコミュニティプールからのマイニングとステーキングの割り当ては、外部の使用量に関係なく GPU マイナー (供給の 30%) とステーカー (11%) に報酬を与えた。これはネットワーク効果を始動させるためだった。時間とともに、特に L1 廃止後、収益分配に重点が置かれる: マイナーとアプリ開発者は、実際のユーザー支払い (例: 画像生成の手数料を分割) から稼ぐ。ステーカーの利回りは、実際の使用量の一部から得られるか、生産的なノードのみをサポートするように調整される。したがって、初期のインセンティブは「ネットワークを成長させる」 (高い APY、エアドロップ) であり、後には「ネットワークが実際に有用であれば成長する」 (顧客からの収益) となる。この移行は、フリーライダーを排除し、持続可能性を確保するために設計されている。
セキュリティと攻撃緩和策シビル: 高価な登録 (TAO ステーク) がシビルを抑止。共謀: 中央値コンセンサスが 50% のステークまでの共謀に抵抗。dTAO はトークン保有者の投票を強化することでバリデーターの寡頭制を打破。不正: コンセンサスから逸脱するバリデーターは報酬シェアを失う (正直なスコアリングを奨励)。ステークが高度に集中している場合、51% 攻撃が可能 – 研究では、これを軽減するためにステークキャップとパフォーマンススラッシングを追加することが示唆されている。モデル攻撃: 不良または悪意のあるモデルの出力は、低いスコアによって罰せられる。単一障害点なし – ネットワークはグローバルに分散化されている (TAO マイナーは世界中に存在し、擬似匿名的)。シビル: 参加には経済的なステークが必要。ステーク/仕事のない偽のノードは何も得られない。検証: 少なくとも 1 人の正直なベリファイアが必要 – そうであれば、どんな不正な結果も捕らえられ、罰せられる。不正行為が割に合わないようにするために暗号経済学的インセンティブを使用 (ソルバーはデポジットを失い、ベリファイアは得る)。共謀: すべての当事者が共謀しない限り安全 – 1 人の正直者が不正を明らかにすることでスキームを破る。信頼: ハードウェアや企業への信頼に依存せず、経済的なゲーム理論と暗号学にのみ依存。攻撃: タスクが分散されているため、検閲や DoS が困難。攻撃者は正直なノードを上回る入札をするか、一貫して不正証明を打ち破る必要がある (過半数の制御なしではあり得ない)。しかし、微妙なモデルのバックドアは検出を逃れる可能性があり、これは既知の課題 (ユーザーテストと、単なる正しい実行を超えた将来の監査によって軽減される可能性がある)。全体的なセキュリティは、計算のためのオプティミスティックロールアップに類似。シビル: すべてのアクターは CAI をステークする必要があり、シビルのハードルを上げる。加えて、評判システム (ステーキング + 投票) は、評判のないシビルアイデンティティがタスクを得られないことを意味する。ノードの不正行為: コーディネーターはパフォーマンスの悪い、または疑わしいマイナーをドロップできる。ステーカーはサポートを撤回できる。プロトコルは証明された不正に対してステークをスラッシュできる (L1 にはコンセンサスのためのスラッシング条件があった。同様のことがタスクの不正にも適用できる)。共謀: 部分的に信頼ベース – 共謀が支配するのを防ぐために、オープンな競争とコミュニティの監督に依存。タスクと支払いはオンチェーンで公開されているため、露骨な共謀は特定され、社会的にまたはガバナンスを通じて罰せられる可能性がある。ユーザー保護: ユーザーは、1 つが検閲されたり破損したりした場合にプロバイダーを切り替えることができ、単一の制御点がないことを保証。ポイズニング/コンテンツ: 設計上、マイナーは提供されたモデルをそのまま実行する。悪意を持って出力を変更した場合、評判と報酬を失う。システムは合理的なアクターに賭けている: 全員がステークされた価値と将来の収益の可能性を持っているため、ネットワークへの信頼を損なう攻撃からインセンティブを失う (インセンティブをユーティリティと一致させることに関する L1 実験からの重い教訓によって強化されている)。

表: Bittensor、Gensyn、Cuckoo AI のアーキテクチャ、焦点、役割、コンセンサス、トークン、資産のトークン化、ガバナンス、インセンティブ、セキュリティにおける機能比較。

0G の分散型 AI オペレーティングシステムは、真に大規模な AI のオンチェーン化を推進できるか?

· 約 17 分

背景

AI セクターは、ChatGPTERNIE Bot のような大規模言語モデルに触発され、驚異的な上昇を続けています。しかし、AI は単なるチャットボットや生成テキストに留まりません。AlphaGo の囲碁の勝利から、MidJourney のような画像生成ツールまで、あらゆるものが含まれます。多くの開発者が追い求める究極の目標は、汎用人工知能、すなわち AGI (Artificial General Intelligence) です。これは、人間の知能と同様に学習、知覚、意思決定、および複雑な実行が可能な AI 「エージェント」と通称されます。

しかし、AI および AI エージェントのアプリケーションは、極めて データ集約的 です。これらは、トレーニングと推論のために膨大なデータセットに依存しています。従来、このデータは中央集権的なインフラストラクチャに保存され、処理されてきました。ブロックチェーンの出現により、DeAI (Decentralized AI: 分散型 AI) として知られる新しいアプローチが登場しました。DeAI は、データの保存、共有、検証に分散型ネットワークを活用することで、従来の中央集権的な AI ソリューションの欠点を克服しようとしています。

0G Labs は、この DeAI インフラストラクチャの展望において際立っており、単に 0G と呼ばれる 分散型 AI オペレーティングシステム の構築を目指しています。

0G Labs とは?

従来のコンピューティングにおいて、オペレーティングシステム (OS) はハードウェアとソフトウェアのリソースを管理します。Microsoft Windows、Linux、macOS、iOS、Android などを思い浮かべてください。OS は基盤となるハードウェアの複雑さを抽象化し、エンドユーザーと開発者の双方がコンピュータと対話しやすくします。

同様に、0G OS は Web3 において次のような役割を果たすことを目指しています:

  • 分散型ストレージ、計算、およびデータ可用性を 管理 する。
  • オンチェーン AI アプリケーションのデプロイを 簡素化 する。

なぜ分散化が必要なのか? 従来の AI システムは、中央集権的なサイロにデータを保存・処理するため、データの透明性、ユーザーのプライバシー、データ提供者への公正な報酬に関する懸念が生じます。0G のアプローチでは、分散型ストレージ、暗号学的証明、およびオープンなインセンティブモデルを使用して、これらのリスクを軽減します。

「0G」 という名前は 「Zero Gravity (ゼロ・グラビティ)」 の略です。チームは、データの交換と計算が「重さを感じさせない」環境を構想しています。AI のトレーニングから推論、データ可用性に至るまで、すべてがオンチェーンでシームレスに行われます。

2024 年 10 月に正式に設立された 0G Foundation がこのイニシアチブを推進しています。その使命は、AI を公共財(誰もがアクセス可能で、検証可能で、オープンなもの)にすることです。

0G オペレーティングシステムの主要コンポーネント

根本的に、0G はオンチェーン AI アプリケーションをサポートするために特別に設計されたモジュール型アーキテクチャです。その 3 つの主要な柱 は以下の通りです:

  1. 0G Storage – 分散型ストレージネットワーク。
  2. 0G DA (Data Availability) – データの整合性を確保する特化型データ可用性レイヤー。
  3. 0G Compute Network – AI 推論(および将来的にはトレーニング)のための分散型計算リソース管理と決済。

これらの柱は、コンセンサスと決済を担当する 0G Chain と呼ばれる Layer1 ネットワーク の傘下で連携して動作します。

0G ホワイトペーパー (「0G: Towards Data Availability 2.0」) によると、0G Storage と 0G DA レイヤーの両方が 0G Chain の上に構築されています。開発者は複数のカスタム PoS コンセンサスネットワーク を立ち上げることができ、それぞれが 0G DA および 0G Storage フレームワークの一部として機能します。このモジュール型アプローチは、システム負荷が増大するにつれて、0G が動的に新しいバリデータセットや特化型ノードを追加して拡張できることを意味します。

0G Storage

0G Storage は、大規模データ向けに構築された分散型ストレージシステムです。ユーザーデータの保存に対して組み込みのインセンティブを持つ分散ノードを使用します。重要なのは、消失訂正符号 (Erasure Coding: EC) を使用してデータを 小さく冗長な「チャンク」 に分割し、これらのチャンクを異なるストレージノードに分散させることです。ノードが故障しても、冗長なチャンクからデータを再構築できます。

サポートされるデータ型

0G Storage は、構造化データ非構造化データ の両方に対応しています。

  1. 構造化データKV(キーバリュー)レイヤー に保存され、動的で頻繁に更新される情報(データベース、共同編集ドキュメントなど)に適しています。
  2. 非構造化データLog(ログ)レイヤー に保存され、データエントリを時系列で追加します。このレイヤーは、大規模なアペンドオンリー(追記専用)のワークロードに最適化されたファイルシステムに似ています。

Log レイヤーの上に KV レイヤーを重ねることで、0G Storage は大規模なモデルの重み(非構造化)から、動的なユーザーベースのデータやリアルタイムのメトリクス(構造化)まで、多様な AI アプリケーションのニーズに応えることができます。

PoRA コンセンサス

PoRA (Proof of Random Access: プルーフ・オブ・ランダムアクセス) は、ストレージノードが実際に保存していると主張するチャンクを保持していることを保証します。仕組みは以下の通りです:

  • ストレージマイナーは、保存している特定のランダムなデータチャンクの暗号ハッシュを生成するよう、定期的に チャレンジ されます。
  • マイナーは、ローカルに保持しているデータのコピーから派生した有効なハッシュ(PoW に似たパズル解き)を生成して応答しなければなりません。

公平な競争環境を整えるため、システムはマイニング競争を 8 TB のセグメントに制限しています。大規模なマイナーはハードウェアを複数の 8 TB パーティションに分割でき、小規模なマイナーは単一の 8 TB の境界内で競争します。

インセンティブ設計

0G Storage のデータは 8 GB の「価格設定セグメント」に分割されます。各セグメントには 寄付プール報酬プール の両方があります。データを保存したいユーザーは 0G トークン (ZG) で手数料を支払い、それがノードの報酬の一部に充てられます。

  • 基本報酬: ストレージノードが有効な PoRA 証明を提出すると、そのセグメントの即時ブロック報酬を受け取ります。
  • 継続報酬: 時間の経過とともに、寄付プールから一定割合(現在は年間約 4%)が報酬プールに放出され、ノードがデータを 恒久的 に保存するインセンティブとなります。特定のセグメントを保存するノードが少ないほど、各ノードが獲得できるシェアは大きくなります。

ユーザーは恒久ストレージのために 一度だけ 支払いますが、システム最小値以上の寄付手数料を設定する必要があります。寄付額が高いほど、マイナーがユーザーのデータを複製する可能性が高くなります。

ロイヤリティメカニズム: 0G Storage には「ロイヤリティ」または「データ共有」メカニズムも含まれています。初期のストレージプロバイダーは、各データチャンクの「ロイヤリティ記録」を作成します。新しいノードが同じチャンクを保存したい場合、元のノードがそれを共有できます。新しいノードが後に(PoRA を通じて)ストレージを証明すると、元のデータプロバイダーは継続的なロイヤリティを受け取ります。データが広く複製されるほど、初期プロバイダーの報酬総額は高くなります。

Filecoin および Arweave との比較

共通点:

  • 3 つとも分散型データストレージにインセンティブを与えます。
  • 0G Storage と Arweave の両方が 恒久的 なストレージを目指しています。
  • データのチャンク化と冗長化は標準的なアプローチです。

主な違い:

  • ネイティブ統合: 0G Storage は独立したブロックチェーンではなく、0G Chain と直接統合されており、主に AI 中心のリユースケースをサポートします。
  • 構造化データ: 0G は非構造化データと並んで KV ベースの構造化データをサポートしています。これは、頻繁な読み書きアクセスを必要とする多くの AI ワークロードにとって重要です。
  • コスト: 0G は恒久ストレージで 10〜11ドル/TB を謳っており、Arweave よりも安価であると報告されています。
  • パフォーマンス重視: Filecoin や Arweave が汎用的な分散型ストレージネットワークであるのに対し、0G は AI のスループット要求を満たすように特別に設計されています。

0G DA (Data Availability Layer)

データ可用性 は、すべてのネットワーク参加者がトランザクションデータを完全に検証し、取得できることを保証します。データが不完全であったり隠されたりすると、ブロックチェーンの信頼の前提が崩れます。

0G システムでは、データはチャンク化され、オフチェーンに保存されます。システムはこれらのデータチャンクのマークルルートを記録し、DA ノードはこれらのチャンクを サンプリング して、それらがマークルルートおよび消失訂正符号のコミットメントと一致することを確認しなければなりません。そのとき初めてデータは「利用可能」と見なされ、チェーンのコンセンサス状態に追加されます。

DA ノードの選択とインセンティブ

  • DA ノードは参加するために ZG を ステーキング する必要があります。
  • ノードは検証可能なランダム関数 (VRF) を介してランダムに クォーラム にグループ化されます。
  • 各ノードはデータの サブセット のみを検証します。クォーラムの 2/3 がデータを利用可能かつ正確であると確認すると、証明に署名し、その証明が統合されて 0G コンセンサスネットワークに提出されます。
  • 報酬の分配も定期的なサンプリングを通じて行われます。ランダムにサンプリングされたチャンクを保存しているノードのみが、そのラウンドの報酬の対象となります。

Celestia および EigenLayer との比較

0G DA は Celestia (データ可用性サンプリング) や EigenLayer (リステーキング) から着想を得ていますが、より 高いスループット を提供することを目指しています。Celestia のスループットは現在、約 12 秒のブロック時間で 10 MB/s 程度にとどまっています。一方、EigenDA は主に Layer2 ソリューションを対象としており、実装が複雑になる場合があります。0G は GB/s のスループットを構想しており、これは 50〜100 GB/s を超えるデータ取り込みが必要な大規模 AI ワークロードに適しています。

0G Compute Network

0G Compute Network は分散型計算レイヤーとして機能します。これは段階的に進化しています:

  • フェーズ 1: AI 推論の決済に焦点を当てます。
  • ネットワークは、分散型マーケットプレイスで「AI モデルの購入者」(ユーザー)と計算プロバイダー(販売者)をマッチングさせます。プロバイダーはスマートコントラクトにサービスと価格を登録します。ユーザーはコントラクトに事前入金し、サービスを利用し、コントラクトが支払いを仲介します。
  • 時間の経過とともに、チームはオンチェーンでの本格的な AI トレーニング への拡大を望んでいますが、それはより複雑な課題です。

バッチ処理: プロバイダーはユーザーのリクエストをバッチ処理してオンチェーンのオーバーヘッドを削減し、効率を向上させ、コストを下げることができます。

0G Chain

0G Chain は、0G のモジュール型アーキテクチャの基盤となる Layer1 ネットワークです。以下を支えています:

  • 0G Storage (スマートコントラクト経由)
  • 0G DA (データ可用性証明)
  • 0G Compute (決済メカニズム)

公式ドキュメントによると、0G ChainEVM 互換 であり、高度なデータストレージ、可用性、または計算を必要とする dApps の統合を容易にします。

0G コンセンサスネットワーク

0G のコンセンサスメカニズムはややユニークです。単一のモノリシックなコンセンサスレイヤーではなく、異なるワークロードを処理するために、0G の下で 複数の独立したコンセンサスネットワーク を立ち上げることができます。これらのネットワークは同じステーキングベースを共有します:

  • 共有ステーキング: バリデータは Ethereum 上で ZG をステーキングします。バリデータが不正を行った場合、Ethereum 上でステーキングされた ZG がスラッシングされる可能性があります。
  • 拡張性: 水平方向にスケールするために、新しいコンセンサスネットワークを立ち上げることができます。

報酬メカニズム: バリデータが 0G 環境でブロックをファイナライズすると、トークンを受け取ります。しかし、0G Chain で獲得したトークンはローカル環境で バーン (焼却) され、バリデータの Ethereum ベースのアカウントに同等量が ミント (鋳造) されることで、流動性とセキュリティの単一の接点を確保します。

0G トークン (ZG)

ZG は、0G 経済のバックボーンを表す ERC-20 トークン です。これは Ethereum 上の スマートコントラクト を通じてミント、バーン、および流通されます。実用的には:

  • ユーザーは、ストレージ、データ可用性、および計算リソースの料金を ZG で支払います。
  • マイナーとバリデータは、ストレージの証明やデータの検証に対して ZG を獲得します。
  • 共有ステーキングにより、セキュリティモデルが Ethereum に結び付けられます。

主要モジュールのまとめ

0G OS は、Storage、DA、Compute、および Chain の 4 つのコンポーネントを、相互に接続された 1 つのモジュール型スタックに統合します。システムの設計目標は 拡張性 であり、各レイヤーは水平方向に拡張可能です。チームは、大規模な AI タスクにとって特に重要な 「無限の」スループット の可能性をアピールしています。

0G エコシステム

比較的新しいものの、0G エコシステム にはすでに主要な統合パートナーが含まれています:

  1. インフラストラクチャ & ツール:

    • Union、Brevis、Gevulot などの ZK ソリューション
    • Axelar などの クロスチェーン ソリューション
    • EigenLayer、Babylon、PingPong などの リステーキング プロトコル
    • IoNet、exaBits などの 分散型 GPU プロバイダー
    • Hemera、Redstone などの オラクル ソリューション
    • Ethereum blob データの インデックス ツール
  2. データストレージ & DA に 0G を使用しているプロジェクト:

    • L2 / L3 統合のための Polygon、Optimism (OP)、Arbitrum、Manta
    • Web3 インフラストラクチャのための Nodekit、AltLayer
    • オンチェーン・ゲーミングのための Blade Games、Shrapnel

供給側

ZK および クロスチェーン フレームワークは、0G を外部ネットワークに接続します。リステーキング・ソリューション(EigenLayer、Babylon など)はセキュリティを強化し、流動性を引き付ける可能性があります。GPU ネットワークは消失訂正符号(erasure coding)を加速させます。オラクル・ソリューションはオフチェーン・データを提供したり、AI モデルの価格設定を参照したりします。

需要側

AI エージェント は、データストレージと推論の両方で 0G を活用できます。L2 および L3 は、0G の DA を統合してスループットを向上させることができます。ゲーミング や、堅牢なデータソリューションを必要とするその他の dApp は、アセット、ログ、またはスコアリングシステムを 0G に保存できます。一部のプロジェクトはすでに提携しており、初期のエコシステムの牽引力を示しています。

ロードマップ & リスク要因

0G は、AI を誰でもアクセス可能で検証可能な 公共インフラ(public utility) にすることを目指しています。チームは GB/s レベルの DA スループットを目指しており、これは 50 ~ 100 GB/s のデータ転送を必要とするリアルタイム AI トレーニングにとって極めて重要です。

共同創設者 兼 CEO の Michael Heinrich 氏は、AI の爆発的な成長により、タイムリーなイテレーションが不可欠であると述べています。AI イノベーションのスピードは速く、0G 自身の開発プロセスもそれに追いつく必要があります。

潜在的なトレードオフ:

  • 現在の 共有ステーキング(shared staking) への依存は、暫定的なソリューションかもしれません。最終的に 0G は、段階的に増強可能な(新しい AWS ノードを立ち上げるような)水平スケーラブルなコンセンサス・レイヤーを導入する計画です。
  • 市場競争: 分散型ストレージ、データ可用性、およびコンピューティングには、多くの特化型ソリューションが存在します。0G のオールインワン・アプローチは、魅力的なものであり続ける必要があります。
  • 採用 & エコシステムの成長: 開発者の強力な牽引力がなければ、約束された「無制限のスループット」は理論上のままです。
  • インセンティブの持続可能性: ノードに対する継続的な動機付けは、実際のユーザー需要と均衡の取れたトークン経済に依存します。

結論

0G は、分散型ストレージ、データ可用性、およびコンピューティングを、オンチェーン AI をサポートする単一の「オペレーティングシステム」に統合しようとしています。GB/s のスループットをターゲットにすることで、チームは現在、大規模 AI のオンチェーンへの移行を妨げているパフォーマンスの壁を打破しようとしています。成功すれば、0Gスケーラブルで統合された、開発者フレンドリーな インフラストラクチャを提供することで、Web3 AI の波を大幅に加速させる可能性があります。

それでも、多くの未解決の疑問が残っています。「無限のスループット」の実現性は、0G のモジュール式コンセンサスとインセンティブ構造がシームレスに拡張できるかどうかにかかっています。市場の需要、ノードの稼働時間、開発者の採用といった外部要因も、0G の持続力を決定するでしょう。それにもかかわらず、AI のデータのボトルネックに対処する 0G のアプローチは斬新かつ野心的であり、オンチェーン AI の有望な新しいパラダイムを示唆しています。