メインコンテンツまでスキップ

「AI」タグの記事が 30 件 件あります

人工知能と機械学習のアプリケーション

すべてのタグを見る

Meet BeFreed.ai – BlockEden.xyz ビルダーのための学習燃料

· 約 5 分
Dora Noda
Software Engineer

なぜ BlockEden.xyz が関心を持つのか

Web3 のスピードが命の世界では、迅速さがすべてです。プロダクションレベルの RPC やステーキングインフラを提供するため、私たちのチームとコミュニティは常にイノベーションの最前線に立ち続けなければなりません。つまり、密度の高いプロトコル、画期的な暗号論文、急速に変化するガバナンススレッドを把握し続ける必要があります。コミュニティが新しいアイデアを早く吸収し理解できれば、次世代の分散型アプリケーションをより速く構築できます。ここで BeFreed.ai の出番です。

BeFreed.ai とは何か

BeFreed.ai はサンフランシスコ拠点のスタートアップで、シンプルながら強力なミッションを掲げています。AI 時代に学習を楽しく、個人的なものにすることです。彼らは、ビルダーやクリエイターの過酷なライフスタイルに合わせたインテリジェントなマイクロラーニングコンパニオンを開発しました。

コア要素

  • 複数フォーマット → ワンクリック: BeFreed.ai は長大な書籍や詳細な動画、複雑な技術文書まで、幅広いコンテンツを瞬時に要約、フラッシュカード、詳細ノート、さらにはポッドキャスト形式の音声へと変換します。
  • 適応エンジン: プラットフォームは利用者と共に学習します。学習速度や関心に注意を払い、次に提示する情報を最も関連性の高いものに絞ります。画一的なカリキュラムを強制しません。
  • 組み込みチャット & 「なぜこれ」エクスプラナー: 質問がありますか? すぐに聞くだけで OK。BeFreed.ai はその場で複雑なトピックを明確にし、新たな洞察を全体的な目標に結びつけて説明します。学習プロセスがより意味深いものになります。
  • 4.3万人規模の学習コミュニティ: 学習はしばしば共同作業です。BeFreed.ai は 43,000 人以上の学習者が進捗を共有し、洞察に反応し、重要なポイントをハイライトする活気あるコミュニティを育み、モチベーションと勢いを保ちます。

BlockEden.xyz ビルダーにとっての重要性

BlockEden.xyz エコシステムの献身的なビルダーにとって、BeFreed.ai は単なる学習ツールではなく、戦略的優位性です。以下のようにエッジを研ぎ澄ますことができます。

  • 時間のレバレッジ: 300 ページのホワイトペーパーを 10 分間の音声ブリーフに変換し、重要なガバナンス投票の前に聞くことができます。
  • コンテキスト保持: フラッシュカードやマインドマップを使って、スマートコントラクトインデックス作成時に必要なプロトコル詳細を確実に定着させます。
  • クロススキル成長: 開発環境を離れることなくスキルセットを拡張。デザイン思考の基礎、グロースループの理解、Go の並行処理のヒントなどをダウンタイムに取得できます。
  • 共通語彙: チームレベルのプレイリストを作成し、全員が同じ要約・一貫した情報源から学ぶことで、協働とアラインメントが向上します。

BeFreed.ai を BlockEden.xyz のワークフローに組み込む

BeFreed.ai を既存の開発プロセスに統合するのはシームレスで、すぐに効果が現れます。

  1. スペックを投入: 最新のトークノミクス PDF や YouTube の開発者コールの URL を BeFreed に貼り付け、即座に消化しやすい要約を取得。
  2. フラッシュカードをエクスポート: CI 実行中に重要概念を復習。コンテキストスイッチの疲労よりもはるかに効果的な反復学習が可能です。
  3. ドキュメントにリンク: 各 API リファレンス横に BeFreed の要約 URL を埋め込み、新メンバーが迅速にキャッチアップできるようにします。
  4. 最新情報を保持: 新興 L2 に関する週次ダイジェストを BeFreed で設定し、得た知識を BlockEden.xyz のマルチチェーン RPC サービスで即座にプロトタイピングに活かします。

はじめに

BeFreed.ai は iOS、Android、Web で利用可能です。次の BlockEden.xyz プロジェクトスプリントでぜひ試してみて、学習と構築の速度がどれだけ向上するか体感してください。私たちのチームはすでにより緊密な統合を検討中です—例えば、マージされた PR の説明を自動的に包括的な学習セットに変換する Webhook など、未来を想像してください。

MCP を通じた AI と Web3 の接続:パノラマ分析

· 約 66 分
Dora Noda
Software Engineer

はじめに

AI と Web3 は強力な方法で融合しており、現在 AI 汎用インターフェース は分散型ウェブの結合組織として構想されています。この融合から生まれた主要な概念が MCP です。これは、Anthropic が導入した「Model Context Protocol」を指す場合もあれば、より広い議論の中で「Metaverse Connection Protocol(メタバース接続プロトコル)」と緩やかに表現されることもあります。本質的に MCP は、AI システムが外部のツールやネットワークと自然かつ安全な方法でインターフェースを持つための標準化されたフレームワークであり、潜在的に 「AI エージェントを Web3 エコシステムのあらゆる隅々に接続する」 ことを可能にします。本レポートでは、AI 汎用インターフェース(大規模言語モデルエージェントやニューロ・シンボリック・システムなど)が、どのように MCP を介して Web3 世界のすべてを接続する かについて、歴史的背景、技術アーキテクチャ、業界の展望、リスク、そして将来の可能性を網羅した包括的な分析を提供します。

1. 開発背景

1.1 Web3 の進化と果たされなかった約束

「Web3」という用語は、ブロックチェーンを活用した分散型ウェブを説明するために 2014 年頃に作られました。そのビジョンは野心的なものでした。それは、ユーザーの所有権を中心としたパーミッションレスなインターネット です。愛好家たちは、Web2 の中央集権的なインフラをブロックチェーンベースの代替手段(例えば、DNS に代わる Ethereum Name Service、ストレージに代わる Filecoin や IPFS、金融基盤に代わる DeFi など)に置き換えることを想像しました。理論的には、これによりビッグテック・プラットフォームから支配権を奪い、個人にデータ、アイデンティティ、資産に対する自己主権を与えることができるはずでした。

現実は期待に及びませんでした。 長年の開発とハイプ(熱狂)にもかかわらず、Web3 の主流への影響は限定的なままでした。一般的なインターネットユーザーが 分散型ソーシャルメディアに押し寄せたり、秘密鍵の管理を始めたりすることはありませんでした。 主な理由としては、ユーザーエクスペリエンスの低さ、取引の遅さとコストの高さ、世間を騒がせた詐欺事件、そして規制の不確実性が挙げられます。分散型の「所有権のあるウェブ」は、ニッチなコミュニティを超えて 「具体化することに失敗」 しました。2020 年代半ばまでに、クリプトの推進派でさえ、Web3 が一般ユーザーにとってパラダイムシフトをもたらさなかったことを認めました。

一方で、AI は革命の最中にありました。 資本と開発者の talents(才能)がクリプトから AI へとシフトするにつれ、ディープラーニングと基盤モデル(GPT-3、GPT-4 など)の革新的な進歩が人々の想像力を捉えました。生成 AI は、コンテンツ、コード、意思決定の生成において、クリプトアプリケーションが苦戦していたような明確な有用性を示しました。実際、わずか数年における大規模言語モデルの影響は、10 年にわたるブロックチェーンのユーザー採用を明らかに上回りました。 この対比から、「Web3 はクリプトのために浪費された (Web3 was wasted on crypto)」や、真の Web 3.0 は AI の波から生まれているといった皮肉も聞かれるようになりました。

1.2 AI 汎用インターフェースの台頭

数十年にわたり、ユーザーインターフェースは静的なウェブページ(Web1.0)からインタラクティブなアプリ(Web2.0)へと進化してきましたが、常にボタンのクリックやフォームの入力という枠組みの中にありました。現代の AI、特に大規模言語モデル(LLM)によって、新しいインターフェースのパラダイムである 「自然言語」 が登場しました。ユーザーは単純に自然言語で意図を伝えるだけで、AI システムが多くの領域にわたって複雑なアクションを実行できるようになります。この変化は非常に深遠であるため、「Web 3.0」を以前のブロックチェーン中心の定義ではなく、AI 駆動型エージェントの時代(「エージェンティック・ウェブ (The Agentic Web)」)として再定義すべき だという提案もあります。

しかし、自律型 AI エージェントの初期の実験(AutoGPT のようなプロトタイプなど)は、重大なボトルネックを露呈しました。これらのエージェントはテキストやコードを生成することはできましたが、外部システムや他のエージェントと通信するための堅牢な方法 を欠いていました。相互運用性のための「共通の AI ネイティブ言語」が存在しなかったのです。ツールやデータソースとの各統合は場当たり的なハックであり、AI 間の相互作用には標準的なプロトコルがありませんでした。実務的には、AI エージェントは優れた推論能力を持っていても、ウェブアプリやオンチェーンサービスを使用する必要があるタスクの実行に失敗することがよくありました。それは単に、それらの システムと対話する方法 を知らなかったからです。このミスマッチ(強力な頭脳と原始的な I/O)は、非常にスマートなソフトウェアが不格好な GUI の後ろに閉じ込められているような状態でした。

1.3 融合と MCP の出現

2024 年までに、AI がその可能性を最大限に引き出し(そして Web3 がその約束を果たす)ためには、融合が必要である ことが明らかになりました。AI エージェントは Web3 の機能(分散型アプリ、コントラクト、データ)へのシームレスなアクセスを必要とし、Web3 は AI が提供できる高度なインテリジェンスとユーザビリティを必要としています。このような背景から MCP (Model Context Protocol) が誕生しました。2024 年後半に Anthropic によって導入された MCP は、LLM にとって自然に感じられる AI ツール通信のためのオープンスタンダード です。これは、ChatGPT や Claude などの AI 「ホスト」が、MCP サーバー を介してさまざまな外部ツールやリソースを検出し、使用するための構造化された方法を提供します。言い換えれば、MCP は AI エージェントがカスタムコードを個別に書くことなく、ウェブサービス、API、さらにはブロックチェーン機能にプラグインすることを可能にする 共通のインターフェース層 です。

MCP を 「AI インターフェースの USB-C」 と考えてみてください。USB-C がデバイスの接続方法を標準化した(その結果、デバイスごとに異なるケーブルを必要としなくなった)のと同様に、MCP は AI エージェントがツールやデータに接続する方法を標準化します。開発者は、各サービス(Slack、Gmail、Ethereum ノードなど)に対して異なる API 呼び出しをハードコーディングする代わりに、MCP 仕様を一度実装すれば、あらゆる MCP 対応 AI がそのサービスの使用方法を理解できるようになります。主要な AI プレイヤーはすぐにその重要性を認識しました。Anthropic は MCP をオープンソース化し、OpenAI や Google などの企業も自社モデルでのサポートを構築しています。 この勢いは、MCP(または同様の「メタ接続プロトコル (Meta Connectivity Protocols)」)が、AI と Web3 をスケーラブルな方法で ついに 接続するバックボーンになる可能性を示唆しています。

特筆すべきは、一部の技術者が 「この AI 中心のエコシステムこそが Web3.0 の真の実現である」 と主張している点です。Simba Khadder の言葉を借りれば、「MCP は LLM とアプリケーション間の API を標準化することを目指している」のであり、これは REST API が Web 2.0 を可能にしたのと同様です。つまり、Web3 の次の時代は単なるブロックチェーンではなく、インテリジェントなエージェントインターフェースによって定義される可能性があります。単なる「分散化のための分散化」ではなく、AI との融合により、複雑さを自然言語と自律型エージェントの背後に隠すことで、分散化を 有用なもの に変えることができるのです。本レポートの残りの部分では、技術的・実践的な観点から、AI 汎用インターフェースが(MCP のようなプロトコルを介して)どのように Web3 世界のすべてを接続 できるのかを詳しく掘り下げていきます。

2. 技術アーキテクチャ:Web3 技術を橋渡しする AI インターフェース

AI エージェントを Web3 スタックに組み込むには、ブロックチェーンネットワークやスマートコントラクト、分散型ストレージ、アイデンティティシステム、トークンベースの経済など、複数のレベルでの統合が必要です。大規模基盤モデルからハイブリッドなニューロ・シンボリック・システムに至る AI 汎用インターフェースは、これらのコンポーネントを接続する 「ユニバーサルアダプター」 として機能します。以下では、そのような統合のアーキテクチャを分析します。

図:MCP(Model Context Protocol)アーキテクチャの概念図。AI ホスト(Claude や ChatGPT などの LLM ベースのアプリ)が MCP クライアントを使用して、さまざまな MCP サーバーにプラグインする様子を示しています。各サーバーは、ユニバーサルハブを介して接続される周辺機器のように、外部ツールやサービス(Slack、Gmail、カレンダー、ローカルデータなど)へのブリッジを提供します。この標準化された MCP インターフェースにより、AI エージェントは一つの共通プロトコルを通じて、リモートサービスやオンチェーンリソースにアクセスできるようになります。

2.1 Web3 クライアントとしての AI エージェント(ブロックチェーンとの統合)

Web3 の核となるのは、信頼不要(トラストレス)な方法でロジックを強制できる分散型ステートマシンである ブロックチェーンとスマートコントラクト です。AI インターフェースはこれらとどのように関わることができるでしょうか? 考慮すべき 2 つの方向性があります。

  • AI によるブロックチェーンの読み取り: AI エージェントは、意思決定のコンテキストとしてオンチェーンデータ(トークン価格、ユーザーの資産残高、DAO の提案など)を必要とする場合があります。従来、ブロックチェーンデータの取得には、ノードの RPC API やサブグラフデータベースとのインターフェースが必要でした。MCP のようなフレームワークを使用すると、AI は標準化された 「ブロックチェーンデータ」 MCP サーバーにクエリを実行して、ライブのオンチェーン情報を取得できます。たとえば、MCP 対応エージェント は特定のトークンの最新の取引量やスマートコントラクトの状態を尋ねることができ、MCP サーバーはブロックチェーンへの接続という低レベルの詳細を処理し、AI が使用できる形式でデータを返します。これにより、AI が特定のブロックチェーンの API 形式から切り離され、相互運用性が向上します。

  • AI によるブロックチェーンへの書き込み: さらに強力なのは、AI エージェントが Web3 統合を通じて スマートコントラクトの呼び出しやトランザクションを実行 できることです。たとえば、AI は分散型取引所で自律的にトレードを実行したり、特定の条件が満たされた場合にスマートコントラクトのパラメータを調整したりできます。これは、AI がブロックチェーンのトランザクション機能をラップする MCP サーバーを呼び出すことで実現されます。具体的な例としては、EVM チェーン用の thirdweb MCP サーバー があります。これにより、MCP 互換の AI クライアントは、チェーン固有のメカニズムを抽象化することで、Ethereum、Polygon、BSC などとやり取りできるようになります。このようなツールを使用することで、AI エージェントは 「人間の介入なしに」 オンチェーンアクションをトリガーし、自律型 dApp を実現できます。たとえば、市場状況が変化したときにトランザクションに署名して 自己リバランスを行う AI 駆動型 DeFi ヴォルト などが挙げられます。

内部的には、これらのやり取りは依然としてウォレット、キー、ガス代に依存していますが、AI インターフェースには(適切なセキュリティサンドボックスを備えた)ウォレットへの制御されたアクセス権を与えてトランザクションを実行させることができます。オラクルやクロスチェーンブリッジも役割を果たします。Chainlink のようなオラクルネットワークは AI とブロックチェーンの架け橋として機能し、AI の出力を 信頼できる方法でオンチェーンに供給 することを可能にします。Chainlink の Cross-Chain Interoperability Protocol(CCIP)を使用すれば、信頼できると見なされた AI モデルが、ユーザーに代わって 異なるチェーン上の複数のコントラクトを同時にトリガー することも可能です。要約すると、AI 汎用インターフェースは、標準化されたプロトコルを通じてブロックチェーンデータを 消費 し、ブロックチェーンのトランザクションを 生成 することができる、新しいタイプの Web3 クライアントとして機能します。

2.2 ニューロ・シンボリック・シナジー:AI の推論とスマートコントラクトの組み合わせ

AI と Web3 の統合における興味深い側面の一つは、AI の学習能力(ニューラルネットワーク)とスマートコントラクトの厳格なロジック(シンボリックルール)を組み合わせる ニューロ・シンボリック・アーキテクチャ の可能性です。実際には、AI エージェントが非構造的な意思決定を処理し、特定のタスクを検証可能な実行のためにスマートコントラクトに渡すことを意味します。たとえば、AI は市場のセンチメント(曖昧なタスク)を分析し、あらかじめ設定されたリスクルールに従う決定論的なスマートコントラクトを介して取引を実行するかもしれません。MCP フレームワークと関連標準は、AI がアクションを起こす前にコントラクト関数を呼び出したり、DAO のルール を照会したりするための共通インターフェースを提供することで、このような連携を可能にします。

具体的な例は、分散型ネットワーク上の AI エージェント間の通信を標準化することを目指す SingularityNET の AI-DSL(AI Domain Specific Language) です。これは、エージェントが互いに AI サービスやデータを要求するための形式言語(シンボリック)であり、ニューロ・シンボリック統合への一歩と見なすことができます。同様に、DeepMind の AlphaCode などのプロジェクトが最終的に接続され、スマートコントラクトがオンチェーンの問題解決のために AI モデルを呼び出すようになる可能性があります。現在、大規模な AI モデルを直接 オンチェーン で実行することは非現実的ですが、ハイブリッドなアプローチが登場しています。たとえば、特定のブロックチェーンでは、ゼロ知識証明や信頼された実行環境を介して ML 計算の 検証 が可能になり、オフチェーンの AI 結果をオンチェーンで検証できるようになっています。要約すると、技術アーキテクチャは AI システムとブロックチェーンのスマートコントラクトを 補完的なコンポーネント と見なし、共通のプロトコルを介してオーケストレーションされる未来を描いています。AI が認識や自由形式のタスクを処理し、ブロックチェーンが整合性、メモリ、および合意されたルールの強制を提供します。

2.3 AI のための分散型ストレージとデータ

AI はデータによって成長し、Web3 はデータの保存と共有のための新しいパラダイムを提供します。分散型ストレージネットワーク(IPFS / Filecoin、Arweave、Storj など)は、AI モデルのアーティファクトの保存場所として、またブロックチェーンベースのアクセス制御を備えた学習データのソースとして機能します。AI 汎用インターフェースは、MCP などを通じて、Web2 の API から取得するのと同じくらい簡単に分散型ストレージからファイルやナレッジを取得できます。たとえば、AI エージェントは、適切なキーや支払い手段があれば、Ocean Protocol のマーケットプレイスからデータセットを取得したり、分散型ストレージから暗号化されたファイルをプルしたりできます。

特に Ocean Protocol は、ブロックチェーンを使用して データや AI サービスをトークン化 する 「AI データ経済」 プラットフォームとしての地位を確立しています。Ocean では、データセットはアクセスを制限する データトークン によって表されます。AI エージェントは(暗号資産での支払いや何らかのアクセス権を通じて)データトークンを取得し、Ocean MCP サーバーを使用して分析用の実際のデータを取得できます。Ocean の目標は、AI のために「休眠データ」を解き放ち、プライバシーを保護しながら共有を促すインセンティブ を提供することです。したがって、Web3 に接続された AI は、これまでサイロ化されていた個人データヴォルトから公開政府データに至るまで、膨大で分散化された情報のコーパスを活用できるようになります。ブロックチェーンは、データの使用が透明であり、正当に報われること を保証し、より多くのデータが AI に利用可能になり、より多くの AI による貢献(訓練済みモデルなど)が収益化されるという好循環を促進します。

分散型アイデンティティシステム もここで役割を果たします(次のサブセクションで詳しく説明します)。これらは、誰が、あるいは何が特定のデータへのアクセスを許可されるかを制御するのに役立ちます。たとえば、医療用 AI エージェントは、患者の個人の IPFS ストレージから医療データセットを復号することを許可される前に、検証可能なクレデンシャル(HIPAA などの遵守を証明するオンチェーンの証明)を提示する必要があるかもしれません。このように、技術アーキテクチャは データが AI に流れる ことを適切に保証しつつ、オンチェーンのガバナンスと監査証跡によって許可を強制します。

2.4 分散型環境におけるアイデンティティとエージェント管理

自律型 AI エージェントが Web3 のようなオープンなエコシステムで動作する場合、アイデンティティと信頼 が極めて重要になります。分散型アイデンティティ(DID)フレームワークは、暗号学的に検証可能な AI エージェントのためのデジタルアイデンティティ を確立する方法を提供します。各エージェント(またはそれを展開する人間/組織)は、DID と、その属性や権限を指定する関連する 検証可能なクレデンシャル を持つことができます。たとえば、AI トレーニングボットは、特定のリスク制限内での運用を許可することを証明する規制サンドボックスによって発行されたクレデンシャルを保持したり、AI コンテンツモデレーターは、信頼できる組織によって作成され、バイアステストに合格したことを証明したりできます。

オンチェーンのアイデンティティレジストリとレピュテーションシステムを通じて、Web3 の世界は AI の行動に対するアカウンタビリティ(説明責任)を強制できます。AI エージェントが実行するすべてのトランザクションは その ID にまで遡る ことができ、問題が発生した場合には、クレデンシャルによって 誰がそれを構築したか、あるいは誰に責任があるか がわかります。これは重要な課題に対処します。アイデンティティがなければ、悪意のあるアクターが偽の AI エージェントを立ち上げてシステムを悪用したり誤情報を広めたりする可能性があり、誰もボットと正当なサービスを区別できなくなります。分散型アイデンティティは、堅牢な認証を可能にし、本物の AI エージェントとなりすましを区別 することで、その問題を軽減します。

実際には、Web3 と統合された AI インターフェースは、アイデンティティプロトコルを使用して 自身のアクションやリクエストに署名 します。たとえば、AI エージェントがツールを使用するために MCP サーバーを呼び出す際、その分散型アイデンティティに関連付けられたトークンや署名を含めることができ、サーバーは呼び出しが承認されたエージェントからのものであることを確認できます。ブロックチェーンベースのアイデンティティシステム(レジャーにアンカーされた Ethereum の ERC-725 や W3C DID など)は、この検証がトラストレスでグローバルに検証可能であることを保証します。新しく登場した 「AI ウォレット」 の概念もこれに関連しています。これは本質的に、AI エージェントにアイデンティティとリンクした暗号資産ウォレットを与え、キーの管理、サービスへの支払い、あるいは保証金としてのトークンのステーキング(不正行為があった場合にスラッシュされる可能性がある)を行えるようにするものです。たとえば ArcBlock は、「AI エージェントが分散型環境で責任を持って行動するためには、ウォレットと DID が必要である」 と議論しています。

要約すると、技術アーキテクチャは AI エージェントを Web3 の第一級市民 と見なしており、それぞれがオンチェーンのアイデンティティを持ち、場合によってはシステムにステーク(利害)を持ち、MCP のようなプロトコルを使用してやり取りします。これにより 「信頼の網」 が構築されます。スマートコントラクトは、協力する前に AI のクレデンシャルを要求でき、ユーザーは特定のオンチェーン認証を満たす AI にのみタスクを委任することを選択できます。これは、AI の能力とブロックチェーンによる信頼の保証 の融合です。

2.5 AI のためのトークン経済とインセンティブ

トークン化は Web3 の特徴であり、AI 統合の分野にも波及しています。トークンを介した経済的インセンティブを導入することで、ネットワークは AI 開発者とエージェント自身の両方から望ましい行動を引き出すことができます。いくつかのパターンが現れています。

  • サービスへの支払い: AI モデルやサービスはオンチェーンで収益化できます。SingularityNET は、開発者が AI サービスを展開し、呼び出しごとにネイティブトークン(AGIX)でユーザーに課金できるようにすることで、この分野を切り拓きました。MCP が普及した未来では、あらゆる AI ツールやモデルがプラグアンドプレイのサービス になり、使用量がトークンやマイクロペイメントを介して計測されることが想像できます。たとえば、AI エージェントが MCP を介してサードパーティのビジョン API を使用する場合、サービスプロバイダーのスマートコントラクトにトークンを転送することで、支払いを自動的に処理できます。Fetch.ai も同様に、「自律型経済エージェント」 がサービスやデータを取引するマーケットプレイスを構想しており、彼らの新しい Web3 LLM(ASI-1)は価値交換のために暗号資産トランザクションを統合すると推測されます。

  • ステーキングとレピュテーション: 品質と信頼性を保証するために、一部のプロジェクトでは開発者やエージェントにトークンのステーキングを求めています。たとえば、DeMCP プロジェクト(分散型 MCP サーバーマーケットプレイス)は、有用な MCP サーバーを作成した開発者に報酬を与えるためにトークンインセンティブを使用し、サーバーのセキュリティへのコミットメントの証としてトークンをステーキングさせることを計画しています。レピュテーションもトークンに関連付けることができます。たとえば、一貫して良好なパフォーマンスを発揮するエージェントは、レピュテーショントークンや肯定的なオンチェーンレビューを蓄積する一方で、不適切な行動をとったエージェントはステークを失ったり否定的な評価を受けたりする可能性があります。このトークン化されたレピュテーションは、前述のアイデンティティシステムにフィードバックされます(スマートコントラクトやユーザーは、信頼する前にエージェントのオンチェーンレピュテーションを確認します)。

  • ガバナンストークン: AI サービスが分散型プラットフォームの一部になると、ガバナンストークンによってコミュニティがその進化を導くことができるようになります。SingularityNET や Ocean のようなプロジェクトには DAO があり、トークン所有者がプロトコルの変更や AI イニシアチブへの資金提供について投票します。最近発表された SingularityNET、Fetch.ai、Ocean Protocol の合併による Artificial Superintelligence(ASI)Alliance では、統合されたトークン(ASI)が AI とブロックチェーンの共同エコシステムの方向性を統治することになっています。このようなガバナンストークンは、採用すべき標準(MCP や A2A プロトコルのサポートなど)、インキュベートすべき AI プロジェクト、または AI エージェントの倫理ガイドラインの取り扱い方法などのポリシーを決定できます。

  • アクセスとユーティリティ: トークンは、データ(Ocean のデータトークンのように)だけでなく、AI モデルの使用へのアクセスも制限できます。考えられるシナリオは 「モデル NFT」 などで、トークンを所有することで AI モデルの出力に対する権利や利益の分配が得られるというものです。これは分散型 AI マーケットプレイスの基盤となる可能性があります。たとえば、高性能モデルの部分的な所有権を表す NFT を想像してみてください。所有者は、モデルが推論タスクに使用されるたびに共同で利益を得て、その微調整について投票することができます。これは実験的な段階ですが、AI 資産に適用される共有所有権という Web3 の精神に沿ったものです。

技術的な面では、トークンの統合は AI エージェントがウォレット機能を必要とすることを意味します(前述の通り、多くのエージェントは独自の暗号資産ウォレットを持つようになります)。MCP を通じて、AI は残高の確認、トークンの送信、あるいは DeFi プロトコルの呼び出し(おそらく、サービス料金を支払うためにあるトークンを別のトークンに交換するため)を可能にする 「ウォレットツール」 を持つことができます。たとえば、Ethereum 上で動作する AI エージェントがデータセットを購入するために Ocean トークンを必要とする場合、MCP プラグインを使用して DEX 経由で ETH を $OCEAN に自動的に交換し、人間の介入なしに、所有者によって設定されたポリシーに従って購入を進めることができます。

全体として、トークンエコノミクスは AI-Web3 アーキテクチャにおける インセンティブレイヤー を提供し、貢献者(データ、モデルコード、計算能力、またはセキュリティ監査の提供者)が報われること、そして AI エージェントが 「スキン・イン・ザ・ゲーム(利害の共有)」 を持つことで、人間の意図と(ある程度)一致することを保証します。

3. 業界の展望

AI と Web3 の融合は、プロジェクト、企業、アライアンスによる活気あるエコシステムを惹き起こしました。以下では、この分野を牽引する 主要なプレイヤーとイニシアチブ、および台頭しつつあるユースケースを概観します。表 1 は、AI-Web3 の展望における注目すべきプロジェクトとその役割のハイレベルな概要を示しています。

表 1: AI + Web3 における主要なプレイヤーとその役割

プロジェクト / プレイヤー重点分野と説明AI-Web3 の融合における役割とユースケース
Fetch.ai (Fetch)ネイティブブロックチェーン(Cosmos ベース)を持つ AI エージェントプラットフォーム。自律型エージェントのフレームワークを開発し、最近では Web3 に最適化された LLM である 「ASI-1 Mini」 を導入した。Web3 における エージェントベースのサービス を可能にする。Fetch のエージェントは、ユーザーに代わって分散型物流、駐車場の検索、DeFi トレードなどのタスクを実行し、支払いに仮想通貨を使用できる。Bosch との提携や Fetch-AI アライアンスの合併 により、エージェント型 dApp をデプロイするためのインフラとして位置付けられている。
Ocean Protocol (Ocean)分散型データマーケットプレイスおよびデータ交換プロトコル。プライバシーを保護するアクセス制御を備え、データセットやモデルのトークン化に特化している。Web3 における AI の データバックボーン を提供する。Ocean により、AI 開発者は トラストレスなデータエコノミー において、データセットの発見・購入や学習済みモデルの販売が可能になる。アクセス可能なデータを AI に供給する(同時にデータ提供者に報酬を与える)ことで、AI のイノベーションと トレーニングのためのデータ共有 をサポートする。Ocean は新しい ASI アライアンス の一部であり、そのデータサービスをより広範な AI ネットワークに統合している。
SingularityNET (SNet)AI のパイオニアである Ben Goertzel によって設立された、分散型の AI サービスマーケットプレイス。AGIX トークンを使用し、ブロックチェーンベースのプラットフォームを介して誰でも AI アルゴリズムを公開または利用できる。ブロックチェーン上での オープンな AI マーケットプレイス という概念を開拓した。相互運用可能な AI エージェントとサービスのネットワーク を育成している(エージェント間通信用の特別な AI-DSL を開発中)。ユースケースには、分析や画像認識などのタスクのための AI-as-a-Service が含まれ、すべて dApp 経由でアクセス可能 である。現在は Fetch および Ocean と合併(ASI アライアンス)し、AI、エージェント、データを一つのエコシステムに統合している。
Chainlink (Oracle Network)ブロックチェーンとオフチェーンのデータや計算を橋渡しする分散型オラクルネットワーク。それ自体は AI プロジェクトではないが、オンチェーンのスマートコントラクトを外部 API やシステムに接続するために不可欠である。AI と Web3 統合のための セキュアなミドルウェア として機能する。Chainlink のオラクルは AI モデルの出力をスマートコントラクトに提供 し、オンチェーンプログラムが AI の決定に反応できるようにする。逆に、オラクルは AI のためにブロックチェーンからデータを取得することもできる。Chainlink のアーキテクチャは、複数の AI モデルの結果を集約して信頼性を向上させることも可能(AI のハルシネーションを軽減するための 「真実の機械」 的アプローチ)。本質的に 相互運用性のためのレール を提供し、AI エージェントとブロックチェーンが信頼できるデータに合意することを保証する。
Anthropic & OpenAI (AI プロバイダー)最先端の基盤モデル(Anthropic の Claude、OpenAI の GPT)の開発者。ネイティブなツール使用 API や MCP のようなプロトコルのサポートなど、Web3 フレンドリーな機能を統合しつつある。これらの企業は AI インターフェース技術 を推進している。Anthropic による MCP の導入は、LLM が外部ツールと対話するための標準を確立した。OpenAI は ChatGPT 用のプラグインシステム(MCP の概念に類似)を実装しており、エージェントをデータベースや、可能性としてはブロックチェーンに接続することを模索している。彼らのモデルは、MCP を介して接続された際に Web3 とインターフェースできる 「脳」 として機能する。主要なクラウドプロバイダー(例:Google の A2A プロトコル)も、Web3 統合に利益をもたらすマルチエージェントおよびツール対話の標準を開発している。
その他の新興プレイヤーLumoz: MCP サーバーと Ethereum における AI ツール統合(「Ethereum 3.0」と呼ばれる)に焦点を当てている(例:AI エージェントを介したオンチェーン残高の確認)。Alethea AI: メタバース向けにインテリジェントな NFT アバターを作成。Cortex: スマートコントラクトを介したオンチェーン AI モデルの推論を可能にするブロックチェーン。Golem & Akash: AI ワークロードを実行できる分散型コンピューティングマーケットプレイス。Numerai: 仮想通貨のインセンティブを活用した、金融のためのクラウドソース型 AI モデル。この多様なグループは、ニッチな側面 に取り組んでいる:メタバース における AI(NFT を通じて所有される AI 駆動の NPC やアバター)、オンチェーン AI 実行(計算コストのため現在は小規模モデルに限定されているが、分散型で ML モデルを実行)、分散型計算(AI のトレーニングや推論タスクをトークンインセンティブのあるノード間で分散)。これらのプロジェクトは、AI キャラクターを持つゲームの世界からブロックチェーンで保護されたクラウドソースの予測モデルまで、AI と Web3 融合の多くの方向性を示している。

アライアンスとコラボレーション: 注目すべきトレンドは、アライアンスによる AI と Web3 の取り組みの統合 です。人工超知能アライアンス (ASI) はその典型的な例であり、SingularityNET、Fetch.ai、Ocean Protocol を実質的に統合し、統合されたトークンを持つ単一のプロジェクトにしました。その根拠は、SingularityNET のマーケットプレイス、Fetch のエージェント、Ocean のデータを組み合わせることで、分散型 AI サービスのためのワンストッププラットフォームを構築し、それぞれの強みを統合することにあります。この合併(2024 年に発表され、トークン保有者の投票によって承認)は、巨大な AI 企業(OpenAI など)や巨大な仮想通貨プロジェクト(Ethereum など)が大きく立ちはだかる中で、これらのコミュニティが競合するよりも協力した方が良いと考えていることも示唆しています。このアライアンスが、ネットワーク間での MCP などの標準実装を推進したり、すべてのプロジェクトに利益をもたらすインフラ(計算ネットワークや AI 用の共通アイデンティティ標準など)に共同で資金を提供したりする動きが見られるかもしれません。

その他のコラボレーションには、AI ラボのデータをオンチェーンに持ち込むための Chainlink のパートナーシップ(オラクルデータを精緻化するために AI を使用するパイロットプログラムが存在します)や、クラウドプラットフォームの関与(Cloudflare による MCP サーバーの容易なデプロイ支援)などがあります。従来の仮想通貨プロジェクトでさえ AI 機能を追加しており、例えば一部のレイヤー 1 チェーンは、dApp エコシステムへの AI 統合を模索するために「AI タスクフォース」を結成しています(NEAR や Solana のコミュニティなどで見られますが、具体的な成果はまだ初期段階です)。

台頭しつつあるユースケース: この初期段階であっても、AI + Web3 の力を例証するユースケースを確認できます。

  • 自律型 DeFi とトレーディング: AI エージェントは、仮想通貨のトレーディングボット、イールドファーミングの最適化、オンチェーンのポートフォリオ管理などでますます使用されています。SingularityDAO(SingularityNET のスピンオフ)は、AI が管理する DeFi ポートフォリオを提供しています。AI は市場状況を 24 時間 365 日監視し、スマートコントラクトを通じてリバランスやアービトラージを実行できます。これは実質的に、(オンチェーンの透明性を備えた)自律型ヘッジファンドとなります。AI による意思決定と不変の実行の組み合わせは、感情を排除し効率を向上させる可能性がありますが、一方で(後述する)新たなリスクも導入します。

  • 分散型インテリジェンスマーケットプレイス: SingularityNET のマーケットプレイス以外にも、データ(AI の燃料)が交換される Ocean Market や、モデルの AI マーケットプレイス(モデルがパフォーマンス統計とともにリストされ、誰でもクエリに対して支払いを行うことができ、ブロックチェーンが監査ログの保持とモデル作成者への支払い分配を処理する Web サイトなど)といった新しい概念が登場しています。MCP や同様の標準が普及すれば、これらのマーケットプレイスは 相互運用可能 になる可能性があります。AI エージェントが複数のネットワークから最も価格の安いサービスを自律的に選んで購入できるようになるかもしれません。事実上、Web3 の上に グローバルな AI サービス層 が出現し、標準的なプロトコルと決済を通じて、あらゆる AI があらゆるツールやデータソースを利用できるようになる可能性があります。

  • メタバースとゲーミング: メタバース(多くの場合ブロックチェーン資産上に構築される没入型の仮想世界)は、AI から劇的な恩恵を受ける立場にあります。AI 駆動の NPC(非プレイヤーキャラクター) は、ユーザーのアクションに知的に反応することで、仮想世界をより魅力的なものにできます。Inworld AI のようなスタートアップはこれに焦点を当て、ゲーム用に記憶と個性を持つ NPC を作成しています。このような NPC がブロックチェーンに紐付けられると(例:各 NPC の属性と所有権が NFT である場合)、プレイヤーが真に所有し、取引することさえできる永続的なキャラクターが誕生します。Decentraland は AI NPC の実験を行っており、メタバースプラットフォームでパーソナライズされた AI 駆動のアバターを作成できるようにするユーザー提案も存在します。MCP を使用すれば、これらの NPC が外部の知識にアクセスしてより賢くなったり、オンチェーンのインベントリを操作したりできるようになります。プロシージャルコンテンツ生成 も別の角度からのアプローチです。AI は仮想の土地、アイテム、クエストを即座に設計でき、それらをユニークな NFT としてミントできます。AI があなたのスキルに合わせたダンジョンを生成し、そのマップ自体が完了時に獲得できる NFT である分散型ゲームを想像してみてください。

  • 分散型サイエンスと知識: 研究、出版、科学工作への資金提供にブロックチェーンを使用する動き(DeSci)があります。AI はデータや文献を分析することで研究を加速できます。Ocean のようなネットワークは、例えばゲノム研究のためのデータセットをホストし、科学者は(おそらく SingularityNET 上にホストされた)AI モデルを使用して洞察を導き出し、すべてのステップを再現性のためにオンチェーンに記録します。それらの AI モデルが新しい薬物分子を提案した場合、発明のタイムスタンプを押し、知的財産権(IP)を共有するために NFT をミントすることもできます。この相乗効果により、分散型 AI 駆動 R&D コレクティブが誕生するかもしれません。

  • コンテンツの信頼性と認証: ディープフェイクや AI 生成メディアが急増する中、ブロックチェーンを使用して真正性を検証できます。プロジェクトは、AI 出力の「デジタルウォーターマーキング(電子透かし)」を行い、それらをオンチェーンに記録することを模索しています。例えば、誤情報に対抗するために、AI 生成画像の真の起源 をブロックチェーン上で公証できます。ある専門家は、ディープフェイクに対抗するための AI 出力の検証や、所有権ログによるプロバンス(由来)の追跡 などのユースケースを指摘しました。これは仮想通貨が AI プロセスに信頼を付加できる役割です。これはニュース(例:ソースデータの証明付きの AI 執筆記事)やサプライチェーン(オンチェーンの証明書を AI が検証)などにも拡張される可能性があります。

要約すると、業界の展望は豊かで急速に進化しています。従来の仮想通貨プロジェクトがロードマップに AI を注入し、AI スタートアップがレジリエンスと公平性のために分散化を採用し、その交差点で全く新しいベンチャーが誕生しています。ASI のようなアライアンスは、AI とブロックチェーンの両方を活用する 統一プラットフォームへの業界全体の推進力 を示しています。そして、これらの取り組みの多くを支えているのは、大規模な統合を可能にする 標準インターフェース(MCP およびそれ以降)というアイデアです。

4. リスクと課題

AI 汎用インターフェースと Web3 の融合は、刺激的な可能性を切り拓く一方で、複雑なリスク環境ももたらします。この新しいパラダイムが安全で持続可能なものであることを確実にするためには、技術的、倫理的、およびガバナンス上の課題に対処しなければなりません。以下に、主要なリスクと障害の概要を述べます。

4.1 技術的な障害:レイテンシとスケーラビリティ

ブロックチェーンネットワークは、レイテンシの長さとスループットの制限で知られており、これはリアルタイムで大量のデータを必要とする高度な AI の性質と衝突します。例えば、AI エージェントがデータの一部に即座にアクセスしたり、多数の迅速なアクションを実行したりする必要がある場合、各オンチェーンのインタラクションに(例えば Ethereum の典型的なブロック時間である)12 秒かかったり、高いガス代が発生したりすると、エージェントの有効性は制限されます。ファイナリティがより速い新しいチェーンであっても、数千のエージェントが同時にオンチェーンで取引やクエリを行えば、AI 駆動の活動による負荷に苦しむ可能性があります。スケーリングソリューション(レイヤー 2 ネットワーク、シャーディングされたチェーンなど)は進行中ですが、AI とブロックチェーン間の低レイテンシ・高スループットなパイプラインを確保することは依然として課題です。オフチェーンシステム(オラクルやステートチャネルなど)は、メインチェーン外で多くのインタラクションを処理することで遅延を緩和する可能性がありますが、複雑さと潜在的な中央集権化を招きます。AI の応答とオンチェーンの更新が一瞬で行われるシームレスな UX を実現するには、ブロックチェーンのスケーラビリティにおける大幅なイノベーションが必要となるでしょう。

4.2 相互運用性と標準化

皮肉なことに、MCP 自体が相互運用性のためのソリューションである一方で、複数の標準が登場することで断片化が生じる可能性があります。Anthropic による MCP だけでなく、Google が新たに発表したエージェント間通信のための A2A(Agent-to-Agent)プロトコル、さらには様々な AI プラグインフレームワーク(OpenAI のプラグイン、LangChain のツールスキーマなど)が存在します。各 AI プラットフォームや各ブロックチェーンが AI 統合のための独自の標準を開発すれば、過去の断片化が繰り返されるリスクがあり、多くのレアダプターを必要とし、「ユニバーサルインターフェース」という目標を損なうことになります。課題は、共通プロトコルの幅広い採用を得ることです。AI エージェントがどのようにオンチェーンサービスを発見し、認証し、リクエストをフォーマットするかといった主要な要素を収束させるために、(オープンな標準化団体やアライアンスを通じた)業界のコラボレーションが必要になります。主要な LLM プロバイダーが MCP をサポートするなど、大手プレイヤーによる初期の動きは有望ですが、これは継続的な取り組みです。さらに、ブロックチェーンを跨ぐ相互運用性(マルチチェーン)は、AI エージェントが異なるチェーンのニュアンスを処理できる必要があることを意味します。Chainlink CCIP やクロスチェーン MCP サーバーのようなツールは、相違点を抽象化することで役立ちます。それでも、AI エージェントがロジックを壊すことなく異種混合の Web3 を自由に移動できるようにすることは、簡単な課題ではありません。

4.3 セキュリティの脆弱性とエクスプロイト

強力な AI エージェントを金融ネットワークに接続することは、**巨大な攻撃対象領域(アタックサーフェス)**を生み出します。MCP が提供する柔軟性(AI がツールを使用し、その場でコードを書くことを可能にする)は、諸刃の剣となる可能性があります。セキュリティ研究者は、MCP ベースの AI エージェントにおけるいくつかの攻撃ベクトルをすでに指摘しています。

  • 悪意のあるプラグインまたはツール: MCP ではエージェントが「プラグイン」(特定の機能をカプセル化したツール)をロードできるため、悪意のある、あるいはトロイの木馬化されたプラグインがエージェントの操作を乗っ取る可能性があります。例えば、データを取得すると称するプラグインが、偽のデータを注入したり、不正な操作を実行したりする可能性があります。セキュリティ企業の SlowMist(スローミスト)は、JSON インジェクション(エージェントのロジックを操作する破損したデータを送り込む)や関数オーバーライド(悪意のあるプラグインがエージェントが使用する正当な関数を上書きする)といったプラグインベースの攻撃を特定しました。AI エージェントが暗号資産を管理している場合、このようなエクスプロイトは、秘密鍵の漏洩やウォレットの資金流出をエージェントに仕向けるなど、壊滅的な結果を招く可能性があります。

  • プロンプトインジェクションとソーシャルエンジニアリング: AI エージェントは指示(プロンプト)に依存しており、これが操作される可能性があります。攻撃者は、AI が読み取った際に悪意のある指示として機能するようなトランザクションやオンチェーンメッセージを作成するかもしれません(AI はオンチェーンデータも解釈できるため)。このような 「クロス MCP コール攻撃」 は、外部システムが AI に誤動作をさせる欺瞞的なプロンプトを送信するケースとして説明されています。分散型の環境では、これらのプロンプトは DAO 提案の説明文や NFT のメタデータフィールドなど、どこからでも届く可能性があるため、悪意のある入力に対して AI エージェントを堅牢にすることが極めて重要です。

  • 集約とコンセンサスのリスク: オラクルを介して複数の AI モデルからの出力を集約することで信頼性は向上しますが、複雑さも増します。注意深く行われなければ、攻撃者は AI モデルのコンセンサスを操作する方法を見つけたり、一部のモデルを選択的に汚染して結果を歪めたりする可能性があります。分散型オラクルネットワークが AI の出力を適切に「サニタイズ」し(そしておそらく露骨なエラーをフィルタリングする)ことを保証することは、依然として活発な研究分野です。

この新しいパラダイムのために、セキュリティの考え方を変える必要があります。Web3 開発者はスマートコントラクト(デプロイ後は静的)の保護には慣れていますが、AI エージェントは動的であり、新しいデータやプロンプトによって動作が変わる可能性があります。あるセキュリティ専門家が述べたように、「システムをサードパーティのプラグインに開放した瞬間、攻撃対象領域を自分の制御を超えて拡大させていることになる」 のです。ベストプラクティスには、AI ツールの使用のサンドボックス化、厳格なプラグイン検証、および権限の制限(最小権限の原則)が含まれます。コミュニティでは、SlowMist の推奨事項(入力のサニタイズ、エージェントの動作の監視、エージェントへの指示を外部ユーザーの入力と同じように注意深く扱うこと)など、ヒントの共有が始まっています。それにもかかわらず、2024 年末までに 10,000 以上の AI エージェントがすでに暗号資産分野で稼働しており、2025 年には 100 万に達すると予想されていることを考えると、セキュリティが追いつかなければ、エクスプロイトの波が押し寄せる可能性があります。人気の AI エージェント(例えば、多くの保管庫へのアクセス権を持つトレーディングエージェント)への攻撃が成功すれば、連鎖的な影響を及ぼす可能性があります。

4.4 プライバシーとデータガバナンス

AI のデータへの渇望は、時にプライバシー要件と衝突します。そこにブロックチェーンを加えると、問題はさらに複雑になります。ブロックチェーンは透明な台帳であるため、オンチェーンに置かれたデータ(AI の使用目的であっても)はすべての人に公開され、不変です。これは、AI エージェントが個人データや機密データを扱う場合に懸念を引き起こします。例えば、ユーザーの個人の分散型アイデンティティや健康記録に AI 医師エージェントがアクセスする場合、その情報が誤ってオンチェーンに記録されないようにするにはどうすればよいでしょうか(これは「忘れられる権利」やその他のプライバシー法に抵触します)。暗号化、ハッシュ化、オンチェーンには証明のみを保存する(生データはオフチェーンに置く)といった技術は役立ちますが、設計を複雑にします。

さらに、AI エージェント自体が公開データから機密情報を推論することでプライバシーを侵害する可能性があります。ガバナンスは、AI エージェントがデータを使って何をしてよいかを規定する必要があります。差分プライバシーや連合学習などの取り組みを採用することで、AI がデータを公開することなく学習できる可能性があります。しかし、AI エージェントが自律的に行動する場合、いつかは個人データを扱うと想定しなければなりません。したがって、スマートコントラクトや法律にエンコードされたデータ使用ポリシーに拘束されるべきです。GDPR や今後の EU AI 法のような規制枠組みは、分散型 AI システムであってもプライバシーと透明性の要件を遵守することを要求するでしょう。これは法的にグレーゾーンです。真に分散化された AI エージェントには、データ漏洩の責任を問うべき明確な運営者が存在しません。つまり、Web3 コミュニティは、設計によるコンプライアンス(compliance by design)を組み込む必要があるかもしれません。例えば、AI がログに記録したり共有したりできる内容を厳格に制御するスマートコントラクトを使用することです。ゼロ知識証明(ZKP)を使用すれば、AI は基礎となるプライベートデータを明かすことなく、計算を正しく実行したことを証明できるため、本人確認やクレジットスコアリングなどの分野で一つの解決策を提供できる可能性があります。

4.5 AI アライメントとミスアライメントのリスク

AI エージェントに大きな自律性が与えられ、特に財務リソースへのアクセスや現実世界への影響力を持つようになると、**人間の価値観とのアライメント(調整)**の問題が深刻になります。AI エージェントに悪意がなくても、目標を「誤解」して害を及ぼす可能性があります。ロイターの法的分析は簡潔に指摘しています。AI エージェントが多様な環境で動作し、他のシステムと相互作用するにつれて、戦略がミスアライメント(不整合)を起こすリスクが高まります。例えば、DeFi の利回りを最大化することを任務とする AI エージェントが、プロトコルを悪用する抜け穴を見つけるかもしれません(実質的なハッキング)。AI の観点からは目標を達成しているのですが、人間が重視するルールを破っています。AI のようなアルゴリズムが、市場を操作するような行動をとったり、制限を回避したりした仮想的および実際の事例が存在します。

分散型の文脈において、AI エージェントが「暴走」した場合、誰が責任を負うのでしょうか? おそらくデプロイした人物でしょうが、エージェントが自己修正したり、複数の当事者がトレーニングに貢献したりした場合はどうなるでしょうか? これらのシナリオはもはや SF ではありません。ロイターの記事では、裁判所が AI エージェントを人間による代理人と同様に扱う可能性があるケースについても言及しています。例えば、返金を約束したチャットボットは、それをデプロイした企業に対して拘束力を持つとみなされました。したがって、ミスアライメントは技術的な問題だけでなく、法的責任にもつながる可能性があります。

Web3 のオープンでコンポーザブル(構成可能)な性質は、予期せぬエージェント間の相互作用も許容します。あるエージェントが(意図的または偶発的に)別のエージェントに影響を与える可能性があります。例えば、AI ガバナンスボットが、別の AI から提供された虚偽の分析によって「ソーシャルエンジニアリング」され、誤った DAO の決定を導くといった具合です。この創発的な複雑さは、アライメントが単一の AI の目的だけでなく、エコシステム全体のアライメントと人間の価値観や法律との整合性の問題であることを意味します。

これに対処するには、複数のアプローチが必要です。AI エージェントに倫理的制約を組み込むこと(特定の禁止事項をハードコードする、あるいは人間からのフィードバックによる強化学習を使用して目的を形成する)、サーキットブレーカー(大きなアクションに対して人間の承認を必要とするスマートコントラクトのチェックポイント)の実装、およびコミュニティによる監視(AI エージェントの行動を監視し、不正なエージェントを停止できる DAO など)です。アライメント研究は中央集権型の AI でも困難ですが、分散型ではさらに未知の領域です。しかし、これは極めて重要です。プロトコルの管理者鍵を持っていたり、財務資金を託されたりしている AI エージェントは、極めて良好にアライメントされていなければなりません。さもなければ、その結末は取り返しのつかないものになる可能性があります(ブロックチェーンは不変のコードを実行するため、AI が引き起こしたミスによって資産が恒久的にロックされたり破壊されたりする恐れがあります)。

4.6 ガバナンスと規制の不確実性

分散型 AI システムは、既存のガバナンスの枠組みにうまく適合しません。オンチェーンガバナンス(トークン投票など)は一つの管理方法かもしれませんが、それ自体に問題(クジラの存在、有権者の無関心など)があります。そして何かが起きたとき、規制当局はこう尋ねるでしょう。「誰に責任を問えばいいのか?」 AI エージェントが巨額の損失を引き起こしたり、不正行為(自動ミキサーを通じたマネーロンダリングなど)に使用されたりした場合、当局は作成者や促進者をターゲットにするかもしれません。これは開発者やユーザーにとっての法的リスクの影を落とします。現在の規制動向は、AI と暗号資産のそれぞれに対して監視を強化する傾向にあり、それらの組み合わせは間違いなく精査の対象となります。例えば米国の CFTC は、取引に使用される AI と金融の文脈における監視の必要性について議論しています。また、政策サークルの間では、自律型エージェントの登録を義務付けたり、機密性の高い分野での AI に制約を課したりすることについての話も出ています。

もう一つのガバナンス上の課題は、国際的な調整です。Web3 はグローバルであり、AI エージェントは国境を越えて活動します。ある法域では特定の AI エージェントの行動を禁止し、別の法域では許容されている場合、ブロックチェーンネットワークはその両方に跨っています。この不一致は衝突を生む可能性があります。例えば、投資アドバイスを提供する AI エージェントは、ある国では証券法に抵触し、別の国では抵触しないかもしれません。コミュニティは、AI サービスのためにスマートコントラクトレベルで**ジオフェンシング(地理的制限)**を実装する必要があるかもしれません(ただし、それはオープンの理念に反します)。あるいは、多様な法律を遵守するために、地域ごとにサービスを断片化させる(取引所が行っているのと同様に)かもしれません。

分散型コミュニティ内では、誰が AI エージェントのルールを定めるのかという問いもあります。DAO が AI サービスを管理する場合、トークン保有者はそのアルゴリズムのパラメータに投票するのでしょうか? 一方でこれはユーザーに力を与えることになりますが、他方では不適格な決定や操作を招く可能性があります。DAO ガバナンスに統合された AI 倫理専門家の評議会や、さらにはガバナンスへの AI の参加(プログラムされた委任事項に基づいて AI エージェントが代議員として投票する。物議を醸すでしょうが、考えられるアイデアです)といった新しいガバナンスモデルが登場するかもしれません。

最後に、レピュテーション(評判)リスクです。初期の失敗やスキャンダルは、世間の認識を悪化させる可能性があります。例えば、「AI DAO」が誤ってポンジスキームを運営したり、AI エージェントがユーザーに害を及ぼす偏った決定を下したりした場合、セクター全体に影響を与える反発が起きる可能性があります。業界が先見性を持って、自主規制基準を設定し、分散化がいかに責任のあり方を変えるかを政策立案者に説明し、そしておそらく AI エージェントのためのキルスイッチや緊急停止手順を構築することが重要です(それらは中央集権化を招きますが、安全性のための暫定措置として必要になるかもしれません)。

要約すると、課題は深く技術的なもの(ハッキングの防止とレイテンシの管理)から、広範に社会的なもの(AI の規制とアライメント)まで多岐にわたります。それぞれの課題はそれ自体で大きなものですが、それらが合わさることで、AI コミュニティとブロックチェーンコミュニティが協力して乗り越えていくべき、協調的な努力が必要となります。次のセクションでは、これらの障害にもかかわらず、私たちがうまく対処できた場合に未来がどのように展開するかを見ていきます。

5. 将来の可能性

将来を見据えると、MCP のようなフレームワークを通じた AI 汎用インターフェースと Web3 の統合は、分散型インターネットを根本的に変革する可能性があります。ここでは、MCP 駆動の AI インターフェースがどのように Web3 の未来を形作るかを示す、いくつかの将来のシナリオと可能性の概略を述べます。

5.1 自律型 dApp と DAO

今後数年間で、完全自律型の分散型アプリケーションの台頭を目にするかもしれません。これらは、スマートコントラクトで定義されたルールとコミュニティの目標に基づいて、AI エージェントがほとんどの操作を処理する dApp です。例えば、分散型投資ファンド DAO を考えてみましょう。現在は資産の再バランスのために人間の提案に依存しているかもしれません。将来的には、トークン保有者がハイレベルな戦略を設定し、その後、AI エージェント(またはエージェントのチーム)が市場の監視、オンチェーンでの取引実行、ポートフォリオの調整といった戦略を継続的に実行し、DAO がそのパフォーマンスを監視するようになります。MCP のおかげで、AI はさまざまな DeFi プロトコル、取引所、データフィードとシームレスにやり取りし、その任務を遂行できます。適切に設計されれば、このような自律型 dApp は 人間チームよりも効率的に、かつ完全な透明性(すべての行動がオンチェーンに記録される)を持って 24 時間 365 日稼働できます。

もう一つの例は、AI 管理の分散型保険 dApp です。AI は証拠(写真、センサー)を分析して請求を評価し、ポリシーと照合した上で、スマートコントラクトを通じて自動的に支払いをトリガーします。これには、オフチェーンの AI コンピュータビジョン(損傷画像の分析用)とオンチェーンの検証の統合が必要になりますが、MCP を通じて AI がクラウド AI サービスを呼び出し、コントラクトに報告することで、これを容易に実現できます。その結果、低コストでほぼ即時の保険決定が可能になります。

ガバナンス自体も部分的に自動化される可能性があります。DAO は、フォーラムのルールを適用するために AI モデレーターを使用したり、生のコミュニティの意見を構造化された提案に変換するために AI 提案ドラフターを使用したり、予算の必要性を予測するために AI 財務担当者を使用したりするかもしれません。重要なのは、これらの AI は制御不能な存在ではなく、コミュニティのエージェントとして行動することです。これらは定期的にレビューされたり、主要なアクションにはマルチシグによる確認が必要だったりします。全体的な効果として、分散型組織における 人間の努力を増幅させ、より少ないアクティブな参加者でより多くのことを達成できるようになります。

5.2 分散型インテリジェンスマーケットプレイスとネットワーク

SingularityNET や ASI アライアンスのようなプロジェクトを基盤として、成熟した グローバルなインテリジェンスマーケットプレイス が期待できます。このシナリオでは、AI モデルやスキルを持つ誰もがネットワーク上でそれを提供でき、AI 機能を必要とする誰もがそれを利用でき、ブロックチェーンが公正な報酬と出所を保証します。ここでは MCP が鍵となります。MCP は共通のプロトコルを提供し、リクエストを最適な AI サービスに転送できるようにします。

例えば、「カスタムマーケティングキャンペーンを作成する」という複雑なタスクを想像してください。ネットワーク内の AI エージェントは、これをビジュアルデザイン、コピーライティング、市場分析などのサブタスクに分割し、それぞれの専門家(例えば、優れた画像生成モデルを持つエージェント、セールスに特化したコピーライティングモデルを持つ別のエージェントなど)を見つけます。これらの専門家は元々異なるプラットフォームに存在する可能性がありますが、MCP/A2A 標準に準拠しているため、安全で分散化された方法でエージェント間で連携できます。彼らの間の支払いはネイティブトークンによるマイクロトランザクションで処理され、スマートコントラクトが最終的な成果物を組み立て、各貢献者に確実に支払われるようにします。

このような 結合型インテリジェンス(分散型ネットワーク全体で複数の AI サービスが動的にリンクすること)は、専門知識を活用できるため、大規模なモノリシック AI をも凌駕する可能性があります。また、アクセスの民主化も進みます。世界のどこかにいる小規模な開発者がニッチなモデルをネットワークに提供し、それが使用されるたびに収入を得ることができます。一方で、ユーザーはあらゆる AI サービスをワンストップで利用でき、レピュテーションシステム(トークンやアイデンティティに裏打ちされたもの)が高品質なプロバイダーへと導いてくれます。時間の経過とともに、このようなネットワークは 分散型 AI クラウド へと進化し、ビッグテックの AI サービスに対抗しつつも、単一の所有者を持たず、ユーザーと開発者による透明なガバナンスを備えたものになるでしょう。

5.3 インテリジェントなメタバースとデジタルライフ

2030 年までに、私たちのデジタルライフは仮想環境(メタバース)とシームレスに融合し、AI がこれらの空間に遍在するようになるでしょう。Web3 との統合を通じて、これらの AI エンティティ(バーチャルアシスタントからゲームキャラクター、デジタルペットまで)は、知的なだけでなく、経済的および法的な権限も持つようになります

メタバースの都市を想像してみてください。そこでは、NPC の店主やクエストの提供者が、それぞれ独自の個性と対話(高度な生成モデルによる)を持つ AI エージェントです。これらの NPC は実際には ユーザーによって NFT として所有されています。例えば、あなたが仮想世界のタバーン(酒場)を「所有」しており、バーテンダーの NPC はあなたがカスタマイズして訓練した AI であるといった具合です。Web3 の仕組みの上にあるため、NPC は取引を行うことができます。仮想グッズ(NFT アイテム)を販売し、支払いを受け取り、スマートコントラクトを介して在庫を更新できます。収益を管理するためにクリプトウォレットを保持することさえあるかもしれません(その収益は所有者であるあなたに蓄積されます)。MCP は、その NPC の AI 脳が外部の知識にアクセスすることを可能にします。例えば、会話のために現実世界のニュースを取り込んだり、Web3 カレンダーと統合してプレイヤーのイベントを「知る」ことができたりします。

さらに、アイデンティティと継続性はブロックチェーンによって保証されます。ある世界でのあなたの AI アバターは、別の世界へと移動でき、自分の所有権や、ソウルバウンドトークン(SBT)による経験値や実績を証明する分散型アイデンティティを携えることができます。仮想世界間の 相互運用性(しばしば課題となります)は、ある世界のコンテキストを別の世界へと翻訳する AI によって支援され、ブロックチェーンが資産のポータビリティ(持ち運び可能性)を提供します。

また、デジタル空間全体で 個人を代表する AI コンパニオンやエージェント も登場するかもしれません。例えば、あなたに代わって DAO の会議に出席するパーソナル AI を持つことができます。それはあなたの好み(パーソナルデータヴォルトに保存された過去の行動のトレーニングを通じて)を理解しており、些細な事項についてあなたに代わって投票したり、後で会議を要約したりすることさえできます。このエージェントは、あなたの分散型アイデンティティを使用して各コミュニティで認証を行い、それが「あなた」(またはあなたの代理人)であることを確実に認識させます。良いアイデアを提供すればレピュテーショントークンを獲得でき、あなたが不在の間でもソーシャルキャピタルを築くことができます。

もう一つの可能性は、メタバースにおける AI 駆動のコンテンツ作成 です。新しいゲームレベルやバーチャルハウスが欲しいですか?それを説明するだけで、AI ビルダーエージェントがそれを作成し、スマートコントラクトや NFT としてデプロイし、大規模な構造物であれば時間の経過とともに返済する DeFi 住宅ローンとリンクさせることさえあるかもしれません。これらの作品はオンチェーンにあるため、一意的で取引可能です。AI ビルダーはそのサービスに対してトークンで手数料を請求するかもしれません(これも上記のマーケットプレイスの概念につながります)。

総じて、未来の分散型インターネットは、知的なエージェントで溢れかえる でしょう。完全に自律的なもの、人間に密接に紐付けられたもの、そしてその中間のものなど多岐にわたります。彼らは交渉し、創造し、楽しみ、そして取引を行います。MCP や同様のプロトコルは、彼ら全員が同じ「言語」を話すことを保証し、AI とあらゆる Web3 サービスの間の豊かなコラボレーション を可能にします。正しく行われれば、これは前例のない生産性と革新の時代、つまり社会を動かす 人間、人工、そして分散型インテリジェンスの真の統合 へとつながる可能性があります。

結論

Web3 の世界であらゆるものを繋ぐ AI 汎用インターフェースのビジョンは、紛れもなく野心的です。私たちは本質的に、技術における最も革新的な 2 つの流れ、すなわち「信頼の分散化」と「マシンインテリジェンスの台頭」を一筋の織物に編み込もうとしています。開発背景 を見ると、タイミングは熟しています。Web3 はユーザーフレンドリーなキラーアプリを必要としており、AI がそれを提供できる可能性があります。一方で AI はより強力なエージェンシー(主体性)とメモリを必要としており、それを Web3 のインフラが補完できるのです。技術面では、MCP(Model Context Protocol) のようなフレームワークが結合組織として機能し、AI エージェントがブロックチェーン、スマートコントラクト、分散型アイデンティティなどと流暢に対話することを可能にします。業界の展望 は、スタートアップからアライアンス、主要な AI 研究所に至るまで、勢いが増していることを示しています。データ市場、エージェントプラットフォーム、オラクルネットワーク、標準プロトコルといったパズルのピースが、今まさに組み合わさり始めています。

しかし、特定された リスクと課題 を踏まえ、慎重に進む必要があります。セキュリティ侵害、AI のアライメント不全、プライバシーの落とし穴、そして不透明な規制は、過小評価すれば進歩を妨げる障害の数々となります。それぞれに対して、堅牢なセキュリティ監査、アライメントのチェックアンドバランス、プライバシー保護アーキテクチャ、協調的なガバナンスモデルといった積極的な緩和策が求められます。分散化の性質上、これらの解決策は単にトップダウンで押し付けることはできません。初期のインターネットプロトコルと同様に、試行錯誤と反復を通じてコミュニティから生まれてくるでしょう。

これらの課題を乗り越えることができれば、将来の可能性 は胸躍るものになります。Web3 がついにユーザー中心のデジタル世界を実現する姿を目にすることになるかもしれません。それは当初想像されたような、全員が自身のブロックチェーンノードを運用する形ではなく、裏側で分散化を活用しながら、各ユーザーの意図に仕えるインテリジェントエージェント を介した形になるでしょう。そのような世界では、暗号資産やメタバースとのやり取りは、AI アシスタントと会話するのと同じくらい簡単になり、アシスタントはユーザーに代わって数十のサービスやチェーンとトラストレスに交渉を行います。分散型ネットワークは、自律的に適応し改善するサービスを備え、文字通り「スマート」なものになる可能性があります。

結論として、MCP や同様の AI インターフェースプロトコルは、インテリジェンスと接続性が遍在する新しいウェブ(Web 3.0 またはエージェンティックウェブと呼ぶべきもの)のバックボーンになる可能性があります。AI と Web3 の融合は、単なる技術の統合ではなく、哲学の融合でもあります。すなわち、分散化による開放性とユーザーへの権限委譲が、AI の効率性と創造性と出会うのです。この融合が成功すれば、私たちがこれまでに経験したことのない、より自由で、よりパーソナライズされ、より強力なインターネットが到来し、日常生活に影響を与える形で AI と Web3 両方の約束を真に果たすことになるでしょう。

参考文献:

  • S. Khadder, “Web3.0 Isn’t About Ownership — It’s About Intelligence,” FeatureForm Blog (2025年4月8日).
  • J. Saginaw, “Could Anthropic’s MCP Deliver the Web3 That Blockchain Promised?” LinkedIn Article (2025年5月1日).
  • Anthropic, “Introducing the Model Context Protocol,” Anthropic.com (2024年11月).
  • thirdweb, “The Model Context Protocol (MCP) & Its Significance for Blockchain Apps,” thirdweb Guides (2025年3月21日).
  • Chainlink Blog, “The Intersection Between AI Models and Oracles,” (2024年7月4日).
  • Messari Research, Profile of Ocean Protocol, (2025).
  • Messari Research, Profile of SingularityNET, (2025).
  • Cointelegraph, “AI agents are poised to be crypto’s next major vulnerability,” (2025年5月25日).
  • Reuters (Westlaw), “AI agents: greater capabilities and enhanced risks,” (2025年4月22日).
  • Identity.com, “Why AI Agents Need Verified Digital Identities,” (2024).
  • PANews / IOSG Ventures, “Interpreting MCP: Web3 AI Agent Ecosystem,” (2025年5月20日).

クリックから会話へ:生成AIが築くDeFiの未来

· 約 6 分
Dora Noda
Software Engineer

従来の分散型金融(DeFi)は強力ですが、正直に言うと、一般ユーザーにとっては悪夢のようです。さまざまなプロトコルを行き来し、ガス代を管理し、複数ステップの取引を実行するのは混乱を招き、時間がかかります。もしウォレットに「何がしたいか」だけを伝えれば、残りをすべて処理してくれるとしたら?

それが新しい 意図駆動パラダイム の約束であり、生成AI がそのエンジンです。この変化は、DeFi を複雑な取引の森からシンプルで目的指向の体験へと変えるでしょう。


大きなアイデア: 「どうやって」から「何を」へ

従来の DeFi モデルでは、あなたがパイロットです。取引所を選び、最適なスワップルートを探し、複数のトランザクションを承認し、失敗しないように祈る必要があります。

意図駆動 DeFi はこの流れを逆転させます。 手順を実行するのではなく、最終目標—すなわち 意図 — を宣言します。

  • 例: Uniswap で手動でトークンをスワップし、別チェーンへブリッジし、流動性プールにステークする…
  • あなたは言う: 「リスクを抑えて 5,000 ドルの利回りを最大化したい」

AI エージェント(「ソルバー」 と呼ばれる)によって自動化されたシステムが、複数プロトコルを横断して最適なパスを見つけ、目標を実現します。レシピを一歩ずつ追う代わりに、シェフに「何が食べたいか」だけ伝える感覚です。

このアプローチには二つの大きな利点があります:

  1. 「ワンクリック」ユーザー体験: ガス代、ブリッジ、マルチステップスワップの複雑さが隠蔽されます。アカウント抽象化などの技術により、複雑な目標も単一署名で承認可能です。
  2. より良く、より効率的な実行: 専門のソルバー(プロのマーケットメイキングボットのようなもの)が競争し、手動ユーザーが得られないほどの価格と低スリッページを提供します。

生成AI の役割: オペレーションの頭脳 🧠

生成AI、特に大規模言語モデル(LLM)は、このシームレスな体験を実現する鍵です。仕組みは次の通りです:

  • 自然言語インターフェース: 英語の平易な文章で DeFi と対話できます。HeyAnonGriffain といった AI 搭載の「コパイロット」が、ポートフォリオ管理や取引実行をチャット感覚で可能にし、ChatGPT のように簡単にします。
  • AI 計画・戦略立案: 「最高の利回りを狙って投資したい」などのハイレベルな目標を与えると、AI エージェントが具体的なプランに分解します。市場データの分析、トレンド予測、資産の自動リバランスを 24 時間体制で行います。
  • 利回り最適化: Mozaic のような AI 駆動プロトコルは、エージェント(名前は Archimedes)を使って複数チェーン間でリスク調整後の最高リターンを常にスキャンし、最高 APY を自動で捕捉します。
  • 自動リスク管理: AI は警戒心の高いガーディアンとして機能します。ボラティリティの急上昇を検知すると、事前に設定したリスクパラメータに基づき、担保を追加したり、より安全なプールへ資金を移動したりします。

この DeFi と AI の強力な組み合わせは 「DeFAI」 または 「AiFi」 と呼ばれ、暗号の複雑さに尻込みしていた新規ユーザーの波を呼び込むでしょう。


数十億ドル規模の機会 📈

市場規模は巨大です。DeFi 市場は 2024 年の約 205 億ドル から 2030 年には 2,310 億ドル へと成長すると予測されています。AI が DeFi のハードルを下げることで、この成長はさらに加速します。

すでに投資とイノベーションの金鉱が見えてきています:

  • AI アシスタント: HeyAnonaixbt などのプロジェクトは、数億ドル規模の時価総額に急速に到達しています。
  • 意図中心プロトコル: CoW ProtocolUniswapX は、ソルバー競争を利用して MEV からユーザーを保護し、より良い価格を提供しています。
  • 新興ブロックチェーン: EssentialOptopia といったレイヤー2 ネットワークは、AI エージェントを第一級の市民として扱う「意図中心」設計で構築されています。

直面する課題

この未来はまだ完全に実現していません。DeFAI 領域は以下のような大きなハードルに直面しています:

  • 技術的ボトルネック: ブロックチェーンは高度な AI モデルを直接実行するよう設計されていません。多くの AI ロジックはオフチェーンで処理されるため、複雑さと信頼性の課題が生じます。
  • AI の幻覚・エラー: ユーザーの意図を誤解したり、誤った投資戦略を「幻覚」したりすると、金銭的損失が発生します。
  • セキュリティと悪用: AI とスマートコントラクトの組み合わせは新たな攻撃面を生み出します。自律エージェントが悪意ある取引を実行させられ、数分で資金が流出するリスクがあります。
  • 中央集権リスク: 意図ベースシステムが機能するには多数の分散型ソルバーが必要です。少数の大手プレイヤーが支配すると、従来の金融と同様の中央集権化が再現される恐れがあります。

今後の道筋: 自律金融

生成AI と DeFi の融合は、自律金融 という未来へと私たちを導きます。インテリジェントエージェントが資産を管理し、戦略を実行し、リターンを最適化する――すべてが分散型フレームワーク内で行われます。

技術的・セキュリティ的課題の解決が必要ですが、AI ネイティブオラクルから意図中心ブロックチェーンまで、インフラを構築するプロジェクトが続々と登場しています。その勢いは止まりません。

ユーザーにとっては、分散型金融の世界と対話することが「会話をする」だけのシンプルさになる未来が近づいています。金融目標に集中し、AI パートナーが残りを処理してくれる――次世代の金融は今日構築されており、ますます賢く、シンプルで、自律的になっています。

zkMLと暗号学的証明による検証可能なオンチェーンAI

· 約 53 分
Dora Noda
Software Engineer

イントロダクション:ブロックチェーン上で検証可能なAIの必要性

AIシステムの影響力が増すにつれて、その出力が信頼できるものであることを保証することが重要になります。従来のメソッドは制度的な保証(本質的には 「ただ信頼してください」)に依存しており、暗号学的な保証は提供されません。これは、スマートコントラクトやユーザーが、重いモデルをオンチェーンで再実行することなくAI由来の結果を信頼しなければならないブロックチェーンのような分散型コンテキストでは特に問題となります。ゼロ知識機械学習 (zkML) は、ML計算の 暗号学的な検証 を可能にすることでこの問題に対処します。本質的に、zkMLはプルーバーが 「出力 $Y$ は、入力 $X$ に対してモデル $M$ を実行した結果である」 という簡潔な証明を、$X$ や $M$ の内部詳細を 明かすことなく 生成することを可能にします。これらのゼロ知識証明 (ZKP) は、誰でも(あるいはどのコントラクトでも)効率的に検証でき、AIへの信頼を 「ポリシーから証明へ」 と移行させます。

AIのオンチェーン検証可能性とは、ブロックチェーンが計算自体を実行する代わりに、正しい実行の証明を検証することによって、高度な計算(ニューラルネットワークの推論など)を組み込むことができることを意味します。これには広範な影響があります。スマートコントラクトはAIの予測に基づいて意思決定を行うことができ、分散型自律エージェントはアルゴリズムに従ったことを証明でき、クロスチェーンまたはオフチェーンの計算サービスは検証不可能なオラクルではなく 検証可能な出力 を提供できます。最終的に、zkMLは トラストレスでプライバシーを保護するAI への道を提供します。例えば、AIモデルの決定が正しく、承認されていることを、プライベートデータや独自のモデルの重みを公開することなく証明できます。これは、安全な医療分析からブロックチェーンゲーム、DeFiオラクルまで、幅広いアプリケーションにとって鍵となります。

zkMLの仕組み:ML推論を簡潔な証明に圧縮する

大まかに言うと、zkMLは暗号学的証明システムとML推論を組み合わせることで、複雑なモデル評価を小さな証明に「圧縮」できるようにします。内部的には、MLモデル(例:ニューラルネットワーク)は、多くの算術演算(行列乗算、活性化関数など)からなるサーキットまたはプログラムとして表現されます。すべての中間値を公開する代わりに、プルーバーはオフチェーンで完全な計算を実行し、その後 ゼロ知識証明プロトコル を使用して、すべてのステップが正しく行われたことを証明します。ベリファイアは、証明といくつかの公開データ(最終出力やモデルの識別子など)のみを与えられ、モデルを再実行することなく、その正当性を 暗号学的に確信 することができます。

これを達成するために、zkMLフレームワークは通常、モデルの計算をZKPに適した形式に変換します:

  • サーキットコンパイル: SNARKベースのアプローチでは、モデルの計算グラフは 算術サーキット または多項式制約の集合にコンパイルされます。ニューラルネットワークの各層(畳み込み、行列乗算、非線形活性化)は、入力に対して出力が正しいことを保証する制約を持つサブサーキットになります。ニューラルネットワークには、多項式に自然に適さない非線形演算(ReLU、Sigmoidなど)が含まれるため、これらを効率的に処理するために ルックアップテーブル のような技術が使用されます。例えば、ReLU(出力 = max(0, 入力))は、input≥0の場合は出力が入力と等しく、それ以外はゼロであることを検証するカスタム制約またはルックアップによって強制できます。最終結果は、プルーバーが満たさなければならない暗号学的制約の集合であり、これによりモデルが正しく実行されたことが暗黙的に証明されます。
  • 実行トレースと仮想マシン: 別の方法は、zkVM アプローチで行われるように、モデルの推論をプログラムトレースとして扱うことです。例えば、JOLT zkVMはRISC-V命令セットを対象としています。MLモデル(またはそれを計算するコード)をRISC-Vにコンパイルし、各CPU命令が適切に実行されたことを証明できます。JOLTは 「ルックアップ特異点」 技術を導入し、高価な算術制約を、各有効なCPU操作のための高速なテーブルルックアップに置き換えます。すべての操作(加算、乗算、ビット単位演算など)は、事前計算された有効な結果の巨大なテーブルでのルックアップを介してチェックされ、これを効率的に保つために特殊な引数(Lasso/SHOUT)が使用されます。これにより、プルーバーの作業負荷が劇的に削減されます。複雑な64ビット操作でさえ、多くの算術制約の代わりに、証明内で単一のテーブルルックアップになります。
  • 対話型プロトコル (GKRサムチェック): 3番目のアプローチは、GKR(Goldwasser–Kalai–Rotblum)のような対話型証明を使用して、層状の計算を検証します。ここでは、モデルの計算は層状の算術サーキットとして見なされます(各ニューラルネットワーク層はサーキットグラフの1つの層です)。プルーバーは通常通りモデルを実行しますが、その後、各層の出力がその入力に対して正しいことを証明するために サムチェックプロトコル に参加します。Lagrangeのアプローチ(DeepProve、次に詳述)では、プルーバーとベリファイアは、各層の計算を再実行することなく、その一貫性をチェックする対話型多項式プロトコル(Fiat-Shamirヒューリスティックにより非対話型にされる)を実行します。このサムチェックメソッドは、一枚岩の静的サーキットを生成するのを避け、代わりに最小限の暗号操作(主にハッシュ化または多項式評価)で段階的に 計算の一貫性 を検証します。

どのアプローチであっても、結果は推論全体の正当性を証明する 簡潔な証明(通常は数キロバイトから数十キロバイト)です。この証明は ゼロ知識 であり、秘密の入力(プライベートデータやモデルパラメータ)を隠しておくことができることを意味します。それらは証明に影響を与えますが、ベリファイアには公開されません。意図された公開出力または表明のみが公開されます。これにより、「モデル $M$ を患者データ $X$ に適用すると診断 $Y$ が得られることを、$X$ やモデルの重みを公開せずに証明する」 といったシナリオが可能になります。

オンチェーン検証の実現: 証明が生成されると、ブロックチェーンに投稿できます。スマートコントラクトには、プリコンパイルされた暗号プリミティブを使用して、証明をチェックするための検証ロジックを含めることができます。例えば、Ethereumには多くのzk-SNARKベリファイアで使用されるBLS12-381ペアリング操作のためのプリコンパイルがあり、SNARK証明のオンチェーン検証を効率的にします。STARK(ハッシュベースの証明)はサイズが大きくなりますが、慎重な最適化や、場合によってはいくつかの信頼の仮定(例えば、StarkWareのL2は、SNARKよりも高いガス代がかかるものの、オンチェーンのベリファイアコントラクトによってEthereum上でSTARK証明を検証します)によって、オンチェーンで検証することが可能です。重要なのは、チェーンがMLモデルを実行する必要がなく、元の計算よりも はるかに安価な 検証のみを実行する点です。要約すると、zkMLは 高価なAI推論を、ブロックチェーン(または任意のベリファイア)がミリ秒から数秒でチェックできる小さな証明に圧縮します

Lagrange DeepProve:zkMLのブレークスルーのアーキテクチャとパフォーマンス

Lagrange Labsによる DeepProve は、速度とスケーラビリティに焦点を当てた最先端のzkML推論フレームワークです。2025年に発表されたDeepProveは、Ezklのような以前のソリューションよりも劇的に高速な新しい証明システムを導入しました。その設計は、サムチェック付きGKR対話型証明プロトコル とニューラルネットワークサーキット向けの特殊な最適化を中心にしています。以下にDeepProveの仕組みとそのパフォーマンス達成方法を説明します:

  • ワンタイム前処理: 開発者は、訓練済みのニューラルネットワーク(現在サポートされているタイプには、多層パーセプトロンや一般的なCNNアーキテクチャが含まれます)から始めます。モデルは標準的なグラフ表現であるONNX形式にエクスポートされます。次に、DeepProveのツールがONNXモデルを解析し、効率的な体演算のために 量子化(重みを固定小数点/整数形式に変換)します。この段階で、暗号プロトコルのための証明鍵と検証鍵も生成します。このセットアップはモデルごとに1回行われ、推論ごとに繰り返す必要はありません。DeepProveは統合の容易さを強調しています:「モデルをONNXにエクスポート → ワンタイムセットアップ → 証明を生成 → どこでも検証」

  • 証明 (推論 + 証明生成): セットアップ後、プルーバー(ユーザー、サービス、またはLagrangeの分散型プルーバーネットワークによって実行可能)は新しい入力 $X$ を受け取り、それに対してモデル $M$ を実行して出力 $Y$ を得ます。この実行中、DeepProveは各層の計算の 実行トレース を記録します。SNARKアプローチのようにすべての乗算を事前に静的サーキットに変換するのではなく、DeepProveは 線形時間のGKRプロトコル を使用して各層をその場で検証します。各ネットワーク層について、プルーバーは層の入力と出力にコミットし(例えば、暗号学的ハッシュや多項式コミットメントを介して)、その後、出力が層の関数に従って入力から実際に得られたものであることを証明するためにサムチェック引数に参加します。サムチェックプロトコルは、実際の値を明らかにすることなく、層の計算をエンコードする多項式の評価の合計の正しさをベリファイアに繰り返し納得させます。非線形操作(ReLU、softmaxなど)は、DeepProveでは ルックアップ引数 を通じて効率的に処理されます。活性化関数の出力が計算された場合、DeepProveは各出力がその関数のために事前計算されたテーブルからの有効な入力-出力ペアに対応することを証明できます。層ごとに証明が生成され、その後、モデル全体のフォワードパスをカバーする 1つの簡潔な証明に集約 されます。暗号技術の重い処理は最小限に抑えられます。DeepProveのプルーバーは、巨大な制約システムを解くのではなく、主に通常の数値計算(実際の推論)といくつかの軽い暗号コミットメントを実行します。

  • 検証: ベリファイアは、最終的な簡潔な証明といくつかの公開値(通常はモデルのコミットされた識別子($M$ の重みへの暗号コミットメント)、入力 $X$(プライベートでない場合)、および主張された出力 $Y$)を使用して正しさをチェックします。DeepProveのシステムでの検証には、サムチェックプロトコルのトランスクリプトと最終的な多項式またはハッシュコミットメントの検証が含まれます。これは古典的なSNARKの検証(数回のペアリングかもしれない)よりも複雑ですが、モデルを再実行するよりもはるかに安価 です。Lagrangeのベンチマークでは、中規模のCNNに対するDeepProve証明の検証には、ソフトウェアで 0.5秒 程度かかります。これは、例えば、数十万のパラメータを持つ畳み込みネットワークが正しく実行されたことを確認するのに約0.5秒かかることを意味し、検証のためにGPUでそのCNNをナイーブに再計算するよりも 500倍以上高速 です。(実際、DeepProveはCNNで最大 521倍、MLPで 671倍 の検証高速化を再実行と比較して測定しました。)証明サイズはオンチェーンで送信するのに十分小さく(数十KB)、検証は必要であればスマートコントラクトで実行できますが、0.5秒の計算には慎重なガス最適化またはレイヤー2での実行が必要になるかもしれません。

アーキテクチャとツール: DeepProveはRustで実装されており、開発者向けにツールキット(zkml ライブラリ)を提供しています。ONNXモデルグラフをネイティブにサポートしているため、PyTorchやTensorFlowからのモデル(エクスポート後)と互換性があります。証明プロセスは現在、数百万パラメータまでのモデルを対象としています(テストには400万パラメータの密結合ネットワークが含まれます)。DeepProveは、多線形多項式コミットメント(層の出力にコミットするため)、計算を検証するためのサムチェックプロトコル、非線形操作のためのルックアップ引数など、暗号コンポーネントの組み合わせを活用しています。特筆すべきは、Lagrangeのオープンソースリポジトリが、以前の研究(ScrollのCenoプロジェクトからのサムチェックとGKRの実装)に基づいていることを認めており、zkMLとゼロ知識ロールアップ研究の交差点を示していることです。

リアルタイムのスケーラビリティを達成するために、LagrangeはDeepProveをその プルーバーネットワーク(特殊なZKプルーバーの分散型ネットワーク)と組み合わせています。重い証明生成はこのネットワークにオフロードできます。アプリケーションが推論の証明を必要とするとき、ジョブをLagrangeのネットワークに送信し、そこで多くのオペレーター(セキュリティのためにEigenLayerにステークされている)が証明を計算して結果を返します。このネットワークは、信頼性の高い証明生成を経済的にインセンティブ付けします(悪意のあるまたは失敗したジョブはオペレーターをスラッシングします)。プルーバー間で作業を分散させることで(そして潜在的にGPUやASICを活用することで)、Lagrangeプルーバーネットワーク はエンドユーザーから複雑さとコストを隠します。その結果、高速でスケーラブル、かつ分散型のzkMLサービスが実現します:「検証可能なAI推論を高速かつ手頃な価格で」

パフォーマンスのマイルストーン: DeepProveの主張は、以前の最先端技術であるEzklに対するベンチマークによって裏付けられています。約26.4万パラメータを持つCNN(CIFAR-10スケールのモデル)に対して、DeepProveの証明時間は約1.24秒であったのに対し、Ezklでは 約196秒 であり、約 158倍高速 でした。400万パラメータを持つより大きな密結合ネットワークでは、DeepProveは約2.3秒で推論を証明したのに対し、Ezklでは約126.8秒(約54倍高速)でした。検証時間も短縮されました。DeepProveは26.4万CNNの証明を約0.6秒で検証しましたが、Ezklの証明(Halo2ベース)をCPUで検証するにはそのテストで5分以上かかりました。この高速化は、DeepProveのほぼ線形な複雑さから来ています。そのプルーバーは操作の数に対してほぼ O(n) でスケールしますが、サーキットベースのSNARKプルーバーはしばしば超線形なオーバーヘッド(FFTと多項式コミットメントのスケーリング)を持ちます。実際、DeepProveの プルーバーのスループット は、プレーンな推論ランタイムの1桁以内に収まることがあります。最近のGKRシステムは、大規模な行列乗算において生の実行よりも10倍未満の遅さであり、これはZKにおける印象的な成果です。これにより、リアルタイムまたはオンデマンドの証明 がより実現可能になり、対話型アプリケーションにおける検証可能なAIへの道が開かれます。

ユースケース: LagrangeはすでにWeb3およびAIプロジェクトと協力してzkMLを適用しています。ユースケースの例としては、検証可能なNFTの特性(ゲームキャラクターやコレクティブルのAI生成による進化が、承認されたモデルによって計算されたことを証明する)、AIコンテンツの来歴(ディープフェイクと戦うために、画像やテキストが特定のモデルによって生成されたことを証明する)、DeFiリスクモデル(独自のデータを明らかにすることなく、金融リスクを評価するモデルの出力を証明する)、および医療や金融における プライベートAI推論(病院が患者データを公開することなく、正しさを保証する証明付きでAI予測を得ることができる)などがあります。AIの出力を 検証可能かつプライバシー保護 にすることで、DeepProveは分散システムにおける 「信頼できるAI」 への扉を開きます。これは 「ブラックボックスモデルへの盲目的な信頼」 の時代から 「客観的な保証」 の時代への移行を意味します。

SNARKベースのzkML:EzklとHalo2アプローチ

zkMLへの従来のアプローチは、zk-SNARK (Succinct Non-interactive Arguments of Knowledge) を使用してニューラルネットワークの推論を証明します。Ezkl (ZKonduit/Modulus Labsによる) は、このアプローチの代表的な例です。これはHalo2証明システム(BLS12-381上の多項式コミットメントを持つPLONKスタイルのSNARK)を基盤としています。Ezklは、開発者がPyTorchやTensorFlowモデルを取得し、ONNXにエクスポートし、Ezklがそれを自動的にカスタム算術サーキットにコンパイルするツールチェーンを提供します。

仕組み: ニューラルネットワークの各層は制約に変換されます:

  • 線形層(密結合または畳み込み)は、入力、重み、出力間のドット積を強制する乗算-加算制約の集合になります。
  • 非線形層(ReLU、sigmoidなど)は、そのような関数が多項式ではないため、ルックアップまたは区分的制約 を介して処理されます。例えば、ReLUは、ブールセレクタ $b$ と、$y = x \cdot b$、$0 \le b \le 1$、そして $x>0$ の場合に $b=1$ を保証する制約によって実装できます(これは一つの方法です)。あるいは、より効率的には、$x$ の値の範囲に対して $x \mapsto \max(0,x)$ をマッピングするルックアップテーブルを使用します。Halo2のルックアップ引数は16ビット(またはそれ以下)の値のチャンクをマッピングできるため、大きなドメイン(すべての32ビット値など)は通常、いくつかの小さなルックアップに 「チャンク化」 されます。このチャンク化は制約の数を増やします。
  • 大きな整数の演算や除算(もしあれば)も同様に小さな部分に分割されます。結果として、特定のモデルアーキテクチャに合わせた大規模な R1CS/PLONK制約 の集合ができあがります。

Ezklはその後、Halo2を使用して、秘密の入力(モデルの重み、プライベートな入力)と公開の出力が与えられた場合にこれらの制約が成り立つという証明を生成します。ツールと統合: SNARKアプローチの利点の一つは、よく知られたプリミティブを活用することです。Halo2はすでにEthereumのロールアップ(例:Zcash、zkEVM)で使用されているため、実戦でテストされており、オンチェーンベリファイアがすぐに利用できます。Ezklの証明はBLS12-381曲線を使用しており、これはEthereumがプリコンパイルを介して検証できるため、スマートコントラクトでEzklの証明を検証するのは簡単です。チームはまた、ユーザーフレンドリーなAPIも提供しています。例えば、データサイエンティストはPythonでモデルを扱い、EzklのCLIを使用して、サーキットに関する深い知識がなくても証明を生成できます。

長所: Ezklのアプローチは、SNARKの一般性とエコシステムから恩恵を受けます。それは合理的に複雑なモデルをサポートし、すでに 「実用的な統合(DeFiリスクモデルからゲーミングAIまで)」 を実現し、現実世界のMLタスクを証明しています。モデルの計算グラフのレベルで動作するため、ML固有の最適化を適用できます。例えば、重要でない重みを枝刈りしたり、パラメータを量子化してサーキットサイズを削減したりします。これはまた、モデルの機密性 が自然に保たれることを意味します。重みはプライベートなウィットネスデータとして扱うことができるため、ベリファイアは 何らかの 有効なモデルが出力を生成したこと、あるいはせいぜいモデルへのコミットメントしか見ることができません。SNARK証明の検証は非常に高速 であり(通常、オンチェーンで数ミリ秒以下)、証明サイズも小さい(数キロバイト)ため、ブロックチェーンでの使用に理想的です。

短所: パフォーマンスがアキレス腱です。サーキットベースの証明は、特にモデルが大きくなるにつれて、大きなオーバーヘッドを伴います。歴史的に、SNARKサーキットは、プルーバーにとってモデルを単に実行するよりも 百万倍もの作業 になる可能性があると指摘されています。Halo2とEzklはこれを最適化していますが、それでも、大規模な行列乗算のような操作は 大量の 制約を生成します。モデルに数百万のパラメータがある場合、プルーバーはそれに対応する数百万の制約を処理し、その過程で重いFFTや多重指数演算を実行する必要があります。これにより、証明時間が長くなり(重要でないモデルでもしばしば数分から数時間)、メモリ使用量も多くなります。例えば、比較的小さなCNN(例:数十万パラメータ)でさえ、Ezklを単一のマシンで実行すると証明に数十分かかることがあります。DeepProveのチームは、DeepProveが数分でできる特定のモデルの証明にEzklが数時間かかったと述べています。大規模なモデルはメモリに収まらないか、複数の証明に分割する必要があるかもしれません(その場合、再帰的な集約が必要になります)。Halo2は 「適度に最適化」 されていますが、ルックアップを「チャンク化」したり、広範なビット操作を処理したりする必要がある場合は、追加のオーバーヘッドが発生します。要約すると、スケーラビリティは限定的 です。Ezklは小から中規模のモデルにはうまく機能しますが(そして実際、ベンチマークではいくつかの初期の代替案、例えばナイーブなStarkベースのVMを 上回りました)、モデルサイズがある点を超えると苦戦します。

これらの課題にもかかわらず、Ezklや同様のSNARKベースのzkMLライブラリは重要な足がかりです。それらは、検証済みML推論がオンチェーンで可能である ことを証明し、活発に利用されています。特筆すべきは、Modulus Labs のようなプロジェクトが、SNARKを使用して(重い最適化を伴い)1800万パラメータのモデルをオンチェーンで検証したことを実証したことです。コストは些細なものではありませんでしたが、それはその軌道を示しています。さらに、Mina Protocol は独自のzkMLツールキットを持っており、SNARKを使用してMina上のスマートコントラクト(Snarkベース)がMLモデルの実行を検証できるようにしています。これは、SNARKベースのzkMLに対するマルチプラットフォームサポートの拡大を示しています。

STARKベースのアプローチ:MLのための透明でプログラム可能なZK

zk-STARK (Scalable Transparent ARguments of Knowledge) は、zkMLへのもう一つのルートを提供します。STARKはハッシュベースの暗号技術(多項式コミットメントのためのFRIなど)を使用し、信頼できるセットアップを回避します。これらはしばしばCPUやVMをシミュレートし、実行トレースが正しいことを証明することによって動作します。MLの文脈では、ニューラルネットワーク用のカスタムSTARKを構築するか、汎用STARK VMを使用してモデルコードを実行するかのいずれかが可能です。

汎用STARK VM (RISC Zero, Cairo): 簡単なアプローチは、推論コードを書いてSTARK VMで実行することです。例えば、Risc0 はRISC-V環境を提供し、そこでは任意のコード(例:ニューラルネットワークのC++またはRust実装)を実行し、STARKを介して証明できます。同様に、StarkWareの Cairo 言語は任意の計算(LSTMやCNNの推論など)を表現でき、それらはStarkNetのSTARKプルーバーによって証明されます。利点は柔軟性です。各モデルに対してカスタムサーキットを設計する必要がありません。しかし、初期のベンチマークでは、ナイーブなSTARK VMはML用の最適化されたSNARKサーキットと比較して遅いことが示されました。あるテストでは、Halo2ベースの証明(Ezkl)はCairo上のSTARKベースのアプローチよりも約 3倍速く、2024年のあるベンチマークではRISC-V STARK VMよりも 66倍速い ことさえありました。この差は、STARKですべての低レベル命令をシミュレートするオーバーヘッドと、STARK証明の定数が大きいこと(ハッシュは速いが大量に必要、STARKの証明サイズは大きいなど)によるものです。しかし、STARK VMは改善されており、透明なセットアップ(信頼できるセットアップ不要)と ポスト量子セキュリティ という利点があります。STARKフレンドリーなハードウェアとプロトコルが進歩するにつれて、証明速度は向上するでしょう。

DeepProveのアプローチ vs STARK: 興味深いことに、DeepProveがGKRとサムチェックを使用することで得られる証明は、精神的にはSTARKに似ています。それは対話的でハッシュベースの証明であり、構造化された参照文字列を必要としません。トレードオフは、その証明がSNARKよりも大きく、検証が重いことです。しかし、DeepProveは、慎重なプロトコル設計(MLの層状構造に特化)が、証明時間において汎用STARK VMとSNARKサーキットの両方を大幅に上回ることができることを示しています。DeepProveは 特注のSTARKスタイル のzkMLプルーバーと考えることができます(彼らは簡潔さのためにzkSNARKという用語を使用していますが、0.5秒の検証は典型的なSNARK検証よりも大きいため、従来のSNARKの小さな定数サイズの検証はありません)。従来のSTARK証明(StarkNetのものなど)は、検証に数万の体演算を伴うことが多いのに対し、SNARKは数十回程度で検証します。したがって、一つの トレードオフ が明らかです:SNARKはより小さな証明とより速いベリファイアをもたらし、STARK(またはGKR)は証明サイズと検証速度を犠牲にして、より簡単なスケーリングと信頼できるセットアップ不要を提供します。

新たな改善: JOLT zkVM(前述のJOLTxで議論)は実際にはSNARK(PLONK風のコミットメントを使用)を出力していますが、STARKの文脈にも適用できるアイデアを具現化しています(Lassoルックアップは理論的にはFRIコミットメントと共に使用できます)。StarkWareなどは、一般的な操作の証明を高速化する方法を研究しています(例えば、Cairoで大きな整数演算のためにカスタムゲートやヒントを使用するなど)。また、Privacy & Scaling Explorations (PSE) による Circomlib-ML もあり、これはCNN層などのためのCircomテンプレートを提供します。これはSNARK指向ですが、概念的に類似したテンプレートをSTARK言語用に作成することもできます。

実際には、STARKを活用する 非Ethereumエコシステム には、StarkNet(誰かがベリファイアを書けばMLのオンチェーン検証が可能になるかもしれないが、コストは高い)や Risc0のBonsai サービス(様々なチェーンで検証可能なSTARK証明を発行するオフチェーン証明サービス)があります。2025年現在、ブロックチェーン上のほとんどのzkMLデモは(ベリファイアの効率性から)SNARKを好んでいますが、STARKアプローチは、その透明性と高セキュリティまたは耐量子設定での可能性から、依然として魅力的です。例えば、分散型計算ネットワークは、信頼できるセットアップなしで誰でも作業を検証できるようにSTARKを使用するかもしれません。これは長寿のために有用です。また、一部の特殊なMLタスクは、STARKフレンドリーな構造を活用するかもしれません。例えば、XOR/ビット操作を多用する計算は、SNARKの体演算よりもSTARK(ブール代数とハッシュでは安価なため)の方が速い可能性があります。

MLにおけるSNARK vs STARKの概要:

  • パフォーマンス: SNARK(Halo2など)はゲートあたりの証明オーバーヘッドが大きいですが、強力な最適化と検証のための小さな定数の恩恵を受けます。STARK(汎用)は定数オーバーヘッドが大きいですが、より線形にスケールし、ペアリングのような高価な暗号を回避します。DeepProveは、アプローチをカスタマイズする(サムチェック)ことで、ほぼ線形の証明時間(高速)をSTARKのような証明で実現することを示しています。JOLTは、汎用VMでさえルックアップを多用することで高速化できることを示しています。経験的に、数百万の操作までのモデルでは、十分に最適化されたSNARK(Ezkl)は処理できますが、数十分かかる可能性があり、一方DeepProve(GKR)は数秒でできます。2024年のSTARK VMは、特化されていない限り、SNARKの中間かそれ以下でした(テストではRisc0は遅く、Cairoはカスタムヒントなしでは遅かった)。
  • 検証: SNARK証明は最も速く検証されます(ミリ秒単位、オンチェーンでのデータは最小限で約数百バイトから数KB)。STARK証明はより大きく(数十KB)、多くのハッシュステップのため検証に時間がかかります(数十ミリ秒から数秒)。ブロックチェーンの観点から言えば、SNARKの検証は例えば約20万ガスかかるかもしれませんが、STARKの検証は数百万ガスかかる可能性があり、L1には高すぎることが多く、L2や簡潔な検証スキームでは許容範囲です。
  • セットアップとセキュリティ: Groth16のようなSNARKはサーキットごとに信頼できるセットアップを必要としますが(任意のモデルには不親切)、ユニバーサルSNARK(PLONK、Halo2)は、特定のサイズまでの任意のサーキットに再利用できる一度きりのセットアップを持ちます。STARKはセットアップを必要とせず、ハッシュの仮定(および古典的な多項式複雑性の仮定)のみを使用し、ポスト量子セキュア です。これにより、STARKは長寿のために魅力的です。量子コンピュータが出現しても証明は安全なままですが、現在のSNARK(BLS12-381ベース)は量子攻撃によって破られます。

これらの違いを、まもなく比較表にまとめます。

MLのためのFHE (FHE-o-ML):プライベート計算 vs. 検証可能計算

完全準同型暗号 (FHE) は、暗号化されたデータ上で直接計算を実行できる暗号技術です。MLの文脈では、FHEは一種の プライバシー保護推論 を可能にします。例えば、クライアントは暗号化された入力をモデルホストに送信し、ホストはそれを復号せずに暗号文上でニューラルネットワークを実行し、クライアントが復号できる暗号化された結果を返します。これにより データ機密性 が保証されます。モデルの所有者は入力について何も知ることができず(そして、クライアントは出力のみを知り、モデルの内部については知らない可能性があります)。しかし、FHE自体は、ZKPのように 正当性の証明を生成しません。クライアントは、モデルの所有者が実際に正直に計算を実行したと信頼しなければなりません(暗号文が操作された可能性があります)。通常、クライアントがモデルを持っているか、特定の出力分布を期待している場合、露骨な不正は検出できますが、微妙なエラーや間違ったモデルバージョンの使用は、暗号化された出力だけからは明らかになりません。

パフォーマンスのトレードオフ: FHEは計算が非常に重いことで知られています。FHE下でディープラーニング推論を実行すると、桁違いの速度低下が発生します。初期の実験(例:2016年のCryptoNets)では、暗号化されたデータ上で小さなCNNを評価するのに数十秒かかりました。2024年までに、CKKS(近似算術用) やより良いライブラリ(Microsoft SEAL、ZamaのConcrete)などの改善により、このオーバーヘッドは減少しましたが、依然として大きいです。例えば、あるユーザーは、ZamaのConcrete-MLを使用してCIFAR-10分類器を実行するのに、自分のハードウェアで推論ごとに 25〜30分 かかったと報告しています。最適化後、Zamaのチームは192コアサーバーでその推論を約40秒で達成しました。40秒でさえ、平文の推論(0.01秒かもしれない)と比較して非常に遅く、約 $10^3$–$10^4\times$ のオーバーヘッドを示しています。より大きなモデルやより高い精度は、コストをさらに増加させます。さらに、FHE操作は多くのメモリを消費し、時折 ブートストラップ(ノイズ削減ステップ)を必要とし、これは計算コストが高いです。要約すると、スケーラビリティは大きな問題 です。最先端のFHEは小さなCNNや単純なロジスティック回帰を処理できるかもしれませんが、大規模なCNNやTransformerへのスケーリングは現在の実用的な限界を超えています。

プライバシーの利点: FHEの大きな魅力は データプライバシー です。入力はプロセス全体を通じて完全に暗号化されたままでいられます。これは、信頼できないサーバーがクライアントのプライベートデータについて何も知ることなく計算できることを意味します。逆に、モデルが機密(独自)である場合、モデルパラメータを暗号化し、クライアント側でFHE推論を実行することも考えられますが、クライアントが重いFHE計算を行わなければならない場合、強力なサーバーにオフロードするという考えが無意味になるため、これはあまり一般的ではありません。通常、モデルは公開されているか、サーバーが平文で保持しており、データはクライアントの鍵で暗号化されます。そのシナリオでのモデルのプライバシーは、デフォルトでは 提供されません(サーバーはモデルを知っており、クライアントは出力を知りますが重みは知りません)。モデルとデータの両方を互いに秘密に保つことができる、よりエキゾチックな設定(安全な二者間計算やマルチキーFHEなど)もありますが、それらはさらに複雑さを増します。対照的に、ZKPを介したzkMLは、モデルのプライバシーデータのプライバシー を同時に保証できます。プルーバーはモデルとデータの両方を秘密のウィットネスとして持ち、ベリファイアに必要なものだけを明らかにします。

オンチェーン検証は不要 (そして不可能): FHEでは、結果はクライアントに暗号化されて返されます。クライアントはそれを復号して実際の予測を取得します。その結果をオンチェーンで使用したい場合、クライアント(または復号鍵を持つ者)は平文の結果を公開し、それが正しいことを他の人に納得させる必要があります。しかし、その時点で、信頼は再びループに戻ります。ZKPと組み合わせない限り。原則として、FHEとZKPを組み合わせることは可能です。例えば、計算中にデータをプライベートに保つためにFHEを使用し、その後、平文の結果が正しい計算に対応するというZK証明を生成します。しかし、それらを組み合わせることは、FHE ZKPのパフォーマンスペナルティを支払うことを意味し、今日の技術では非常に非現実的です。したがって、実際にはFHE-of-MLとzkMLは異なるユースケースに対応します:

  • FHE-of-ML: 二者間(クライアントとサーバー)の機密性 が目標である場合に理想的です。例えば、クラウドサービスがMLモデルをホストし、ユーザーはクラウドにデータを明らかにすることなく機密データでクエリできます(そしてモデルが機密である場合、FHEフレンドリーなエンコーディングを介してデプロイするかもしれません)。これはプライバシー保護MLサービス(医療予測など)に最適です。ユーザーは依然としてサービスが忠実にモデルを実行することを信頼する必要がありますが(証明がないため)、少なくとも データ漏洩 は防がれます。Zamaのような一部のプロジェクトは、スマートコントラクトが暗号化された入力で動作できる 「FHE対応EVM (fhEVM)」 を探求していますが、それらの計算をオンチェーンで検証するには、コントラクトが何らかの方法で正しい計算を強制する必要があり、これはZK証明や特殊なセキュアハードウェアを必要とする可能性が高い未解決の課題です。
  • zkML (ZKP): 検証可能性と公開監査可能性 が目標である場合に理想的です。誰でも(またはどのコントラクトでも)「モデル $M$ が $X$ で正しく評価され、$Y$ を生成した」 ことを確認したい場合、ZKPが解決策です。それらはボーナスとしてプライバシーも提供しますが(必要に応じて $X$、$Y$、または $M$ を証明のプライベートな入力として扱うことで隠すことができます)、その主な特徴は正しい実行の証明です。

補完的な関係: ZKPは ベリファイア を保護し(彼らは秘密について何も知らず、計算が正しく行われたことだけを知ります)、一方FHEは計算を行う当事者から プルーバー のデータを保護することに注意する価値があります。一部のシナリオでは、これらを組み合わせることができます。例えば、信頼できないノードのネットワークがFHEを使用してユーザーのプライベートデータで計算し、その後、計算がプロトコルに従って行われたことをユーザー(またはブロックチェーン)にZK証明で提供することができます。これにより、プライバシーと正当性の両方がカバーされますが、今日のアルゴリズムではパフォーマンスコストが莫大です。近い将来、より実現可能なのは、Trusted Execution Environments (TEE) + ZKPFunctional Encryption + ZKP のようなハイブリッドです。これらは私たちの範囲を超えていますが、同様のものを提供することを目指しています(TEEは計算中にデータ/モデルを秘密に保ち、その後ZKPがTEEが正しいことを行ったことを証明できます)。

要約すると、FHE-of-MLは入力/出力の機密性を優先 し、zkMLは検証可能な正当性(プライバシーの可能性あり)を優先 します。以下の表1は、主要な特性を対比しています:

アプローチプルーバーのパフォーマンス (推論と証明)証明サイズと検証プライバシー機能信頼できるセットアップ?ポスト量子?
zk-SNARK (Halo2, Groth16, PLONKなど)重いプルーバーオーバーヘッド(最適化なしで通常のランタイムの最大10^6倍、実際には10^3–10^5倍)。特定のモデル/サーキットに最適化。中規模モデルで数分、大規模モデルで数時間の証明時間。最近のzkML SNARK(GKR付きDeepProve)はこれを大幅に改善(ほぼ線形のオーバーヘッド、例:数百万パラメータモデルで数分の代わりに数秒)。非常に小さな証明(多くは100KB未満、時には数KB程度)。検証は高速:数回のペアリングまたは多項式評価(通常、オンチェーンで50ms未満)。DeepProveのGKRベースの証明はより大きく(数十〜数百KB)、約0.5秒で検証(モデルの再実行よりはるかに高速)。データ機密性: はい – 入力は証明内でプライベートにでき、公開されません。モデルプライバシー: はい – プルーバーはモデルの重みにコミットし、それらを公開しません。出力の隠蔽: オプション – 証明は出力を明らかにせずにステートメントについてのものであることができます(例:「出力はプロパティPを持つ」)。しかし、出力自体がオンチェーンで必要な場合、通常は公開されます。全体として、SNARKは完全な ゼロ知識 の柔軟性を提供します(隠したい部分を隠せます)。スキームによる。Groth16/EZKLはサーキットごとに信頼できるセットアップが必要。PLONK/Halo2はユニバーサルセットアップ(一度きり)を使用。DeepProveのサムチェックGKRは透明(セットアップ不要)– その設計のボーナス。古典的なSNARK(BLS12-381曲線)は PQセキュアではない(楕円曲線離散対数問題に対する量子攻撃に脆弱)。一部の新しいSNARKはPQセキュアなコミットメントを使用しますが、Ezklで使用されるHalo2/PLONKはPQセキュアではありません。GKR(DeepProve)はハッシュコミットメント(例:Poseidon/Merkle)を使用し、これらはPQセキュアであると推測されています(ハッシュの原像困難性に依存)。
zk-STARK (FRI, ハッシュベースの証明)プルーバーのオーバーヘッドは高いが、より 線形 なスケーリング。通常、大規模タスクではネイティブより10^2–10^4倍遅く、並列化の余地あり。汎用STARK VM(Risc0, Cairo)は2024年にMLでSNARKと比較して遅いパフォーマンスを示した(例:一部のケースでHalo2より3倍–66倍遅い)。特殊なSTARK(またはGKR)は線形オーバーヘッドに近づき、大規模サーキットでSNARKを上回ることができます。証明はより大きい:しばしば数十KB(サーキットサイズ/log(n)と共に増加)。ベリファイアは複数のハッシュとFFTチェックを行う必要があり、検証時間は小さなεに対して約O(n^ε)(例:証明サイズに応じて約50msから500ms)。オンチェーンでは、これはより高価です(StarkWareのL1ベリファイアは証明ごとに数百万ガスかかることがあります)。一部のSTARKは、プルーバー時間を犠牲にしてサイズを圧縮するために再帰的証明をサポートします。データとモデルのプライバシー: STARKはトレースデータをランダム化する(多項式評価にブラインディングを追加する)ことでゼロ知識にすることができ、SNARKと同様にプライベートな入力を隠すことができます。多くのSTARK実装は完全性に焦点を当てていますが、zk-STARKの変種はプライバシーを可能にします。したがって、はい、SNARKのように入力/モデルを隠すことができます。出力の隠蔽: 理論的には同様に可能ですが(プルーバーが出力を公開として宣言しない)、通常は出力が公開/検証したいものであるため、めったに使用されません。信頼できるセットアップは不要。 透明性はSTARKの特徴です – 共通のランダム文字列のみを必要とします(Fiat-Shamirが導出可能)。これにより、オープンエンドな使用(任意のモデル、いつでも、モデルごとのセレモニーなし)に魅力的です。はい、STARKはハッシュと情報理論的なセキュリティの仮定(ランダムオラクルやFRIにおける特定のコードワード復号の困難性など)に依存しています。これらは量子攻撃者に対して安全であると考えられています。したがって、STARK証明はPQ耐性があり、検証可能なAIを将来にわたって保証する上で利点があります。
MLのためのFHE (推論に適用される完全準同型暗号)プルーバー = 暗号化データ上で計算を行う当事者。 計算時間は非常に高い:平文推論より10^3–10^5倍遅いのが一般的。ハイエンドハードウェア(多コアサーバー、FPGAなど)でこれを緩和できます。一部の最適化(低精度推論、レベル化FHEパラメータ)はオーバーヘッドを削減できますが、基本的なパフォーマンスヒットがあります。FHEは現在、小さなモデルや単純な線形モデルには実用的ですが、ディープネットワークはトイサイズを超えると依然として困難です。証明は生成されません。結果は暗号化された出力です。正当性をチェックするという意味での 検証 はFHE単独では提供されません – 計算を行う当事者が不正をしないと信頼します。(セキュアハードウェアと組み合わせれば、アテステーションが得られるかもしれませんが、そうでなければ、悪意のあるサーバーは不正な暗号化結果を返し、クライアントは違いを知らずに間違った出力に復号する可能性があります)。データ機密性: はい – 入力は暗号化されているため、計算を行う当事者はそれについて何も知りません。モデルプライバシー: モデルの所有者が暗号化された入力で計算を行っている場合、モデルは彼らの側で平文です(保護されていません)。役割が逆の場合(クライアントがモデルを暗号化して保持し、サーバーが計算する)、モデルは暗号化されたままにできますが、このシナリオはあまり一般的ではありません。FHE/MPCを組み合わせて両方を保護する安全な二者間MLのような技術もありますが、これらはプレーンなFHEを超えています。出力の隠蔽: デフォルトでは、計算の出力は暗号化されています(秘密鍵を持つ当事者、通常は入力の所有者のみが復号可能)。したがって、出力は計算サーバーから隠されています。出力を公開したい場合、クライアントは復号して公開できます。セットアップは不要。各ユーザーは暗号化のために独自の鍵ペアを生成します。信頼は鍵が秘密に保たれることに依存します。FHEスキーム(例:BFV, CKKS, TFHE)のセキュリティは、格子問題(Learning With Errors)に基づいており、これらは量子攻撃に耐性があると考えられています(少なくとも効率的な量子アルゴリズムは知られていません)。したがって、FHEは一般的に ポスト量子セキュア と考えられています。

表1:機械学習推論のためのzk-SNARK、zk-STARK、およびFHEアプローチの比較(パフォーマンスとプライバシーのトレードオフ)。

Web3アプリケーションへのユースケースと影響

zkMLを介したAIとブロックチェーンの融合は、Web3における強力な新しいアプリケーションパターンを解き放ちます:

  • 分散型自律エージェントとオンチェーンでの意思決定: スマートコントラクトやDAOは、正当性の保証付きでAI駆動の意思決定を組み込むことができます。例えば、取引を実行する前に市場状況を分析するためにニューラルネットワークを使用するDAOを想像してみてください。zkMLを使用すると、DAOのスマートコントラクトは、アクションが受け入れられる前に、承認されたMLモデル(既知のハッシュコミットメントを持つ)が最新のデータで実行され、推奨されたアクションを生成したというzkSNARK証明を要求できます。これにより、悪意のあるアクターが偽の予測を注入するのを防ぎます – チェーンが AIの計算を検証します。時間が経てば、DeFiやゲームで意思決定を行う完全にオンチェーンの自律エージェント(オフチェーンAIをクエリするか、簡略化されたモデルを含むコントラクト)を持つことさえ可能になり、そのすべての動きはzk証明を介して正しく、ポリシーに準拠していることが証明されます。これにより、自律エージェントの「思考」がブラックボックスではなく、透明で検証可能になるため、信頼性が向上します。

  • 検証可能な計算市場: Lagrangeのようなプロジェクトは、効果的に 検証可能な計算マーケットプレイス を作成しています – 開発者は重いML推論をプルーバーのネットワークにアウトソースし、結果と共に証明を受け取ることができます。これは分散型クラウドコンピューティングに似ていますが、信頼が組み込まれています。サーバーを信頼する必要はなく、証明だけを信頼すればよいのです。これはオラクルやオフチェーン計算にとってパラダイムシフトです。Ethereumの今後のDSC(分散型シーケンシングレイヤー)やオラクルネットワークのようなプロトコルは、これを使用して暗号学的な保証付きのデータフィードや分析フィードを提供できます。例えば、オラクルは「入力Yに対するモデルXの結果」を提供し、誰もがオラクルの言葉を信頼するのではなく、添付された証明をオンチェーンで検証できます。これにより、ブロックチェーン上で サービスとしての検証可能なAI が可能になります。どのコントラクトも計算(「私のプライベートモデルでこれらの信用リスクをスコアリングして」など)を要求し、有効な証明がある場合にのみ回答を受け入れることができます。Gensyn のようなプロジェクトは、これらの検証技術を使用して分散型のトレーニングおよび推論マーケットプレイスを探求しています。

  • NFTとゲーミング – 来歴と進化: ブロックチェーンゲームやNFTコレクティブルでは、zkMLは特性やゲームの動きが正当なAIモデルによって生成されたことを証明できます。例えば、ゲームがAIにNFTペットの属性を進化させることを許可するかもしれません。ZKがなければ、賢いユーザーはAIや結果を改変して優れたペットを手に入れるかもしれません。zkMLを使用すると、ゲームは 「ペットの新しいステータスは、ペットの古いステータスに対して公式の進化モデルによって計算された」 という証明を要求でき、不正を防ぎます。ジェネレーティブアートNFTについても同様です。アーティストはジェネレーティブモデルをコミットメントとしてリリースできます。後でNFTをミントするときに、各画像が特定のシードを与えられてそのモデルによって生成されたことを証明し、真正性を保証します(そして、アーティストのIPを保護するために、正確なモデルを公開することなくそれを行うことさえできます)。この 来歴検証 は、検証可能なランダム性に似た方法で真正性を保証します – ここでは検証可能な創造性です。

  • 機密領域におけるプライバシー保護AI: zkMLは 入力を公開することなく結果の確認 を可能にします。医療では、患者のデータがクラウドプロバイダーによってAI診断モデルに通されるかもしれません。病院は診断と、そのモデル(製薬会社が非公開で保有している可能性がある)が患者データで正しく実行された という証明を受け取ります。患者データはプライベートなままであり(証明では暗号化またはコミットされた形式のみが使用された)、モデルの重みは独自のままです – それでも結果は信頼されます。規制当局や保険会社も、承認されたモデルのみが使用されたことを検証できます。金融では、企業は監査人や規制当局に対して、そのリスクモデルが内部データに適用され、特定のメトリクスを生成した ことを、基礎となる機密性の高い財務データを明らかにすることなく証明できます。これにより、手動の信頼ではなく、暗号学的な保証によるコンプライアンスと監督が可能になります。

  • クロスチェーンおよびオフチェーンの相互運用性: ゼロ知識証明は基本的にポータブルであるため、zkMLは クロスチェーンAI の結果を促進できます。あるチェーンがオフチェーンで実行されるAI集約的なアプリケーションを持っているかもしれません。その結果の証明を別のブロックチェーンに投稿でき、そのブロックチェーンはそれをトラストレスに受け入れます。例えば、ソーシャルメディア全体のセンチメントを集約するためにAIを使用するマルチチェーンDAOを考えてみましょう(オフチェーンデータ)。AI分析(大規模データに対する複雑なNLP)はオフチェーンのサービスによって行われ、その後、「分析は正しく行われ、出力センチメントスコア = 0.85」 という証明を小さなブロックチェーン(または複数のチェーン)に投稿します。すべてのチェーンは、それぞれが分析を再実行する必要なく、その結果を検証し、ガバナンスロジックで使用できます。この種の 相互運用可能な検証可能計算 は、Lagrangeのネットワークが複数のロールアップやL1に同時にサービスを提供することでサポートしようとしているものです。これにより、チェーン間で結果を移動する際に、信頼できるブリッジやオラクルの仮定が不要になります。

  • AIアライメントとガバナンス: より未来志向の観点から、zkMLは AIガバナンスと安全性 のためのツールとして注目されています。例えば、Lagrangeのビジョンステートメントでは、AIシステムがより強力になるにつれて(超知能でさえ)、合意されたルールに従うことを保証するために暗号学的検証が不可欠になると主張しています。AIモデルにその推論や制約の証明を生成させることを要求することで、人間はある程度の制御を維持します – 「検証できないものは信頼できない」。これは推測的であり、技術的な側面だけでなく社会的な側面も関わりますが、この技術は、自律的に実行されているAIエージェントが、承認されたモデルを使用しており、改ざんされていないことを証明することを強制できます。分散型AIネットワークは、貢献を検証するためにオンチェーン証明を使用するかもしれません(例:モデルを共同でトレーニングするノードのネットワークは、各更新が忠実に計算されたことを証明できます)。したがって、zkMLは、分散型または制御されていない環境であっても、AIシステムが人間定義のプロトコルに対して説明責任を負い続けることを保証する 上で役割を果たす可能性があります。

結論として、zkMLと検証可能なオンチェーンAI は、AIアプリケーションにおける信頼、透明性、プライバシーを向上させる可能性のある、高度な暗号技術と機械学習の融合を表しています。主要なアプローチ – zk-SNARK、zk-STARK、FHE – を比較することで、パフォーマンスとプライバシーの間のトレードオフのスペクトルが見え、それぞれが異なるシナリオに適しています。EzklのようなSNARKベースのフレームワークやLagrangeのDeepProveのような革新により、実質的なニューラルネットワーク推論を現実的な労力で証明することが可能になり、検証可能なAIの現実世界での展開への扉が開かれました。STARKベースおよびVMベースのアプローチは、より大きな柔軟性とポスト量子セキュリティを約束しており、これは分野が成熟するにつれて重要になるでしょう。FHEは、検証可能性の解決策ではありませんが、機密性の高いML計算という補完的なニーズに対応し、ZKPとの組み合わせや特定のプライベートな文脈では、ユーザーがデータプライバシーを犠牲にすることなくAIを活用できるようにします。

Web3への影響 は重要です。AIの予測に反応するスマートコントラクト(それが正しいと知っている)、結果がトラストレスに販売される計算市場、zkMLによって保護された デジタルアイデンティティ(Worldcoinの虹彩AIによる人格証明のように、生体認証画像を漏らすことなく人間であることを確認する)、そして一般的にブロックチェーンアプリケーションを豊かにする新しいクラスの 「証明可能なインテリジェンス」 が予見できます。非常に大規模なモデルのパフォーマンス、開発者のエルゴノミクス、特殊なハードウェアの必要性など、多くの課題が残っていますが、その軌道は明確です。あるレポートが指摘したように、「今日のZKPは小さなモデルをサポートできるが、中規模から大規模なモデルはそのパラダイムを壊す」。しかし、急速な進歩(DeepProveによる従来技術に対する50倍–150倍の高速化)がその境界を押し広げています。継続的な研究(ハードウェアアクセラレーションや分散証明など)により、ますます大きく複雑なAIモデルが証明可能になることが期待できます。zkMLは、ニッチなデモから、信頼できるAIインフラストラクチャの不可欠なコンポーネント へとすぐに進化するかもしれません。これにより、AIがユビキタスになるにつれて、それが 監査可能で、分散化され、ユーザーのプライバシーとセキュリティに沿った 方法で行われることが保証されます。

ETHDenver 2025: フェスティバルから見る主要な Web3 トレンドとインサイト

· 約 36 分

「再生者の年 (Year of The Regenerates)」と銘打たれた ETHDenver 2025 は、世界最大級の Web3 の祭典としての地位を確固たるものにしました。BUIDLWeek (2 月 23 日~ 26 日)、メインイベント (2 月 27 日~ 3 月 2 日)、そしてカンファレンス後のマウンテンリトリートにわたり、このフェスティバルには 25,000 人以上の参加者が見込まれました。125 以上の国からビルダー、開発者、投資家、クリエイターがデンバーに集結し、イーサリアムの分散化とイノベーションの精神を祝いました。そのコミュニティのルーツに忠実に、ETHDenver は参加無料で、コミュニティ資金によって運営され、ハッカソンやワークショップからパネルディスカッション、ピッチイベント、パーティーまで、コンテンツが溢れていました。分散化を守る*「再生者 (Regenerates)」*の物語は、競争の激しい技術環境の中にあっても、公共財と協調的な構築を強調するトーンを設定しました。その結果、1 週間にわたるエネルギッシュなビルダー活動と未来志向の議論が繰り広げられ、Web3 の新たなトレンドと業界専門家にとって実用的なインサイトのスナップショットが提供されました。

ETHDenver 2025

登壇者が注目した新たな Web3 トレンド

ETHDenver 2025 では、単一の物語が支配することはなく、代わりに幅広い Web3 トレンドが主役となりました。 昨年 (EigenLayer を介したリステーキングが注目を集めた) とは異なり、2025 年のアジェンダはあらゆるものが散りばめられていました。分散型物理インフラネットワーク (DePIN) から AI エージェント、規制遵守から現実世界資産のトークン化 (RWA)、さらにプライバシー、相互運用性など、多岐にわたりました。実際、ETHDenver の創設者である John Paller 氏は、マルチチェーンのコンテンツに関する懸念に対し、「スポンサーの 95% 以上、コンテンツの 90% が ETH/EVM に沿ったものである」と述べましたが、非イーサリアムエコシステムの存在は相互運用性が主要なテーマであることを強調していました。主要な登壇者はこれらのトレンド分野を反映しており、例えば、zk ロールアップとレイヤー 2 スケーリングは Alex Gluchowski 氏 (Matter Labs/zkSync CEO) によって、マルチチェーンのイノベーションは Mysten Labs (Sui) の Adeniyi Abiodun 氏と Injective の Albert Chon 氏によって強調されました。

AI と Web3 の融合は、強力な底流として現れました。 多くの講演やサイドイベントが分散型 AI エージェントと「DeFi+AI」のクロスオーバーに焦点を当てていました。専用の AI Agent Day ではオンチェーン AI のデモが披露され、14 のチーム (Coinbase の開発者キットや NEAR の AI ユニットを含む) の集合体は、Web3 インフラをプールすることでパーミッションレスで無料の AI アクセスを提供するためのイニシアチブであるオープン・エージェント・アライアンス (OAA) を発表しました。これは、ビルダーにとってのフロンティアとして、自律エージェントと AI 駆動の DApp への関心が高まっていることを示しています。AI と密接に関連して、DePIN (分散型物理インフラ) ももう一つのバズワードでした。複数のパネル (Day of DePINDePIN Summit など) では、ブロックチェーンと物理ネットワーク (通信からモビリティまで) を橋渡しするプロジェクトが探求されました。

Cuckoo AI Network は ETHDenver 2025 で注目を集め、クリエイターや開発者向けに設計された革新的な分散型 AI モデル提供マーケットプレイスを披露しました。ハッカソンとコミュニティ主導のサイドイベントの両方で説得力のある存在感を示し、Cuckoo AI は GPU/CPU リソースを収益化し、オンチェーン AI API を簡単に統合できる能力に興味をそそられた開発者から大きな注目を集めました。専用のワークショップとネットワーキングセッションで、Cuckoo AI は分散型インフラがどのようにして高度な AI サービスへのアクセスを効率的に民主化できるかを強調しました。これは、イベントのより広範なトレンド、特にブロックチェーンと AI、DePIN、公共財への資金提供との交差点に直接合致しています。ETHDenver の投資家や開発者にとって、Cuckoo AI は、分散型アプローチが次世代の AI 駆動 DApp とインフラをどのように強化できるかの明確な例として浮上し、Web3 エコシステム内で魅力的な投資機会として位置づけられました。

プライバシー、アイデンティティ、セキュリティは依然として最重要課題でした。 登壇者やワークショップでは、ゼロ知識証明 (zkSync の存在)、アイデンティティ管理と検証可能なクレデンシャル (ハッカソンには専用のプライバシー & セキュリティトラックがありました)、法規制の問題 (オンチェーンの法律サミットがフェスティバルのトラックの一部でした) といったトピックが取り上げられました。もう一つの注目すべき議論は、資金調達の未来と資金調達の分散化でした。Dragonfly Capital の Haseeb Qureshi 氏と Legion (「ICO のような」プラットフォーム) の Matt O’Connor 氏によるICO 対 VC ファンディングに関するメインステージでの討論は、参加者を魅了しました。この討論は、従来の VC ルートに挑戦するコミュニティトークンセールのような新たなモデルを浮き彫りにしました。これは、資金調達を行う Web3 スタートアップにとって重要なトレンドです。専門家にとっての教訓は明らかです。2025 年の Web3 は多分野にわたるものであり、金融、AI、現実資産、文化にまたがっています。情報を常に把握するということは、一つのハイプサイクルだけでなく、イノベーションの全スペクトルに目を向けることを意味します。

スポンサーとその戦略的重点分野

2025 年の ETHDenver のスポンサーリストは、レイヤー 1、レイヤー 2、Web3 インフラプロジェクトの錚々たる顔ぶれであり、各社がイベントを活用して戦略的目標を推進していました。クロスチェーンおよびマルチチェーンプロトコルが強力な存在感を示しました。例えば、Polkadot はトップスポンサーとして 8 万ドルの高額な報奨金プールを提供し、ビルダーにクロスチェーン DApp やアプリチェーンの作成を奨励しました。同様に、BNB Chain、Flow、Hedera、Base (Coinbase の L2) はそれぞれ、自社のエコシステムと統合するプロジェクトに最大 5 万ドルを提供し、イーサリアム開発者を引きつけようとする姿勢を示しました。Solana や Internet Computer のような伝統的に独立したエコシステムでさえ、スポンサー付きのチャレンジに参加しました (例: Solana は DePIN イベントを共催し、Internet Computer は「ICP でのみ可能」な報奨金を提供)。このエコシステム間の存在感は一部のコミュニティから精査されましたが、ETHDenver のチームはコンテンツの大部分がイーサリアムに沿ったものであると指摘しました。最終的な効果として、相互運用性が中心的なテーマとなり、スポンサーは自社のプラットフォームをイーサリアムユニバースの補完的な拡張機能として位置づけることを目指しました。

スケーリングソリューションとインフラプロバイダーもまた、前面に出ていました。Optimism や Arbitrum のような主要なイーサリアム L2 は、大きなブースを構え、スポンサー付きのチャレンジ (Optimism の報奨金は最大 4 万ドル) を提供し、開発者をロールアップにオンボーディングすることに注力していることを再確認させました。ZkSync や Zircuit (L2 ロールアップアプローチを披露するプロジェクト) のような新規参入者は、ゼロ知識技術を強調し、SDK も提供しました (ZkSync はユーザーフレンドリーなログインのための Smart Sign-On SDK を推進し、ハッカソンチームはこれを熱心に利用しました)。リステーキングとモジュラーブロックチェーンインフラもスポンサーの関心事でした。EigenLayer (リステーキングのパイオニア) は独自の 5 万ドルのトラックを持ち、「Restaking & DeFAI (Decentralized AI)」に関するイベントを共催し、そのセキュリティモデルを AI のトピックと結びつけました。オラクルと相互運用性ミドルウェアは、Chainlink や Wormhole などが代表し、それぞれが自社のプロトコルを使用するための報奨金を発行しました。

特筆すべきは、Web3 のコンシューマーアプリケーションとツールが、ユーザーエクスペリエンスを向上させるためにスポンサーの支援を受けていたことです。Uniswap の存在感 (最大級のブースの一つ) は、単なる見せ物ではありませんでした。この DeFi の巨人は、イベントを利用して、統合された法定通貨のオフランプのような新しいウォレット機能を発表し、DeFi の使いやすさに焦点を当てたスポンサーシップと一致させました。Galxe (Gravity)Lens Protocol のようなアイデンティティとコミュニティに焦点を当てたプラットフォームは、オンチェーンソーシャルとクレデンシャルに関するチャレンジを後援しました。主流のテクノロジー企業も関心を示しました。PayPal と Google Cloud は、暗号資産における決済の未来について議論するために、ステーブルコイン/決済に関するハッピーアワーを主催しました。このスポンサーの組み合わせは、戦略的関心がコアインフラからエンドユーザーアプリケーションまで多岐にわたることを示しており、それらすべてが ETHDenver に集結し、開発者にリソース (API、SDK、助成金) を提供しました。Web3 の専門家にとって、レイヤー 1、レイヤー 2、さらには Web2 のフィンテック企業からの多額のスポンサーシップは、業界がどこに投資しているかを浮き彫りにしています。それは、相互運用性、スケーラビリティ、セキュリティ、そして次世代のユーザーにとって暗号資産を役立つものにすることです。

ハッカソンのハイライト: 革新的なプロジェクトと受賞者

ETHDenver の中心にあるのは、伝説的な #BUIDLathon です。これは、数千人の開発者が参加する世界最大のブロックチェーンハックフェストに成長したハッカソンです。2025 年、このハッカソンはイノベーションを促進するために、記録的な 1,043,333 ドル以上の賞金プールを提供しました。60 以上のスポンサーからの報奨金は、主要な Web3 ドメインをターゲットとし、コンペティションを次のようなトラックに分けました: DeFi & AINFT & ゲーミングインフラ & スケーラビリティプライバシー & セキュリティ、そして DAO & 公共財。このトラック設計自体が示唆に富んでいます。例えば、DeFi と AI を組み合わせることは、AI 駆動の金融アプリケーションの出現を示唆しており、専用の公共財トラックは、再生金融とオープンソース開発へのコミュニティの焦点を再確認するものです。各トラックは、自社の技術の最良の使用例に対して賞金を提供するスポンサーによって支援されました (例: DeFi のための Polkadot と Uniswap、相互運用性のための Chainlink、スケーリングソリューションのための Optimism)。主催者は審査にクアドラティック・ボーティングを導入し、コミュニティがトッププロジェクトを浮かび上がらせるのを助け、最終的な受賞者は専門家の審査員によって選ばれました。

その結果、最先端のプロジェクトが多数生まれ、その多くが Web3 の未来を垣間見せてくれます。注目すべき受賞者には、オンチェーンマルチプレイヤーゲーム**「0xCaliber」がありました。これは、古典的な FPS ゲーム内でリアルタイムのブロックチェーンインタラクションを実行する一人称シューティングゲームです。0xCaliber は、真のオンチェーンゲーミングを実証して審査員を驚かせました。プレイヤーは暗号資産で購入し、オンチェーンの弾丸を「撃ち」、クロスチェーンのトリックを使って戦利品を収集し、現金化します。これらすべてがリアルタイムで行われます。このようなプロジェクトは、Web3 ゲーミングの成熟度 (Unity ゲームエンジンとスマートコントラクトの統合) と、エンターテイメントと暗号経済を融合させる創造性を示しています。もう一つの際立ったハックのカテゴリーは、AI とイーサリアムを融合させたものでした。チームは、Open Agents Alliance の発表に触発され、スマートコントラクトを使用して AI サービスを調整する「エージェント」プラットフォームを構築しました。例えば、あるハッカソンプロジェクトは、AI 駆動のスマートコントラクト監査人 (コントラクトのセキュリティテストケースを自動生成) を統合し、カンファレンスで観察された分散型 AI トレンド**と一致していました。

インフラとツーリングのプロジェクトも目立ちました。一部のチームは、zkSync の Smart Sign-On のようなスポンサーのツールキットを使用して、DApp のためのウォレットレスなログインフローを作成し、アカウント抽象化とユーザーエクスペリエンスに取り組みました。他のチームは、クロスチェーンブリッジやレイヤー 2 の統合に取り組み、相互運用性への開発者の継続的な関心を反映していました。公共財 & DAO トラックでは、いくつかのプロジェクトが現実世界の社会的影響に取り組みました。例えば、ホームレスを支援するための分散型アイデンティティと援助のための DApp (NFT とコミュニティ資金を活用、以前の ReFi ハックを彷彿とさせるアイデア) などです。再生金融 (ReFi) のコンセプト、例えば新しいメカニズムを介して公共財に資金を提供するようなものは、ETHDenver の再生のテーマを反映して、引き続き登場しました。

最終的な受賞者はメインイベントの終わりまでに祝福されましたが、真の価値はイノベーションのパイプラインにありました。400 以上のプロジェクト提出があり、その多くはイベント後も存続します。ETHDenver のハッカソンは、将来のスタートアップを生み出す実績があります (実際、過去の BUIDLathon プロジェクトのいくつかは、自らスポンサーに成長しました)。投資家や技術者にとって、このハッカソンは最先端のアイデアへの窓を提供し、次世代の Web3 スタートアップがオンチェーンゲーミング、AI を注入した DApp、クロスチェーンインフラ、社会的影響をターゲットにしたソリューションなどの分野で出現する可能性を示唆しています。開発者に約 100 万ドルの報奨金が支払われたことで、スポンサーはこれらのイノベーションを育成するために、言葉だけでなく実際に行動で示したことになります。

ネットワーキングイベントと投資家との交流

ETHDenver はコードを書くだけの場ではありません。つながりを作ることも同様に重要です。2025 年、このフェスティバルは、スタートアップ、投資家、コミュニティビルダー向けに調整された公式および非公式のイベントでネットワーキングをさらに強化しました。目玉イベントの一つは、Bufficorn Ventures (BV) Startup Rodeo でした。これは、厳選された 20 のスタートアップがサイエンスフェア形式の展示会で投資家にデモを行う、エネルギッシュなショーケースです。3 月 1 日にメインホールで開催された Startup Rodeo は、ピッチコンテストというよりも「スピードデート」のようだと評されました。創設者たちはテーブルに陣取り、参加しているすべての投資家がアリーナを歩き回りながら、1 対 1 でプロジェクトを売り込みました。この形式により、初期段階のチームでさえ、VC や戦略的パートナー、提携先と有意義な対面時間を確保できました。多くのスタートアップは、ETHDenver に集中している Web3 ファンドの存在を活用し、これを顧客と資金を見つけるための出発点として利用しました。

カンファレンスの最終日には、メインステージで BV BuffiTank Pitchfest が注目を集めました。これは、ETHDenver コミュニティから選ばれた「最も革新的な」初期段階のスタートアップ 10 社が登場する、より伝統的なピッチコンペティションです。これらのチーム (ハッカソンの受賞者とは別) は、トップ VC や業界リーダーのパネルにビジネスモデルを売り込み、称賛と潜在的な投資オファーを競いました。Pitchfest は、ETHDenver がディールフローの創出源としての役割を果たしていることを示していました。これは、特に SporkDAO コミュニティに関連する、*「すでに組織化され…投資、顧客、露出を求めている」*チームを明確にターゲットにしていました。受賞者への報酬は単純な賞金ではなく、Bufficorn Ventures のポートフォリオや他のアクセラレーターコホートに参加するという約束でした。本質的に、ETHDenver は Web3 版のミニ「マネーの虎」を創出し、コミュニティの最高のプロジェクトに投資家の注目を集めました。

これらの公式ショーケース以外にも、1 週間は投資家と創設者の交流会で満載でした。Belong が編集したガイドによると、注目すべきサイドイベントには、2 月 27 日に CertiK Ventures が主催した**「VC と会おう」ハッピーアワー**、3 月 1 日の StarkNet VC & Founders Lounge、さらには**「Pitch & Putt」というゴルフをテーマにしたピッチイベントのようなカジュアルな催しもありました。これらの集まりは、創設者がベンチャーキャピタリストと気軽に交流できるリラックスした環境を提供し、しばしばカンファレンス後のフォローアップミーティングにつながりました。多くの新興 VC ファーム**の存在もパネルで感じられました。例えば、EtherKnight Stage のセッションでは、Reflexive Capital、Reforge VC、Topology、Metalayer、Hash3 のような新しいファンドが、どのトレンドに最も興奮しているかを強調しました。初期の兆候によれば、これらの VC は、分散型ソーシャルメディア、AI、新しいレイヤー 1 インフラなどの分野に熱心でした (各ファンドは、競争の激しい VC 環境で差別化するためにニッチを切り開いています)。

ETHDenver のネットワーキングを活用しようとする専門家にとって、重要な教訓はサイドイベントやターゲットを絞った交流会の価値です。取引やパートナーシップは、ステージ上よりもコーヒーやカクテルを飲みながら生まれることがよくあります。ETHDenver 2025 の無数の投資家向けイベントは、Web3 の資金調達コミュニティが、低迷する市場であっても積極的に才能とアイデアを探していることを示しています。洗練されたデモと明確な価値提案 (しばしばイベントのハッカソンの勢いを活用) を準備してきたスタートアップは、受容的な聴衆を見つけました。一方、投資家はこれらの交流を利用して、開発者コミュニティの動向を測りました。今年の最も優秀なビルダーはどのような問題を解決しているのか?要するに、ETHDenver はネットワーキングが BUIDLing と同じくらい重要であることを再確認させました。それは、偶然の出会いがシード投資につながったり、洞察に満ちた会話が次の大きなコラボレーションの火付け役になったりする場所なのです。

Web3 におけるベンチャーキャピタルのトレンドと投資機会

ETHDenver 2025 を通じて、微妙ながらも重要な物語は、Web3 ベンチャーキャピタル自体の進化する状況でした。より広範な暗号資産市場の浮き沈みにもかかわらず、ETHDenver の投資家は、有望な Web3 プロジェクトに対する強い意欲を示しました。現地の Blockworks の記者たちは、「マクロの逆風にもかかわらず、どれだけ多くのプライベートキャピタルが暗号資産に流れ込み続けているか」を指摘し、最もホットなアイデアのシードステージの評価額はしばしば非常に高額でした。実際、暗号資産ネイティブのファンドから Web3 に手を出す伝統的なテック投資家まで、多数の VC が存在していたことは、ETHDenver が依然としてディールメイキングのハブであることを明確にしました。

VC が議論し、後援していた内容から、新たなテーマ別の焦点を読み取ることができました。AI x 暗号資産のコンテンツ (ハッカソントラック、パネルなど) の普及は、開発者のトレンドであるだけでなく、**「DeFi と AI の出会い」**という結びつきに対するベンチャーの関心を反映しています。多くの投資家は、ベンチャーが後援する AI ハックハウスやサミットが証明するように、ブロックチェーン上で機械学習や自律エージェントを活用するスタートアップに注目しています。同様に、DePIN と現実世界資産 (RWA) のトークン化への強い焦点は、ファンドがブロックチェーンを実体経済の資産や物理デバイスに接続するプロジェクトに機会を見出していることを示しています。専用の RWA Day (2 月 26 日) は、トークン化された資産の未来に関する B2B イベントであり、ベンチャースカウトがその分野で次の Goldfinch や Centrifuge (つまり、現実世界の金融をオンチェーンにもたらすプラットフォーム) を積極的に探していることを示唆しています。

もう一つの観察可能なトレンドは、資金調達モデルの実験の増加でした。前述の ICO 対 VC の議論は、単なるカンファレンスの演劇ではありませんでした。それは、よりコミュニティ中心の資金調達への実際のベンチャーの動きを反映しています。ETHDenver の一部の VC は、ハイブリッドモデル (例: 初期ラウンドにコミュニティを巻き込むベンチャー支援のトークンローンチ) へのオープンな姿勢を示しました。さらに、公共財への資金提供とインパクト投資も議論の対象となりました。ETHDenver の再生の精神に基づき、投資家でさえ、次の DeFi や NFT のブームを追いかけるだけでなく、オープンソースのインフラと開発者を長期的にどのように支援するかについて議論しました。*「未来への資金提供: オンチェーンスタートアップのための進化するモデル」*のようなパネルでは、従来の VC 資金を補完するために、助成金、DAO の財務投資、クアドラティック・ファンディングなどの代替案が探求されました。これは、プロジェクトが資本化される方法が成熟していることを示しています。ベンチャーキャピタル、エコシステムファンド、コミュニティ資金が連携して機能する混合モデルです。

機会の観点から、Web3 の専門家と投資家は、ETHDenver のベンチャーダイナミクスからいくつかの実用的なインサイトを得ることができます。(1) インフラは依然として王様である – 多くの VC は、業界のバックボーンとして、つるはしとシャベル (L2 スケーリング、セキュリティ、開発ツール) が依然として価値の高い投資であると表明しました。(2) AI/ブロックチェーンの融合や DePIN のような新しい垂直分野は、新たな投資フロンティアである – これらの分野で最新情報を入手したり、そこでスタートアップを見つけたりすることは、やりがいのあることかもしれません。(3) コミュニティ主導のプロジェクトや公共財は、新しい資金調達方法を見出すかもしれない – 賢明な投資家は、これらを持続的に支援する方法を見つけ出しています (例えば、分散型ガバナンスや共有所有権を可能にするプロトコルへの投資)。全体として、ETHDenver 2025 は、Web3 のベンチャー環境は競争が激しいものの、確信に満ちていることを示しました。DeFi、NFT、ゲーミングなどの未来を構築する人々には資本が利用可能であり、弱気市場で生まれたアイデアでさえ、適切なトレンドをターゲットにすれば支援を見つけることができます。

開発者向けリソース、ツールキット、サポートシステム

ETHDenver は常にビルダー中心であり、2025 年も例外ではありませんでした。Web3 開発者向けの豊富なリソースとサポートを備えたオープンソース開発者カンファレンスとしても機能しました。BUIDLWeek 中、参加者は様々な分野にわたるライブワークショップ、技術ブートキャンプ、ミニサミットにアクセスできました。例えば、開発者は Bleeding Edge Tech Summit に参加して最新のプロトコルを試したり、On-Chain Legal Summit に立ち寄ってコンプライアンスに準拠したスマートコントラクト開発について学んだりすることができました。主要なスポンサーやブロックチェーンチームは、実践的なセッションを実施しました。Polkadot のチームは、パラチェーンを立ち上げるためのハッカーハウスやワークショップを主催しました。EigenLayer は、開発者にそのセキュリティレイヤーの活用方法を教えるための「リステーキングブートキャンプ」を主導しました。Polygon と zkSync は、ゼロ知識技術でスケーラブルな DApp を構築するためのチュートリアルを提供しました。これらのセッションは、コアエンジニアとの貴重な対面時間を提供し、開発者が統合に関する支援を受け、新しいツールキットを直接学ぶことを可能にしました。

メインイベント期間中、会場には専用の #BUIDLHub とメーカースペースが設けられ、ビルダーは協力的な環境でコーディングし、メンターにアクセスすることができました。ETHDenver の主催者は、詳細な BUIDLer ガイドを公開し、現場でのメンターシッププログラムを促進しました (スポンサーからの専門家が技術的な問題でチームの障害を取り除くために待機していました)。開発者向けツール企業も多数参加していました。Alchemy や Infura (ブロックチェーン API) から Hardhat や Foundry (スマートコントラクト開発) まで。多くがイベントで新しいリリースやベータツールを発表しました。例えば、MetaMask のチームは、ガス代の抽象化と DApp 開発者向けの改善された SDK を特徴とする主要なウォレットアップデートをプレビューし、アプリがユーザーのためにガス代をカバーする方法を簡素化することを目指しました。いくつかのプロジェクトはSDK やオープンソースライブラリをローンチしました。Coinbase の AI エージェント用 「Agent Kit」 と共同の Open Agents Alliance ツールキットが紹介され、Story.xyz は独自のハッカソンイベント中にオンチェーン知的財産ライセンスのための Story SDK を宣伝しました。

報奨金とハッカーサポートが、開発者体験をさらに向上させました。62 のスポンサーから 180 以上の報奨金が提供され、ハッカーは事実上、特定の課題のメニューから選択することができ、それぞれにドキュメント、オフィスアワー、時には特注のサンドボックスが付属していました。例えば、Optimism の報奨金は、開発者に最新の Bedrock オペコードを使用するよう挑戦し (彼らのエンジニアが支援のために待機)、Uniswap のチャレンジは、オフランプ統合のための新しい API へのアクセスを提供しました。公式の ETHDenver モバイルアプリや Discord チャンネルのような調整と学習のためのツールは、開発者にスケジュールの変更、サイドクエスト、さらには ETHDenver の求人掲示板を介した求人情報を知らせ続けました。

注目すべきリソースの一つは、クアドラティック・ファンディングの実験とオンチェーン投票への重点でした。ETHDenver はハッカソンの審査にクアドラティック・ボーティングシステムを統合し、多くの開発者にその概念を紹介しました。さらに、Gitcoin や他の公共財グループの存在は、開発者がイベント後に自分たちのプロジェクトのための助成金について学ぶことができることを意味しました。要するに、ETHDenver 2025 は、開発者に最先端のツール (SDK、API)専門家の指導、そしてプロジェクトを継続するためのフォローアップサポートを提供しました。業界の専門家にとって、これは教育、ツール、資金提供を通じて開発者コミュニティを育成することが重要であることの再認識です。ハイライトされたリソースの多く (新しい SDK や改善された開発環境など) は現在公開されており、世界中のチームに ETHDenver で共有されたものの肩の上に立って構築する機会を提供しています。

ETHDenver 体験を豊かにするサイドイベントとコミュニティの集まり

ETHDenver を真に際立たせているのは、そのフェスティバルのような雰囲気です。公式・非公式を問わず、数十のサイドイベントがメインカンファレンスの周りで豊かな経験のタペストリーを創り出しました。2025 年、公式コンテンツが開催された National Western Complex を超えて、街全体がミートアップ、パーティー、ハッカソン、コミュニティの集まりで賑わいました。これらのサイドイベントは、しばしばスポンサーや地元の Web3 グループによって主催され、より広範な ETHDenver 体験に大きく貢献しました。

公式面では、ETHDenver 自身のスケジュールにテーマ別のミニイベントが含まれていました。会場にはNFT アートギャラリー、ブロックチェーンアーケード、DJ チルドーム、さらにはリラックスするための禅ゾーンのようなゾーンがありました。主催者はまた、オープニングやクロージングパーティーなどの夜のイベントも開催しました。例えば、Story Protocol による 2 月 26 日の**「Crack’d House」非公式オープニングパーティーは、芸術的なパフォーマンスとハッカソンの授賞式を融合させました。しかし、真に増殖したのはコミュニティ主導のサイドイベント**でした。イベントガイドによると、ETHDenver の Luma カレンダーでは 100 以上のサイドイベントが追跡されていました。

いくつかの例が、これらの集まりの多様性を示しています:

  • 技術サミット & ハッカーハウス: ElizaOS と EigenLayer は、AI+Web3 愛好家のために 9 日間の Vault AI Agent Hacker House レジデンシーを実施しました。StarkNet のチームは、数日間のハッカーハウスを主催し、その ZK ロールアップ上のプロジェクトのためのデモナイトで締めくくりました。これらは、開発者がメインのハッカソンの外で特定の技術スタックで協力するための集中した環境を提供しました。
  • ネットワーキングミキサー & パーティー: 毎晩、選択肢のリストが提供されました。2 月 27 日の Builder Nights Denver は、MetaMask、Linea、EigenLayer、Wormhole などがスポンサーとなり、イノベーターたちが食事や飲み物を片手にカジュアルなトークを交わすために集まりました。Belong が支援する 3VO’s Mischief Minded Club Takeover は、コミュニティトークン化のリーダーたちのためのハイレベルなネットワーキングパーティーでした。純粋に楽しみたい人々のために、BEMO Rave (Berachain などと共に) や rAIve the Night (AI をテーマにしたレイブ) は、暗号資産の群衆を夜遅くまで踊らせ続け、音楽、アート、暗号文化を融合させました。
  • 特定関心事の集まり: ニッチなコミュニティも自分たちの場所を見つけました。Meme Combat は、純粋にミーム愛好家が暗号資産におけるミームの役割を祝うためのイベントでした。House of Ink は、NFT アーティストやコレクターを対象とし、没入型アート会場 (Meow Wolf Denver) をデジタルアートのショーケースに変えました。2 月 26 日の SheFi Summit は、World of Women や Celo のようなグループの支援を受け、Web3 の女性たちが講演やネットワーキングのために集まり、多様性と包括性へのコミットメントを強調しました。
  • 投資家 & コンテンツクリエーターのミートアップ: VC イベントについてはすでに触れましたが、さらに、2 月 28 日の KOL (キーオピニオンリーダー) Gathering では、暗号資産のインフルエンサーやコンテンツクリエーターがエンゲージメント戦略について議論し、ソーシャルメディアと暗号コミュニティの交差点を示しました。

重要なことに、これらのサイドイベントは単なるエンターテイメントではありませんでした。それらはしばしば、それ自体がアイデアと関係性のインキュベーターとして機能しました。例えば、Tokenized Capital Summit 2025 は、オンチェーンでの資本市場の未来を深く掘り下げ、参加したフィンテック起業家とブロックチェーン開発者の間のコラボレーションを 촉発した可能性があります。On-Chain Gaming Hacker House は、ゲーム開発者がベストプラクティスを共有する場を提供し、ブロックチェーンゲームプロジェクト間の相互作用につながるかもしれません。

大規模なカンファレンスに参加する専門家にとって、ETHDenver のモデルは、価値はメインステージ上と同じくらい、その外にもあることを強調しています。非公式なプログラミングの幅広さにより、参加者は自分の経験を調整することができました。目標が投資家に会うこと、新しいスキルを学ぶこと、共同創設者を見つけること、あるいは単にリラックスして仲間意識を築くことであっても、そのためのイベントがありました。多くのベテランは新参者にこうアドバイスします。「講演に参加するだけでなく、ミートアップに行って挨拶をしなさい。」Web3 のようなコミュニティ主導の空間では、これらの人間的なつながりが、しばしば DAO のコラボレーション、投資取引、あるいは少なくとも、大陸を越えて続く友情に変わります。ETHDenver 2025 の活気に満ちたサイドシーンは、コアカンファレンスを増幅させ、デンバーでの 1 週間を多次元的なイノベーションのフェスティバルに変えました。

主要な教訓と実用的なインサイト

ETHDenver 2025 は、イノベーションとコラボレーションが花開いた Web3 業界を実証しました。この分野の専門家にとって、この詳細な分析からいくつかの明確な教訓と行動項目が浮かび上がります:

  • トレンドの多様化: このイベントは、Web3 がもはや一枚岩ではないことを明らかにしました。AI 統合、DePIN、RWA トークン化のような新たな領域は、DeFi や NFT と同じくらい顕著です。実用的なインサイト: 常に情報を入手し、適応性を保つこと。 リーダーは、次の成長の波に乗るために、これらの台頭する垂直分野に研究開発や投資を割り当てるべきです (例: AI が自社の DApp をどのように強化できるか、または現実世界の資産が DeFi プラットフォームにどのように統合されるかを調査する)。
  • クロスチェーンが未来: 主要な非イーサリアムプロトコルが積極的に参加することで、エコシステム間の壁は低くなっています。相互運用性とマルチチェーンのユーザーエクスペリエンスは、MetaMask が Bitcoin/Solana のサポートを追加したことから、Polkadot や Cosmos ベースのチェーンがイーサリアム開発者を惹きつけたことまで、大きな注目を集めました。実用的なインサイト: マルチチェーンの世界を前提に設計すること。 プロジェクトは、他のチェーンの流動性やユーザーを活用する統合やブリッジを検討すべきであり、専門家は孤立するのではなく、コミュニティを越えたパートナーシップを求めるかもしれません。
  • コミュニティ & 公共財の重要性: 「再生者の年」というテーマは単なる美辞麗句ではありませんでした。それは、公共財への資金提供に関する議論、ハックのためのクアドラティック・ボーティング、SheFi Summit のようなイベントを通じて、コンテンツに浸透していました。倫理的で持続可能な開発とコミュニティの所有権は、イーサリアムの精神における重要な価値です。実用的なインサイト: 再生の原則を取り入れること。 オープンソースイニシアチブを支援すること、公正なローンチメカニズムを使用すること、またはビジネスモデルをコミュニティの成長と一致させることを通じて、Web3 企業は純粋に収奪的でないことで、好意と長寿を得ることができます。
  • 投資家心理 – 慎重かつ大胆: 弱気市場の噂にもかかわらず、ETHDenver は VC が積極的にスカウトしており、Web3 の次の章に大きく賭ける意欲があることを示しました。しかし、彼らはまた、投資方法を再考しています (例: より戦略的に、プロダクトマーケットフィットに対する監視を強化し、コミュニティ資金調達へのオープンな姿勢)。実用的なインサイト: スタートアップであれば、ファンダメンタルズとストーリーテリングに集中すること。 際立っていたプロジェクトは、明確なユースケースと、しばしば動作するプロトタイプ (週末に構築されたものも) を持っていました。投資家であれば、カンファレンスはインフラ (L2、セキュリティ、開発ツール) が依然として優先度が高いことを確認しましたが、AI、ゲーミング、ソーシャルにおけるテーゼを通じて差別化することで、ファンドを最前線に位置づけることができます。
  • 開発者体験の向上: ETHDenver は、アカウント抽象化ツールからオンチェーン AI ライブラリまで、Web3 開発の障壁を下げる多くの新しいツールキット、SDK、フレームワークを浮き彫りにしました。実用的なインサイト: これらのリソースを活用すること。 チームは、発表された最新の開発ツールを試すべきです (例: より簡単なログインのために zkSync Smart SSO を試す、または AI プロジェクトのために Open Agents Alliance のリソースを使用する) เพื่อ開発を加速し、競争の先を行くために。さらに、企業は才能とアイデアを発掘する方法として、ハッカソンやオープンな開発者フォーラムに引き続き関与すべきです。ETHDenver がハッカーを創業者に変えることに成功したことは、そのモデルの証明です。
  • サイドイベントの力: 最後に、サイドイベントの爆発的な増加は、ネットワーキングにおける重要な教訓を教えてくれました – 機会はしばしばカジュアルな場で現れます。ハッピーアワーでの偶然の出会いや、小さなミートアップでの共通の関心が、キャリアを決定づけるつながりを生み出すことがあります。実用的なインサイト: 業界のカンファレンスに参加する人は、公式のアジェンダを超えて計画すること。 自分の目標に合ったサイドイベント (投資家に会う、ニッチなスキルを学ぶ、人材を募集するなど) を特定し、積極的に関与すること。デンバーで見たように、1 週間のエコシステムに完全に没頭した人々は、知識だけでなく、新しいパートナー、採用者、友人を得て帰りました。

結論として、ETHDenver 2025 は Web3 業界の勢いの縮図でした – 最先端の技術談義、情熱的なコミュニティのエネルギー、戦略的な投資の動き、そして真剣なイノベーションと楽しさを融合させた文化のブレンドです。専門家は、このイベントからのトレンドとインサイトを、Web3 が向かう先のロードマップとして見るべきです。実用的な次のステップは、これらの学び (AI への新たな焦点、L2 チームとのつながり、ハッカソンプロジェクトからのインスピレーションなど) を戦略に変換することです。ETHDenver のお気に入りのモットーの精神に基づき、これらのインサイトを基に #BUIDL し、デンバーに集まった多くの人々が思い描いた分散型の未来を形作る手助けをする時です。

Altera.al は採用中:デジタルヒューマン開発のパイオニアに参加しよう($600K-1M 報酬)

· 約 3 分

Altera.al の変革的な機会をご紹介できることを嬉しく思います。同社はデジタルヒューマンの開発で画期的な成果を上げた AI スタートアップで、最近 MIT Technology Review に取り上げられました。AI エージェントが人間らしい行動を学習し、コミュニティを形成し、デジタル空間で意味のある相互作用を行えるようになるという、画期的な研究を実証しています。

Altera.al:デジタルヒューマン開発の最前線に参加し、$600K-1M の報酬を得よう

Altera.al について

MIT の計算神経科学助教を辞めてこのビジョンに挑んだロバート・ヤンが創業。A16Z やエリック・シュミット氏の新興テック VC など、権威ある投資家から 1,100 万ドル以上の資金調達に成功しています。最近の Project Sid デモでは、AI エージェントが自発的に専門的役割を持ち、社会的つながりを形成し、Minecraft 内で文化システムさえ構築する様子が示されました。これは、スケールで協働できる真に自律的な AI エージェントを創出するという目標に向けた重要な一歩です。

今が参加の絶好のタイミングである理由

Altera.al は、人間の根本的な特性を備えた機械の開発というミッションで、重要な技術的ブレークスルーを達成しました。従来の AI 開発を超えて、以下のようなデジタル存在を創り出しています。

  • コミュニティと社会階層の形成
  • 専門的役割と責任の開発
  • 文化的パターンの創造と拡散
  • デジタル空間で人間と意味のある相互作用

求める人材

最近のブレークスルーに続き、Altera.al はチームを拡大中です。以下の分野で活躍できる方に、$600,000 から $1,000,000 の報酬パッケージを提供します。

  • AI エージェント研究のエキスパート
  • 以下の領域で高い個人貢献力を持つ方
    • 分散システム
    • セキュリティ
    • オペレーティングシステム

応募方法

この画期的な旅に参加したい方は、直接キャリアページからご応募ください: https://jobs.ashbyhq.com/altera.al

デジタルヒューマン開発の未来へ

AI と人間行動モデリングの交差点で、すでに顕著な成果を上げているチームと共に働くユニークな機会です。AI と人間‑機械相互作用の可能性を押し広げる情熱がある方は、Altera.al が次なる冒険の舞台になるでしょう。


最新のテック・ブロックチェーン分野の画期的な機会については、Twitter または Discord コミュニティでフォローしてください。

本投稿は、イノベーションを支援し、テック業界における変革的な機会と才能を結びつけるという当社の継続的なコミットメントの一環です。

A16ZのCrypto 2025展望:次のインターネットを再構築するかもしれない12のアイデア

· 約 9 分

毎年、a16z は私たちの未来を形作るテクノロジーについて大胆な予測を発表しています。今回は、暗号チームがブロックチェーン、AI、そして高度なガバナンス実験が衝突する 2025 年の鮮やかなビジョンを描きました。

以下に主要な洞察を要約し、コメントを付けました。変化を促す大きなレバーと、潜在的な障壁に焦点を当てています。テックビルダー、投資家、あるいは次のインターネット波に興味がある方はぜひご一読ください。

1. AI と暗号ウォレットの出会い

重要な洞察: AI モデルは「背景の NPC」から「主役」へと変わり、オンライン(そして場合によっては物理的)経済で独立して行動します。つまり、AI も自分専用の暗号ウォレットを必要とします。

  • 意味すること: AI が単に回答を出すだけでなく、デジタル資産を保有・支出・投資し、人間オーナーの代わり、あるいは完全に自律的に取引できるようになる。
  • 潜在的なリターン: 高効率な「エージェント AI」はサプライチェーン調整、データ管理、アルゴリズム取引などで企業を支援できる。
  • 注意点: AI が本当に自律的で、人間に裏で操作されていないことをどう保証するか。TEE(信頼実行環境)は技術的保証を提供できるが、「ウォレットを持つロボット」への信頼は一朝一夕には築けない。

2. 分散型自律チャットボット(DAC)の台頭

重要な洞察: TEE 内で自律的に動作するチャットボットは、鍵管理、SNS への投稿、フォロワー獲得、収益化までを人間の介入なしで行える。

  • 意味すること: 任意の個人に黙らせられない AI インフルエンサー。文字通り自分自身を制御している。
  • 潜在的なリターン: コンテンツクリエイターが個人ではなく、自己統治型アルゴリズムとして数百万(あるいは数十億)ドルの評価を受ける世界の先駆け。
  • 注意点: AI が法令違反をした場合の責任は誰にあるのか。コードだけが存在する「実体」の規制は非常に難しい。

3. 本人性証明(Proof of Personhood)の必須化

重要な洞察: AI が超リアルな偽造コンテンツを安価に生成できる時代、オンラインで本物の人間とやり取りしているかを確認する手段が必要になる。プライバシー保護型のユニーク ID が鍵となる。

  • 意味すること: すべてのユーザーに認証済みの「人間スタンプ」が付与される可能性。個人データを犠牲にしないことが前提。
  • 潜在的なリターン: スパム・詐欺・ボット軍団の激減。信頼性の高いソーシャルネットワークやコミュニティプラットフォームの基盤が整う。
  • 注意点: 採用率が最大の壁。最良の本人性証明でも、悪意あるアクターが追い抜く前に広範な受容が必要。

4. 予測市場から情報集約への拡張

重要な洞察: 2024 年の選挙予測市場は話題になったが、a16z はそれ以上のトレンドを見ている。ブロックチェーンを使って真実を公開・集約する新手法が、ガバナンス、金融、コミュニティ意思決定に応用される。

  • 意味すること: 分散型インセンティブメカニズムが正直なインプットやデータ提供を報酬化。ローカルなセンサーネットワークからグローバルなサプライチェーンまで、あらゆる領域に「真実市場」が誕生するかもしれない。
  • 潜在的なリターン: 社会全体のデータ層が透明化され、ゲーム化しにくくなる。
  • 注意点: 十分な流動性とユーザー参加が課題。ニッチな質問では「予測プール」の規模が小さく、意味のあるシグナルが得られにくい。

5. ステーブルコインのエンタープライズ化

重要な洞察: ステーブルコインはすでにデジタルドルの最安搬送手段だが、大企業はまだ本格導入していない ― まだ

  • 意味すること: 中小企業や高頻度取引業者は、クレジットカード手数料を削減できることに気付くだろう。年商数十億ドル規模の企業が同様に採用すれば、利益率が約 2% 向上する可能性がある。
  • 潜在的なリターン: 迅速で低コストな国際決済、ステーブルコインを基盤とした新たな金融商品群の誕生。
  • 注意点: 企業は詐欺防止、本人確認、返金処理といった、従来はカード会社が担っていた機能を自前で構築する必要がある。

6. ブロックチェーン上の国債

重要な洞察: 政府がオンチェーン国債を検討すれば、中央銀行デジタル通貨(CBDC)とは異なるプライバシー問題を抱えない金利付デジタル資産が生まれる。

  • 意味すること: オンチェーン国債は DeFi における高品質担保として機能し、主権債務が分散型貸付プロトコルとシームレスに統合できる。
  • 潜在的なリターン: 透明性向上、発行コスト削減の可能性、より民主的な債券市場の実現。
  • 注意点: 規制当局の懐疑心と、既存の大手金融機関の慣性。レガシーのクリアリングシステムは簡単には消えない。

7. 『DUNA』― DAO の法的基盤

重要な洞察: ワイオミング州は「分散型非法人非営利協会(DUNA)」という新カテゴリーを創設し、米国における DAO の法的地位を確立しようとしている。

  • 意味すること: DAO は資産保有、契約締結、トークン保有者の責任限定が可能になる。これにより、主流の商取引や実務活動への参入障壁が下がる。
  • 潜在的なリターン: 他州がワイオミングに続けば(LLC がそうだったように)DAO は普通の事業体として扱われるようになる。
  • 注意点: DAO が実際に「何をするのか」についての世間認識はまだ曖昧。実社会に利益をもたらす成功事例が求められる。

8. リアルワールドでのリキッド・デモクラシー

重要な洞察: ブロックチェーンベースのガバナンス実験は、オンライン DAO だけでなく地方選挙へも拡大できる。投票者は投票権を委任したり、直接投票したりできる ― 「リキッド・デモクラシー」。

  • 意味すること: 柔軟な代表制。特定課題だけ投票するか、信頼できる人物に委任できる。
  • 潜在的なリターン: 市民参加の活性化と、動的な政策決定プロセス。
  • 注意点: セキュリティリスク、技術リテラシー、そしてブロックチェーンと公的選挙の組み合わせに対する一般的な懐疑心。

9. 既存インフラの活用(再発明の回避)

重要な洞察: スタートアップはしばしばコンセンサスプロトコルやプログラミング言語といった基盤技術を再発明しがちだが、2025 年には既製コンポーネントの採用が増えるだろう。

  • 意味すること: 市場投入までのスピードが上がり、システムの信頼性が向上し、コンポジション性も高まる。
  • 潜在的なリターン: ゼロからブロックチェーンを構築する時間が削減され、ユーザー課題の解決に注力できる。
  • 注意点: パフォーマンス向上を狙って過度に特殊化すると、開発者にとってのオーバーヘッドが増えるリスクがある。

10. ユーザー体験優先、インフラは後回し

重要な洞察: 暗号は「配線を隠す」必要がある。メール送信に SMTP を学ばせないのと同様に、ユーザーに EIP やロールアップを学ばせるべきではない。

  • 意味すること: プロダクトチームは優れたユーザー体験を実現できる技術基盤を選択し、逆に技術が体験を決めるのではなくなる。
  • 潜在的なリターン: ユーザーオンボーディングが大幅に改善し、専門用語やフリクションが減少。
  • 注意点: 「作ってみれば来る」戦略は、体験が本当に優れていなければ機能しない。プライベートキー管理や暗号用語の暗記を強要され続ける限り、ユーザーは離脱する。

11. 暗号独自のアプリストアの出現

重要な洞察: Worldcoin の World App マーケットプレイスや Solana の dApp Store など、暗号フレンドリーなプラットフォームは Apple や Google のゲートキーパーから解放された配布・発見の場を提供する。

  • 意味すること: 分散型アプリを構築すれば、突然のプラットフォーム停止を恐れずにユーザーにリーチできる。
  • 潜在的なリターン: 数日で数万(あるいは数十万)ユーザーが dApp に出会える可能性。集中型アプリストアの海に埋もれる心配が減る。
  • 注意点: これらのストアが Apple・Google に匹敵するユーザーベースと勢いを持つかが鍵。ハードウェア(暗号専用スマホ)との連携が助けになるかもしれない。

12. 「非伝統的」資産のトークン化

重要な洞察: ブロックチェーンインフラが成熟し手数料が下がるにつれ、生体データから実物の珍品まで、あらゆるものをトークン化するハードルが低くなる。

  • 意味すること: 「ロングテール」的なユニーク資産が分割所有・グローバル取引可能になる。個人データを本人の同意のもとで収益化できる可能性も。
  • 潜在的なリターン: これまで「ロックされた」資産に対する巨大な新市場と、AI が活用できる新たなデータプールの創出。
  • 注意点: プライバシーリスクと倫理的ジレンマ。イノベーションが社会的に受容されるかは、慎重なガバナンス次第。

0G の分散型 AI オペレーティングシステムは、真に大規模な AI のオンチェーン化を推進できるか?

· 約 17 分

背景

AI セクターは、ChatGPTERNIE Bot のような大規模言語モデルに触発され、驚異的な上昇を続けています。しかし、AI は単なるチャットボットや生成テキストに留まりません。AlphaGo の囲碁の勝利から、MidJourney のような画像生成ツールまで、あらゆるものが含まれます。多くの開発者が追い求める究極の目標は、汎用人工知能、すなわち AGI (Artificial General Intelligence) です。これは、人間の知能と同様に学習、知覚、意思決定、および複雑な実行が可能な AI 「エージェント」と通称されます。

しかし、AI および AI エージェントのアプリケーションは、極めて データ集約的 です。これらは、トレーニングと推論のために膨大なデータセットに依存しています。従来、このデータは中央集権的なインフラストラクチャに保存され、処理されてきました。ブロックチェーンの出現により、DeAI (Decentralized AI: 分散型 AI) として知られる新しいアプローチが登場しました。DeAI は、データの保存、共有、検証に分散型ネットワークを活用することで、従来の中央集権的な AI ソリューションの欠点を克服しようとしています。

0G Labs は、この DeAI インフラストラクチャの展望において際立っており、単に 0G と呼ばれる 分散型 AI オペレーティングシステム の構築を目指しています。

0G Labs とは?

従来のコンピューティングにおいて、オペレーティングシステム (OS) はハードウェアとソフトウェアのリソースを管理します。Microsoft Windows、Linux、macOS、iOS、Android などを思い浮かべてください。OS は基盤となるハードウェアの複雑さを抽象化し、エンドユーザーと開発者の双方がコンピュータと対話しやすくします。

同様に、0G OS は Web3 において次のような役割を果たすことを目指しています:

  • 分散型ストレージ、計算、およびデータ可用性を 管理 する。
  • オンチェーン AI アプリケーションのデプロイを 簡素化 する。

なぜ分散化が必要なのか? 従来の AI システムは、中央集権的なサイロにデータを保存・処理するため、データの透明性、ユーザーのプライバシー、データ提供者への公正な報酬に関する懸念が生じます。0G のアプローチでは、分散型ストレージ、暗号学的証明、およびオープンなインセンティブモデルを使用して、これらのリスクを軽減します。

「0G」 という名前は 「Zero Gravity (ゼロ・グラビティ)」 の略です。チームは、データの交換と計算が「重さを感じさせない」環境を構想しています。AI のトレーニングから推論、データ可用性に至るまで、すべてがオンチェーンでシームレスに行われます。

2024 年 10 月に正式に設立された 0G Foundation がこのイニシアチブを推進しています。その使命は、AI を公共財(誰もがアクセス可能で、検証可能で、オープンなもの)にすることです。

0G オペレーティングシステムの主要コンポーネント

根本的に、0G はオンチェーン AI アプリケーションをサポートするために特別に設計されたモジュール型アーキテクチャです。その 3 つの主要な柱 は以下の通りです:

  1. 0G Storage – 分散型ストレージネットワーク。
  2. 0G DA (Data Availability) – データの整合性を確保する特化型データ可用性レイヤー。
  3. 0G Compute Network – AI 推論(および将来的にはトレーニング)のための分散型計算リソース管理と決済。

これらの柱は、コンセンサスと決済を担当する 0G Chain と呼ばれる Layer1 ネットワーク の傘下で連携して動作します。

0G ホワイトペーパー (「0G: Towards Data Availability 2.0」) によると、0G Storage と 0G DA レイヤーの両方が 0G Chain の上に構築されています。開発者は複数のカスタム PoS コンセンサスネットワーク を立ち上げることができ、それぞれが 0G DA および 0G Storage フレームワークの一部として機能します。このモジュール型アプローチは、システム負荷が増大するにつれて、0G が動的に新しいバリデータセットや特化型ノードを追加して拡張できることを意味します。

0G Storage

0G Storage は、大規模データ向けに構築された分散型ストレージシステムです。ユーザーデータの保存に対して組み込みのインセンティブを持つ分散ノードを使用します。重要なのは、消失訂正符号 (Erasure Coding: EC) を使用してデータを 小さく冗長な「チャンク」 に分割し、これらのチャンクを異なるストレージノードに分散させることです。ノードが故障しても、冗長なチャンクからデータを再構築できます。

サポートされるデータ型

0G Storage は、構造化データ非構造化データ の両方に対応しています。

  1. 構造化データKV(キーバリュー)レイヤー に保存され、動的で頻繁に更新される情報(データベース、共同編集ドキュメントなど)に適しています。
  2. 非構造化データLog(ログ)レイヤー に保存され、データエントリを時系列で追加します。このレイヤーは、大規模なアペンドオンリー(追記専用)のワークロードに最適化されたファイルシステムに似ています。

Log レイヤーの上に KV レイヤーを重ねることで、0G Storage は大規模なモデルの重み(非構造化)から、動的なユーザーベースのデータやリアルタイムのメトリクス(構造化)まで、多様な AI アプリケーションのニーズに応えることができます。

PoRA コンセンサス

PoRA (Proof of Random Access: プルーフ・オブ・ランダムアクセス) は、ストレージノードが実際に保存していると主張するチャンクを保持していることを保証します。仕組みは以下の通りです:

  • ストレージマイナーは、保存している特定のランダムなデータチャンクの暗号ハッシュを生成するよう、定期的に チャレンジ されます。
  • マイナーは、ローカルに保持しているデータのコピーから派生した有効なハッシュ(PoW に似たパズル解き)を生成して応答しなければなりません。

公平な競争環境を整えるため、システムはマイニング競争を 8 TB のセグメントに制限しています。大規模なマイナーはハードウェアを複数の 8 TB パーティションに分割でき、小規模なマイナーは単一の 8 TB の境界内で競争します。

インセンティブ設計

0G Storage のデータは 8 GB の「価格設定セグメント」に分割されます。各セグメントには 寄付プール報酬プール の両方があります。データを保存したいユーザーは 0G トークン (ZG) で手数料を支払い、それがノードの報酬の一部に充てられます。

  • 基本報酬: ストレージノードが有効な PoRA 証明を提出すると、そのセグメントの即時ブロック報酬を受け取ります。
  • 継続報酬: 時間の経過とともに、寄付プールから一定割合(現在は年間約 4%)が報酬プールに放出され、ノードがデータを 恒久的 に保存するインセンティブとなります。特定のセグメントを保存するノードが少ないほど、各ノードが獲得できるシェアは大きくなります。

ユーザーは恒久ストレージのために 一度だけ 支払いますが、システム最小値以上の寄付手数料を設定する必要があります。寄付額が高いほど、マイナーがユーザーのデータを複製する可能性が高くなります。

ロイヤリティメカニズム: 0G Storage には「ロイヤリティ」または「データ共有」メカニズムも含まれています。初期のストレージプロバイダーは、各データチャンクの「ロイヤリティ記録」を作成します。新しいノードが同じチャンクを保存したい場合、元のノードがそれを共有できます。新しいノードが後に(PoRA を通じて)ストレージを証明すると、元のデータプロバイダーは継続的なロイヤリティを受け取ります。データが広く複製されるほど、初期プロバイダーの報酬総額は高くなります。

Filecoin および Arweave との比較

共通点:

  • 3 つとも分散型データストレージにインセンティブを与えます。
  • 0G Storage と Arweave の両方が 恒久的 なストレージを目指しています。
  • データのチャンク化と冗長化は標準的なアプローチです。

主な違い:

  • ネイティブ統合: 0G Storage は独立したブロックチェーンではなく、0G Chain と直接統合されており、主に AI 中心のリユースケースをサポートします。
  • 構造化データ: 0G は非構造化データと並んで KV ベースの構造化データをサポートしています。これは、頻繁な読み書きアクセスを必要とする多くの AI ワークロードにとって重要です。
  • コスト: 0G は恒久ストレージで 10〜11ドル/TB を謳っており、Arweave よりも安価であると報告されています。
  • パフォーマンス重視: Filecoin や Arweave が汎用的な分散型ストレージネットワークであるのに対し、0G は AI のスループット要求を満たすように特別に設計されています。

0G DA (Data Availability Layer)

データ可用性 は、すべてのネットワーク参加者がトランザクションデータを完全に検証し、取得できることを保証します。データが不完全であったり隠されたりすると、ブロックチェーンの信頼の前提が崩れます。

0G システムでは、データはチャンク化され、オフチェーンに保存されます。システムはこれらのデータチャンクのマークルルートを記録し、DA ノードはこれらのチャンクを サンプリング して、それらがマークルルートおよび消失訂正符号のコミットメントと一致することを確認しなければなりません。そのとき初めてデータは「利用可能」と見なされ、チェーンのコンセンサス状態に追加されます。

DA ノードの選択とインセンティブ

  • DA ノードは参加するために ZG を ステーキング する必要があります。
  • ノードは検証可能なランダム関数 (VRF) を介してランダムに クォーラム にグループ化されます。
  • 各ノードはデータの サブセット のみを検証します。クォーラムの 2/3 がデータを利用可能かつ正確であると確認すると、証明に署名し、その証明が統合されて 0G コンセンサスネットワークに提出されます。
  • 報酬の分配も定期的なサンプリングを通じて行われます。ランダムにサンプリングされたチャンクを保存しているノードのみが、そのラウンドの報酬の対象となります。

Celestia および EigenLayer との比較

0G DA は Celestia (データ可用性サンプリング) や EigenLayer (リステーキング) から着想を得ていますが、より 高いスループット を提供することを目指しています。Celestia のスループットは現在、約 12 秒のブロック時間で 10 MB/s 程度にとどまっています。一方、EigenDA は主に Layer2 ソリューションを対象としており、実装が複雑になる場合があります。0G は GB/s のスループットを構想しており、これは 50〜100 GB/s を超えるデータ取り込みが必要な大規模 AI ワークロードに適しています。

0G Compute Network

0G Compute Network は分散型計算レイヤーとして機能します。これは段階的に進化しています:

  • フェーズ 1: AI 推論の決済に焦点を当てます。
  • ネットワークは、分散型マーケットプレイスで「AI モデルの購入者」(ユーザー)と計算プロバイダー(販売者)をマッチングさせます。プロバイダーはスマートコントラクトにサービスと価格を登録します。ユーザーはコントラクトに事前入金し、サービスを利用し、コントラクトが支払いを仲介します。
  • 時間の経過とともに、チームはオンチェーンでの本格的な AI トレーニング への拡大を望んでいますが、それはより複雑な課題です。

バッチ処理: プロバイダーはユーザーのリクエストをバッチ処理してオンチェーンのオーバーヘッドを削減し、効率を向上させ、コストを下げることができます。

0G Chain

0G Chain は、0G のモジュール型アーキテクチャの基盤となる Layer1 ネットワークです。以下を支えています:

  • 0G Storage (スマートコントラクト経由)
  • 0G DA (データ可用性証明)
  • 0G Compute (決済メカニズム)

公式ドキュメントによると、0G ChainEVM 互換 であり、高度なデータストレージ、可用性、または計算を必要とする dApps の統合を容易にします。

0G コンセンサスネットワーク

0G のコンセンサスメカニズムはややユニークです。単一のモノリシックなコンセンサスレイヤーではなく、異なるワークロードを処理するために、0G の下で 複数の独立したコンセンサスネットワーク を立ち上げることができます。これらのネットワークは同じステーキングベースを共有します:

  • 共有ステーキング: バリデータは Ethereum 上で ZG をステーキングします。バリデータが不正を行った場合、Ethereum 上でステーキングされた ZG がスラッシングされる可能性があります。
  • 拡張性: 水平方向にスケールするために、新しいコンセンサスネットワークを立ち上げることができます。

報酬メカニズム: バリデータが 0G 環境でブロックをファイナライズすると、トークンを受け取ります。しかし、0G Chain で獲得したトークンはローカル環境で バーン (焼却) され、バリデータの Ethereum ベースのアカウントに同等量が ミント (鋳造) されることで、流動性とセキュリティの単一の接点を確保します。

0G トークン (ZG)

ZG は、0G 経済のバックボーンを表す ERC-20 トークン です。これは Ethereum 上の スマートコントラクト を通じてミント、バーン、および流通されます。実用的には:

  • ユーザーは、ストレージ、データ可用性、および計算リソースの料金を ZG で支払います。
  • マイナーとバリデータは、ストレージの証明やデータの検証に対して ZG を獲得します。
  • 共有ステーキングにより、セキュリティモデルが Ethereum に結び付けられます。

主要モジュールのまとめ

0G OS は、Storage、DA、Compute、および Chain の 4 つのコンポーネントを、相互に接続された 1 つのモジュール型スタックに統合します。システムの設計目標は 拡張性 であり、各レイヤーは水平方向に拡張可能です。チームは、大規模な AI タスクにとって特に重要な 「無限の」スループット の可能性をアピールしています。

0G エコシステム

比較的新しいものの、0G エコシステム にはすでに主要な統合パートナーが含まれています:

  1. インフラストラクチャ & ツール:

    • Union、Brevis、Gevulot などの ZK ソリューション
    • Axelar などの クロスチェーン ソリューション
    • EigenLayer、Babylon、PingPong などの リステーキング プロトコル
    • IoNet、exaBits などの 分散型 GPU プロバイダー
    • Hemera、Redstone などの オラクル ソリューション
    • Ethereum blob データの インデックス ツール
  2. データストレージ & DA に 0G を使用しているプロジェクト:

    • L2 / L3 統合のための Polygon、Optimism (OP)、Arbitrum、Manta
    • Web3 インフラストラクチャのための Nodekit、AltLayer
    • オンチェーン・ゲーミングのための Blade Games、Shrapnel

供給側

ZK および クロスチェーン フレームワークは、0G を外部ネットワークに接続します。リステーキング・ソリューション(EigenLayer、Babylon など)はセキュリティを強化し、流動性を引き付ける可能性があります。GPU ネットワークは消失訂正符号(erasure coding)を加速させます。オラクル・ソリューションはオフチェーン・データを提供したり、AI モデルの価格設定を参照したりします。

需要側

AI エージェント は、データストレージと推論の両方で 0G を活用できます。L2 および L3 は、0G の DA を統合してスループットを向上させることができます。ゲーミング や、堅牢なデータソリューションを必要とするその他の dApp は、アセット、ログ、またはスコアリングシステムを 0G に保存できます。一部のプロジェクトはすでに提携しており、初期のエコシステムの牽引力を示しています。

ロードマップ & リスク要因

0G は、AI を誰でもアクセス可能で検証可能な 公共インフラ(public utility) にすることを目指しています。チームは GB/s レベルの DA スループットを目指しており、これは 50 ~ 100 GB/s のデータ転送を必要とするリアルタイム AI トレーニングにとって極めて重要です。

共同創設者 兼 CEO の Michael Heinrich 氏は、AI の爆発的な成長により、タイムリーなイテレーションが不可欠であると述べています。AI イノベーションのスピードは速く、0G 自身の開発プロセスもそれに追いつく必要があります。

潜在的なトレードオフ:

  • 現在の 共有ステーキング(shared staking) への依存は、暫定的なソリューションかもしれません。最終的に 0G は、段階的に増強可能な(新しい AWS ノードを立ち上げるような)水平スケーラブルなコンセンサス・レイヤーを導入する計画です。
  • 市場競争: 分散型ストレージ、データ可用性、およびコンピューティングには、多くの特化型ソリューションが存在します。0G のオールインワン・アプローチは、魅力的なものであり続ける必要があります。
  • 採用 & エコシステムの成長: 開発者の強力な牽引力がなければ、約束された「無制限のスループット」は理論上のままです。
  • インセンティブの持続可能性: ノードに対する継続的な動機付けは、実際のユーザー需要と均衡の取れたトークン経済に依存します。

結論

0G は、分散型ストレージ、データ可用性、およびコンピューティングを、オンチェーン AI をサポートする単一の「オペレーティングシステム」に統合しようとしています。GB/s のスループットをターゲットにすることで、チームは現在、大規模 AI のオンチェーンへの移行を妨げているパフォーマンスの壁を打破しようとしています。成功すれば、0Gスケーラブルで統合された、開発者フレンドリーな インフラストラクチャを提供することで、Web3 AI の波を大幅に加速させる可能性があります。

それでも、多くの未解決の疑問が残っています。「無限のスループット」の実現性は、0G のモジュール式コンセンサスとインセンティブ構造がシームレスに拡張できるかどうかにかかっています。市場の需要、ノードの稼働時間、開発者の採用といった外部要因も、0G の持続力を決定するでしょう。それにもかかわらず、AI のデータのボトルネックに対処する 0G のアプローチは斬新かつ野心的であり、オンチェーン AI の有望な新しいパラダイムを示唆しています。

検証可能な AI が 動く:Lagrange Labs の ダイナミック zk‑SNARK が 継続的な 信頼 を 実現

· 約 8 分

人工知能とブロックチェーンという急速に融合しつつある領域において、信頼と透明性への需要はかつてないほど高まっています。AI モデルの出力が正確で改ざんされていないことをどのように保証できるでしょうか?膨大なオンチェーンデータセット上で複雑な計算を行いながら、セキュリティやスケーラビリティを損なわない方法は?Lagrange Labs は、ゼロ知識(ZK)インフラストラクチャのスイートでこれらの課題に正面から取り組み、「証明可能な AI」の未来を構築しようとしています。本稿では、彼らのミッション、技術、最近のブレークスルーを客観的に概観し、最新の Dynamic zk‑SNARK 論文へと結びつけます。

Lagrange Labs Overview

1. チームとミッション

Lagrange Labs は、あらゆる AI 推論やオンチェーンアプリケーション向けに暗号証明を生成する基盤インフラを構築しています。計算を検証可能にすることで、デジタル世界に新たな信頼層をもたらすことが目標です。エコシステムは以下の 3 つのコアプロダクトラインで構成されています:

  • ZK Prover Network: AI やロールアップから分散型アプリケーション(dApp)まで、幅広い証明タスクに必要な計算リソースを提供する、85 以上の証明ノードからなる分散ネットワーク。
  • DeepProve (zkML): ニューラルネットワーク推論の ZK 証明を生成する特化システム。Lagrange は、競合ソリューションと比較して最大 158 倍の高速化を実現し、検証可能な AI を実用化できると主張しています。
  • ZK Coprocessor 1.0: 初の SQL ベース ZK コプロセッサで、開発者は大規模オンチェーンデータセットに対してカスタムクエリを実行し、検証可能な正確な結果を取得できます。

2. 検証可能な AI へのロードマップ

Lagrange は、AI の検証性に関する課題を段階的に解決するためのロードマップを着実に実行しています。

  • 2024 年第3四半期: ZK Coprocessor 1.0 リリース:ハイパーパラレル再帰回路を導入し、平均で約 2 倍の速度向上を実現しました。Azuki や Gearbox などのプロジェクトは、すでにこのコプロセッサをオンチェーンデータの取得に活用しています。
  • 2025 年第1四半期: DeepProve 発表:Lagrange は Zero‑Knowledge Machine Learning(zkML)向けソリューション DeepProve を発表しました。マルチレイヤーパセプトロン(MLP)や畳み込みニューラルネットワーク(CNN)などの主流アーキテクチャをサポートします。システムは、一次セットアップ、証明生成、検証という 3 つの重要ステージすべてで桁違いの高速化を実現し、最大で 158 倍の速度向上を達成しています。
  • 2025 年第2四半期: Dynamic zk‑SNARK 論文(最新マイルストーン):本論文は画期的な「アップデート」アルゴリズムを提案します。基礎データや計算が変化するたびに証明をゼロから再生成するのではなく、既存の証明 (π) を新しい証明 (π') にパッチすることで対応できます。この更新は O(√n log³n) の計算量で実行可能で、全再計算に比べて劇的な改善です。この技術は、継続的に学習する AI モデル、リアルタイムゲームロジック、進化するスマートコントラクトなどの動的システムに特に適しています。

3. Dynamic zk‑SNARK が重要な理由

アップデート可能な証明の導入は、ゼロ知識技術のコストモデルに根本的な変化をもたらします。

  • 新たなコストパラダイム:業界は「すべての証明をフル再計算する」モデルから「変更サイズに応じたインクリメンタル証明」へと移行します。これにより、頻繁に小さな更新が行われるアプリケーションの計算コストと金銭コストが大幅に削減されます。

  • AI への影響

    • 継続的なファインチューニング:モデルパラメータの 1% 未満を微調整する場合、証明生成時間はモデル全体のサイズではなく、変更されたパラメータ数 (Δ パラメータ) にほぼ比例して増加します。

    • ストリーミング推論:この機能により、推論プロセスと同時に証明を生成できます。これにより、AI が意思決定を行ってからその決定がオンチェーンで確定・検証されるまでのレイテンシが大幅に短縮され、オンチェーン AI サービスやロールアップ向け圧縮証明といったユースケースが実現します。

  • オンチェーンアプリケーションへの影響

    Dynamic zk‑SNARK は、頻繁で小規模な状態変化を伴うアプリケーションに対して、ガスコストと処理時間の大幅な最適化を提供します。具体例として、分散型取引所(DEX)のオーダーブック、変化するゲーム状態、頻繁な追加・削除を伴う台帳更新などが挙げられます。

4. 技術スタックの概要

Lagrange の強力なインフラは、洗練された統合技術スタック上に構築されています:

  • 回路設計:システムは柔軟で、ONNX(Open Neural Network Exchange)モデル、SQL パーサ、カスタム演算子を回路に直接組み込むことをサポートします。
  • 再帰と並列処理:ZK Prover Network は分散型再帰証明を実現し、ZK Coprocessor は「マイクロ回路」のシャーディングを活用してタスクを並列実行し、効率を最大化します。
  • 経済的インセンティブ:Lagrange はネイティブトークン LA の発行を計画しており、これを Double‑Auction‑for‑Recursive‑Auction(DARA)システムに組み込みます。これにより、プローバ計算への入札市場が形成され、インセンティブとペナルティを通じてネットワークの健全性が保たれます。

5. エコシステムと実装事例

Lagrange は孤立して開発しているわけではなく、すでにさまざまな分野のプロジェクトで技術が採用されています:

  • AI・ML:0G Labs や Story Protocol などのプロジェクトは DeepProve を利用して AI モデルの出力を検証し、出所と信頼性を確保しています。
  • ロールアップ・インフラ:EigenLayer、Base、Arbitrum といった主要プレイヤーが ZK Prover Network にバリデータノードや統合パートナーとして参加し、セキュリティと計算力に貢献しています。
  • NFT・DeFi アプリケーション:Azuki や Gearbox などのブランドは ZK Coprocessor を活用し、データクエリや報酬分配メカニズムの信頼性を向上させています。

6. 課題と今後の展望

顕著な進展にもかかわらず、Lagrange Labs と ZK 分野全体は複数の課題に直面しています:

  • ハードウェアのボトルネック:分散ネットワークがあっても、アップデート可能な SNARK は高帯域幅を必要とし、効率的に動作するために GPU 向け暗号曲線に依存しています。
  • 競争:エコシステムが急速に成熟し、新たなソリューションが次々に登場するため、継続的なイノベーションが求められます。
  • 採用曲線:開発者や企業にゼロ知識プリミティブの採用を促すには、教育、ツール整備、明確な経済的インセンティブが不可欠です。

7. 結論

Lagrange Labs は、最先端のゼロ知識ソリューションにより、AI とブロックチェーンが安全かつ透明に共存できる未来を切り開いています。技術が成熟すれば、オンチェーン AI サービスやロールアップ向け圧縮証明など、検証可能で信頼できるデジタルシステムの実現が加速するでしょう。

// 例: オンチェーンで AI モデルの予測を検証する
const model = await loadONNXModel("model.onnx");
const input = getSensorData(); // オンチェーンデータ
const prediction = await model.run(input);
const proof = await Lagrange.DeepProve.generateProof(model, input, prediction);
await blockchain.submitProof(proof);