Web3エコシステムのMCP:包括的なレビュー
#Web3エコシステムのMCP:包括的なレビュー
1。Web3コンテキストでのMCPの定義と起源
**モデルコンテキストプロトコル(MCP)**は、AIアシスタント(大きな言語モデルなど)を外部データソース、ツール、環境に接続するオープン標準です。普遍的なプラグアンドプレイの性質のために「AIのUSB-Cポート」と呼ばれることが多いMCPは、人類によって開発され、2024年11月下旬に最初に導入されました。AIモデルを隔離するソリューションとして、「データが生きているシステム」 * - データベースおよび具合環境とブロックチェーンへの「システム」 *をしっかりと橋渡しすることで、それらを隔離する解決策として出現しました。
もともと人類の実験的サイドプロジェクトであったMCPは、すぐに牽引力を獲得しました。 2024年半ばまでに、オープンソースの参照実装が登場し、2025年初頭には、エージェントAI統合の事実上の基準になり、主要なAIラボ(Openai、Google Deepmind、Meta AI)がネイティブに採用されました。この急速な取り込みは、 Web3コミュニティ**で特に注目に値しました。ブロックチェーン開発者は、MCPをAI機能を分散型アプリケーションに注入する方法と見なし、オンチェーンデータとサービス用のコミュニティ製MCPコネクタの急増に つながりました。実際、一部のアナリストは、MCPが、自然言語インターフェイスを使用してユーザーに力を与えることにより、ブロックチェーンだけよりも、分散型のユーザー中心のインターネットの元のビジョンをブロックチェーンだけよりも実用的な方法で満たす可能性があると主張しています。
要約すると、MCPはブロックチェーンやトークン**ではなく、AIの世界で生まれたオープンプロトコルであり、AIエージェントと分散型データソースの間の橋渡しとしてWeb3エコシステム内に急速に受け入れられています。人類のオープンソースは、標準(初期のGithub仕様とSDK)を使用して、その周りにオープンコミュニティを栽培しました。このコミュニティ主導のアプローチは、MCPのWeb3への統合の段階を設定し、現在、AI対応アプリケーションの基礎インフラストラクチャと見なされています。
2。技術アーキテクチャとコアプロトコル
MCPは、3つの主要な役割を持つ軽量クライアント - サーバーアーキテクチャで動作します。
- ** MCPホスト:**リクエストを調整するAIアプリケーションまたはエージェント自体。これは、Chatbot(Claude、ChatGpt)または外部データが必要なAI搭載アプリです。ホストは相互作用を開始し、MCPを介してツールや情報を要求します。
- ** MCPクライアント:**ホストがサーバーと通 信するために使用するコネクタコンポーネント。クライアントは、接続を維持し、リクエスト/応答メッセージを管理し、複数のサーバーを並行して処理できます。たとえば、CursorやVS Codeのエージェントモードなどの開発者ツールは、さまざまなMCPサーバーでローカルAI環境をブリッジングするMCPクライアントとして機能します。
- ** MCPサーバー:** AIにコンテキストデータまたは機能を公開するサービス。サーバーはツール、リソース、または** AIが使用できる**プロンプトを提供します。実際には、MCPサーバーは、データベース、クラウドアプリ、またはブロックチェーンノードとインターフェイスし、AIに標準化された操作セットを提示できます。各クライアントサーバーペアは独自のチャネルで通信するため、AIエージェントはさまざまなニーズに合わせて複数のサーバーを同時にタップできます。
コアプリミティブ: MCPは、AIツール相互作用を構成する一連の標準メッセージタイプとプリミティブを定義します。 3つの基本的なプリミティブは次のとおりです。
- **ツール:**ディスクリート操作または機能AIがサーバーで呼び出すことができます。たとえば、「SearchDocuments」ツールまたは「ETH_CALL」ツール。ツールは、APIのクエリ、計算の実行、スマートコントラクト関数の呼び出しなどのアクションをカプセル化します。 MCPクライアントは、サーバーから利用可能なツールのリストを要求し、必要に応じてそれらを呼び出すことができます。
- リソース: AIがサーバーを介して読み取る(または時には書き込み)できるデータエン ドポイント。これらは、ファイル、データベースエントリ、ブロックチェーン状態(ブロック、トランザクション)、またはコンテキストデータです。 AIは、標準のMCPメッセージ(「Listresources」や「ReadResource」要求など)を使用して、リソースをリストし、コンテンツを取得できます。
- **プロンプト:**構造化されたプロンプトテンプレートまたはサーバーがAIの推論を導くことができる手順。たとえば、サーバーは、フォーマットテンプレートまたは事前に定義されたクエリプロンプトを提供する場合があります。 AIは、プロンプトテンプレートのリストを要求し、それらを使用して、そのサーバーとの対話方法の一貫性を維持できます。
ボンネットの下では、MCP通信は通常JSONベースであり、RPC(リモートプロシージャコール)と同様のリクエスト応答パターンに従います。プロトコルの仕様では、「InitialIzereQuest」、「ListTools」、「CallTool」、「ListreSources」などのメッセージを定義します。この標準化により、AIエージェントができることを *発見 *できることを可能にします。新しいサーバーに接続すると、「どのツールとデータを提供していますか?」そして、それらの使用方法を動的に決定します。
セキュリティおよび実行モデル: MCPは、安全で制御された相互作用を念頭に置いて設計されました。 AIモデル自体は任意のコードを実行しません。 (クライアントを介して)高レベルの意図をサーバーに送信し、実際の操作(たとえば、データの取得やAPIの呼び出し)を実行し、結果を返します。この分離は、機密アクション(ブロックチェーントランザクションやデータベースの書き込みなど)をサンドボックス化するか、明示的なユーザーの承認を必要とすることを意味します。たとえば、「ping」(接続を生かし続けるため)のようなメッセージや、MCPサーバーがクライアントのAIにサブ応答を生成するように依頼する「createmessagerequest」などのメッセージがあります。認証、アクセス制御、監査ロギングなどの機能は、MCPをエンタープライズおよび分散環境で安全に使用できるように積極的に開発されています(これについては、ロードマップセクションで詳しく説明します)。
要約すると、MCPのアーキテクチャは、AIエージェント(ホスト)をツール、データ、およびアクションを提供する柔軟なサーバーに接続する標準化されたメッセージプロトコル(JSON-RPCスタイルコール)に依存しています。このオープンアーキテクチャはモデルと存在したおよびプラットフォーム非攻撃 - AIエージェントはMCPを使用して任意のリソースと通信でき、開発者はAIのコアコードを変更する必要なくデータソース用の新しいMCPサーバーを作成できます。このプラグアンドプレイの拡張性は、Web3でMCPを強力にするものです。ブロックチェーンノード、スマートコントラクト、ウォレット、またはオラクル用のサーバーを構築でき、AIエージェントにWeb2 APIとともにこれらの機能をシームレスに統合できます。