Web3生态系统中的MCP:全面评论
#Web3生态系统中的MCP:全面评论
##1。MCP在Web3上下文中的定义和起源
**模型上下文协议(MCP)**是一个开放标准,它将AI助手(例如大语言模型)连接到外部数据源,工具和环境。 MCP通常被描述为“ AI的USB-C端口”,这是由于其通用的插件性质,是由Anthropic开发的,并于2024年11月下旬首次引入。它是一种解决方案,可以通过将AI模型与“数据库和APIS到开发环境”和“ APIS”和“ APIS和APIS环境”和“ APIS”和“ APIS和Bloxchains”和“ APIS和APIS”的“系统”安全地隔离而脱离隔离。
MCP最初是Anthropic的实验性侧面项目,很快就获得了吸引力。到2024年中,出现了开源参考实现,到2025年初,它已成为代理AI集成的事实上的标准**,领先的AI实验室(OpenAI,Google DeepMind,Meta AI)本地采用它。在** Web3社区**中,这种快速的吸收尤其值得注意。区块链开发人员将MCP视为将AI功能注入分散应用程序的一种方式,从而导致社区构建的MCP连接器扩散,以用于链上数据和服务。实际上,一些分析师认为,MCP可以通过使用自然语言接口来增强用户能力,以比区块链更实用的方式实现Web3的原始愿景。
总而言之,MCP不是区块链或代币**,而是AI世界中出生的开放协议,该协议在Web3生态系统中迅速接受为AI代理和分散数据源之间的桥梁。人类为标准(具有最初的GitHub规格和SDK)开源,并在其周围培养了一个开放的社区。这种社区驱动的方法为MCP集成到Web3中奠定了基础,现在它被视为针对AI支持的分散应用程序的基础基础架构。
2。技术架构和核心协议
MCP在轻量级客户端 - 服务器架构中运行,并带有三个主要角色:
- ** MCP主机:** AI应用程序或代理本身,该应用程序安排请求。这可能是聊天机器人(Claude,ChatGpt)或需要外部数据的AI功能应用程序。主机启动交互,通过MCP询问工具或信息。
- ** MCP客户端:**主机用来与服务器通信的连接器组件。客户端维护连接,管理请求/响应消息,并可以并行处理多个服务器。例如,像光标或VS Code代理模式之类的开发人员工具可以充当MCP客户端,桥接具有各种MCP服务器的本地AI环境。
- ** MCP服务器:向AI暴露某些上下文数据或功能的服务。服务器提供工具**,资源或提示 AI可以使用的**。实际上,MCP服务器可以与数据库,云应用程序或区块链节点接口,并向AI呈现一组标准化的操作集。每个客户端服务器对通过其自己的频道进行通信,因此AI代理可以同时点击多个服务器以满足不同的需求。
核心原始图: MCP定义了一组构建AI-Tool交互的标准消息类型和原语。这三个基本原则是:
- 工具: AI可以在服务器上调用的离散操作或功能。例如,一个“搜索Documents”工具或“ ETH_CALL”工具。工具封装了诸如查询API,执行计算或调用智能合约功能之类的操作。 MCP客户端可以从服务器请求可用工具的列表,并根据需要致电。
- **资源:**数据终点可以通过服务器读取(或有时写入)的数据终点。这些可能是文件,数据库条目,区块链状态(块,交易)或任何上下文数据。 AI可以列出资源并通过标准MCP消息检索其内容(例如
listreSources'