一、MCP 技术原理与核心价值
MCP(Model Context Protocol)的本质
MCP 是由 Anthropic 提出的开放协议,旨在为大语言模型(LLM)提供标准化工具调用框架。其核心原理是通过客户端-服务器架构,让 AI 模型安全、可控地访问外部工具和数据源,实现从“对话”到“执行”的跨越。

核心组件:
MCP 主机:用户与 AI 交互的应用程序(如 Cursor、Claude Desktop),负责发起请求 。
MCP 服务器:提供特定功能的本地或远程服务(如文件系统操作、API 调用),通过 Node.js 或 Python 实现 。
MCP 客户端:协调主机与服务器的通信,采用 JSON-RPC 2.0 协议支持双向交互。

二、OpenManus 本地部署实践

  1. 部署流程(以 Windows 为例)
    环境准备:安装 Python 3.12 。
    模型配置:deepseek-chat模型API服务 。
    服务启动:运行 python main.py,实现与 deepseek的连接。
    主要使用了浏览器功能,每次执行都是按照一个flow来执行流程,会自动找网站进行数据抓取,对抓取到的数据进行统计和输出。体验效果不那么震撼,每次执行耗时很久,准确度也不太高。

三、Cursor 的 MCP 配置与工具开发

  1. MCP 服务器配置
    工具发现:通过 Smithery.ai 平台获取 MCP 服务(如文件系统、Git 工具)。
    安装示例:添加 Web Search 工具时,使用命令
 npx -y @smithery/cli@latest run @mzxrai/mcp-webresearch。
  1. 自定义 MCP 工具开发
    Python 编写mcp服务端引入server.fastmcp(HTTP工具):
from mcp.server.fastmcp import FastMCP  
import httpx  
mcp = FastMCP("HttpServer")  
@mcp.tool()  
async def execute_http(args: str) -> str:    

注册调用:在 Cursor 的 mcp.json 中添加工具路径,通过自然语言指令触发。

四、基于Cursor MCP 协议的使用体验

  1. 统一调度能力
    MCP(Model Context Protocol)通过标准化工具调用接口,为 AI 提供了全局视角的 工具编排框架。

  2. 工具发现机制:Cursor 通过 MCP 客户端实时感知已注册的所有工具(如数据库查询、http接口调用等),并将工具功能描述嵌入模型上下文 。

  3. 请求路由机制:模型根据用户意图生成 JSON-RPC 调用指令,MCP 客户端自动匹配最佳工具并执行操作。例如,用户要求“根据接口返回值去查询当前企业下的项目”,模型会依次调用HTTP工具、数据库查询。

  4. 结果聚合机制:各工具执行结果通过 MCP 协议返回至模型上下文,形成任务链的连贯输入输出 。

五、LLM 的意图识别与任务分解能力
大语言模型(如 Claude、Gemini)的 推理能力 是自动编排的核心驱动力:

  1. 语义解析:模型通过 链式思维(CoT)提示技术 将复杂问题分解为原子任务,每个子任务触发特定工具调用。

  2. 工具匹配:基于工具的功能描述(模型动态选择工具组合。例如在代码生成场景。

六、感想
Cursor 的 Agent 工作模式 已经实现了任务编排的自动化。
目前模型支持的完整度:Claude > gpt > deepseek
相较于传统的流程agent配置,智能流程才是未来AI的发展方向。

七、参考资料

工具/平台 用途
Smithery.ai MCP 服务发现平台
glama.ai MCP 服务发现平台
pulsemcp.com MCP 服务发现平台
Logo

欢迎加入DeepSeek 技术社区。在这里,你可以找到志同道合的朋友,共同探索AI技术的奥秘。

更多推荐