
彻底搞懂 MCP:模型上下文协议详解
相关链接:
一、MCP 基础概念
1.1 什么是 MCP?
MCP(Model Context Protocol,模型上下文协议)是由 Anthropic 公司于 2024 年 11 月 26 日推出的一项技术协议。这个协议的核心目的是解决 AI 助手与外部数据源隔离的问题,让 AI 能够连接并访问外部资源。
需要注意的是,MCP 并非我们常见的用户隐私协议(法律协议),而是类似于 WiFi、蓝牙等技术协议,定义了 AI 助手与外部资源之间的通信规则。
1.2 为什么需要 MCP?
传统的 AI 助手(如 Deepseek 等预训练模型)通常存在知识截止日期的限制,无法直接访问外部最新信息。MCP 的出现正是为了突破这一限制,通过定义通用的通信规则,让 AI 助手能够连接到外部资源,获取更多实时信息和功能。
二、MCP 工作原理
2.1 通俗理解
可以将 MCP 服务器理解为一个工具箱或小仓库:
- 用户:相当于老板,布置任务给 AI
- AI 助手:相当于员工,需要完成用户布置的任务
- MCP 服务器:相当于公司仓库,提供各种工具供 AI 使用
当 AI 需要完成任务时,它可以从 MCP 服务器(仓库)中获取所需的工具,更高效地完成用户的要求。而用户可以自由地向这个仓库添加各种工具,扩展 AI 的能力。
2.2 技术角度
从技术角度看,MCP 是用户与模型之间的中介,允许用户添加各种功能和资源,让 AI 能够借助这些资源完成更复杂的任务。GitHub 上有专门的开源仓库,提供了 MCP 服务器示例和各种工具资源。
三、实际应用示例
3.1 文件系统 MCP 服务器
以最简单的文件系统 MCP 服务器为例,我们可以通过以下步骤实现:
安装 MCP 服务器:使用 npx 命令安装相应的 npm 包
1
npx -y @anthropic-ai/mcp-fs-server /path/to/your/directory
在 Cursor 中配置:
- 打开 Cursor 右上角的设置
- 选择 MCP 服务器
- 点击添加
- 命名(如”文件系统”)
- 选择 Command 模式
- 输入安装命令
- 保存配置
使用 MCP 服务:
- 在聊天框中询问 AI 关于本地文件的信息
- AI 会调用 MCP 服务查看本地文件
- 允许 AI 访问后,它可以读取、创建或编辑文件
注意:如果路径中包含空格,可能会导致命令执行失败,需要修改文件夹名称或调整命令格式。
3.2 自动授权模式
如果不想每次都手动授权 MCP 操作,可以启用 YOLO 模式:
- 在 Cursor 设置中找到 YOLO 模式
- 点击继续启用
- 启用后,AI 将自动获得授权,无需每次手动确认
四、MCP 的实际价值
4.1 解决上下文混淆问题
在复杂项目中,当与 AI 的交流次数增多后,AI 可能会开始混淆不同问题的上下文。通过 MCP 服务器,我们可以:
- 为 AI 指定特定路径下的文档和资源
- 即使在 AI 开始混淆时,也可以直接开启新聊天并让它查看文档
- 在项目进行过程中记录修改文档,帮助 AI 理解项目进展
4.2 MCP 服务器的多样性
MCP 生态系统提供了多种服务器类型,包括但不限于:
- YouTube 稍后观看 MCP 服务器
- MCP 知识图谱
- 为 Claude 提供持久内存的服务器
- 捕获实时图像的工具
- 浏览器自动化工具
五、总结
MCP(模型上下文协议)是一项革命性的技术,它打破了 AI 助手与外部世界的隔阂,让 AI 能够更灵活地访问和利用外部资源。通过简单的配置,我们可以大幅扩展 AI 助手的能力边界,使其成为更强大的生产力工具。
对于开发者和内容创作者来说,了解并掌握 MCP 的使用方法,将有助于更高效地利用 AI 助手完成各种复杂任务。随着 MCP 生态的不断丰富,我们可以期待 AI 助手在未来发挥更大的潜力。
- 感谢您的赞赏