来源:2. 核心目标
modelcontextprotocol.io(MCP 官方网站,2025年存档)新智元报道《1次搭建完胜1亿次编码,MCP硅谷疯传》,2025年3月10日IBM 技术白皮书《What is Model Context Protocol?》,2025年10月27日
“在没有标准协议的情况下,每连接一个 AI 模型和一个外部工具,都需要编写定制化集成代码,导致 m×n 配置爆炸。”
示例:1万个模型 × 1万个工具 → 从 1亿次配置 降至 2万次配置。(新智元,2025)
引用:2. 动态发现(Dynamic Discovery)
“MCP 就像是专为 AI 应用设计的通用接口,类似我们日常使用的 USB-C。”(36氪,2025)
验证:MCP 协议规范 v0.3 中定义了 list_resources、list_tools 等标准方法(GitHub: modelcontextprotocol/spec)。3. 双向实时通信
来源:IBM 技术文档指出,“MCP 支持类似 WebSockets 的持续双向通信”。4. 安全与权限控制
引用:CSDN《掌握MCP协议》(2025年9月):“MCP 在协议层集成了多层安全机制……敏感信息不暴露给语言模型提供商。”
| 组件 | 角色 | 示例 |
| MCP Host | 运行 LLM 的应用程序环境,发起请求 | Claude Desktop、Cursor IDE、Windsurf Editor |
| MCP Client | 内置于 Host 中,负责与 Server 通信 | 每个 Client 与一个 Server 建立 1:1 连接 |
| MCP Server | 提供具体功能的服务端程序 | GitHub MCP Server、Slack MCP Server、本地文件系统 Server |
| Resources/Tools | 实际被访问的数据或服务 | Git 仓库、Gmail 邮箱、本地数据库 |
架构图逻辑来自:modelcontextprotocol.io/architecture
| 传输方式 | 适用场景 | 特点 |
| stdio(标准输入/输出) | 本地工具(如文件系统、本地数据库) | 轻量、同步、子进程通信 |
| SSE(Server-Sent Events) + HTTP POST | 远程服务(如 Slack、GitHub API) | 异步、事件驱动、支持长连接 |
验证:MCP 官方 GitHub 仓库中的 mcp-server-example 同时提供了 stdio 和 SSE 实现模板。
| 对比维度 | 传统 API / Function Calling | MCP |
| 耦合性 | 模型与工具强绑定(如 GPT 的 function schema 无法用于 Claude) | 解耦,任意模型 ↔ 任意工具 |
| 集成成本 | 每对接一次需重写适配代码 | 一次实现,全局复用 |
| 发现机制 | 工具列表需硬编码 | 动态发现,运行时协商 |
| 通信模式 | 请求-响应(无状态) | 持续会话(有状态上下文) |
| 标准化程度 | 厂商私有(OpenAI、Google 各自一套) | 开源开放标准(Apache 2.0 许可) |
来源:CSDN 博客《MCP vs Function Call》(2025年9月);IBM 白皮书。
官方 Quickstart 示例:modelcontextprotocol.io/quickstart/user2. Cursor IDE + GitHub MCP Server
来源:CSDN《MCP协议发展时间线》,2025年9月
引用:IBM 文档指出,“对于要求最高可预测性和最小上下文自主性的应用,传统 API 可能更合适。”
最终判断:MCP 是 AI 智能体基础设施的关键一环,代表了工具集成的标准化方向,具有真实技术价值与行业共识。
| 欢迎光临 AI创想 (https://llms-ai.com/) | Powered by Discuz! X3.4 |