
什么是 MCP 服务器?Model Context Protocol 全面指南
了解 MCP(模型上下文协议)服务器是什么、如何工作,以及它们为何正在革新 AI 集成。探索 MCP 如何简化 AI 智能体与工具、数据源和 API 的连接。...
远程 MCP(模型上下文协议,Model Context Protocol)是一种系统,允许 AI 代理通过托管在远程服务器上的标准化接口访问外部工具、数据源和服务。这使得 AI 模型能够与其训练数据之外的专业功能和信息进行交互,在保持安全性和灵活性的同时扩展其能力。
远程 MCP 服务器通过标准化协议向 AI 代理(尤其是大语言模型 LLM 和代理系统)开放数据、工具与自动化能力。与本地服务器不同,远程 MCP 服务器托管在云端或互联网,任何获授权的 AI 客户端或工作流均可访问。它们充当连接 AI 代理与外部 API、SaaS 平台、开发者工具及企业数据的通用“适配器”。
**模型上下文协议(MCP)**是一项开放协议,标准化了 LLM 和代理型应用与外部工具及数据的交互方式。它为工具/资源发现、能力描述、工具调用以及上下文交换建立了通用契约,实现 AI 客户端与服务器之间的标准协作。
| 功能 | 本地 MCP 服务器 | 远程 MCP 服务器 |
|---|---|---|
| 部署位置 | 用户本机 | 云端/互联网 |
| 通信方式 | stdio、本地 socket | HTTP/SSE/可流式 HTTP |
| 部署方式 | 手动,用户自管 | OAuth 登录,服务商托管 |
| 安全性 | 用户自管密钥/凭证 | OAuth 2.1,服务商强制执行 |
| 应用场景 | 私有、本地开发、敏感数据 | SaaS、多用户、Web 代理 |
| 可扩展性 | 受限于用户硬件 | 云端弹性扩展,多租户 |
架构图示:
+---------------------+ HTTP/SSE +---------------------+
| AI Agent (Client) | <----------------> | Remote MCP Server |
+---------------------+ +---------------------+
| |
OAuth (AuthN/AuthZ) External Service/API
| |
User grants access (e.g. Jira API, DB)
| 功能 | 本地 MCP 服务器 | 远程 MCP 服务器 |
|---|---|---|
| 部署方式 | 手动,本地 | OAuth 网页登录,服务商托管 |
| 通信方式 | stdio、本地 socket | HTTP/SSE、可流式 HTTP |
| 安全性 | 用户密钥/凭证 | OAuth 2.1,短时令牌 |
| 更新维护 | 用户自行负责 | 服务商统一管理、自动补丁 |
| 可扩展性 | 受限于单台机器 | 横向扩展,多用户 |
| 应用场景 | 私有开发、自定义工具 | SaaS、Web 代理、企业级访问 |
示例: Atlassian 的远程 MCP 服务器将 Jira 和 Confluence 连接到 Claude 或其他 LLM。代理可实现:
示例: 一位市场营销代理集成了三个不同的 MCP 服务器:
代理可在单一工作流中串联调用所有服务器(“总结昨日博客表现并提出改进建议”)。
示例: 一个远程 MCP 服务器开放 SEO 审查 API。AI 代理可:
示例: DevOps 团队通过内部 MCP 服务器开放 CI/CD 状态、问题跟踪和部署控制。AI 代理可:
| 优势 | 局限 / 权衡 |
|---|---|
| 易于扩展 | 依赖可靠的互联网连接 |
| 无需本地部署 | 延迟高于本地部署 |
| 集中式管理 | 依赖服务商在线时间 |
| OAuth 安全性 | 权限范围管理相对复杂 |
| 多客户端支持 | 数据需在传输过程中加密 |
远程 MCP 服务器采用 OAuth 2.1 实现安全、委托的身份认证/授权:
最佳实践:

了解 MCP(模型上下文协议)服务器是什么、如何工作,以及它们为何正在革新 AI 集成。探索 MCP 如何简化 AI 智能体与工具、数据源和 API 的连接。...

模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...

模型上下文协议(MCP)是一种开放标准接口,使大型语言模型(LLM)能够安全、一致地访问外部数据源、工具和能力,被誉为 AI 系统的“USB-C”。...