mcp-proxy MCP 服务器

mcp-proxy MCP 服务器

MCP AI Integration Protocol Bridge

“mcp-proxy” MCP 服务器的作用是什么?

mcp-proxy MCP 服务器作为可流式 HTTP 与 stdio MCP 传输协议之间的桥梁,实现 AI 助手与不同类型的模型上下文协议(MCP)服务器或客户端之间的无缝通信。其核心功能是实现这两类广泛使用的传输协议之间的互相转换,使为某一协议设计的工具、资源和工作流可以通过另一协议访问,无需修改。这提升了开发工作流,让 AI 助手能够与采用不同传输机制的外部数据源、API 或服务进行交互,从而实现如数据库查询、文件管理或 API 交互等跨系统任务。

提示模板列表

仓库中未提及任何提示模板。

资源列表

仓库文档或代码中未描述任何明确的 MCP 资源。

工具列表

仓库文档或可见代码(如无明确函数、工具或 server.py 中定义的工具)中未定义任何工具。

本 MCP 服务器使用场景

  • 协议桥接:允许使用 stdio 传输的 MCP 客户端与使用可流式 HTTP 的服务器通信,反之亦然,扩展互操作性。
  • 旧系统集成:便于将旧 MCP 工具或服务器与现代基于 HTTP 的 AI 平台集成,降低重开发成本。
  • AI 工作流提升:通过桥接协议鸿沟,使 AI 助手可以访问更广泛的工具和服务,丰富可用操作和数据源。
  • 跨平台开发:便于在偏好不同传输协议的环境中开发和测试基于 MCP 的工具,提升开发者灵活性。

配置方法

Windsurf

  1. 确保你的系统已安装 Python。
  2. 克隆 mcp-proxy 仓库或通过 PyPI 安装(如有提供)。
  3. 编辑 Windsurf 配置文件,添加 mcp-proxy MCP 服务器。
  4. 在你的配置中使用以下 JSON 片段:
    {
      "mcpServers": {
        "mcp-proxy": {
          "command": "mcp-proxy",
          "args": []
        }
      }
    }
    
  5. 重启 Windsurf 并验证 mcp-proxy 服务器是否已运行。

Claude

  1. 确保已安装 Python。
  2. 克隆或安装 mcp-proxy 服务器。
  3. 打开 Claude 的 MCP 服务器配置/设置。
  4. 添加以下配置:
    {
      "mcpServers": {
        "mcp-proxy": {
          "command": "mcp-proxy",
          "args": []
        }
      }
    }
    
  5. 保存并重启 Claude,然后验证连接。

Cursor

  1. 安装 Python 和 mcp-proxy 包。
  2. 打开 Cursor 的扩展或 MCP 服务器设置。
  3. 添加以下配置:
    {
      "mcpServers": {
        "mcp-proxy": {
          "command": "mcp-proxy",
          "args": []
        }
      }
    }
    
  4. 保存更改并重启 Cursor。

Cline

  1. 确保已安装 Python。
  2. 通过 PyPI 安装 mcp-proxy 或克隆仓库。
  3. 编辑 Cline 配置文件:
    {
      "mcpServers": {
        "mcp-proxy": {
          "command": "mcp-proxy",
          "args": []
        }
      }
    }
    
  4. 保存并重启 Cline。

API 密钥安全配置

你可以通过在配置中使用 env 环境变量来保护敏感信息(如 API 密钥):

{
  "mcpServers": {
    "mcp-proxy": {
      "command": "mcp-proxy",
      "args": [],
      "env": {
        "API_KEY": "${API_KEY}"
      },
      "inputs": {
        "api_key": "${API_KEY}"
      }
    }
  }
}

如何在 FlowHunt 工作流中使用 MCP

在 FlowHunt 集成 MCP 服务器时,首先在流程中添加 MCP 组件,并连接到你的 AI agent:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写你的 MCP 服务器信息:

{
  "mcp-proxy": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI agent 就可以作为工具使用该 MCP,访问其所有功能和能力。请记得将 “mcp-proxy” 替换为你实际的 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

模块可用性说明/备注
概览
提示模板列表未发现任何模板
资源列表未发现
工具列表未定义任何明确工具
API 密钥安全可通过配置中的 env 实现
采样支持(评价时不重要)未提及

| Roots 支持 | ⛔ | 未提及 |


综上,mcp-proxy 强调协议转换的专业性,并不直接提供工具、提示或资源。其价值体现在集成和连接能力上,而非直接为 LLM 提供功能。

我们的评价

mcp-proxy 是桥接 MCP 传输协议的重要工具,在协议不兼容影响 AI/LLM 工具互操作的场景下极具价值。但它并不直接提升 LLM 能力(如资源、提示、工具)。在其定位领域,该项目非常健壮且支持良好。综合评分:6/10(一般 MCP 通用性),如需协议桥接则为 9/10

MCP 评分

是否有 LICENSE✅ (MIT)
是否有至少一个工具
分叉数128
Star 数1.1k

常见问题

mcp-proxy MCP 服务器的作用是什么?

mcp-proxy MCP 服务器桥接了可流式 HTTP 和 stdio MCP 传输,实现 AI 助手与多种 MCP 服务器或客户端的无缝通信。这样,不同协议构建的工作流和工具可以无需修改即可协同工作。

mcp-proxy MCP 服务器的应用场景有哪些?

mcp-proxy 适用于不同 MCP 传输协议之间的协议桥接、将旧系统集成到现代 AI 平台、增强 AI 工作流连接性,以及支持跨平台开发和测试。

mcp-proxy 是否提供工具或提示资源?

不,mcp-proxy 专注于协议转换,不提供内置工具、提示模板或资源。其价值在于实现互操作和集成。

如何使用 mcp-proxy 保护 API 密钥?

你可以在 MCP 服务器配置中使用环境变量来保护 API 密钥。例如,在配置 JSON 中使用 'env' 块并引用变量。

如何在 FlowHunt 中使用 mcp-proxy?

在 FlowHunt 流程中添加 MCP 组件,然后在系统 MCP 配置中使用合适的 JSON 片段配置 mcp-proxy MCP 服务器。这将使你的 AI agent 能访问通过桥接 MCP 协议提供的所有功能。

在 FlowHunt 上试用 mcp-proxy

用 mcp-proxy 弥合你的 AI 工作流鸿沟,实现协议无缝互操作。快速集成旧系统,瞬间拓展 AI 能力。

了解更多

MCP 代理服务器
MCP 代理服务器

MCP 代理服务器

MCP 代理服务器将多个 MCP 资源服务器聚合为一个 HTTP 服务器,为 AI 助手和开发者简化连接。它实现了对多样化工具、API 和数据源的统一访问,支持实时流式传输与集中式认证。...

2 分钟阅读
AI Infrastructure +4
JetBrains MCP 服务器集成
JetBrains MCP 服务器集成

JetBrains MCP 服务器集成

JetBrains MCP 服务器将 AI 代理与 JetBrains IDE(如 IntelliJ、PyCharm、WebStorm 和 Android Studio)连接,实现自动化工作流、代码导航以及通过模型上下文协议(MCP)进行实时 AI-IDE 通信。...

2 分钟阅读
AI MCP +4
模型上下文协议 (MCP) 服务器
模型上下文协议 (MCP) 服务器

模型上下文协议 (MCP) 服务器

模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...

1 分钟阅读
AI MCP +4