oatpp-mcp MCP 服务器

oatpp-mcp MCP 服务器

一个为 Oat++ 提供的简约且功能完善的 MCP 服务器,使 AI 代理能够与 API 端点交互、管理文件,并通过标准化工具和提示模板自动化工作流。

“oatpp-mcp” MCP 服务器的作用是什么?

oatpp-mcp MCP 服务器是 Anthropic 模型上下文协议(MCP)在 Oat++ Web 框架下的实现。它作为 AI 助手和外部 API 或服务间的桥梁,实现无缝集成与交互。通过 MCP 协议暴露 Oat++ API 控制器和资源,oatpp-mcp 允许 AI 代理执行如 API 查询、文件管理和使用服务器端工具等任务。这让开发者能够让大语言模型(LLM)及客户端访问和操作后端数据,实现自动化操作,并通过可复用的提示模板和工作流标准化交互。该服务器支持 STDIO 或 HTTP SSE 运行方式,适应不同部署环境。

提示模板列表

  • CodeReview
    专为代码审查任务设计的提示模板,使 LLM 能分析用户提交的代码片段并提供反馈。

资源列表

  • File
    作为资源开放文件系统操作,允许客户端和 LLM 在服务器上读写文件。

(文档中未明确列出其他资源。)

工具列表

  • Logger
    提供日志记录能力,使 LLM 和客户端可在与服务器交互时记录事件或操作。

(文档中未明确列出其他工具。)

该 MCP 服务器的应用场景

  • 代码审查自动化
    开发者可提交代码片段进行自动审查,由 LLM 实时反馈建议,提高代码质量保障效率。
  • API 查询
    服务器可根据 Oat++ API 控制器自动生成工具,使 AI 助手能直接与自定义 API 交互,实现数据获取或流程自动化。
  • 文件管理
    通过 File 资源,AI 代理可在服务器上读写文件,支持如配置修改、日志获取、数据预处理等任务。
  • 日志与监控
    利用 Logger 工具,开发者可追踪 AI 驱动的操作,监控工作流并高效调试问题。
  • LLM 工作流标准化
    通过标准提示和工具,团队可为基于 LLM 的自动化和集成创建一致、可复用的工作流。

配置方法

Windsurf

  1. 确保已安装所有前置条件(Oat++、如需 Node.js,以及已构建/安装 oatpp-mcp)。
  2. 找到您的 Windsurf 配置文件(如 settings.json)。
  3. mcpServers 对象下添加 oatpp-mcp 服务器:
    {
      "mcpServers": {
        "oatpp-mcp": {
          "command": "oatpp-mcp",
          "args": []
        }
      }
    }
    
  4. 保存配置并重启 Windsurf。
  5. 验证 oatpp-mcp 服务器是否正在运行且可访问。

API 密钥安全配置

{
  "mcpServers": {
    "oatpp-mcp": {
      "command": "oatpp-mcp",
      "env": {
        "API_KEY": "env:OATPP_API_KEY"
      },
      "inputs": {
        "api_key": "${API_KEY}"
      }
    }
  }
}

Claude

  1. 按构建说明安装 Oat++ 和 oatpp-mcp。
  2. 打开 Claude 的 MCP 集成配置。
  3. 使用以下 JSON 注册 oatpp-mcp 服务器:
    {
      "mcpServers": {
        "oatpp-mcp": {
          "command": "oatpp-mcp",
          "args": []
        }
      }
    }
    
  4. 重启 Claude。
  5. 测试与 oatpp-mcp MCP 服务器的连接。

API 密钥安全配置
请参照 Windsurf 的方式。

Cursor

  1. 构建并安装 oatpp-mcp。
  2. 编辑 Cursor 的配置文件(具体位置请参考文档)。
  3. 将 oatpp-mcp 添加为 MCP 服务器:
    {
      "mcpServers": {
        "oatpp-mcp": {
          "command": "oatpp-mcp",
          "args": []
        }
      }
    }
    
  4. 保存后重启 Cursor。
  5. 确认服务器已被列出且可访问。

API 密钥安全配置
同上。

Cline

  1. 确保已安装前置条件(Oat++、oatpp-mcp)。
  2. 编辑 Cline 的 MCP 服务器配置。
  3. 按以下方式添加 oatpp-mcp:
    {
      "mcpServers": {
        "oatpp-mcp": {
          "command": "oatpp-mcp",
          "args": []
        }
      }
    }
    
  4. 保存并重启 Cline。
  5. 测试 MCP 服务器集成。

API 密钥安全配置
同上。

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成进您的 FlowHunt 工作流,请先在流程中添加 MCP 组件并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "oatpp-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,获得其全部功能和能力。请记得将 “oatpp-mcp” 替换为实际 MCP 服务器名称,并将 URL 替换为您的 MCP 服务器地址。


总览

部分是否具备细节/备注
概览
提示模板列表仅明确提及 “CodeReview”
资源列表仅明确提及 “File” 资源
工具列表仅明确提及 “Logger” 工具
API 密钥安全配置提供了通过环境变量保护 API 密钥的示例
采样支持(评估时较次要)未提及

根据文档,oatpp-mcp 提供了一个简约但功能完善的 MCP 服务器实现,覆盖了协议的基本内容(提示、资源、工具和搭建方法),但未见采样、roots 等高级特性的相关说明。文档清晰,涵盖基础内容,但在深度和细节上有限。


MCP 评分

是否有 LICENSE✅ (Apache-2.0)
是否有至少一个工具
Fork 数量3
Star 数量41

我们的观点:
oatpp-mcp 为 Oat++ 用户提供了一个简洁、合规的 MCP 实现。它覆盖了协议基础(至少有一个工具、一个提示和一个资源),但功能不丰富,缺乏 roots、采样或更多原语的文档或证据。它非常适合作为 Oat++ 用户的起点,但如需更高级的工作流,可能还需自行扩展。

评分:
6/10 —— 基础扎实,协议合规,功能和可扩展性受限于现有文档。

常见问题

什么是 oatpp-mcp MCP 服务器?

oatpp-mcp 是 Oat++ 的 Anthropic 模型上下文协议(MCP)实现,通过 MCP 协议向 AI 代理开放 API 控制器、文件系统访问和如日志记录等工具。这使得 AI 驱动系统能够无缝进行后端自动化、文件管理和标准化工作流集成。

默认包含哪些提示、资源和工具?

oatpp-mcp 默认包含用于代码分析的 CodeReview 提示模板、用于文件系统操作的 File 资源,以及用于事件日志记录的 Logger 工具。这些为代码审查、文件管理和工作流监控提供了基础。

如何在 FlowHunt 或其他 MCP 兼容平台上配置 oatpp-mcp?

将 oatpp-mcp 服务器添加到平台的 MCP 配置中,按照文档指定命令和参数。通过环境变量保护 API 密钥,并确保服务器可访问。配置完成后,FlowHunt 代理即可在自动化流程中使用所暴露的资源和工具。

oatpp-mcp 的主要应用场景有哪些?

oatpp-mcp 支持代码审查自动化、直接 API 查询、文件管理操作、工作流日志记录,以及为 AI 驱动后端任务创建标准化 LLM 工作流等场景。

oatpp-mcp 有哪些局限?

oatpp-mcp 提供了一个简约、合规的 MCP 实现,但缺乏如采样、roots 或丰富工具资源等高级功能。如需更复杂的工作流,可能需要自行扩展其功能。

在 FlowHunt 中试用 oatpp-mcp

将 oatpp-mcp 集成到您的 FlowHunt 流程中,标准化 AI 代理对 API、文件和工具的访问。开始自动化后端任务,简化代码审查、日志记录和数据操作流程。

了解更多

OpenAPI MCP 服务器
OpenAPI MCP 服务器

OpenAPI MCP 服务器

OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...

2 分钟阅读
API OpenAPI +5
模型上下文协议 (MCP) 服务器
模型上下文协议 (MCP) 服务器

模型上下文协议 (MCP) 服务器

模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...

1 分钟阅读
AI MCP +4
any-chat-completions-mcp MCP 服务器
any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...

2 分钟阅读
AI Chatbot +5