OpenAPI MCP 服务器

API OpenAPI MCP Server Integration

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“OpenAPI” MCP 服务器的作用是什么?

OpenAPI MCP 服务器是一款模型上下文协议(MCP)服务器,旨在连接 AI 助手(如 Claude 和 Cursor),使其能够通过 oapis.org 搜索和探索 OpenAPI 规范。它作为桥梁,让 AI 模型能够用简明的语言全面了解复杂 API。服务器遵循三步流程:定位所需的 OpenAPI 规范,用易懂的方式进行摘要,并详细说明端点及其用法。虽然它不会直接执行 API 端点(因认证限制),但在提供 API 概览、辅助代码生成及开发过程中理解和文档化 API 结构等方面表现出色。

提示词列表

  • 概览提示词:请求对 OpenAPI 规范的摘要和理解。
  • 操作详情提示词:获取特定 API 操作的详细描述。
  • 端点识别提示词:根据查询确定相关端点。
Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

  • OpenAPI 规范概览:提供 API 规范的整体摘要。
  • API 操作详情:提供特定端点及其参数的上下文信息。
  • 格式灵活性:支持 JSON 和 YAML 格式的 API 规范。
  • 兼容性资源:已在 Claude Desktop 和 Cursor 上测试,确保上下文无缝传递。

工具列表

  • v2 版本不提供可执行工具;服务器专注于 API 的探索与上下文提供,不支持将端点作为工具直接执行。

MCP 服务器的应用场景

  • API 文档生成: 从复杂的 OpenAPI 规范中自动生成易读的人类文档,让开发者更易理解 API。
  • API 代码生成支持: 通过清晰的端点描述和用法,协助开发者生成客户端代码。
  • API 发现与探索: 快速识别和总结可用端点,帮助团队或 AI 模型发现 API 能力。
  • 为 AI 代理提供上下文: 为大模型或代理提供相关 API 上下文,提升其回答问题或编写涉及外部 API 代码的能力。
  • 入职与培训: 通过简化的摘要和操作拆解,帮助新成员或 AI 代理快速了解陌生 API。

如何设置

Windsurf

  1. 确保您的系统已安装 Node.js。
  2. 打开 Windsurf 配置文件。
  3. mcpServers 部分添加 OpenAPI MCP 服务器,使用下方 JSON 片段。
  4. 保存配置并重启 Windsurf。
  5. 验证是否已连接到 MCP 服务器。

示例配置:

{
  "mcpServers": {
    "openapi-mcp": {
      "command": "npx",
      "args": ["@janwilmake/openapi-mcp-server@latest"],
      "env": {
        "OAS_API_KEY": "${OAS_API_KEY}"
      }
    }
  }
}

注意: 请如上所示通过环境变量保护您的 API 密钥。

Claude

  1. 安装 Node.js。
  2. 进入 Claude 的 MCP 集成设置。
  3. 使用以下配置添加 OpenAPI MCP 服务器。
  4. 保存设置并重启 Claude。
  5. 确认服务器已作为 MCP 资源可用。

示例配置:

{
  "mcpServers": {
    "openapi-mcp": {
      "command": "npx",
      "args": ["@janwilmake/openapi-mcp-server@latest"],
      "env": {
        "OAS_API_KEY": "${OAS_API_KEY}"
      }
    }
  }
}

Cursor

  1. 确保已安装 Node.js。
  2. 找到 Cursor 的配置文件。
  3. mcpServers 下插入 OpenAPI MCP 服务器。
  4. 保存并重启 Cursor。
  5. 用示例 OpenAPI 查询进行测试。

示例配置:

{
  "mcpServers": {
    "openapi-mcp": {
      "command": "npx",
      "args": ["@janwilmake/openapi-mcp-server@latest"],
      "env": {
        "OAS_API_KEY": "${OAS_API_KEY}"
      }
    }
  }
}

Cline

  1. 如尚未安装 Node.js,请先安装。
  2. 编辑 Cline 配置文件,添加 OpenAPI MCP。
  3. 添加以下 JSON 块。
  4. 保存并重启 Cline。
  5. 确认 MCP 服务器已激活。

示例配置:

{
  "mcpServers": {
    "openapi-mcp": {
      "command": "npx",
      "args": ["@janwilmake/openapi-mcp-server@latest"],
      "env": {
        "OAS_API_KEY": "${OAS_API_KEY}"
      }
    }
  }
}

API 密钥安全提示:
请将敏感密钥存储在环境变量中,并在配置中的 env 属性中引用。

如何在流程中使用 MCP

FlowHunt 中集成 MCP

要将 MCP 服务器集成到您的 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用以下 JSON 格式填写您的 MCP 服务器信息:

{
  "openapi-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,获得其全部功能和能力。请务必将 “openapi-mcp” 改为您的 MCP 服务器实际名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览
提示词列表
资源列表
工具列表仅支持上下文/探索,不可直接执行端点
API 密钥安全使用环境变量配置
采样支持(评估时不重要)未提及

我们的观点

OpenAPI MCP 服务器是一款聚焦且实用的 MCP,擅长为 OpenAPI 规范提供上下文和探索工具。不支持端点执行对于某些高级场景来说是限制,采样/roots 支持暂无文档。但其清晰的配置指引、扎实的代码基础和社区活跃度,使其成为开发者获取 API 上下文和代码生成支持的优秀选择。

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具✅ (上下文工具)
Fork 数76
Star 数691

常见问题

在 FlowHunt 上试用 OpenAPI MCP 服务器

通过高级 API 上下文、自动文档和无缝集成到 FlowHunt 及主流 AI 代理,全面提升您的 AI 工作流。

了解更多

任意 OpenAPI MCP 服务器
任意 OpenAPI MCP 服务器

任意 OpenAPI MCP 服务器

将 Claude 等 AI 助手连接到任何具有 OpenAPI(Swagger)规范的 API。任意 OpenAPI MCP 服务器实现了语义端点发现和直接 API 请求执行,简化了 FlowHunt 及其他平台上的私有 API 集成及动态工作流。...

2 分钟阅读
AI MCP Server +4
OpenRPC MCP 服务器
OpenRPC MCP 服务器

OpenRPC MCP 服务器

OpenRPC MCP 服务器通过 OpenRPC 规范将 AI 助手与支持 JSON-RPC 的系统连接,实现与外部 API 和服务的可编程、动态集成。它使开发者和 AI 代理能够发现、调用和自动化远程过程,提升工作流、调试和服务编排能力。...

2 分钟阅读
MCP Server OpenRPC +5
OpenSearch MCP 服务器集成
OpenSearch MCP 服务器集成

OpenSearch MCP 服务器集成

OpenSearch MCP 服务器实现了 OpenSearch 与 FlowHunt 及其他 AI 代理的无缝集成,通过模型上下文协议(MCP)以编程方式访问搜索、分析和内容管理等功能。...

2 分钟阅读
AI OpenSearch +5