
OpenAPI Schema Explorer MCP 服务器
OpenAPI Schema Explorer MCP 服务器可高效、结构化地访问 OpenAPI/Swagger 规范,将其作为 MCP 资源进行管理,为 AI 助手和开发者搭建起探索、模式验证、自动化等 API 文档桥梁。...
结合 LLM 公开并搜索 OpenAPI 模式。即刻列出端点、获取模式,并用 OpenAPI Schema MCP 服务器提升 API 工作流。
OpenAPI Schema MCP 服务器是一个模型上下文协议(MCP)服务器,专为向大语言模型(LLM,如 Claude)公开 OpenAPI 模式信息而设计。通过结构化访问 OpenAPI 规范,该服务器使 AI 助手能够探索和理解 API,包括其端点、参数、请求与响应模式等。这使开发者和 AI 工具可以查询 API 结构、跨规范搜索、获取详细的模式定义,从而提升 API 集成、文档编写和代码生成等工作流。服务器支持加载 JSON 或 YAML 格式的 OpenAPI 文件,并以 YAML 格式返回结果,以提升 LLM 的理解能力。
仓库中未记录明确的提示模板。
仓库中未描述明确的资源。
OpenAPI Schema MCP 服务器为 LLM 提供以下工具:
Windsurf 未提供设置说明。
npx
。~/Library/Application Support/Claude/claude_desktop_config.json
$env:AppData\Claude\claude_desktop_config.json
mcpServers
对象下添加 OpenAPI Schema MCP 服务器:{
"mcpServers": {
"OpenAPI Schema": {
"command": "npx",
"args": ["-y", "mcp-openapi-schema", "/ABSOLUTE/PATH/TO/openapi.yaml"]
}
}
}
Cursor 未提供设置说明。
npx
。claude mcp add openapi-schema npx -y mcp-openapi-schema
claude mcp add petstore-api npx -y mcp-openapi-schema ~/Projects/petstore.yaml
claude mcp list
claude mcp get openapi-schema
claude mcp remove openapi-schema
未提供关于 API 密钥安全或环境变量的相关信息。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到你的 FlowHunt 工作流,首先在流程中添加 MCP 组件并将其连接到你的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用以下 JSON 格式填入你的 MCP 服务器信息:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将该 MCP 作为工具,访问其全部功能。请记得将 “MCP-name” 替换为你的实际 MCP 服务器名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | |
提示模板列表 | ⛔ | 未记录提示模板 |
资源列表 | ⛔ | 未记录明确资源 |
工具列表 | ✅ | 针对 OpenAPI 模式访问记录了 10 个工具 |
API 密钥安全 | ⛔ | 未提及 |
采样支持(评估中不重要) | ⛔ | 未提及 |
根据现有文档,OpenAPI Schema MCP 服务器高度专注于通过 LLM 进行 OpenAPI 探索,工具集丰富,但在提示、资源、API 密钥处理和高级 MCP 特性上缺乏细节。对于 OpenAPI 场景非常强大;对于更广泛的 MCP 特性,则有限。
是否有 LICENSE | ⛔ |
---|---|
至少有一个工具 | ✅ |
Fork 数 | 9 |
Star 数 | 30 |
评分:
我会给该 MCP 服务器打 6/10。它在 OpenAPI 模式探索方面定义明确,工具丰富,但缺乏 MCP 提示模板、明确资源定义、安全实践文档,并未提及根节点支持或采样。缺少 LICENSE 也显著限制了开放协作。
它是一个模型上下文协议(MCP)服务器,为大语言模型(LLM)提供结构化的 OpenAPI 规范访问能力,实现高级 API 探索、文档编写和代码生成。
它提供了列出端点、获取端点及组件模式、获取请求与响应模式、列出安全方案、搜索模式及获取示例等工具,均可被 LLM 程序化访问。
包括 API 探索、自动代码生成、API 文档编写、安全审查、模式搜索和分析,以及支持 API 测试工具。
支持,服务器可加载 JSON 和 YAML 格式的 OpenAPI 文件,并以 YAML 格式返回结果,提升 LLM 理解能力。
没有,当前文档未提供提示模板或明确的资源定义。
没有,当前文档未涵盖 API 密钥安全或环境变量相关内容。
缺少提示模板、明确的资源文档、API 密钥处理、采样支持,并且未指定许可证,限制了开放协作。
OpenAPI Schema Explorer MCP 服务器可高效、结构化地访问 OpenAPI/Swagger 规范,将其作为 MCP 资源进行管理,为 AI 助手和开发者搭建起探索、模式验证、自动化等 API 文档桥梁。...
GraphQL Schema MCP 服务器使 AI 助手和开发者能够以编程方式探索、分析和文档化 GraphQL 模式。它提供了一套强大的工具,实现模式发现、类型检查、字段查找和基于模式的搜索,从而简化 API 集成与文档编写流程。...
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...