
OpenAPI MCP 服务器
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...

OpsLevel MCP 服务器将 AI 代理与实时 OpsLevel 服务目录数据及运营洞察连接,实现自动化、标准化的工程工作流。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
OpsLevel MCP 服务器是一款 Model Context Protocol (MCP) 服务器,旨在将 AI 助手与 OpsLevel 的服务目录及基于上下文的工程数据连接起来。它作为 AI 代理与 OpsLevel 资源之间的桥梁,让开发者和团队能够通过实时服务数据、元数据和运营洞察提升工作流。该服务器可辅助完成服务目录查询、元数据检索、与 OpsLevel API 交互等任务,帮助团队自动化并标准化如服务接入、合规检查、文档检索等流程。这一集成让 AI 助手能够在开发环境中呈现相关信息、自动化重复性任务,并提供基于上下文的建议。
仓库未明确提及任何提示词模板。
在可访问文件或文档中未发现明确的资源定义。
server.py 或其他仓库文件中未提供详细工具列表。
{
"mcpServers": {
"opslevel-mcp": {
"command": "npx",
"args": ["@opslevel/mcp-server@latest"]
}
}
}
在配置中使用环境变量:
{
"env": {
"OPSLEVEL_API_KEY": "your_api_key"
},
"inputs": {
"apiKey": "${OPSLEVEL_API_KEY}"
}
}
{
"mcpServers": {
"opslevel-mcp": {
"command": "npx",
"args": ["@opslevel/mcp-server@latest"]
}
}
}
{
"env": {
"OPSLEVEL_API_KEY": "your_api_key"
},
"inputs": {
"apiKey": "${OPSLEVEL_API_KEY}"
}
}
{
"mcpServers": {
"opslevel-mcp": {
"command": "npx",
"args": ["@opslevel/mcp-server@latest"]
}
}
}
{
"env": {
"OPSLEVEL_API_KEY": "your_api_key"
},
"inputs": {
"apiKey": "${OPSLEVEL_API_KEY}"
}
}
{
"mcpServers": {
"opslevel-mcp": {
"command": "npx",
"args": ["@opslevel/mcp-server@latest"]
}
}
}
{
"env": {
"OPSLEVEL_API_KEY": "your_api_key"
},
"inputs": {
"apiKey": "${OPSLEVEL_API_KEY}"
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成进您的 FlowHunt 工作流,首先在流程中添加 MCP 组件,并将其连接到 AI 代理:

点击 MCP 组件,打开配置面板。在系统 MCP 配置部分,使用以下 JSON 格式填写您的 MCP 服务器信息:
{
"opslevel-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP,访问其全部功能。请记得将 “opslevel-mcp” 替换为您实际 MCP 服务器的名称,并将 URL 换为您的 MCP 服务器地址。
| 部分 | 可用性 | 说明/备注 |
|---|---|---|
| 总览 | ✅ | 可根据仓库名/用途推断 |
| 提示词列表 | ⛔ | 未发现提示词模板 |
| 资源列表 | ⛔ | 未发现明确资源定义 |
| 工具列表 | ⛔ | server.py 或其他文件中无工具列表 |
| API 密钥安全配置 | ✅ | 搭建指引中有示例 |
| 采样支持(评测不重要) | ⛔ | 仓库或文档未说明 |
根据现有信息,我对 OpsLevel MCP 服务器的整体评价有限,因为仓库未记录关键信息如提示词、资源和工具等。该项目有许可证、极少的 star/fork 及基础搭建指引,但在文档与 MCP 功能深度上尚有不足。
| 拥有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ⛔ |
| Fork 数量 | 2 |
| Star 数量 | 2 |

OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...

将 Claude 等 AI 助手连接到任何具有 OpenAPI(Swagger)规范的 API。任意 OpenAPI MCP 服务器实现了语义端点发现和直接 API 请求执行,简化了 FlowHunt 及其他平台上的私有 API 集成及动态工作流。...

AWS 资源 MCP 服务器让 AI 助手能够使用 Python 和 boto3 以对话方式管理和查询 AWS 资源。将强大的 AWS 自动化与管理安全、基于权限的操作集成到您的 FlowHunt 工作流中。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.