
OpenAPI MCP 服务器
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...
通过 OpenCTI MCP 服务器将 FlowHunt 连接至 OpenCTI,实现强大、自动化的威胁情报与增强的安全工作流。
OpenCTI MCP 服务器是一个模型上下文协议(MCP)服务器,可与 OpenCTI(开放网络威胁情报)平台无缝集成。它在 AI 助手与 OpenCTI 威胁情报数据库之间搭建桥梁,使 AI 客户端能够通过标准化接口查询、检索并交互网络威胁情报数据。此服务器便于执行如恶意软件信息检索、威胁指标查询、用户与组管理、文件操作等任务。开发者可以利用其自动化安全工作流、用实时威胁数据丰富 LLM 输出,并在开发及运维环境中简化获取可操作情报的流程。
仓库或文档中未列出提示模板。
可用文档或仓库文件中未明确描述任何资源。
文档或代码中未列出具体工具。仅有高层特性及 API 能力描述,未枚举 MCP 工具或其方法签名。
.env.example
复制为 .env
,并填入您的 OpenCTI 凭证。{
"mcpServers": {
"opencti": {
"command": "node",
"args": ["path/to/opencti-server/build/index.js"],
"env": {
"OPENCTI_URL": "${OPENCTI_URL}",
"OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
}
}
}
}
.env.example
复制为 .env
并填写 OpenCTI 信息。{
"mcpServers": {
"opencti": {
"command": "node",
"args": ["path/to/opencti-server/build/index.js"],
"env": {
"OPENCTI_URL": "${OPENCTI_URL}",
"OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
}
}
}
}
.env.example
复制为 .env
并设置 OpenCTI URL 和 token。{
"mcpServers": {
"opencti": {
"command": "node",
"args": ["path/to/opencti-server/build/index.js"],
"env": {
"OPENCTI_URL": "${OPENCTI_URL}",
"OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
}
}
}
}
.env.example
复制为 .env
并填写您的信息。{
"mcpServers": {
"opencti": {
"command": "node",
"args": ["path/to/opencti-server/build/index.js"],
"env": {
"OPENCTI_URL": "${OPENCTI_URL}",
"OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
}
}
}
}
{
"mcpServers": {
"opencti": {
"command": "node",
"args": ["path/to/opencti-server/build/index.js"],
"env": {
"OPENCTI_URL": "${OPENCTI_URL}",
"OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请首先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写您的 MCP 服务器信息:
{
"opencti": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问此 MCP 的全部功能。请务必将 “opencti” 替换为您的 MCP 服务器实际名称,并将 URL 替换为您的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | README 中有基本描述 |
提示模板列表 | ⛔ | 未列出提示模板 |
资源列表 | ⛔ | 未明确描述 MCP 资源 |
工具列表 | ⛔ | 文档中无具体工具列表 |
API 密钥安全 | ✅ | 有环境变量存储用法文档 |
采样支持(评价中不重要) | ⛔ | 未提及采样支持 |
根据现有文档和代码,OpenCTI MCP 服务器提供了清晰的概览和完善的搭建指导,但缺乏对资源、提示、工具及高级 MCP 特性的明确说明,如采样或根配置等。
基于现有证据,此 MCP 服务器为 OpenCTI 集成提供了良好基础,具备完善的搭建与安全实践,但在 MCP 特性(如工具、资源、提示及采样)方面透明度不足。因此,我们对该 MCP 的整体完整性与 LLM 集成可用性评分为 5/10。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ⛔ |
Fork 数 | 10 |
Star 数 | 18 |
OpenCTI MCP 服务器使 FlowHunt(及其他 AI 平台)能够通过在 AI 代理与 OpenCTI 数据库之间搭建桥梁,访问和自动化网络威胁情报工作流。它标准化了对威胁情报如恶意软件、威胁指标、攻击模式以及用户管理等的访问。
主要应用包括自动化威胁情报获取、SOC 工具集成、在 OpenCTI 中管理用户/组、查询 STIX 对象,以及通过 OpenCTI 的实时数据提升 AI 驱动的事件响应。
此 MCP 服务器未提供特定的提示模板或明确的工具签名。集成主要聚焦于标准化 OpenCTI API 的访问,而不是提供预设模板或工具。
API 凭证通过环境变量进行保护。切勿将 OpenCTI URL 或 token 直接硬编码在配置文件中。应始终使用 .env 文件或环境管理系统来存储敏感数据。
可以,OpenCTI MCP 服务器兼容 Windsurf、Claude、Cursor 和 Cline 客户端。每种客户端均提供了具体配置步骤。
根据现有文档和 MCP 功能,此 MCP 服务器的完整性和透明度评分为 5/10,具备强大的部署和安全性,但缺少详细的工具/资源曝光。
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...
OpenSearch MCP 服务器实现了 OpenSearch 与 FlowHunt 及其他 AI 代理的无缝集成,通过模型上下文协议(MCP)以编程方式访问搜索、分析和内容管理等功能。...
可证明的 MCP 服务器为 FlowHunt 工作流带来了远程证明和机密计算,使 AI 代理和客户端能够在连接前验证服务器完整性。它利用硬件级加密证明来确保安全、未被篡改的 AI 流水线。...