OpenCTI MCP 服务器集成

OpenCTI MCP 服务器集成

通过 OpenCTI MCP 服务器将 FlowHunt 连接至 OpenCTI,实现强大、自动化的威胁情报与增强的安全工作流。

“OpenCTI” MCP 服务器的作用是什么?

OpenCTI MCP 服务器是一个模型上下文协议(MCP)服务器,可与 OpenCTI(开放网络威胁情报)平台无缝集成。它在 AI 助手与 OpenCTI 威胁情报数据库之间搭建桥梁,使 AI 客户端能够通过标准化接口查询、检索并交互网络威胁情报数据。此服务器便于执行如恶意软件信息检索、威胁指标查询、用户与组管理、文件操作等任务。开发者可以利用其自动化安全工作流、用实时威胁数据丰富 LLM 输出,并在开发及运维环境中简化获取可操作情报的流程。

提示模板列表

仓库或文档中未列出提示模板。

资源列表

可用文档或仓库文件中未明确描述任何资源。

工具列表

文档或代码中未列出具体工具。仅有高层特性及 API 能力描述,未枚举 MCP 工具或其方法签名。

本 MCP 服务器的应用场景

  • 威胁情报自动化: 自动检索与分析最新威胁情报报告、威胁指标、恶意软件信息及威胁行为体,助力主动安全运营。
  • 安全运营集成: 与 SOC 工具集成,使 AI 代理能够获取活动信息、列出攻击模式,并为事件响应团队提供可操作见解。
  • 用户与组管理: 通过 AI 助手列出并管理 OpenCTI 实例内的用户或组,支持管理流程与访问审计。
  • STIX 对象操作: 直接在开发环境或自动化流程中查询和操作 STIX 对象,如活动和攻击模式。
  • 文件与参考数据访问: 让 AI 与 OpenCTI 中的文件、标记定义和标签交互,支持高级数据丰富与分类任务。

如何搭建

Windsurf

  1. 前置条件: 确保已安装 Node.js 16+,并拥有有效 API token 的 OpenCTI 实例访问权限。
  2. 准备环境:.env.example 复制为 .env,并填入您的 OpenCTI 凭证。
  3. 配置 MCP 服务器: 编辑 Windsurf MCP 配置文件,添加 OpenCTI 服务器:
    {
      "mcpServers": {
        "opencti": {
          "command": "node",
          "args": ["path/to/opencti-server/build/index.js"],
          "env": {
            "OPENCTI_URL": "${OPENCTI_URL}",
            "OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
          }
        }
      }
    }
    
  4. 保存并重启: 保存配置并重启 Windsurf 客户端。
  5. 验证: 确保 MCP 服务器已在 Windsurf 中列出并可用。

Claude

  1. 前置条件: 安装 Node.js 16+,获取 OpenCTI API 凭证。
  2. 环境设置:.env.example 复制为 .env 并填写 OpenCTI 信息。
  3. 在 Claude 添加 MCP 服务器: 按如下方式更新 MCP 设置:
    {
      "mcpServers": {
        "opencti": {
          "command": "node",
          "args": ["path/to/opencti-server/build/index.js"],
          "env": {
            "OPENCTI_URL": "${OPENCTI_URL}",
            "OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
          }
        }
      }
    }
    
  4. 重启 Claude: 保存配置并重启 Claude。
  5. 检查连接: 确认 OpenCTI MCP 已连接。

Cursor

  1. 前置条件: 确保已安装 Node.js 16+ 并拥有 OpenCTI 访问权限。
  2. 配置环境:.env.example 复制为 .env 并设置 OpenCTI URL 和 token。
  3. 编辑 Cursor 配置: 在 MCP 配置中插入如下内容:
    {
      "mcpServers": {
        "opencti": {
          "command": "node",
          "args": ["path/to/opencti-server/build/index.js"],
          "env": {
            "OPENCTI_URL": "${OPENCTI_URL}",
            "OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
          }
        }
      }
    }
    
  4. 重启 Cursor: 保存并重启应用。
  5. 验证: 确保 OpenCTI MCP 服务器在 Cursor 中可用。

Cline

  1. 前置条件: 安装 Node.js 16+ 并拥有 OpenCTI 实例凭证。
  2. 设置环境文件:.env.example 复制为 .env 并填写您的信息。
  3. 配置 Cline MCP: 在配置中添加 OpenCTI MCP:
    {
      "mcpServers": {
        "opencti": {
          "command": "node",
          "args": ["path/to/opencti-server/build/index.js"],
          "env": {
            "OPENCTI_URL": "${OPENCTI_URL}",
            "OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
          }
        }
      }
    }
    
  4. 重启 Cline: 保存配置并重启 Cline。
  5. 验证: 检查 OpenCTI MCP 是否如预期出现。

API 密钥安全(适用于所有平台)

  • 始终使用环境变量存储敏感 API 凭证。示例配置如下:
    {
      "mcpServers": {
        "opencti": {
          "command": "node",
          "args": ["path/to/opencti-server/build/index.js"],
          "env": {
            "OPENCTI_URL": "${OPENCTI_URL}",
            "OPENCTI_TOKEN": "${OPENCTI_TOKEN}"
          }
        }
      }
    }
    

在流程中如何使用此 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,请首先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "opencti": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具访问此 MCP 的全部功能。请务必将 “opencti” 替换为您的 MCP 服务器实际名称,并将 URL 替换为您的 MCP 服务器地址。


概览

部分可用性详情/备注
概览README 中有基本描述
提示模板列表未列出提示模板
资源列表未明确描述 MCP 资源
工具列表文档中无具体工具列表
API 密钥安全有环境变量存储用法文档
采样支持(评价中不重要)未提及采样支持

根据现有文档和代码,OpenCTI MCP 服务器提供了清晰的概览和完善的搭建指导,但缺乏对资源、提示、工具及高级 MCP 特性的明确说明,如采样或根配置等。

我们的看法

基于现有证据,此 MCP 服务器为 OpenCTI 集成提供了良好基础,具备完善的搭建与安全实践,但在 MCP 特性(如工具、资源、提示及采样)方面透明度不足。因此,我们对该 MCP 的整体完整性与 LLM 集成可用性评分为 5/10

MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数10
Star 数18

常见问题

什么是 OpenCTI MCP 服务器?

OpenCTI MCP 服务器使 FlowHunt(及其他 AI 平台)能够通过在 AI 代理与 OpenCTI 数据库之间搭建桥梁,访问和自动化网络威胁情报工作流。它标准化了对威胁情报如恶意软件、威胁指标、攻击模式以及用户管理等的访问。

此集成的主要应用场景有哪些?

主要应用包括自动化威胁情报获取、SOC 工具集成、在 OpenCTI 中管理用户/组、查询 STIX 对象,以及通过 OpenCTI 的实时数据提升 AI 驱动的事件响应。

此 MCP 服务器内是否有内置提示模板或工具?

此 MCP 服务器未提供特定的提示模板或明确的工具签名。集成主要聚焦于标准化 OpenCTI API 的访问,而不是提供预设模板或工具。

API 凭证的安全性如何保障?

API 凭证通过环境变量进行保护。切勿将 OpenCTI URL 或 token 直接硬编码在配置文件中。应始终使用 .env 文件或环境管理系统来存储敏感数据。

可以在多个 FlowHunt 客户端中使用此 MCP 吗?

可以,OpenCTI MCP 服务器兼容 Windsurf、Claude、Cursor 和 Cline 客户端。每种客户端均提供了具体配置步骤。

此 MCP 服务器的总体完整性评分是多少?

根据现有文档和 MCP 功能,此 MCP 服务器的完整性和透明度评分为 5/10,具备强大的部署和安全性,但缺少详细的工具/资源曝光。

用 OpenCTI MCP 提升您的威胁情报能力

部署 OpenCTI MCP 服务器与 FlowHunt,实现网络威胁情报自动访问、丰富 LLM 响应并简化 SOC 运维。安全、可扩展、高效。

了解更多

OpenAPI MCP 服务器
OpenAPI MCP 服务器

OpenAPI MCP 服务器

OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...

2 分钟阅读
API OpenAPI +5
OpenSearch MCP 服务器集成
OpenSearch MCP 服务器集成

OpenSearch MCP 服务器集成

OpenSearch MCP 服务器实现了 OpenSearch 与 FlowHunt 及其他 AI 代理的无缝集成,通过模型上下文协议(MCP)以编程方式访问搜索、分析和内容管理等功能。...

2 分钟阅读
AI OpenSearch +5
可证明的 MCP 服务器
可证明的 MCP 服务器

可证明的 MCP 服务器

可证明的 MCP 服务器为 FlowHunt 工作流带来了远程证明和机密计算,使 AI 代理和客户端能够在连接前验证服务器完整性。它利用硬件级加密证明来确保安全、未被篡改的 AI 流水线。...

2 分钟阅读
Security AI Infrastructure +4