n8n MCP 服务器集成

AI Automation n8n Workflow

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“n8n” MCP 服务器能做什么?

n8n MCP 服务器是一款模型上下文协议(MCP)服务器,通过其 API 实现了 AI 助手与 n8n 自动化平台的无缝集成。作为桥梁,n8n MCP 服务器允许 AI 代理和大型语言模型(LLM)与外部工作流交互,自动化任务,实时查询或触发自动化。它提升了开发者的工作流开发体验,使其能够进行如管理 n8n 工作流、获取执行历史、以编程方式操作 n8n 资源等操作。n8n MCP 服务器简化了 AI 代理对强大自动化能力的接入流程,使构建结合 AI 与工作流自动化的高级自动化方案变得更容易。

提示模板列表

未在仓库中找到相关的提示模板信息。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

未能在仓库文件中确认有明确的 MCP 资源。

工具列表

在现有代码或文档中未找到直接的 MCP 工具列表。

此 MCP 服务器的应用场景

  • 工作流自动化: 使 AI 助手能够触发、管理或查询 n8n 工作流,实现重复任务的自动化处理。
  • 执行监控: 获取并监控工作流执行历史,为开发者提供实时的自动化运行洞察。
  • 对接外部 API: 利用 n8n 的自动化能力结合 AI 代理,连接各类第三方 API 并自动化数据流转。
  • 自动化故障处理: 允许 AI 代理诊断并重启失败的工作流或执行,提高可靠性和正常运行时间。
  • 流程编排: 将 AI 驱动的决策与 n8n 强大的自动化引擎相结合,协调复杂流程。

如何配置

Windsurf

  1. 确保已安装 Node.js。
  2. 找到您的 Windsurf 配置文件。
  3. mcpServers 部分添加如下 JSON 片段:
    {
      "n8n-mcp-server": {
        "command": "npx",
        "args": ["@n8n/mcp-server@latest"]
      }
    }
    
  4. 保存配置文件并重启 Windsurf。
  5. 通过检查服务状态验证服务器是否运行。

API 密钥安全存储

请使用环境变量存储敏感的 API 密钥。例如:

{
  "env": {
    "N8N_API_KEY": "your_api_key_here"
  },
  "inputs": {
    "apiKey": "${env.N8N_API_KEY}"
  }
}

Claude

  1. 如尚未安装 Node.js,请先安装。
  2. 打开 Claude 的配置文件。
  3. mcpServers 下插入 n8n MCP 服务器配置:
    {
      "n8n-mcp-server": {
        "command": "npx",
        "args": ["@n8n/mcp-server@latest"]
      }
    }
    
  4. 保存并重启 Claude。
  5. 通过 Claude 界面确认设置成功。

Cursor

  1. 确认已安装 Node.js。
  2. 编辑 Cursor 的配置文件。
  3. 按以下方式添加 n8n MCP 服务器:
    {
      "mcpServers": {
        "n8n-mcp-server": {
          "command": "npx",
          "args": ["@n8n/mcp-server@latest"]
        }
      }
    }
    
  4. 保存更改并重启 Cursor。
  5. 查看日志确认连接成功。

Cline

  1. 如有需要,安装 Node.js。
  2. 进入 Cline 配置。
  3. 添加 MCP 服务器配置项:
    {
      "mcpServers": {
        "n8n-mcp-server": {
          "command": "npx",
          "args": ["@n8n/mcp-server@latest"]
        }
      }
    }
    
  4. 保存并重启 Cline。
  5. 通过 MCP 服务器运行测试工作流进行验证。

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要在 FlowHunt 工作流中集成 MCP 服务器,请先在流程中添加 MCP 组件,并将其与您的 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区域,按照如下 JSON 格式填写您的 MCP 服务器信息:

{
  "n8n-mcp-server": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用此 MCP,访问其全部功能与能力。请记得将 “n8n-mcp-server” 替换为您 MCP 服务器的实际名称,并将 URL 替换为您的 MCP 服务器地址。


概览

部分可用性详情/备注
概览仓库及 README 中有概述
提示模板列表未找到提示模板
资源列表未有明确 MCP 资源文档
工具列表未提供直接 MCP 工具清单
API 密钥安全存储有 .env.example 文件,提供环境变量指引
采样支持(评估时次要)未明确提及

根据目前公开信息,n8n MCP 服务器为自动化提供了基础桥梁,但在仓库中缺少关于提示、资源和工具的详细文档。其核心配置和用法覆盖较好,但若能补充更详尽的文档,将利于更广泛应用。


MCP 评分

是否有 LICENSE✅ (MIT)
是否包含至少一个工具
Fork 数量84
Star 数量483

评分:
基于上述两张表格,我给该 MCP 服务器的评分为 5/10。它具备核心配置、开源许可和明确的应用场景,但在实际 MCP 工具、资源和提示模板等文档方面较为欠缺,这些内容对于提升实用性和用户采纳度至关重要。

常见问题

用 n8n MCP 服务器加速自动化

通过 FlowHunt 将您的 AI 助手连接到 n8n 自动化引擎。只需几步即可简化工作流管理和自动化。

了解更多

n8n
n8n

n8n

将 FlowHunt 与 n8n 集成,通过 n8n MCP Server 利用 AI 驱动的自然语言指令实现工作流自动化、执行管理与业务流程优化。

1 分钟阅读
AI n8n +3
mcp-k8s-go MCP 服务器
mcp-k8s-go MCP 服务器

mcp-k8s-go MCP 服务器

mcp-k8s-go MCP 服务器使 AI 助手能够通过 Model Context Protocol 与 Kubernetes 集群进行编程化交互,通过标准化接口实现 DevOps 工作流的自动化与精简。...

2 分钟阅读
MCP Server Kubernetes +3
Nomad MCP 服务器集成
Nomad MCP 服务器集成

Nomad MCP 服务器集成

Nomad MCP 服务器是连接 AI 助手与 HashiCorp Nomad 的桥梁,可实现实时编排、作业管理和基础设施自动化,直接来自 FlowHunt 工作流及其他 AI 工具。...

2 分钟阅读
AI DevOps +5