Intercom MCP 服务器

AI Customer Support Integration MCP Server

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Intercom” MCP 服务器有什么作用?

Intercom MCP(模型上下文协议)服务器是一个符合 MCP 协议的工具,使 AI 助手能够访问和分析来自 Intercom 的客户支持数据。该服务器充当 AI agent 与 Intercom API 之间的桥梁,允许通过高级筛选(按客户、状态、日期、关键词等)搜索对话和工单,也支持在没有联系人的情况下按邮件内容搜索。服务器通过 Intercom 的搜索 API 实现高效的服务器端过滤,简化了相关支持信息的获取流程。通过与 MCP 兼容的 AI 助手集成,Intercom MCP 服务器提升了客户支持自动化、分析等开发工作流。

提示词列表

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

工具列表

此 MCP 服务器的应用场景

  • 客户支持工单搜索: 开发者可以让 AI 助手检索并筛选 Intercom 对话或工单,快速定位相关支持案例,提高客服效率。
  • 高级分析筛选: AI 工具可通过服务器按状态、客户、关键词或日期范围分析支持活动,便于满意度分析和趋势监控。
  • 邮件内容搜索: 支持按邮件内容搜索对话,即使没有联系人,也能全面查阅支持历史。
  • 无缝 AI 集成: 可轻松集成至符合 MCP 的 AI 工具,实现支持团队自动化和工作流增强。
  • 服务器端过滤与高效性: 利用 Intercom 自身的搜索 API,开发者能获得快速、高效、可扩展的数据检索,适用于下游 AI 或报表任务。

如何搭建

Windsurf

  1. 安装 Node.js(v18.0.0 及以上版本)。
  2. 从 Intercom 账户设置获取 API token。
  3. 编辑 Windsurf 配置文件,添加 Intercom MCP 服务器。
  4. 添加 MCP 服务器配置项,JSON 示例见下。
  5. 重启 Windsurf,并通过 MCP 服务器状态接口验证。
"mcpServers": {
  "intercom-mcp": {
    "command": "npx",
    "args": ["@raoulbia-ai/mcp-server-for-intercom@latest"],
    "env": {
      "INTERCOM_ACCESS_TOKEN": "${INTERCOM_ACCESS_TOKEN}"
    }
  }
}

注意:请以环境变量方式安全存储 Intercom API 密钥。

Claude

  1. 确保已安装 Node.js。
  2. 获取您的 Intercom API token。
  3. 定位 Claude 的 MCP 配置部分。
  4. 使用下方 JSON 添加 Intercom MCP 服务器。
  5. 重启 Claude 并确认 MCP 服务器激活。
"mcpServers": {
  "intercom-mcp": {
    "command": "npx",
    "args": ["@raoulbia-ai/mcp-server-for-intercom@latest"],
    "env": {
      "INTERCOM_ACCESS_TOKEN": "${INTERCOM_ACCESS_TOKEN}"
    }
  }
}

Cursor

  1. 安装 Node.js(v18+)。
  2. 获取 Intercom API token。
  3. 打开 Cursor 的 MCP 服务器配置文件。
  4. 插入以下配置片段。
  5. 重启 Cursor 并验证配置。
"mcpServers": {
  "intercom-mcp": {
    "command": "npx",
    "args": ["@raoulbia-ai/mcp-server-for-intercom@latest"],
    "env": {
      "INTERCOM_ACCESS_TOKEN": "${INTERCOM_ACCESS_TOKEN}"
    }
  }
}

Cline

  1. 安装 Node.js(18+)。
  2. 获取您的 Intercom API token。
  3. 编辑 Cline 的 MCP 服务器配置。
  4. 添加 Intercom MCP 配置项,见下方片段。
  5. 重启 Cline 并通过服务器接口确认。
"mcpServers": {
  "intercom-mcp": {
    "command": "npx",
    "args": ["@raoulbia-ai/mcp-server-for-intercom@latest"],
    "env": {
      "INTERCOM_ACCESS_TOKEN": "${INTERCOM_ACCESS_TOKEN}"
    }
  }
}

提示: 始终如示例所示,通过环境变量方式引用 API 密钥以保证安全。

环境变量与 inputs 示例

"mcpServers": {
  "intercom-mcp": {
    "command": "npx",
    "args": ["@raoulbia-ai/mcp-server-for-intercom@latest"],
    "env": {
      "INTERCOM_ACCESS_TOKEN": "${INTERCOM_ACCESS_TOKEN}"
    },
    "inputs": {
      "INTERCOM_ACCESS_TOKEN": "string"
    }
  }
}

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流,请先将 MCP 组件添加到流程中,并连接至您的 AI agent:

FlowHunt MCP 流程

点击 MCP 组件进入配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "intercom-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI agent 即可作为工具使用该 MCP,访问其全部功能。请将 “intercom-mcp” 替换为您实际 MCP 服务器的名称,并将 URL 替换为您自己的服务器地址。


概览

部分可用性详情/备注
概览
提示词列表未描述提示模板
资源列表未明确描述资源
工具列表未找到工具列表,仅有高层特性
API 密钥安全配置展示了环境变量配置
采样支持(评价时非重点)未提及采样支持

根据现有资料,Intercom MCP 服务器是针对 Intercom 集成而打造的聚焦型实用服务器,但缺乏详细的 MCP 功能文档和工具/资源清单。文档在搭建方面较完善,但在高级 MCP 功能上不够完整。

我们的观点

该 MCP 服务器为 AI 工具与 Intercom 架起了宝贵的桥梁,但未完整记录 MCP 的全部原语(如提示词、工具、资源)。它面向 Intercom 支持场景,定位清晰,但在 MCP 完整性和透明度方面得分较低。


MCP 评分

是否包含 LICENSE
至少包含一个工具
Fork 数量5
Star 数量6

常见问题

用 FlowHunt 自动化 Intercom 支持

通过使用 Intercom MCP 服务器将 Intercom 数据连接到 AI 工作流,释放更智能、更高效的客户支持。从今天开始优化您的支持运营。

了解更多

interactive-mcp MCP 服务器
interactive-mcp MCP 服务器

interactive-mcp MCP 服务器

interactive-mcp MCP 服务器通过连接 AI 代理、用户与外部系统,实现无缝的人机协作 AI 工作流。它支持跨平台开发、实时反馈以及自定义集成原型设计,提升开发效率。...

2 分钟阅读
AI MCP Server +4
iMCP MCP服务器集成
iMCP MCP服务器集成

iMCP MCP服务器集成

iMCP MCP服务器为AI助手与Mac原生应用之间架起桥梁,安全访问信息、联系人、日历、提醒事项、天气、地图等,助您实现无缝AI自动化与注重隐私的集成,提升生产力。...

1 分钟阅读
AI macOS +5
Discord MCP 服务器
Discord MCP 服务器

Discord MCP 服务器

Discord MCP 服务器将 AI 助手与 Discord 桥接,实现自动化服务器管理、消息自动化,并通过 Klavis-AI 平台的模型上下文协议(MCP)集成外部 API。...

2 分钟阅读
AI Discord +4