Chat MCP 服务器

AI MCP LLM Chat Application

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Chat MCP” MCP 服务器能做什么?

Chat MCP 是一个桌面聊天应用,利用模型上下文协议(MCP)与多种大型语言模型(LLMs)对接。基于 Electron 打造,支持跨平台,Chat MCP 允许用户连接和管理多个 LLM 后端,提供统一界面用于测试、交互和配置不同 AI 模型。其极简代码库帮助开发者和研究者理解 MCP 核心原理,快速原型开发不同服务器,简化涉及 LLM 的工作流。主要特性包括动态 LLM 配置、多客户端管理、轻松适配桌面与 Web 环境。

提示词列表

在可用的文档或仓库文件中未提及任何提示词模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

仓库或配置示例中未记录任何明确的 MCP 资源。

工具列表

仓库或 server.py 中未列出或描述任何具体工具(该仓库也不包含 server.py 文件或类似工具定义)。

此 MCP 服务器的应用场景

  • 统一的 LLM 测试平台
    Chat MCP 使开发者能够在一个界面中快速配置和测试多个 LLM 提供商及模型,简化评估流程。

  • 跨平台 AI 聊天应用
    支持 Linux、macOS 和 Windows,Chat MCP 可作为桌面聊天客户端,在任意主流操作系统上与 AI 模型交互。

  • MCP 集成开发与调试
    其简洁代码库可作为构建或调试 MCP 兼容应用的参考或起点。

  • MCP 教育工具
    项目极简设计非常适合用于学习模型上下文协议及 LLM 连接实验。

如何搭建

Windsurf

  1. 安装 Node.js:从 nodejs.org 下载并安装 Node.js。
  2. 克隆仓库
    git clone https://github.com/AI-QL/chat-mcp.git
  3. 编辑配置
    修改 src/main/config.json,填写你的 LLM API 及 MCP 设置。
  4. 安装依赖
    npm install
  5. 启动应用
    npm start

JSON 配置示例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://api.aiql.com",
        "path": "/v1/chat/completions",
        "model": "gpt-4o-mini",
        "mcp": true
    }
}

注意: 建议通过环境变量或加密存储保护 API 密钥(配置本身不直接支持,但强烈推荐)。

Claude

  1. 安装 Node.js:前往 nodejs.org 获取 Node.js。
  2. 下载/克隆 Chat MCP
  3. 编辑 src/main/config.json,填写 Claude 兼容 API 地址及相关信息。
  4. 运行 npm install
  5. 通过 npm start 启动应用

JSON 示例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://anthropic.api.endpoint",
        "path": "/v1/messages",
        "model": "claude-3-opus",
        "mcp": true
    }
}

注意: 敏感信息请使用环境变量存储。

Cursor

  1. 安装 Node.js
  2. 克隆 Chat MCP 仓库
  3. 更新 src/main/config.json,适配 Cursor 后端。
  4. 安装依赖
  5. 启动应用

JSON 示例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cursor.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cursor-model",
        "mcp": true
    }
}

注意: API 密钥请使用环境变量存储。

Cline

  1. 安装 Node.js
  2. 克隆仓库
  3. 编辑 src/main/config.json,填写 Cline API 信息。
  4. 运行 npm install
  5. 使用 npm start 启动

JSON 示例:

{
    "chatbotStore": {
        "apiKey": "",
        "url": "https://cline.api.endpoint",
        "path": "/v1/chat/completions",
        "model": "cline-model",
        "mcp": true
    }
}

注意: API 密钥建议通过环境变量保护。

API 密钥保护示例:

{
    "chatbotStore": {
        "apiKey": "${API_KEY}",
        "url": "https://api.example.com",
        "path": "/v1/chat/completions",
        "model": "your-model",
        "mcp": true
    }
}

在启动应用前,请将 API_KEY 设置到你的环境变量中。

如何在流程中使用此 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其连接到你的 AI agent:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式输入你的 MCP 服务器信息:

{
  "chat-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置后,AI agent 即可作为工具调用此 MCP,拥有其全部功能。请将 “chat-mcp” 替换为你的 MCP 服务器实际名称,URL 也请替换为你自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览
提示词列表未记录任何提示词模板
资源列表未记录任何 MCP 资源
工具列表未列出任何工具
API 密钥保护建议采用,原生不支持但推荐
采样支持(评测时不重要)未提及采样支持

根据现有信息,Chat MCP 是一个简单、教育性强且灵活的 MCP 客户端,但在公开文档和设置中不具备高级 MCP 功能(如工具、资源、采样、roots)。其主要价值在于作为一个干净、易于修改的聊天前端,是 MCP 学习和更复杂集成的良好起点。


MCP 评分

是否有 LICENSE✅ Apache-2.0
是否至少有一个工具
Fork 数量31
Star 数量226

常见问题

使用 FlowHunt 体验 Chat MCP

通过 Chat MCP 探索并与多个 LLM 交互。非常适合 MCP 学习、快速原型开发和统一聊天体验。

了解更多

Discord MCP 服务器
Discord MCP 服务器

Discord MCP 服务器

Discord MCP 服务器将 AI 助手与 Discord 桥接,实现自动化服务器管理、消息自动化,并通过 Klavis-AI 平台的模型上下文协议(MCP)集成外部 API。...

2 分钟阅读
AI Discord +4
Telegram MCP 服务器
Telegram MCP 服务器

Telegram MCP 服务器

Telegram MCP 服务器连接 AI 助手和客户端与 Telegram,实现对 Telegram 聊天、消息、群组和用户的程序化交互。基于 Telethon 库,为开发者和 AI 工作流简化自动化、群组管理和聊天分析。...

2 分钟阅读
Telegram MCP +5
Chatsum MCP 服务器
Chatsum MCP 服务器

Chatsum MCP 服务器

Chatsum MCP 服务器让 AI 智能体能够高效查询和总结用户聊天数据库中的消息,提供简明的对话洞察,并支持在 FlowHunt 工作流中的分析。...

1 分钟阅读
AI MCP Server +4