
any-chat-completions-mcp MCP 服务器
any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...
Chat MCP 是一个桌面聊天应用,利用模型上下文协议(MCP)与多种大型语言模型(LLMs)对接。基于 Electron 打造,支持跨平台,Chat MCP 允许用户连接和管理多个 LLM 后端,提供统一界面用于测试、交互和配置不同 AI 模型。其极简代码库帮助开发者和研究者理解 MCP 核心原理,快速原型开发不同服务器,简化涉及 LLM 的工作流。主要特性包括动态 LLM 配置、多客户端管理、轻松适配桌面与 Web 环境。
在可用的文档或仓库文件中未提及任何提示词模板。
仓库或配置示例中未记录任何明确的 MCP 资源。
仓库或 server.py
中未列出或描述任何具体工具(该仓库也不包含 server.py
文件或类似工具定义)。
统一的 LLM 测试平台
Chat MCP 使开发者能够在一个界面中快速配置和测试多个 LLM 提供商及模型,简化评估流程。
跨平台 AI 聊天应用
支持 Linux、macOS 和 Windows,Chat MCP 可作为桌面聊天客户端,在任意主流操作系统上与 AI 模型交互。
MCP 集成开发与调试
其简洁代码库可作为构建或调试 MCP 兼容应用的参考或起点。
MCP 教育工具
项目极简设计非常适合用于学习模型上下文协议及 LLM 连接实验。
git clone https://github.com/AI-QL/chat-mcp.git
src/main/config.json
,填写你的 LLM API 及 MCP 设置。npm install
npm start
JSON 配置示例:
{
"chatbotStore": {
"apiKey": "",
"url": "https://api.aiql.com",
"path": "/v1/chat/completions",
"model": "gpt-4o-mini",
"mcp": true
}
}
注意: 建议通过环境变量或加密存储保护 API 密钥(配置本身不直接支持,但强烈推荐)。
src/main/config.json
,填写 Claude 兼容 API 地址及相关信息。npm install
。npm start
启动应用。JSON 示例:
{
"chatbotStore": {
"apiKey": "",
"url": "https://anthropic.api.endpoint",
"path": "/v1/messages",
"model": "claude-3-opus",
"mcp": true
}
}
注意: 敏感信息请使用环境变量存储。
src/main/config.json
,适配 Cursor 后端。JSON 示例:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cursor.api.endpoint",
"path": "/v1/chat/completions",
"model": "cursor-model",
"mcp": true
}
}
注意: API 密钥请使用环境变量存储。
src/main/config.json
,填写 Cline API 信息。npm install
。npm start
启动。JSON 示例:
{
"chatbotStore": {
"apiKey": "",
"url": "https://cline.api.endpoint",
"path": "/v1/chat/completions",
"model": "cline-model",
"mcp": true
}
}
注意: API 密钥建议通过环境变量保护。
API 密钥保护示例:
{
"chatbotStore": {
"apiKey": "${API_KEY}",
"url": "https://api.example.com",
"path": "/v1/chat/completions",
"model": "your-model",
"mcp": true
}
}
在启动应用前,请将 API_KEY
设置到你的环境变量中。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先在流程中添加 MCP 组件,并将其连接到你的 AI agent:
点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式输入你的 MCP 服务器信息:
{
"chat-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置后,AI agent 即可作为工具调用此 MCP,拥有其全部功能。请将 “chat-mcp” 替换为你的 MCP 服务器实际名称,URL 也请替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | |
提示词列表 | ⛔ | 未记录任何提示词模板 |
资源列表 | ⛔ | 未记录任何 MCP 资源 |
工具列表 | ⛔ | 未列出任何工具 |
API 密钥保护 | ✅ | 建议采用,原生不支持但推荐 |
采样支持(评测时不重要) | ⛔ | 未提及采样支持 |
根据现有信息,Chat MCP 是一个简单、教育性强且灵活的 MCP 客户端,但在公开文档和设置中不具备高级 MCP 功能(如工具、资源、采样、roots)。其主要价值在于作为一个干净、易于修改的聊天前端,是 MCP 学习和更复杂集成的良好起点。
是否有 LICENSE | ✅ Apache-2.0 |
---|---|
是否至少有一个工具 | ⛔ |
Fork 数量 | 31 |
Star 数量 | 226 |
Chat MCP 是一个基于 Electron 的跨平台桌面聊天应用,能够通过模型上下文协议(MCP)连接多种 LLM 后端。它为原型开发、测试和配置 LLM 提供了统一界面。
Chat MCP 非常适合用于 LLM 测试、MCP 集成调试、MCP 原理学习,以及作为更复杂聊天工具的清晰参考实现或基础。
虽然 Chat MCP 默认配置使用明文存储,建议将诸如 API 密钥等敏感信息设置为环境变量,并在你的配置中引用这些变量。
不支持,公共文档和代码库未包含如工具或资源等高级 MCP 功能。Chat MCP 专注于为 LLM 提供极简可扩展的聊天界面。
可以。你可以将 Chat MCP 集成为 FlowHunt 内的 MCP 服务器,只需在流程中添加 MCP 组件,并用 JSON 格式的服务器详情进行配置。具体步骤请查阅文档。
any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...
Chatsum MCP 服务器让 AI 智能体能够高效查询和总结用户聊天数据库中的消息,提供简明的对话洞察,并支持在 FlowHunt 工作流中的分析。...
Discord MCP 服务器将 AI 助手与 Discord 桥接,实现自动化服务器管理、消息自动化,并通过 Klavis-AI 平台的模型上下文协议(MCP)集成外部 API。...