
Chat MCP 服务器
Chat MCP 是一个跨平台桌面聊天应用,基于模型上下文协议(MCP)与多种大型语言模型(LLMs)对接。它为开发者和研究者提供了一个统一、极简的界面,用于测试、交互和配置多种 LLM 后端,非常适合原型开发和学习 MCP。...
通过单一 MCP 服务器轻松连接任何兼容 OpenAI 的聊天 API,简化 FlowHunt 及更多场景下的多供应商 LLM 工作流。
any-chat-completions-mcp MCP 服务器充当 AI 助手与任何兼容 OpenAI SDK 的 Chat Completion API(如 OpenAI、Perplexity、Groq、xAI 和 PyroPrompts)之间的桥梁。通过遵循模型上下文协议(MCP),它实现了外部 LLM 提供商在开发工作流中的无缝集成。其主要功能是将基于聊天的问题转发到配置的 AI 聊天提供商,使开发者能够在自己偏好的环境中将不同 LLM 作为工具来使用。这样,切换供应商或扩展 LLM 使用变得简单,提升了 AI 应用的灵活性和效率。
仓库或文档中未提及提示模板。
仓库或 README 中未有明确的 MCP 资源文档。
仓库或文档中未提供 Windsurf 的平台说明。
npx
。claude_desktop_config.json
(MacOS 路径:~/Library/Application Support/Claude/claude_desktop_config.json
;Windows 路径:%APPDATA%/Claude/claude_desktop_config.json
)。mcpServers
对象下加入 MCP 服务器配置。env
对象中填写供应商 API 密钥及其他信息。JSON 示例:
{
"mcpServers": {
"chat-openai": {
"command": "npx",
"args": [
"@pyroprompts/any-chat-completions-mcp"
],
"env": {
"AI_CHAT_KEY": "OPENAI_KEY",
"AI_CHAT_NAME": "OpenAI",
"AI_CHAT_MODEL": "gpt-4o",
"AI_CHAT_BASE_URL": "v1/chat/completions"
}
}
}
}
API 密钥安全存储(使用环境变量):
"env": {
"AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}
仓库或文档中未提供 Cursor 的平台说明。
仓库或文档中未提供 Cline 的平台说明。
在 FlowHunt 中使用 MCP
要在 FlowHunt 工作流中集成 MCP 服务器,请先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按照以下 JSON 格式输入您的 MCP 服务器信息:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置后,AI 代理即可将该 MCP 作为工具,访问其全部功能。请记得将 “MCP-name” 替换为您自己的 MCP 服务器名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为您的 MCP 服务器地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | README 中涵盖了目的及特性 |
提示模板列表 | ⛔ | 未提及提示模板 |
资源列表 | ⛔ | 未有明确 MCP 资源文档 |
工具列表 | ✅ | README 中描述了 “chat” 工具 |
API 密钥安全存储 | ✅ | 在 JSON 的 “env” 字段中管理密钥 |
采样支持(评估时不重要) | ⛔ | 未提及采样特性 |
综上,any-chat-completions-mcp 是一个专注且精简的 MCP 服务器,非常适合将通用 OpenAI 兼容聊天 API 作为工具集成。它的主要优势是简洁和广泛兼容性,但缺乏资源和提示抽象。用于日常 LLM 集成非常稳健,但高级用户可能希望有更多功能。总体来说,我给这个 MCP 的通用评分为 6/10。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数 | 17 |
Star 数 | 129 |
它是一个 MCP 服务器,为 FlowHunt 或任何兼容 MCP 的客户端和任何兼容 OpenAI SDK 的 Chat Completion API(如 OpenAI、Perplexity、Groq、xAI 和 PyroPrompts)之间搭建桥梁。它通过单一、简单的工具和配置转发基于聊天的查询。
统一 LLM 集成、快速供应商切换、驱动桌面 AI 代理、LLM 基准测试,以及作为聊天型查询的安全 API 网关。
切换只需在 MCP 服务器配置中更新环境变量(如 API 密钥、基础 URL、模型名称)。无需更改代码,更新配置后重启客户端即可。
是的,API 密钥通过配置中的环境变量进行管理,凭据不会暴露在代码库中,安全性更高。
一个名为 'chat' 的单一工具,可将聊天消息转发到任意配置的 OpenAI 兼容 API 端点。
不支持,该服务器专注于聊天补全,不提供提示模板或额外的资源层。
Chat MCP 是一个跨平台桌面聊天应用,基于模型上下文协议(MCP)与多种大型语言模型(LLMs)对接。它为开发者和研究者提供了一个统一、极简的界面,用于测试、交互和配置多种 LLM 后端,非常适合原型开发和学习 MCP。...
Discord MCP 服务器将 AI 助手与 Discord 桥接,实现自动化服务器管理、消息自动化,并通过 Klavis-AI 平台的模型上下文协议(MCP)集成外部 API。...
Chatsum MCP 服务器让 AI 智能体能够高效查询和总结用户聊天数据库中的消息,提供简明的对话洞察,并支持在 FlowHunt 工作流中的分析。...