any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器

通过单一 MCP 服务器轻松连接任何兼容 OpenAI 的聊天 API,简化 FlowHunt 及更多场景下的多供应商 LLM 工作流。

“any-chat-completions-mcp” MCP 服务器的作用是什么?

any-chat-completions-mcp MCP 服务器充当 AI 助手与任何兼容 OpenAI SDK 的 Chat Completion API(如 OpenAI、Perplexity、Groq、xAI 和 PyroPrompts)之间的桥梁。通过遵循模型上下文协议(MCP),它实现了外部 LLM 提供商在开发工作流中的无缝集成。其主要功能是将基于聊天的问题转发到配置的 AI 聊天提供商,使开发者能够在自己偏好的环境中将不同 LLM 作为工具来使用。这样,切换供应商或扩展 LLM 使用变得简单,提升了 AI 应用的灵活性和效率。

提示模板列表

仓库或文档中未提及提示模板。

资源列表

仓库或 README 中未有明确的 MCP 资源文档。

工具列表

  • chat:将问题转发到配置的 AI 聊天提供商。这是服务器暴露的主要(且唯一)工具,允许 LLM 或客户端将聊天型查询发送到任意 OpenAI 兼容的 API 端点。

此 MCP 服务器的使用场景

  • 统一 LLM 集成:开发者可通过单一 MCP 服务器访问多个 LLM 提供商,无需更改客户端代码,简化供应商管理。
  • 供应商切换:只需更新环境变量即可在 OpenAI、PyroPrompts、Perplexity 等间切换,便于成本优化或降级策略。
  • 自定义桌面 AI 代理:将高级聊天型 LLM 集成到桌面应用(如 Claude Desktop)中,实现增强型助手功能。
  • 实验与基准测试:以标准化方式快速对比不同 LLM 输出,便于研究、QA 或产品开发。
  • LLM API 网关:作为轻量级网关,将聊天消息安全地路由到不同 LLM API,集中管理 API 密钥和端点。

如何设置

Windsurf

仓库或文档中未提供 Windsurf 的平台说明。

Claude

  1. 前置条件:确保已安装 Node.js 和 npx
  2. 定位配置文件:编辑 claude_desktop_config.json(MacOS 路径:~/Library/Application Support/Claude/claude_desktop_config.json;Windows 路径:%APPDATA%/Claude/claude_desktop_config.json)。
  3. 添加 MCP 服务器:在 mcpServers 对象下加入 MCP 服务器配置。
  4. 设置环境变量:在 env 对象中填写供应商 API 密钥及其他信息。
  5. 保存并重启:保存文件并重启 Claude Desktop 以应用更改。

JSON 示例:

{
  "mcpServers": {
    "chat-openai": {
      "command": "npx",
      "args": [
        "@pyroprompts/any-chat-completions-mcp"
      ],
      "env": {
        "AI_CHAT_KEY": "OPENAI_KEY",
        "AI_CHAT_NAME": "OpenAI",
        "AI_CHAT_MODEL": "gpt-4o",
        "AI_CHAT_BASE_URL": "v1/chat/completions"
      }
    }
  }
}

API 密钥安全存储(使用环境变量):

"env": {
  "AI_CHAT_KEY": "YOUR_PROVIDER_KEY"
}

Cursor

仓库或文档中未提供 Cursor 的平台说明。

Cline

仓库或文档中未提供 Cline 的平台说明。

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要在 FlowHunt 工作流中集成 MCP 服务器,请先在流程中添加 MCP 组件,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按照以下 JSON 格式输入您的 MCP 服务器信息:

{
  "MCP-name": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置后,AI 代理即可将该 MCP 作为工具,访问其全部功能。请记得将 “MCP-name” 替换为您自己的 MCP 服务器名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为您的 MCP 服务器地址。


概览

部分可用性说明/备注
概览README 中涵盖了目的及特性
提示模板列表未提及提示模板
资源列表未有明确 MCP 资源文档
工具列表README 中描述了 “chat” 工具
API 密钥安全存储在 JSON 的 “env” 字段中管理密钥
采样支持(评估时不重要)未提及采样特性

综上,any-chat-completions-mcp 是一个专注且精简的 MCP 服务器,非常适合将通用 OpenAI 兼容聊天 API 作为工具集成。它的主要优势是简洁和广泛兼容性,但缺乏资源和提示抽象。用于日常 LLM 集成非常稳健,但高级用户可能希望有更多功能。总体来说,我给这个 MCP 的通用评分为 6/10


MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数17
Star 数129

常见问题

什么是 any-chat-completions-mcp?

它是一个 MCP 服务器,为 FlowHunt 或任何兼容 MCP 的客户端和任何兼容 OpenAI SDK 的 Chat Completion API(如 OpenAI、Perplexity、Groq、xAI 和 PyroPrompts)之间搭建桥梁。它通过单一、简单的工具和配置转发基于聊天的查询。

这个 MCP 服务器的主要使用场景有哪些?

统一 LLM 集成、快速供应商切换、驱动桌面 AI 代理、LLM 基准测试,以及作为聊天型查询的安全 API 网关。

如何切换不同的 LLM 供应商?

切换只需在 MCP 服务器配置中更新环境变量(如 API 密钥、基础 URL、模型名称)。无需更改代码,更新配置后重启客户端即可。

这个服务器管理 API 密钥安全吗?

是的,API 密钥通过配置中的环境变量进行管理,凭据不会暴露在代码库中,安全性更高。

该 MCP 服务器提供的主要工具是什么?

一个名为 'chat' 的单一工具,可将聊天消息转发到任意配置的 OpenAI 兼容 API 端点。

是否支持提示模板或资源抽象?

不支持,该服务器专注于聊天补全,不提供提示模板或额外的资源层。

在 FlowHunt 集成 any-chat-completions-mcp

使用 any-chat-completions-mcp MCP 服务器统一您的 AI 聊天 API 连接,并轻松切换供应商。非常适合追求灵活性和简洁性的开发者。

了解更多

Chat MCP 服务器
Chat MCP 服务器

Chat MCP 服务器

Chat MCP 是一个跨平台桌面聊天应用,基于模型上下文协议(MCP)与多种大型语言模型(LLMs)对接。它为开发者和研究者提供了一个统一、极简的界面,用于测试、交互和配置多种 LLM 后端,非常适合原型开发和学习 MCP。...

2 分钟阅读
AI MCP +5
Discord MCP 服务器
Discord MCP 服务器

Discord MCP 服务器

Discord MCP 服务器将 AI 助手与 Discord 桥接,实现自动化服务器管理、消息自动化,并通过 Klavis-AI 平台的模型上下文协议(MCP)集成外部 API。...

2 分钟阅读
AI Discord +4
Chatsum MCP 服务器
Chatsum MCP 服务器

Chatsum MCP 服务器

Chatsum MCP 服务器让 AI 智能体能够高效查询和总结用户聊天数据库中的消息,提供简明的对话洞察,并支持在 FlowHunt 工作流中的分析。...

1 分钟阅读
AI MCP Server +4