
lingo.dev MCP 服务器
lingo.dev MCP 服务器为 AI 助手与外部数据源、API 和服务之间搭建桥梁,实现结构化资源访问、提示模板和工具执行,助力高级 LLM 工作流。...
将 Langfuse MCP 服务器与 FlowHunt 集成,实现 Langfuse 的 AI 提示词集中管理、检索和编译,助力动态且标准化的 LLM 工作流。
Langfuse MCP 服务器是一款为 Langfuse 提示词管理而设计的模型上下文协议(MCP)服务器。它让 AI 助手和开发者可以通过标准化的 MCP 接口访问和管理存储在 Langfuse 中的提示词。通过 MCP 将 AI 客户端与外部提示词仓库相连,服务器简化了提示词的检索、列表和编译流程,提升了大语言模型(LLM)的开发效率。Langfuse MCP 服务器支持提示词发现、检索和编译,实现动态提示词选择与变量替换等功能。该集成简化了提示词管理,标准化了 LLM 与提示词数据库之间的交互,特别适用于需要跨团队或平台统一使用和共享提示词的场景。
prompts/list
:列出 Langfuse 仓库中所有可用提示词。支持可选的基于游标的分页,并提供提示词名称及其所需参数。所有参数默认为可选。prompts/get
:根据名称检索指定提示词,并利用提供的变量进行编译。支持文本与对话提示词,统一转换为 MCP 提示词对象。production
的提示词,供 AI 客户端发现与检索。get-prompts
:列出可用提示词及其参数。支持可选的 cursor
参数分页,返回提示词名称及参数列表。get-prompt
:检索并编译指定提示词。需要 name
参数,并可选传入 JSON 对象作为变量填充提示词。仓库中未找到 Windsurf 的具体搭建说明。
npm install
npm run build
claude_desktop_config.json
文件以添加 MCP 服务器:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
仓库中未找到 Cline 的具体搭建说明。
建议使用环境变量保护 API 密钥。以下是 MCP 服务器配置的 JSON 示例片段:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
请将各项值替换为你实际的 API 凭据。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流,只需在流程中添加 MCP 组件,并连接到你的 AI 智能体:
点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填入你的 MCP 服务器信息:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具使用该 MCP,享有其全部功能。请将 "langfuse"
替换为你实际的 MCP 服务器名称,并用你自己的 MCP 服务器 URL 替换上述地址。
模块 | 可用性 | 说明 |
---|---|---|
总览 | ✅ | Langfuse MCP 用于提示词管理 |
提示词列表 | ✅ | prompts/list , prompts/get |
资源列表 | ✅ | 提示词列表、提示词参数、分页资源 |
工具列表 | ✅ | get-prompts , get-prompt |
API 密钥安全 | ✅ | 在 MCP 配置中通过环境变量实现 |
采样支持(评估时不重要) | ⛔ | 未提及 |
根据现有模块与功能,Langfuse MCP 服务器文档完善,涵盖了 MCP 关键能力,尤其是提示词管理方面。采样或根工具功能未明确,稍微影响可扩展性。总体来看,该实现针对其重点应用场景表现出色。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数 | 22 |
Star 数 | 98 |
Langfuse MCP 服务器是一款模型上下文协议服务器,将 FlowHunt 等 AI 客户端连接到 Langfuse 的提示词管理平台。它支持提示词的发现、检索与动态编译,从而简化 LLM 和智能体的提示词工作流。
它支持列出全部可用提示词、检索与编译带变量的提示词、分页提示词发现,以及暴露提示词参数。所有参数默认为可选,服务器专为 LLMOps 场景下的生产级提示词管理设计。
应将 API 密钥以环境变量形式存储在 MCP 服务器配置中以保证安全。具体环境变量设置可参考提供的配置示例。
当然可以!只需在 FlowHunt 流程中添加 MCP 组件,配置指向你的 Langfuse MCP 服务器,智能体即可动态访问、发现并编译 Langfuse 的提示词。
集中式提示词管理、LLM 工作流标准化提示词检索、带运行时变量的动态提示词编译、驱动提示词选择界面,以及与 LLMOps 工具集成实现更优治理与审计。
通过集成 Langfuse MCP 服务器与 FlowHunt,实现 AI 提示词工作流的集中化与标准化。解锁高效的提示词发现、检索与动态编译,助力先进 LLM 运维。
lingo.dev MCP 服务器为 AI 助手与外部数据源、API 和服务之间搭建桥梁,实现结构化资源访问、提示模板和工具执行,助力高级 LLM 工作流。...
any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...
DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...