Langfuse MCP 服务器集成

Langfuse MCP 服务器集成

将 Langfuse MCP 服务器与 FlowHunt 集成,实现 Langfuse 的 AI 提示词集中管理、检索和编译,助力动态且标准化的 LLM 工作流。

“Langfuse” MCP 服务器的功能是什么?

Langfuse MCP 服务器是一款为 Langfuse 提示词管理而设计的模型上下文协议(MCP)服务器。它让 AI 助手和开发者可以通过标准化的 MCP 接口访问和管理存储在 Langfuse 中的提示词。通过 MCP 将 AI 客户端与外部提示词仓库相连,服务器简化了提示词的检索、列表和编译流程,提升了大语言模型(LLM)的开发效率。Langfuse MCP 服务器支持提示词发现、检索和编译,实现动态提示词选择与变量替换等功能。该集成简化了提示词管理,标准化了 LLM 与提示词数据库之间的交互,特别适用于需要跨团队或平台统一使用和共享提示词的场景。

提示词列表

  • prompts/list:列出 Langfuse 仓库中所有可用提示词。支持可选的基于游标的分页,并提供提示词名称及其所需参数。所有参数默认为可选。
  • prompts/get:根据名称检索指定提示词,并利用提供的变量进行编译。支持文本与对话提示词,统一转换为 MCP 提示词对象。

资源列表

  • Langfuse 提示词资源:对外暴露 Langfuse 中所有标记为 production 的提示词,供 AI 客户端发现与检索。
  • 提示词参数资源:返回提示词变量信息(全部为可选;因 Langfuse 规范限制,不含详细描述)。
  • 分页提示词资源:支持按分页方式列出提示词,便于大仓库高效访问。

工具列表

  • get-prompts:列出可用提示词及其参数。支持可选的 cursor 参数分页,返回提示词名称及参数列表。
  • get-prompt:检索并编译指定提示词。需要 name 参数,并可选传入 JSON 对象作为变量填充提示词。

典型应用场景

  • 集中式提示词管理:通过 MCP 将所有提示词集中管理于 Langfuse,并向各类 AI 客户端开放,便于团队间协作与共享。
  • 标准化提示词检索:借助 MCP,实现 LLM 工作流中随取随用的已验证、生产级提示词,保证提示词一致性。
  • 动态提示词编译:让 LLM 或 AI 智能体可按运行时变量动态编译提示词,交互更灵活多变。
  • 应用内提示词发现:在开发者工具或 AI 助手中驱动提示词选择界面,展示可用提示词及参数。
  • 与 LLMOps 工作流集成:通过 MCP 协议将 Langfuse 提示词仓库接入 LLMOps 平台及智能体框架,提升提示词治理与审计能力。

如何搭建

Windsurf

仓库中未找到 Windsurf 的具体搭建说明。

Claude

  1. 确保已安装 Node.js 和 npm。
  2. 使用以下命令构建服务器:
    npm install
    npm run build
    
  3. 编辑你的 claude_desktop_config.json 文件以添加 MCP 服务器:
    {
      "mcpServers": {
        "langfuse": {
          "command": "node",
          "args": ["<absolute-path>/build/index.js"],
          "env": {
            "LANGFUSE_PUBLIC_KEY": "your-public-key",
            "LANGFUSE_SECRET_KEY": "your-secret-key",
            "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
          }
        }
      }
    }
    
  4. 用你实际的 Langfuse API 密钥替换环境变量值。
  5. 保存配置并重启 Claude Desktop。
  6. 在 Claude Desktop 的 MCP 界面验证服务器可用性。

Cursor

  1. 确保已安装 Node.js 和 npm。
  2. 构建服务器:
    npm install
    npm run build
    
  3. 在 Cursor 中添加新的 MCP 服务器:
    • 名称:Langfuse Prompts
    • 类型:command
    • 命令
      LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
      
  4. 用你实际的 Langfuse API 密钥替换环境变量值。
  5. 保存并验证服务器连接。

Cline

仓库中未找到 Cline 的具体搭建说明。

API 密钥安全建议

建议使用环境变量保护 API 密钥。以下是 MCP 服务器配置的 JSON 示例片段:

{
  "mcpServers": {
    "langfuse": {
      "command": "node",
      "args": ["<absolute-path>/build/index.js"],
      "env": {
        "LANGFUSE_PUBLIC_KEY": "your-public-key",
        "LANGFUSE_SECRET_KEY": "your-secret-key",
        "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
      }
    }
  }
}

请将各项值替换为你实际的 API 凭据。

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流,只需在流程中添加 MCP 组件,并连接到你的 AI 智能体:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填入你的 MCP 服务器信息:

{
  "langfuse": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用该 MCP,享有其全部功能。请将 "langfuse" 替换为你实际的 MCP 服务器名称,并用你自己的 MCP 服务器 URL 替换上述地址。


功能总览

模块可用性说明
总览Langfuse MCP 用于提示词管理
提示词列表prompts/list, prompts/get
资源列表提示词列表、提示词参数、分页资源
工具列表get-prompts, get-prompt
API 密钥安全在 MCP 配置中通过环境变量实现
采样支持(评估时不重要)未提及

根据现有模块与功能,Langfuse MCP 服务器文档完善,涵盖了 MCP 关键能力,尤其是提示词管理方面。采样或根工具功能未明确,稍微影响可扩展性。总体来看,该实现针对其重点应用场景表现出色。


MCP 评分

是否有 LICENSE✅ (MIT)
至少有一个工具
Fork 数22
Star 数98

常见问题

什么是 Langfuse MCP 服务器?

Langfuse MCP 服务器是一款模型上下文协议服务器,将 FlowHunt 等 AI 客户端连接到 Langfuse 的提示词管理平台。它支持提示词的发现、检索与动态编译,从而简化 LLM 和智能体的提示词工作流。

Langfuse MCP 服务器支持哪些功能?

它支持列出全部可用提示词、检索与编译带变量的提示词、分页提示词发现,以及暴露提示词参数。所有参数默认为可选,服务器专为 LLMOps 场景下的生产级提示词管理设计。

如何保护我的 Langfuse API 密钥安全?

应将 API 密钥以环境变量形式存储在 MCP 服务器配置中以保证安全。具体环境变量设置可参考提供的配置示例。

我可以在 FlowHunt 工作流中使用 Langfuse MCP 服务器吗?

当然可以!只需在 FlowHunt 流程中添加 MCP 组件,配置指向你的 Langfuse MCP 服务器,智能体即可动态访问、发现并编译 Langfuse 的提示词。

该集成的常见应用场景有哪些?

集中式提示词管理、LLM 工作流标准化提示词检索、带运行时变量的动态提示词编译、驱动提示词选择界面,以及与 LLMOps 工具集成实现更优治理与审计。

连接 FlowHunt 到 Langfuse 提示词管理

通过集成 Langfuse MCP 服务器与 FlowHunt,实现 AI 提示词工作流的集中化与标准化。解锁高效的提示词发现、检索与动态编译,助力先进 LLM 运维。

了解更多

lingo.dev MCP 服务器
lingo.dev MCP 服务器

lingo.dev MCP 服务器

lingo.dev MCP 服务器为 AI 助手与外部数据源、API 和服务之间搭建桥梁,实现结构化资源访问、提示模板和工具执行,助力高级 LLM 工作流。...

1 分钟阅读
MCP Servers AI Tools +3
any-chat-completions-mcp MCP 服务器
any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...

2 分钟阅读
AI Chatbot +5
DeepL MCP 服务器
DeepL MCP 服务器

DeepL MCP 服务器

DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...

2 分钟阅读
AI Translation +5