
LLM Context MCP 服务器
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...

将 Langfuse MCP 服务器与 FlowHunt 集成,实现 Langfuse 的 AI 提示词集中管理、检索和编译,助力动态且标准化的 LLM 工作流。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Langfuse MCP 服务器是一款为 Langfuse 提示词管理而设计的模型上下文协议(MCP)服务器。它让 AI 助手和开发者可以通过标准化的 MCP 接口访问和管理存储在 Langfuse 中的提示词。通过 MCP 将 AI 客户端与外部提示词仓库相连,服务器简化了提示词的检索、列表和编译流程,提升了大语言模型(LLM)的开发效率。Langfuse MCP 服务器支持提示词发现、检索和编译,实现动态提示词选择与变量替换等功能。该集成简化了提示词管理,标准化了 LLM 与提示词数据库之间的交互,特别适用于需要跨团队或平台统一使用和共享提示词的场景。
prompts/list:列出 Langfuse 仓库中所有可用提示词。支持可选的基于游标的分页,并提供提示词名称及其所需参数。所有参数默认为可选。prompts/get:根据名称检索指定提示词,并利用提供的变量进行编译。支持文本与对话提示词,统一转换为 MCP 提示词对象。production 的提示词,供 AI 客户端发现与检索。get-prompts:列出可用提示词及其参数。支持可选的 cursor 参数分页,返回提示词名称及参数列表。get-prompt:检索并编译指定提示词。需要 name 参数,并可选传入 JSON 对象作为变量填充提示词。仓库中未找到 Windsurf 的具体搭建说明。
npm install
npm run build
claude_desktop_config.json 文件以添加 MCP 服务器:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
仓库中未找到 Cline 的具体搭建说明。
建议使用环境变量保护 API 密钥。以下是 MCP 服务器配置的 JSON 示例片段:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
请将各项值替换为你实际的 API 凭据。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流,只需在流程中添加 MCP 组件,并连接到你的 AI 智能体:

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填入你的 MCP 服务器信息:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具使用该 MCP,享有其全部功能。请将 "langfuse" 替换为你实际的 MCP 服务器名称,并用你自己的 MCP 服务器 URL 替换上述地址。
| 模块 | 可用性 | 说明 |
|---|---|---|
| 总览 | ✅ | Langfuse MCP 用于提示词管理 |
| 提示词列表 | ✅ | prompts/list, prompts/get |
| 资源列表 | ✅ | 提示词列表、提示词参数、分页资源 |
| 工具列表 | ✅ | get-prompts, get-prompt |
| API 密钥安全 | ✅ | 在 MCP 配置中通过环境变量实现 |
| 采样支持(评估时不重要) | ⛔ | 未提及 |
根据现有模块与功能,Langfuse MCP 服务器文档完善,涵盖了 MCP 关键能力,尤其是提示词管理方面。采样或根工具功能未明确,稍微影响可扩展性。总体来看,该实现针对其重点应用场景表现出色。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数 | 22 |
| Star 数 | 98 |
通过集成 Langfuse MCP 服务器与 FlowHunt,实现 AI 提示词工作流的集中化与标准化。解锁高效的提示词发现、检索与动态编译,助力先进 LLM 运维。

LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.