
Langflow-DOC-QA-SERVER MCP Server
Langflow-DOC-QA-SERVER je MCP server pro úlohy otázky-odpovědi nad dokumenty, který umožňuje AI asistentům dotazovat se na dokumenty prostřednictvím backendu La...
Integrujte Langfuse MCP Server s FlowHuntem a spravujte, získávejte a kompilujte AI prompty z Langfuse centrálně, což umožňuje dynamické a standardizované LLM workflow.
Langfuse MCP Server je server Model Context Protocolu (MCP) navržený pro správu promptů Langfuse. Umožňuje AI asistentům a vývojářům přistupovat k promptům uloženým v Langfuse a spravovat je pomocí standardizovaného MCP rozhraní. Propojením AI klientů s externími repozitáři promptů přes MCP tento server zjednodušuje získávání, výpis a kompilaci promptů, což zefektivňuje vývojový workflow pro velké jazykové modely (LLM). Langfuse MCP Server podporuje vyhledávání, získávání i kompilaci promptů, takže umožňuje například dynamický výběr promptu a nahrazování proměnných. Tato integrace usnadňuje správu promptů a standardizuje práci mezi LLM a databázemi promptů, což je zvláště užitečné tam, kde je potřeba konzistence a sdílení promptů napříč týmy či platformami.
prompts/list
: Vypíše všechny dostupné prompty v repozitáři Langfuse. Podporuje volitelné stránkování pomocí kurzoru a poskytuje názvy promptů včetně jejich požadovaných argumentů. Všechny argumenty jsou považovány za volitelné.prompts/get
: Získá konkrétní prompt podle názvu a zkompiluje jej s poskytnutými proměnnými. Podporuje textové i chatové prompty a převádí je na MCP prompt objekty.production
v Langfuse pro vyhledávání a získávání AI klienty.get-prompts
: Vypíše dostupné prompty s jejich argumenty. Podporuje volitelný parametr cursor
pro stránkování a vrací seznam názvů promptů a jejich argumentů.get-prompt
: Získá a zkompiluje konkrétní prompt. Vyžaduje parametr name
a volitelně přijímá JSON objekt proměnných k doplnění promptu.V repozitáři nebyl nalezen žádný konkrétní návod pro Windsurf.
npm install
npm run build
claude_desktop_config.json
a přidejte MCP server:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "váš-public-key",
"LANGFUSE_SECRET_KEY": "váš-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="váš-public-key" LANGFUSE_SECRET_KEY="váš-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
V repozitáři nebyl nalezen žádný konkrétní návod pro Cline.
Doporučujeme uchovávat API klíče v environmentálních proměnných. Zde je příklad JSON úryvku pro konfiguraci MCP serveru:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "váš-public-key",
"LANGFUSE_SECRET_KEY": "váš-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Nahraďte hodnoty svými skutečnými API přihlašovacími údaji.
Použití MCP ve FlowHunt
Chcete-li zapojit MCP servery do vašeho workflow ve FlowHunt, začněte přidáním MCP komponenty do vašeho flow a propojte ji se svým AI agentem:
Klikněte na komponentu MCP pro otevření konfiguračního panelu. Do sekce systémové konfigurace MCP vložte údaje o svém MCP serveru v tomto JSON formátu:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po konfiguraci bude mít AI agent možnost využívat tento MCP jako nástroj se všemi jeho funkcemi a možnostmi. Nezapomeňte změnit "langfuse"
na skutečný název vašeho MCP serveru a URL nahraďte svou vlastní adresou MCP serveru.
Sekce | Dostupnost | Podrobnosti/Poznámky |
---|---|---|
Přehled | ✅ | Langfuse MCP pro správu promptů |
Seznam promptů | ✅ | prompts/list , prompts/get |
Seznam zdrojů | ✅ | Výpis promptů, proměnné promptů, stránkované zdroje |
Seznam nástrojů | ✅ | get-prompts , get-prompt |
Zabezpečení API klíčů | ✅ | Pomocí environmentálních proměnných v MCP konfiguraci |
Podpora sampling (méně důležité pro hodnocení) | ⛔ | Není zmíněno |
Podle dostupných sekcí a funkcí je Langfuse MCP Server dobře zdokumentovaný a pokrývá většinu klíčových schopností MCP, zejména pro správu promptů. Absence explicitní podpory sampling nebo roots mírně snižuje rozšiřitelnost. Celkově se jedná o silnou implementaci pro zaměřenou oblast.
Má LICENSE | ✅ (MIT) |
---|---|
Má alespoň jeden nástroj | ✅ |
Počet Forků | 22 |
Počet hvězdiček | 98 |
Langfuse MCP Server je server Model Context Protocolu, který propojuje AI klienty jako FlowHunt s platformou pro správu promptů Langfuse. Umožňuje vyhledávání, získávání a dynamickou kompilaci promptů a zjednodušuje workflow promptů pro LLM a agenty.
Podporuje výpis všech dostupných promptů, získávání a kompilaci promptů s proměnnými, stránkované vyhledávání promptů a zpřístupnění argumentů promptů. Všechny argumenty jsou považovány za volitelné a server je navržen pro produkční správu promptů v LLMOps scénářích.
API klíče uložte jako environmentální proměnné v konfiguraci MCP serveru, abyste je ochránili. Podrobnosti k nastavení environmentálních proměnných najdete v přiložených příkladech konfigurací.
Ano! Do svého FlowHunt flow přidejte komponentu MCP, nakonfigurujte ji na svůj Langfuse MCP server a vaši agenti budou moci dynamicky přistupovat, vyhledávat a kompilovat prompty z Langfuse.
Centralizovaná správa promptů, standardizované získávání pro LLM workflow, dynamická kompilace promptů s proměnnými za běhu, rozhraní pro výběr promptů a integrace s LLMOps nástroji pro lepší správu a auditování promptů.
Centralizujte a standardizujte své AI workflow pro prompty integrací Langfuse MCP serveru s FlowHuntem. Odemkněte efektivní hledání, získávání a dynamickou kompilaci promptů pro pokročilý provoz LLM.
Langflow-DOC-QA-SERVER je MCP server pro úlohy otázky-odpovědi nad dokumenty, který umožňuje AI asistentům dotazovat se na dokumenty prostřednictvím backendu La...
lingo.dev MCP Server propojuje AI asistenty s externími datovými zdroji, API a službami, umožňuje strukturovaný přístup ke zdrojům, šablonování promptů a spoušt...
Cronlytic MCP Server přináší bezproblémovou automatizaci poháněnou AI do bezserverové infrastruktury cron úloh, což umožňuje LLM spravovat, monitorovat a optima...