
Langflow-DOC-QA-SERVER MCP Server
Langflow-DOC-QA-SERVER er en MCP-server til dokument-spørgsmål-og-svar-opgaver, der gør det muligt for AI-assistenter at forespørge dokumenter via et Langflow-b...

Integrer Langfuse MCP-serveren med FlowHunt for centralt at administrere, hente og kompilere AI-prompts fra Langfuse, hvilket muliggør dynamiske og standardiserede LLM-workflows.
FlowHunt giver et ekstra sikkerhedslag mellem dine interne systemer og AI-værktøjer, hvilket giver dig granulær kontrol over hvilke værktøjer der er tilgængelige fra dine MCP-servere. MCP-servere hostet i vores infrastruktur kan problemfrit integreres med FlowHunts chatbot samt populære AI-platforme som ChatGPT, Claude og forskellige AI-editorer.
Langfuse MCP-serveren er en Model Context Protocol (MCP) server designet til Langfuse Prompt Management. Den gør det muligt for AI-assistenter og udviklere at tilgå og håndtere prompts gemt i Langfuse via det standardiserede MCP-interface. Ved at forbinde AI-klienter til eksterne prompt-repositorier gennem MCP, strømliner denne server hentning, visning og kompilering af prompts, hvilket forbedrer udviklingsflowet for store sprogmodeller (LLMs). Langfuse MCP-serveren understøtter opdagelse, hentning og kompilering af prompts, så opgaver som dynamisk promptvalg og variabel-substitution bliver mulige. Denne integration forenkler promptstyring og standardiserer interaktionen mellem LLMs og prompt-databaser, og er særlig nyttig i miljøer, hvor konsekvent prompt-brug og deling er påkrævet på tværs af teams eller platforme.
prompts/list: Viser alle tilgængelige prompts i Langfuse-repositoriet. Understøtter valgfri cursor-baseret pagination og viser prompt-navne med deres nødvendige argumenter. Alle argumenter antages som valgfrie.prompts/get: Henter en specifik prompt ved navn og kompilerer den med de angivne variabler. Understøtter både tekst- og chat-prompts og omdanner dem til MCP-prompt-objekter.production i Langfuse til opdagelse og hentning af AI-klienter.get-prompts: Viser tilgængelige prompts med deres argumenter. Understøtter valgfri cursor-parameter for pagination og returnerer en liste over prompt-navne og argumenter.get-prompt: Henter og kompilerer en specifik prompt. Kræver en name-parameter og kan valgfrit tage et JSON-objekt med variabler til udfyldning af prompten.Der blev ikke fundet specifikke instruktioner til Windsurf i repositoriet.
npm install
npm run build
claude_desktop_config.json for at tilføje MCP-serveren:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
Der blev ikke fundet specifikke instruktioner til Cline i repositoriet.
Det anbefales at sikre dine API-nøgler ved at bruge miljøvariabler. Her er et eksempel på et JSON-udsnit til MCP-server-konfiguration:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Udskift værdierne med dine faktiske API-oplysninger.
Brug af MCP i FlowHunt
For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den med din AI-agent:
Klik på MCP-komponenten for at åbne konfigurationspanelet. Indsæt dine MCP-serverdetaljer i systemets MCP-konfiguration ved at bruge dette JSON-format:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre "langfuse" til det faktiske navn på din MCP-server og udskift URL’en med din egen MCP-server-URL.
| Sektion | Tilgængelig | Detaljer/Noter |
|---|---|---|
| Overblik | ✅ | Langfuse MCP til prompthåndtering |
| Liste over Prompts | ✅ | prompts/list, prompts/get |
| Liste over Ressourcer | ✅ | Prompt-liste, prompt-variabler, paginerede ressourcer |
| Liste over Værktøjer | ✅ | get-prompts, get-prompt |
| Sikring af API-nøgler | ✅ | Via miljøvariabler i MCP-konfiguration |
| Sampling-understøttelse (ikke vigtigt i vurdering) | ⛔ | Ikke nævnt |
Baseret på de tilgængelige sektioner og funktioner er Langfuse MCP-serveren veldokumenteret og dækker de fleste kritiske MCP-egenskaber, især til promptstyring. Manglende eksplicit sampling- eller roots-understøttelse sænker udvidelsesmulighederne en smule. Overordnet set er det en stærk implementering inden for sit fokusområde.
| Har en LICENSE | ✅ (MIT) |
|---|---|
| Har mindst ét værktøj | ✅ |
| Antal forks | 22 |
| Antal stjerner | 98 |
Langfuse MCP-serveren er en Model Context Protocol-server, der forbinder AI-klienter som FlowHunt med Langfuses prompt-administrationsplatform. Den muliggør opdagelse, hentning og dynamisk kompilering af prompts og strømliner prompt-workflows for LLMs og agenter.
Den understøtter visning af alle tilgængelige prompts, hentning og kompilering af prompts med variabler, pagineret prompt-opdagelse og eksponering af prompt-argumenter. Alle argumenter antages som valgfrie, og serveren er designet til produktions-prompt-management i LLMOps-scenarier.
Du bør gemme API-nøgler som miljøvariabler i din MCP-server-konfiguration for at holde dem sikre. Se de medfølgende konfigurationseksempler for detaljer om opsætning af miljøvariabler.
Ja! Tilføj MCP-komponenten i dit FlowHunt-flow, konfigurer den til at pege på din Langfuse MCP-server, og dine agenter kan dynamisk tilgå, opdage og kompilere prompts fra Langfuse.
Centraliseret promptstyring, standardiseret hentning til LLM-workflows, dynamisk prompt-kompilering med runtime-variabler, understøttelse af promptvalg i brugerflader og integration med LLMOps-værktøjer for bedre styring og revision.
Centralisér og standardisér dine AI-prompt-workflows ved at integrere Langfuse MCP-serveren med FlowHunt. Få effektiv opdagelse, hentning og dynamisk kompilering af prompts til avancerede LLM-operationer.
Langflow-DOC-QA-SERVER er en MCP-server til dokument-spørgsmål-og-svar-opgaver, der gør det muligt for AI-assistenter at forespørge dokumenter via et Langflow-b...
LlamaCloud MCP-serveren forbinder AI-assistenter med flere administrerede indekser på LlamaCloud, hvilket muliggør dokumenthentning, søgning og vidensudvidelse ...
lingo.dev MCP Server forbinder AI-assistenter med eksterne datakilder, API'er og tjenester, hvilket muliggør struktureret ressourceadgang, promptskabeloner og v...
Cookie Samtykke
Vi bruger cookies til at forbedre din browsingoplevelse og analysere vores trafik. See our privacy policy.


