
Langflow-DOC-QA-SERVER MCP Server
Langflow-DOC-QA-SERVER er en MCP-server til dokument-spørgsmål-og-svar-opgaver, der gør det muligt for AI-assistenter at forespørge dokumenter via et Langflow-b...
Integrer Langfuse MCP-serveren med FlowHunt for centralt at administrere, hente og kompilere AI-prompts fra Langfuse, hvilket muliggør dynamiske og standardiserede LLM-workflows.
Langfuse MCP-serveren er en Model Context Protocol (MCP) server designet til Langfuse Prompt Management. Den gør det muligt for AI-assistenter og udviklere at tilgå og håndtere prompts gemt i Langfuse via det standardiserede MCP-interface. Ved at forbinde AI-klienter til eksterne prompt-repositorier gennem MCP, strømliner denne server hentning, visning og kompilering af prompts, hvilket forbedrer udviklingsflowet for store sprogmodeller (LLMs). Langfuse MCP-serveren understøtter opdagelse, hentning og kompilering af prompts, så opgaver som dynamisk promptvalg og variabel-substitution bliver mulige. Denne integration forenkler promptstyring og standardiserer interaktionen mellem LLMs og prompt-databaser, og er særlig nyttig i miljøer, hvor konsekvent prompt-brug og deling er påkrævet på tværs af teams eller platforme.
prompts/list
: Viser alle tilgængelige prompts i Langfuse-repositoriet. Understøtter valgfri cursor-baseret pagination og viser prompt-navne med deres nødvendige argumenter. Alle argumenter antages som valgfrie.prompts/get
: Henter en specifik prompt ved navn og kompilerer den med de angivne variabler. Understøtter både tekst- og chat-prompts og omdanner dem til MCP-prompt-objekter.production
i Langfuse til opdagelse og hentning af AI-klienter.get-prompts
: Viser tilgængelige prompts med deres argumenter. Understøtter valgfri cursor
-parameter for pagination og returnerer en liste over prompt-navne og argumenter.get-prompt
: Henter og kompilerer en specifik prompt. Kræver en name
-parameter og kan valgfrit tage et JSON-objekt med variabler til udfyldning af prompten.Der blev ikke fundet specifikke instruktioner til Windsurf i repositoriet.
npm install
npm run build
claude_desktop_config.json
for at tilføje MCP-serveren:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
Der blev ikke fundet specifikke instruktioner til Cline i repositoriet.
Det anbefales at sikre dine API-nøgler ved at bruge miljøvariabler. Her er et eksempel på et JSON-udsnit til MCP-server-konfiguration:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Udskift værdierne med dine faktiske API-oplysninger.
Brug af MCP i FlowHunt
For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den med din AI-agent:
Klik på MCP-komponenten for at åbne konfigurationspanelet. Indsæt dine MCP-serverdetaljer i systemets MCP-konfiguration ved at bruge dette JSON-format:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre "langfuse"
til det faktiske navn på din MCP-server og udskift URL’en med din egen MCP-server-URL.
Sektion | Tilgængelig | Detaljer/Noter |
---|---|---|
Overblik | ✅ | Langfuse MCP til prompthåndtering |
Liste over Prompts | ✅ | prompts/list , prompts/get |
Liste over Ressourcer | ✅ | Prompt-liste, prompt-variabler, paginerede ressourcer |
Liste over Værktøjer | ✅ | get-prompts , get-prompt |
Sikring af API-nøgler | ✅ | Via miljøvariabler i MCP-konfiguration |
Sampling-understøttelse (ikke vigtigt i vurdering) | ⛔ | Ikke nævnt |
Baseret på de tilgængelige sektioner og funktioner er Langfuse MCP-serveren veldokumenteret og dækker de fleste kritiske MCP-egenskaber, især til promptstyring. Manglende eksplicit sampling- eller roots-understøttelse sænker udvidelsesmulighederne en smule. Overordnet set er det en stærk implementering inden for sit fokusområde.
Har en LICENSE | ✅ (MIT) |
---|---|
Har mindst ét værktøj | ✅ |
Antal forks | 22 |
Antal stjerner | 98 |
Langfuse MCP-serveren er en Model Context Protocol-server, der forbinder AI-klienter som FlowHunt med Langfuses prompt-administrationsplatform. Den muliggør opdagelse, hentning og dynamisk kompilering af prompts og strømliner prompt-workflows for LLMs og agenter.
Den understøtter visning af alle tilgængelige prompts, hentning og kompilering af prompts med variabler, pagineret prompt-opdagelse og eksponering af prompt-argumenter. Alle argumenter antages som valgfrie, og serveren er designet til produktions-prompt-management i LLMOps-scenarier.
Du bør gemme API-nøgler som miljøvariabler i din MCP-server-konfiguration for at holde dem sikre. Se de medfølgende konfigurationseksempler for detaljer om opsætning af miljøvariabler.
Ja! Tilføj MCP-komponenten i dit FlowHunt-flow, konfigurer den til at pege på din Langfuse MCP-server, og dine agenter kan dynamisk tilgå, opdage og kompilere prompts fra Langfuse.
Centraliseret promptstyring, standardiseret hentning til LLM-workflows, dynamisk prompt-kompilering med runtime-variabler, understøttelse af promptvalg i brugerflader og integration med LLMOps-værktøjer for bedre styring og revision.
Centralisér og standardisér dine AI-prompt-workflows ved at integrere Langfuse MCP-serveren med FlowHunt. Få effektiv opdagelse, hentning og dynamisk kompilering af prompts til avancerede LLM-operationer.
Langflow-DOC-QA-SERVER er en MCP-server til dokument-spørgsmål-og-svar-opgaver, der gør det muligt for AI-assistenter at forespørge dokumenter via et Langflow-b...
LlamaCloud MCP-serveren forbinder AI-assistenter med flere administrerede indekser på LlamaCloud, hvilket muliggør dokumenthentning, søgning og vidensudvidelse ...
lingo.dev MCP Server forbinder AI-assistenter med eksterne datakilder, API'er og tjenester, hvilket muliggør struktureret ressourceadgang, promptskabeloner og v...