
mcp-server-docker MCP Server
mcp-server-docker MCP Server gjør det mulig for AI-assistenter å administrere Docker-containere gjennom naturlig språk. Integrer denne MCP-en med FlowHunt og an...

Integrer Langfuse MCP Server med FlowHunt for å sentralt administrere, hente og kompilere AI-prompter fra Langfuse, og muliggjør dynamiske og standardiserte LLM-arbeidsflyter.
FlowHunt gir et ekstra sikkerhetslag mellom dine interne systemer og AI-verktøy, og gir deg granulær kontroll over hvilke verktøy som er tilgjengelige fra dine MCP-servere. MCP-servere som er hostet i vår infrastruktur kan sømløst integreres med FlowHunts chatbot samt populære AI-plattformer som ChatGPT, Claude og forskjellige AI-editorer.
Langfuse MCP Server er en Model Context Protocol (MCP)-server utviklet for Langfuse Prompt Management. Den gjør det mulig for AI-assistenter og utviklere å få tilgang til og administrere promter lagret i Langfuse via det standardiserte MCP-grensesnittet. Ved å koble AI-klienter til eksterne prompt-repositorier gjennom MCP, strømlinjeformer denne serveren henting, opplisting og kompilering av promter, noe som forbedrer utviklingsarbeidsflyten for store språkmodeller (LLM-er). Langfuse MCP Server støtter prompt-oppdagelse, henting og kompilering, slik at oppgaver som dynamisk promptvalg og variabelsubstitusjon blir mulig. Denne integrasjonen forenkler promptstyring og standardiserer samhandlingen mellom LLM-er og prompt-databaser, noe som gjør den spesielt nyttig i miljøer der konsistent promptbruk og deling kreves på tvers av team eller plattformer.
prompts/list: Lister alle tilgjengelige promter i Langfuse-repositoriet. Støtter valgfri cursor-basert paginering og gir prompt-navn med tilhørende nødvendige argumenter. Alle argumenter antas valgfrie.prompts/get: Henter en spesifikk prompt etter navn og kompilerer den med oppgitte variabler. Støtter både tekst- og chatprompter, og gjør dem om til MCP-prompt-objekter.production i Langfuse for oppdagelse og henting av AI-klienter.get-prompts: Lister tilgjengelige promter med tilhørende argumenter. Støtter valgfritt cursor-parameter for paginering, og returnerer en liste med prompt-navn og argumenter.get-prompt: Henter og kompilerer en spesifikk prompt. Krever et name-parameter og kan valgfritt ta et JSON-objekt med variabler for å fylle prompter.Det ble ikke funnet noen spesifikke instruksjoner for Windsurf i repositoriet.
npm install
npm run build
claude_desktop_config.json for å legge til MCP-serveren:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="din-public-key" LANGFUSE_SECRET_KEY="din-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
Det ble ikke funnet noen spesifikke instruksjoner for Cline i repositoriet.
Det anbefales å sikre API-nøklene dine ved å bruke miljøvariabler. Her er et eksempel på JSON-snutt for MCP-serverkonfigurasjon:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Bytt ut verdiene med dine faktiske API-legitimasjoner.
Bruke MCP i FlowHunt
For å integrere MCP-servere i FlowHunt-arbeidsflyten din, begynn med å legge til MCP-komponenten i flowen og koble den til AI-agenten din:
Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon legger du inn MCP-serverdetaljene dine med dette JSON-formatet:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når den er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre "langfuse" til det faktiske navnet på MCP-serveren din og bytt ut URL-en med din egen MCP-server-URL.
| Seksjon | Tilgjengelighet | Detaljer/Notater |
|---|---|---|
| Oversikt | ✅ | Langfuse MCP for promptstyring |
| Liste over promter | ✅ | prompts/list, prompts/get |
| Liste over ressurser | ✅ | Prompt-opplisting, prompt-variabler, paginerte ressurser |
| Liste over verktøy | ✅ | get-prompts, get-prompt |
| Sikring av API-nøkler | ✅ | Via miljøvariabler i MCP-konfig |
| Sampling-støtte (mindre viktig for vurdering) | ⛔ | Ikke nevnt |
Basert på tilgjengelige seksjoner og funksjoner, er Langfuse MCP Server godt dokumentert og dekker de fleste kritiske MCP-funksjoner, spesielt for promptstyring. Manglende eksplisitt sampling- eller roots-støtte trekker noe ned på utvidbarheten. Alt i alt er det en sterk implementasjon for sitt fokusområde.
| Har en LISENS | ✅ (MIT) |
|---|---|
| Har minst ett verktøy | ✅ |
| Antall forks | 22 |
| Antall stjerner | 98 |
Langfuse MCP Server er en Model Context Protocol-server som kobler AI-klienter som FlowHunt til Langfuses promptstyringsplattform. Den muliggjør prompt-oppdagelse, henting og dynamisk kompilering, og strømlinjeformer prompt-arbeidsflyter for LLM-er og agenter.
Den støtter opplisting av alle tilgjengelige promter, henting og kompilering av promter med variabler, paginert prompt-oppdagelse og eksponering av prompt-argumenter. Alle argumenter antas valgfrie, og serveren er designet for produksjonsstyring av promter i LLMOps-scenarier.
Du bør lagre API-nøkler som miljøvariabler i MCP-serverkonfigurasjonen din for å holde dem sikre. Se de oppgitte konfigurasjonseksemplene for detaljer om oppsett av miljøvariabler.
Ja! Legg til MCP-komponenten i FlowHunt-flyten din, konfigurer den til å peke på din Langfuse MCP-server, og agentene dine kan dynamisk få tilgang til, oppdage og kompilere promter fra Langfuse.
Sentralisert promptstyring, standardisert henting for LLM-arbeidsflyter, dynamisk promptkompilering med kjøretidsvariabler, drive promptvalggrensesnitt og integrasjon med LLMOps-verktøy for bedre styring og revisjon.
Sentraliser og standardiser dine AI prompt-arbeidsflyter ved å integrere Langfuse MCP Server med FlowHunt. Lås opp effektiv prompt-oppdagelse, henting og dynamisk kompilering for avanserte LLM-operasjoner.
mcp-server-docker MCP Server gjør det mulig for AI-assistenter å administrere Docker-containere gjennom naturlig språk. Integrer denne MCP-en med FlowHunt og an...
Unleash MCP Server knytter AI-assistenter og LLM-applikasjoner til Unleash Feature Toggle-systemet, og muliggjør automatisert håndtering av feature-flagg, prosj...
any-chat-completions-mcp MCP Server kobler FlowHunt og andre verktøy til enhver OpenAI SDK-kompatibel Chat Completion API. Den muliggjør sømløs integrasjon av f...
Informasjonskapselsamtykke
Vi bruker informasjonskapsler for å forbedre din surfeopplevelse og analysere vår trafikk. See our privacy policy.


