
mcp-server-docker MCP Server
mcp-server-docker MCP Server gjør det mulig for AI-assistenter å administrere Docker-containere gjennom naturlig språk. Integrer denne MCP-en med FlowHunt og an...
Integrer Langfuse MCP Server med FlowHunt for å sentralt administrere, hente og kompilere AI-prompter fra Langfuse, og muliggjør dynamiske og standardiserte LLM-arbeidsflyter.
Langfuse MCP Server er en Model Context Protocol (MCP)-server utviklet for Langfuse Prompt Management. Den gjør det mulig for AI-assistenter og utviklere å få tilgang til og administrere promter lagret i Langfuse via det standardiserte MCP-grensesnittet. Ved å koble AI-klienter til eksterne prompt-repositorier gjennom MCP, strømlinjeformer denne serveren henting, opplisting og kompilering av promter, noe som forbedrer utviklingsarbeidsflyten for store språkmodeller (LLM-er). Langfuse MCP Server støtter prompt-oppdagelse, henting og kompilering, slik at oppgaver som dynamisk promptvalg og variabelsubstitusjon blir mulig. Denne integrasjonen forenkler promptstyring og standardiserer samhandlingen mellom LLM-er og prompt-databaser, noe som gjør den spesielt nyttig i miljøer der konsistent promptbruk og deling kreves på tvers av team eller plattformer.
prompts/list
: Lister alle tilgjengelige promter i Langfuse-repositoriet. Støtter valgfri cursor-basert paginering og gir prompt-navn med tilhørende nødvendige argumenter. Alle argumenter antas valgfrie.prompts/get
: Henter en spesifikk prompt etter navn og kompilerer den med oppgitte variabler. Støtter både tekst- og chatprompter, og gjør dem om til MCP-prompt-objekter.production
i Langfuse for oppdagelse og henting av AI-klienter.get-prompts
: Lister tilgjengelige promter med tilhørende argumenter. Støtter valgfritt cursor
-parameter for paginering, og returnerer en liste med prompt-navn og argumenter.get-prompt
: Henter og kompilerer en spesifikk prompt. Krever et name
-parameter og kan valgfritt ta et JSON-objekt med variabler for å fylle prompter.Det ble ikke funnet noen spesifikke instruksjoner for Windsurf i repositoriet.
npm install
npm run build
claude_desktop_config.json
for å legge til MCP-serveren:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="din-public-key" LANGFUSE_SECRET_KEY="din-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
Det ble ikke funnet noen spesifikke instruksjoner for Cline i repositoriet.
Det anbefales å sikre API-nøklene dine ved å bruke miljøvariabler. Her er et eksempel på JSON-snutt for MCP-serverkonfigurasjon:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Bytt ut verdiene med dine faktiske API-legitimasjoner.
Bruke MCP i FlowHunt
For å integrere MCP-servere i FlowHunt-arbeidsflyten din, begynn med å legge til MCP-komponenten i flowen og koble den til AI-agenten din:
Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon legger du inn MCP-serverdetaljene dine med dette JSON-formatet:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når den er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre "langfuse"
til det faktiske navnet på MCP-serveren din og bytt ut URL-en med din egen MCP-server-URL.
Seksjon | Tilgjengelighet | Detaljer/Notater |
---|---|---|
Oversikt | ✅ | Langfuse MCP for promptstyring |
Liste over promter | ✅ | prompts/list , prompts/get |
Liste over ressurser | ✅ | Prompt-opplisting, prompt-variabler, paginerte ressurser |
Liste over verktøy | ✅ | get-prompts , get-prompt |
Sikring av API-nøkler | ✅ | Via miljøvariabler i MCP-konfig |
Sampling-støtte (mindre viktig for vurdering) | ⛔ | Ikke nevnt |
Basert på tilgjengelige seksjoner og funksjoner, er Langfuse MCP Server godt dokumentert og dekker de fleste kritiske MCP-funksjoner, spesielt for promptstyring. Manglende eksplisitt sampling- eller roots-støtte trekker noe ned på utvidbarheten. Alt i alt er det en sterk implementasjon for sitt fokusområde.
Har en LISENS | ✅ (MIT) |
---|---|
Har minst ett verktøy | ✅ |
Antall forks | 22 |
Antall stjerner | 98 |
Langfuse MCP Server er en Model Context Protocol-server som kobler AI-klienter som FlowHunt til Langfuses promptstyringsplattform. Den muliggjør prompt-oppdagelse, henting og dynamisk kompilering, og strømlinjeformer prompt-arbeidsflyter for LLM-er og agenter.
Den støtter opplisting av alle tilgjengelige promter, henting og kompilering av promter med variabler, paginert prompt-oppdagelse og eksponering av prompt-argumenter. Alle argumenter antas valgfrie, og serveren er designet for produksjonsstyring av promter i LLMOps-scenarier.
Du bør lagre API-nøkler som miljøvariabler i MCP-serverkonfigurasjonen din for å holde dem sikre. Se de oppgitte konfigurasjonseksemplene for detaljer om oppsett av miljøvariabler.
Ja! Legg til MCP-komponenten i FlowHunt-flyten din, konfigurer den til å peke på din Langfuse MCP-server, og agentene dine kan dynamisk få tilgang til, oppdage og kompilere promter fra Langfuse.
Sentralisert promptstyring, standardisert henting for LLM-arbeidsflyter, dynamisk promptkompilering med kjøretidsvariabler, drive promptvalggrensesnitt og integrasjon med LLMOps-verktøy for bedre styring og revisjon.
Sentraliser og standardiser dine AI prompt-arbeidsflyter ved å integrere Langfuse MCP Server med FlowHunt. Lås opp effektiv prompt-oppdagelse, henting og dynamisk kompilering for avanserte LLM-operasjoner.
mcp-server-docker MCP Server gjør det mulig for AI-assistenter å administrere Docker-containere gjennom naturlig språk. Integrer denne MCP-en med FlowHunt og an...
Unleash MCP Server knytter AI-assistenter og LLM-applikasjoner til Unleash Feature Toggle-systemet, og muliggjør automatisert håndtering av feature-flagg, prosj...
any-chat-completions-mcp MCP Server kobler FlowHunt og andre verktøy til enhver OpenAI SDK-kompatibel Chat Completion API. Den muliggjør sømløs integrasjon av f...