
lingo.dev MCP-server
lingo.dev MCP-serveren fungerer som en bro mellom KI-assistenter og eksterne datakilder, API-er og tjenester, og muliggjør strukturert ressurs-tilgang, prompt-m...

Integrer Langfuse MCP Server med FlowHunt for å sentralt administrere, hente og kompilere AI-prompter fra Langfuse, og muliggjør dynamiske og standardiserte LLM-arbeidsflyter.
FlowHunt gir et ekstra sikkerhetslag mellom dine interne systemer og AI-verktøy, og gir deg granulær kontroll over hvilke verktøy som er tilgjengelige fra dine MCP-servere. MCP-servere som er hostet i vår infrastruktur kan sømløst integreres med FlowHunts chatbot samt populære AI-plattformer som ChatGPT, Claude og forskjellige AI-editorer.
Langfuse MCP Server er en Model Context Protocol (MCP)-server utviklet for Langfuse Prompt Management. Den gjør det mulig for AI-assistenter og utviklere å få tilgang til og administrere promter lagret i Langfuse via det standardiserte MCP-grensesnittet. Ved å koble AI-klienter til eksterne prompt-repositorier gjennom MCP, strømlinjeformer denne serveren henting, opplisting og kompilering av promter, noe som forbedrer utviklingsarbeidsflyten for store språkmodeller (LLM-er). Langfuse MCP Server støtter prompt-oppdagelse, henting og kompilering, slik at oppgaver som dynamisk promptvalg og variabelsubstitusjon blir mulig. Denne integrasjonen forenkler promptstyring og standardiserer samhandlingen mellom LLM-er og prompt-databaser, noe som gjør den spesielt nyttig i miljøer der konsistent promptbruk og deling kreves på tvers av team eller plattformer.
prompts/list: Lister alle tilgjengelige promter i Langfuse-repositoriet. Støtter valgfri cursor-basert paginering og gir prompt-navn med tilhørende nødvendige argumenter. Alle argumenter antas valgfrie.prompts/get: Henter en spesifikk prompt etter navn og kompilerer den med oppgitte variabler. Støtter både tekst- og chatprompter, og gjør dem om til MCP-prompt-objekter.production i Langfuse for oppdagelse og henting av AI-klienter.get-prompts: Lister tilgjengelige promter med tilhørende argumenter. Støtter valgfritt cursor-parameter for paginering, og returnerer en liste med prompt-navn og argumenter.get-prompt: Henter og kompilerer en spesifikk prompt. Krever et name-parameter og kan valgfritt ta et JSON-objekt med variabler for å fylle prompter.Det ble ikke funnet noen spesifikke instruksjoner for Windsurf i repositoriet.
npm install
npm run build
claude_desktop_config.json for å legge til MCP-serveren:{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
npm install
npm run build
LANGFUSE_PUBLIC_KEY="din-public-key" LANGFUSE_SECRET_KEY="din-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
Det ble ikke funnet noen spesifikke instruksjoner for Cline i repositoriet.
Det anbefales å sikre API-nøklene dine ved å bruke miljøvariabler. Her er et eksempel på JSON-snutt for MCP-serverkonfigurasjon:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "din-public-key",
"LANGFUSE_SECRET_KEY": "din-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Bytt ut verdiene med dine faktiske API-legitimasjoner.
Bruke MCP i FlowHunt
For å integrere MCP-servere i FlowHunt-arbeidsflyten din, begynn med å legge til MCP-komponenten i flowen og koble den til AI-agenten din:

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon legger du inn MCP-serverdetaljene dine med dette JSON-formatet:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når den er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre "langfuse" til det faktiske navnet på MCP-serveren din og bytt ut URL-en med din egen MCP-server-URL.
| Seksjon | Tilgjengelighet | Detaljer/Notater |
|---|---|---|
| Oversikt | ✅ | Langfuse MCP for promptstyring |
| Liste over promter | ✅ | prompts/list, prompts/get |
| Liste over ressurser | ✅ | Prompt-opplisting, prompt-variabler, paginerte ressurser |
| Liste over verktøy | ✅ | get-prompts, get-prompt |
| Sikring av API-nøkler | ✅ | Via miljøvariabler i MCP-konfig |
| Sampling-støtte (mindre viktig for vurdering) | ⛔ | Ikke nevnt |
Basert på tilgjengelige seksjoner og funksjoner, er Langfuse MCP Server godt dokumentert og dekker de fleste kritiske MCP-funksjoner, spesielt for promptstyring. Manglende eksplisitt sampling- eller roots-støtte trekker noe ned på utvidbarheten. Alt i alt er det en sterk implementasjon for sitt fokusområde.
| Har en LISENS | ✅ (MIT) |
|---|---|
| Har minst ett verktøy | ✅ |
| Antall forks | 22 |
| Antall stjerner | 98 |
Sentraliser og standardiser dine AI prompt-arbeidsflyter ved å integrere Langfuse MCP Server med FlowHunt. Lås opp effektiv prompt-oppdagelse, henting og dynamisk kompilering for avanserte LLM-operasjoner.

lingo.dev MCP-serveren fungerer som en bro mellom KI-assistenter og eksterne datakilder, API-er og tjenester, og muliggjør strukturert ressurs-tilgang, prompt-m...

LSP MCP-serveren kobler Language Server Protocol (LSP)-servere til KI-assistenter, og muliggjør avansert kodeanalyse, intelligent autofullføring, diagnostikk og...

any-chat-completions-mcp MCP Server kobler FlowHunt og andre verktøy til enhver OpenAI SDK-kompatibel Chat Completion API. Den muliggjør sømløs integrasjon av f...
Informasjonskapselsamtykke
Vi bruker informasjonskapsler for å forbedre din surfeopplevelse og analysere vår trafikk. See our privacy policy.