Langfuse MCP Server-integrasjon

AI MCP Prompt Management Langfuse

Kontakt oss for å være vert for din MCP-server i FlowHunt

FlowHunt gir et ekstra sikkerhetslag mellom dine interne systemer og AI-verktøy, og gir deg granulær kontroll over hvilke verktøy som er tilgjengelige fra dine MCP-servere. MCP-servere som er hostet i vår infrastruktur kan sømløst integreres med FlowHunts chatbot samt populære AI-plattformer som ChatGPT, Claude og forskjellige AI-editorer.

Hva gjør “Langfuse” MCP Server?

Langfuse MCP Server er en Model Context Protocol (MCP)-server utviklet for Langfuse Prompt Management. Den gjør det mulig for AI-assistenter og utviklere å få tilgang til og administrere promter lagret i Langfuse via det standardiserte MCP-grensesnittet. Ved å koble AI-klienter til eksterne prompt-repositorier gjennom MCP, strømlinjeformer denne serveren henting, opplisting og kompilering av promter, noe som forbedrer utviklingsarbeidsflyten for store språkmodeller (LLM-er). Langfuse MCP Server støtter prompt-oppdagelse, henting og kompilering, slik at oppgaver som dynamisk promptvalg og variabelsubstitusjon blir mulig. Denne integrasjonen forenkler promptstyring og standardiserer samhandlingen mellom LLM-er og prompt-databaser, noe som gjør den spesielt nyttig i miljøer der konsistent promptbruk og deling kreves på tvers av team eller plattformer.

Liste over promter

  • prompts/list: Lister alle tilgjengelige promter i Langfuse-repositoriet. Støtter valgfri cursor-basert paginering og gir prompt-navn med tilhørende nødvendige argumenter. Alle argumenter antas valgfrie.
  • prompts/get: Henter en spesifikk prompt etter navn og kompilerer den med oppgitte variabler. Støtter både tekst- og chatprompter, og gjør dem om til MCP-prompt-objekter.
Logo

Klar til å vokse bedriften din?

Start din gratis prøveperiode i dag og se resultater i løpet av få dager.

Liste over ressurser

  • Langfuse Prompts Resource: Eksponerer alle promter merket som production i Langfuse for oppdagelse og henting av AI-klienter.
  • Prompt Arguments Resource: Returnerer informasjon om prompt-variabler (alle valgfrie; ingen detaljerte beskrivelser på grunn av begrensninger i Langfuse-spesifikasjonen).
  • Paginated Prompts Resource: Støtter opplisting av promter med paginering for effektiv tilgang i store repositorier.

Liste over verktøy

  • get-prompts: Lister tilgjengelige promter med tilhørende argumenter. Støtter valgfritt cursor-parameter for paginering, og returnerer en liste med prompt-navn og argumenter.
  • get-prompt: Henter og kompilerer en spesifikk prompt. Krever et name-parameter og kan valgfritt ta et JSON-objekt med variabler for å fylle prompter.

Bruksområder for denne MCP-serveren

  • Sentralisert promptstyring: Strømlinjeform prompt-oppdateringer og -deling på tvers av team ved å administrere alle promter i Langfuse og eksponere dem via MCP til ulike AI-klienter.
  • Standardisert prompt-henting: Sikre konsistent promptbruk i LLM-arbeidsflyter ved å bruke MCP til å hente validerte, produksjonsklare promter ved behov.
  • Dynamisk promptkompilering: Gjør det mulig for LLM-er eller AI-agenter å kompilere promter med kjøretidsvariabler, noe som gir fleksible og dynamiske interaksjoner.
  • Prompt-oppdagelse i apper: Drift promptvalggrensesnitt i utviklerverktøy eller AI-assistenter ved å liste tilgjengelige promter og deres parametere.
  • Integrasjon med LLMOps-arbeidsflyter: Koble Langfuse prompt-repositorier til LLMOps-plattformer og agent-rammeverk via MCP-protokollen for bedre promptstyring og revisjon.

Slik setter du det opp

Windsurf

Det ble ikke funnet noen spesifikke instruksjoner for Windsurf i repositoriet.

Claude

  1. Sørg for at Node.js og npm er installert.
  2. Bygg serveren med:
    npm install
    npm run build
    
  3. Rediger din claude_desktop_config.json for å legge til MCP-serveren:
    {
      "mcpServers": {
        "langfuse": {
          "command": "node",
          "args": ["<absolute-path>/build/index.js"],
          "env": {
            "LANGFUSE_PUBLIC_KEY": "din-public-key",
            "LANGFUSE_SECRET_KEY": "din-secret-key",
            "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
          }
        }
      }
    }
    
  4. Bytt ut miljøvariablene med dine faktiske Langfuse API-nøkler.
  5. Lagre konfigurasjonen og start Claude Desktop på nytt.
  6. Verifiser at serveren er tilgjengelig i Claude Desktop MCP-grensesnittet.

Cursor

  1. Sørg for at Node.js og npm er installert.
  2. Bygg serveren:
    npm install
    npm run build
    
  3. I Cursor, legg til en ny MCP-server med:
    • Navn: Langfuse Prompts
    • Type: command
    • Kommando:
      LANGFUSE_PUBLIC_KEY="din-public-key" LANGFUSE_SECRET_KEY="din-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
      
  4. Bytt ut miljøvariablene med dine faktiske Langfuse API-nøkler.
  5. Lagre og verifiser servertilkoblingen.

Cline

Det ble ikke funnet noen spesifikke instruksjoner for Cline i repositoriet.

Sikring av API-nøkler

Det anbefales å sikre API-nøklene dine ved å bruke miljøvariabler. Her er et eksempel på JSON-snutt for MCP-serverkonfigurasjon:

{
  "mcpServers": {
    "langfuse": {
      "command": "node",
      "args": ["<absolute-path>/build/index.js"],
      "env": {
        "LANGFUSE_PUBLIC_KEY": "din-public-key",
        "LANGFUSE_SECRET_KEY": "din-secret-key",
        "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
      }
    }
  }
}

Bytt ut verdiene med dine faktiske API-legitimasjoner.

Hvordan bruke denne MCP-en i flows

Bruke MCP i FlowHunt

For å integrere MCP-servere i FlowHunt-arbeidsflyten din, begynn med å legge til MCP-komponenten i flowen og koble den til AI-agenten din:

FlowHunt MCP flow

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon legger du inn MCP-serverdetaljene dine med dette JSON-formatet:

{
  "langfuse": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når den er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre "langfuse" til det faktiske navnet på MCP-serveren din og bytt ut URL-en med din egen MCP-server-URL.


Oversikt

SeksjonTilgjengelighetDetaljer/Notater
OversiktLangfuse MCP for promptstyring
Liste over promterprompts/list, prompts/get
Liste over ressurserPrompt-opplisting, prompt-variabler, paginerte ressurser
Liste over verktøyget-prompts, get-prompt
Sikring av API-nøklerVia miljøvariabler i MCP-konfig
Sampling-støtte (mindre viktig for vurdering)Ikke nevnt

Basert på tilgjengelige seksjoner og funksjoner, er Langfuse MCP Server godt dokumentert og dekker de fleste kritiske MCP-funksjoner, spesielt for promptstyring. Manglende eksplisitt sampling- eller roots-støtte trekker noe ned på utvidbarheten. Alt i alt er det en sterk implementasjon for sitt fokusområde.


MCP-score

Har en LISENS✅ (MIT)
Har minst ett verktøy
Antall forks22
Antall stjerner98

Vanlige spørsmål

Koble FlowHunt til Langfuse Prompt Management

Sentraliser og standardiser dine AI prompt-arbeidsflyter ved å integrere Langfuse MCP Server med FlowHunt. Lås opp effektiv prompt-oppdagelse, henting og dynamisk kompilering for avanserte LLM-operasjoner.

Lær mer

lingo.dev MCP-server
lingo.dev MCP-server

lingo.dev MCP-server

lingo.dev MCP-serveren fungerer som en bro mellom KI-assistenter og eksterne datakilder, API-er og tjenester, og muliggjør strukturert ressurs-tilgang, prompt-m...

2 min lesing
MCP Servers AI Tools +3
LSP MCP Server-integrasjon
LSP MCP Server-integrasjon

LSP MCP Server-integrasjon

LSP MCP-serveren kobler Language Server Protocol (LSP)-servere til KI-assistenter, og muliggjør avansert kodeanalyse, intelligent autofullføring, diagnostikk og...

5 min lesing
AI Code Intelligence +4
any-chat-completions-mcp MCP Server
any-chat-completions-mcp MCP Server

any-chat-completions-mcp MCP Server

any-chat-completions-mcp MCP Server kobler FlowHunt og andre verktøy til enhver OpenAI SDK-kompatibel Chat Completion API. Den muliggjør sømløs integrasjon av f...

4 min lesing
AI Chatbot +5