Langfuse MCP Server-integration

AI MCP Prompt Management Langfuse

Kontakt os for at hoste din MCP-server i FlowHunt

FlowHunt giver et ekstra sikkerhedslag mellem dine interne systemer og AI-værktøjer, hvilket giver dig granulær kontrol over hvilke værktøjer der er tilgængelige fra dine MCP-servere. MCP-servere hostet i vores infrastruktur kan problemfrit integreres med FlowHunts chatbot samt populære AI-platforme som ChatGPT, Claude og forskellige AI-editorer.

Hvad laver “Langfuse” MCP-serveren?

Langfuse MCP-serveren er en Model Context Protocol (MCP) server designet til Langfuse Prompt Management. Den gør det muligt for AI-assistenter og udviklere at tilgå og håndtere prompts gemt i Langfuse via det standardiserede MCP-interface. Ved at forbinde AI-klienter til eksterne prompt-repositorier gennem MCP, strømliner denne server hentning, visning og kompilering af prompts, hvilket forbedrer udviklingsflowet for store sprogmodeller (LLMs). Langfuse MCP-serveren understøtter opdagelse, hentning og kompilering af prompts, så opgaver som dynamisk promptvalg og variabel-substitution bliver mulige. Denne integration forenkler promptstyring og standardiserer interaktionen mellem LLMs og prompt-databaser, og er særlig nyttig i miljøer, hvor konsekvent prompt-brug og deling er påkrævet på tværs af teams eller platforme.

Liste over Prompts

  • prompts/list: Viser alle tilgængelige prompts i Langfuse-repositoriet. Understøtter valgfri cursor-baseret pagination og viser prompt-navne med deres nødvendige argumenter. Alle argumenter antages som valgfrie.
  • prompts/get: Henter en specifik prompt ved navn og kompilerer den med de angivne variabler. Understøtter både tekst- og chat-prompts og omdanner dem til MCP-prompt-objekter.
Logo

Klar til at vokse din virksomhed?

Start din gratis prøveperiode i dag og se resultater inden for få dage.

Liste over Ressourcer

  • Langfuse Prompts Resource: Eksponerer alle prompts mærket som production i Langfuse til opdagelse og hentning af AI-klienter.
  • Prompt Argumenter Resource: Returnerer information om prompt-variabler (alle valgfrie; ingen detaljerede beskrivelser pga. begrænsninger i Langfuse-specifikationen).
  • Paginering af Prompts Resource: Understøtter visning af prompts med pagination for effektiv adgang i store repositorier.

Liste over Værktøjer

  • get-prompts: Viser tilgængelige prompts med deres argumenter. Understøtter valgfri cursor-parameter for pagination og returnerer en liste over prompt-navne og argumenter.
  • get-prompt: Henter og kompilerer en specifik prompt. Kræver en name-parameter og kan valgfrit tage et JSON-objekt med variabler til udfyldning af prompten.

Anvendelsestilfælde for denne MCP-server

  • Centraliseret Promptstyring: Strømlin opdateringer og deling af prompts på tværs af teams ved at administrere alle prompts i Langfuse og eksponere dem via MCP til forskellige AI-klienter.
  • Standardiseret Prompt-hentning: Sikr konsekvent brug af prompts i LLM-workflows ved at bruge MCP til at hente validerede, produktionsklare prompts efter behov.
  • Dynamisk Prompt-kompilering: Muliggør, at LLMs eller AI-agenter kan kompilere prompts med runtime-variabler for fleksible og dynamiske interaktioner.
  • Prompt-opdagelse i apps: Understøt promptvalg i brugerflader i udviklerværktøjer eller AI-assistenter ved at vise tilgængelige prompts og deres parametre.
  • Integration med LLMOps-workflows: Forbind Langfuse prompt-repositorier til LLMOps-platforme og agent-rammer via MCP-protokollen for bedre styring og revision af prompts.

Sådan sættes det op

Windsurf

Der blev ikke fundet specifikke instruktioner til Windsurf i repositoriet.

Claude

  1. Sørg for, at Node.js og npm er installeret.
  2. Byg serveren med:
    npm install
    npm run build
    
  3. Redigér din claude_desktop_config.json for at tilføje MCP-serveren:
    {
      "mcpServers": {
        "langfuse": {
          "command": "node",
          "args": ["<absolute-path>/build/index.js"],
          "env": {
            "LANGFUSE_PUBLIC_KEY": "your-public-key",
            "LANGFUSE_SECRET_KEY": "your-secret-key",
            "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
          }
        }
      }
    }
    
  4. Udskift miljøvariablerne med dine faktiske Langfuse API-nøgler.
  5. Gem konfigurationen og genstart Claude Desktop.
  6. Kontrollér, at serveren er tilgængelig i Claude Desktops MCP-interface.

Cursor

  1. Sørg for, at Node.js og npm er installeret.
  2. Byg serveren:
    npm install
    npm run build
    
  3. Tilføj i Cursor en ny MCP-server med:
    • Navn: Langfuse Prompts
    • Type: command
    • Command:
      LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
      
  4. Udskift miljøvariablerne med dine faktiske Langfuse API-nøgler.
  5. Gem og verificér serverforbindelsen.

Cline

Der blev ikke fundet specifikke instruktioner til Cline i repositoriet.

Sikring af API-nøgler

Det anbefales at sikre dine API-nøgler ved at bruge miljøvariabler. Her er et eksempel på et JSON-udsnit til MCP-server-konfiguration:

{
  "mcpServers": {
    "langfuse": {
      "command": "node",
      "args": ["<absolute-path>/build/index.js"],
      "env": {
        "LANGFUSE_PUBLIC_KEY": "your-public-key",
        "LANGFUSE_SECRET_KEY": "your-secret-key",
        "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
      }
    }
  }
}

Udskift værdierne med dine faktiske API-oplysninger.

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den med din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. Indsæt dine MCP-serverdetaljer i systemets MCP-konfiguration ved at bruge dette JSON-format:

{
  "langfuse": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre "langfuse" til det faktiske navn på din MCP-server og udskift URL’en med din egen MCP-server-URL.


Overblik

SektionTilgængeligDetaljer/Noter
OverblikLangfuse MCP til prompthåndtering
Liste over Promptsprompts/list, prompts/get
Liste over RessourcerPrompt-liste, prompt-variabler, paginerede ressourcer
Liste over Værktøjerget-prompts, get-prompt
Sikring af API-nøglerVia miljøvariabler i MCP-konfiguration
Sampling-understøttelse (ikke vigtigt i vurdering)Ikke nævnt

Baseret på de tilgængelige sektioner og funktioner er Langfuse MCP-serveren veldokumenteret og dækker de fleste kritiske MCP-egenskaber, især til promptstyring. Manglende eksplicit sampling- eller roots-understøttelse sænker udvidelsesmulighederne en smule. Overordnet set er det en stærk implementering inden for sit fokusområde.


MCP-score

Har en LICENSE✅ (MIT)
Har mindst ét værktøj
Antal forks22
Antal stjerner98

Ofte stillede spørgsmål

Forbind FlowHunt til Langfuse Prompt Management

Centralisér og standardisér dine AI-prompt-workflows ved at integrere Langfuse MCP-serveren med FlowHunt. Få effektiv opdagelse, hentning og dynamisk kompilering af prompts til avancerede LLM-operationer.

Lær mere

lingo.dev MCP Server
lingo.dev MCP Server

lingo.dev MCP Server

lingo.dev MCP Server forbinder AI-assistenter med eksterne datakilder, API'er og tjenester, hvilket muliggør struktureret ressourceadgang, promptskabeloner og v...

2 min læsning
MCP Servers AI Tools +3
LSP MCP Server Integration
LSP MCP Server Integration

LSP MCP Server Integration

LSP MCP Server forbinder Language Server Protocol (LSP)-servere til AI-assistenter og muliggør avanceret kodeanalyse, intelligent autofuldførelse, diagnostik og...

5 min læsning
AI Code Intelligence +4
any-chat-completions-mcp MCP Server
any-chat-completions-mcp MCP Server

any-chat-completions-mcp MCP Server

any-chat-completions-mcp MCP Server forbinder FlowHunt og andre værktøjer til enhver OpenAI SDK-kompatibel Chat Completion API. Det muliggør problemfri integrat...

4 min læsning
AI Chatbot +5