Langfuse MCP Server-integration

Langfuse MCP Server-integration

Integrera Langfuse MCP Server med FlowHunt för att centralt hantera, hämta och kompilera AI-prompts från Langfuse, vilket möjliggör dynamiska och standardiserade LLM-arbetsflöden.

Vad gör “Langfuse” MCP Server?

Langfuse MCP Server är en Model Context Protocol (MCP)-server utformad för Langfuse Prompt-hantering. Den gör det möjligt för AI-assistenter och utvecklare att komma åt och hantera prompts som lagras i Langfuse via det standardiserade MCP-gränssnittet. Genom att koppla AI-klienter till externa prompt-repositorier via MCP förenklar denna server hämtning, listning och kompilering av prompts, vilket förbättrar utvecklingsflödet för stora språkmodeller (LLM). Langfuse MCP Server stöder prompt-upptäckt, hämtning och kompilering, vilket möjliggör uppgifter som dynamiskt promptval och variabelsubstitution. Denna integration förenklar prompt-hanteringen och standardiserar interaktionen mellan LLM:er och prompt-databaser, vilket är särskilt användbart i miljöer där konsekvent användning och delning av prompts krävs över team eller plattformar.

Lista över Prompts

  • prompts/list: Listar alla tillgängliga prompts i Langfuse-repositoriet. Stöder valfri cursor-baserad paginering och ger prompt-namn med tillhörande argument. Alla argument antas vara valfria.
  • prompts/get: Hämtar en specifik prompt via namn och kompilerar den med angivna variabler. Stöder både text- och chat-prompts och omvandlar dem till MCP prompt-objekt.

Lista över Resurser

  • Langfuse Prompts Resource: Exponerar alla prompts märkta som production i Langfuse för upptäckt och hämtning av AI-klienter.
  • Prompt Arguments Resource: Returnerar information om prompt-variabler (alla valfria; inga detaljerade beskrivningar på grund av begränsningar i Langfuse-specifikationen).
  • Paginerad Prompts Resource: Stöder listning av prompts med paginering för effektiv åtkomst i stora repositories.

Lista över Verktyg

  • get-prompts: Listar tillgängliga prompts med deras argument. Stöder valfri cursor-parameter för paginering och returnerar en lista med prompt-namn och argument.
  • get-prompt: Hämtar och kompilerar en specifik prompt. Kräver en name-parameter och tar eventuellt ett JSON-objekt med variabler för att fylla i prompten.

Användningsområden för denna MCP Server

  • Centraliserad Prompt-hantering: Förenkla uppdateringar och delning av prompts mellan team genom att hantera alla prompts i Langfuse och exponera dem via MCP till olika AI-klienter.
  • Standardiserad Prompt-hämtning: Säkerställ konsekvent användning av prompts i LLM-arbetsflöden genom att använda MCP för att hämta validerade produktionsklara prompts vid behov.
  • Dynamisk Prompt-kompilering: Möjliggör för LLM:er eller AI-agenter att kompilera prompts med runtime-variabler för flexibla och dynamiska interaktioner.
  • Prompt-upptäckt i Appar: Driv promptvalgränssnitt i utvecklarverktyg eller AI-assistenter genom att lista tillgängliga prompts och deras parametrar.
  • Integration med LLMOps-arbetsflöden: Koppla Langfuse prompt-repositorier till LLMOps-plattformar och agentramverk via MCP-protokollet för bättre styrning och granskning av prompts.

Hur man sätter upp det

Windsurf

Inga specifika instruktioner för Windsurf hittades i repositoriet.

Claude

  1. Kontrollera att Node.js och npm är installerade.
  2. Bygg servern med:
    npm install
    npm run build
    
  3. Redigera din claude_desktop_config.json för att lägga till MCP-servern:
    {
      "mcpServers": {
        "langfuse": {
          "command": "node",
          "args": ["<absolute-path>/build/index.js"],
          "env": {
            "LANGFUSE_PUBLIC_KEY": "your-public-key",
            "LANGFUSE_SECRET_KEY": "your-secret-key",
            "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
          }
        }
      }
    }
    
  4. Byt ut miljövariablerna mot dina riktiga Langfuse API-nycklar.
  5. Spara konfigurationen och starta om Claude Desktop.
  6. Kontrollera att servern är tillgänglig i Claude Desktop MCP-gränssnittet.

Cursor

  1. Kontrollera att Node.js och npm är installerade.
  2. Bygg servern:
    npm install
    npm run build
    
  3. Lägg till en ny MCP-server i Cursor med:
    • Namn: Langfuse Prompts
    • Typ: command
    • Kommando:
      LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
      
  4. Byt ut miljövariablerna mot dina riktiga Langfuse API-nycklar.
  5. Spara och kontrollera serveranslutningen.

Cline

Inga specifika instruktioner för Cline hittades i repositoriet.

Skydda API-nycklar

Det rekommenderas att skydda dina API-nycklar med hjälp av miljövariabler. Här är ett exempel på JSON-snutt för MCP-serverkonfiguration:

{
  "mcpServers": {
    "langfuse": {
      "command": "node",
      "args": ["<absolute-path>/build/index.js"],
      "env": {
        "LANGFUSE_PUBLIC_KEY": "your-public-key",
        "LANGFUSE_SECRET_KEY": "your-secret-key",
        "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
      }
    }
  }
}

Byt ut värdena mot dina riktiga API-uppgifter.

Hur man använder denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, ange dina MCP-serverdetaljer med detta JSON-format:

{
  "langfuse": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra "langfuse" till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-serveradress.


Översikt

SektionTillgänglighetDetaljer/Noteringar
ÖversiktLangfuse MCP för prompt-hantering
Lista över Promptsprompts/list, prompts/get
Lista över ResurserPrompt-listning, prompt-variabler, paginerade resurser
Lista över Verktygget-prompts, get-prompt
Skydda API-nycklarVia miljövariabler i MCP-konfig
Stöd för sampling (mindre viktigt vid utvärdering)Ej nämnt

Baserat på tillgängliga sektioner och funktioner är Langfuse MCP Server väl dokumenterad och täcker de flesta viktiga MCP-funktionerna, särskilt för prompt-hantering. Brist på explicit sampling eller roots-stöd minskar utbyggbarheten något. Sammantaget är det en stark implementation för sitt fokusområde.


MCP-poäng

Har en LICENSE✅ (MIT)
Har minst ett verktyg
Antal Forks22
Antal Stars98

Vanliga frågor

Vad är Langfuse MCP Server?

Langfuse MCP Server är en Model Context Protocol-server som kopplar AI-klienter som FlowHunt till Langfuses prompt-hanteringsplattform. Den möjliggör upptäckt, hämtning och dynamisk kompilering av prompts och förenklar prompt-arbetsflöden för LLM:er och agenter.

Vilka funktioner stöder Langfuse MCP Server?

Den stöder listning av alla tillgängliga prompts, hämtning och kompilering av prompts med variabler, paginerad upptäckt av prompts och exponering av prompt-argument. Alla argument antas vara valfria, och servern är framtagen för produktionshantering av prompts i LLMOps-sammanhang.

Hur skyddar jag mina Langfuse API-nycklar?

Du bör lagra API-nycklar som miljövariabler i din MCP-serverkonfiguration för att hålla dem säkra. Se de tillhandahållna konfigurationsexemplen för detaljer om miljövariabler.

Kan jag använda Langfuse MCP Server i FlowHunt-arbetsflöden?

Ja! Lägg till MCP-komponenten i ditt FlowHunt-flöde, konfigurera den att peka mot din Langfuse MCP-server, och dina agenter kan dynamiskt komma åt, upptäcka och kompilera prompts från Langfuse.

Vilka är vanliga användningsområden för denna integration?

Centraliserad prompt-hantering, standardiserad hämtning för LLM-arbetsflöden, dynamisk prompt-kompilering med runtime-variabler, driva promptvalgränssnitt samt integration med LLMOps-verktyg för bättre styrning och granskning.

Koppla FlowHunt till Langfuse Prompt-hantering

Centralisera och standardisera dina AI prompt-arbetsflöden genom att integrera Langfuse MCP Server med FlowHunt. Lås upp effektiv upptäckt, hämtning och dynamisk kompilering av prompts för avancerade LLM-operationer.

Lär dig mer

Langflow-DOC-QA-SERVER MCP Server
Langflow-DOC-QA-SERVER MCP Server

Langflow-DOC-QA-SERVER MCP Server

Langflow-DOC-QA-SERVER är en MCP-server för dokumentfrågor och -svar, som möjliggör för AI-assistenter att fråga dokument via en Langflow-backend. Integrera dok...

3 min läsning
AI MCP Server +3
Prefect MCP Server-integration
Prefect MCP Server-integration

Prefect MCP Server-integration

Prefect MCP-servern fungerar som en brygga mellan AI-assistenter och plattformen Prefect för arbetsflödesorkestrering, vilket möjliggör hantering av flöden, dri...

4 min läsning
MCP AI Integration +3
ModelContextProtocol (MCP) Server-integration
ModelContextProtocol (MCP) Server-integration

ModelContextProtocol (MCP) Server-integration

ModelContextProtocol (MCP) Server fungerar som en brygga mellan AI-agenter och externa datakällor, API:er och tjänster, vilket gör det möjligt för FlowHunt-anvä...

3 min läsning
AI Integration +4