Langfuse MCP Server-Integration

Integrieren Sie den Langfuse MCP Server mit FlowHunt, um KI-Prompts zentral zu verwalten, abzurufen und zu kompilieren – für dynamische und standardisierte LLM-Workflows.

Langfuse MCP Server-Integration

Was macht der “Langfuse” MCP Server?

Der Langfuse MCP Server ist ein Model Context Protocol (MCP) Server, der für das Langfuse Prompt Management entwickelt wurde. Er ermöglicht es KI-Assistenten und Entwicklern, auf Prompts zuzugreifen, die in Langfuse gespeichert sind, und diese über die standardisierte MCP-Schnittstelle zu verwalten. Durch die Verbindung von KI-Clients mit externen Prompt-Repositories über MCP vereinfacht dieser Server das Abrufen, Auflisten und Kompilieren von Prompts, was den Entwicklungsworkflow für Large Language Models (LLMs) verbessert. Der Langfuse MCP Server unterstützt Prompt-Entdeckung, -Abruf und -Kompilierung und erlaubt Aufgaben wie dynamische Prompt-Auswahl und Variablenersetzung. Diese Integration vereinfacht das Prompt-Management und standardisiert die Interaktion zwischen LLMs und Prompt-Datenbanken – besonders nützlich in Umgebungen, in denen konsistente Prompt-Nutzung und -Teilen team- oder plattformübergreifend erforderlich sind.

Liste der Prompts

  • prompts/list: Listet alle verfügbaren Prompts im Langfuse-Repository auf. Unterstützt optional cursor-basierte Paginierung und liefert Prompt-Namen mit ihren benötigten Argumenten. Alle Argumente gelten als optional.
  • prompts/get: Ruft einen bestimmten Prompt anhand seines Namens ab und kompiliert ihn mit bereitgestellten Variablen. Unterstützt sowohl Text- als auch Chat-Prompts und wandelt sie in MCP-Prompt-Objekte um.

Liste der Ressourcen

  • Langfuse Prompts Resource: Stellt alle in Langfuse als production gekennzeichneten Prompts zur Entdeckung und zum Abruf für KI-Clients bereit.
  • Prompt-Argumente-Resource: Gibt Informationen zu Prompt-Variablen zurück (alle optional; keine detaillierten Beschreibungen aufgrund von Einschränkungen der Langfuse-Spezifikation).
  • Paginierte Prompts Resource: Unterstützt die Auflistung von Prompts mit Paginierung für effizienten Zugriff in großen Repositories.

Liste der Tools

  • get-prompts: Listet verfügbare Prompts mit ihren Argumenten auf. Unterstützt den optionalen cursor-Parameter für die Seitennavigation und gibt eine Liste von Prompt-Namen und Argumenten zurück.
  • get-prompt: Ruft einen bestimmten Prompt ab und kompiliert ihn. Erfordert den Parameter name und optional ein JSON-Objekt mit Variablen, um den Prompt auszufüllen.

Anwendungsfälle dieses MCP Servers

  • Zentralisiertes Prompt-Management: Vereinfachen Sie Prompt-Updates und -Freigaben teamübergreifend, indem Sie alle Prompts in Langfuse verwalten und per MCP verschiedenen KI-Clients bereitstellen.
  • Standardisierter Prompt-Abruf: Sorgen Sie für konsistente Prompt-Nutzung in LLM-Workflows, indem Sie mit MCP validierte, produktionsreife Prompts bei Bedarf abrufen.
  • Dynamische Prompt-Kompilierung: Erlauben Sie LLMs oder KI-Agenten, Prompts mit Laufzeitvariablen zu kompilieren – für flexible und dynamische Interaktionen.
  • Prompt-Entdeckung in Apps: Ermöglichen Sie Prompt-Auswahl-Oberflächen in Entwickler-Tools oder KI-Assistenten, indem Sie verfügbare Prompts und deren Parameter listen.
  • Integration mit LLMOps-Workflows: Verbinden Sie Langfuse-Prompt-Repositories mit LLMOps-Plattformen und Agenten-Frameworks per MCP-Protokoll für bessere Prompt-Governance und Auditing.

So richten Sie es ein

Windsurf

Im Repository wurden keine spezifischen Anweisungen für Windsurf gefunden.

Claude

  1. Stellen Sie sicher, dass Node.js und npm installiert sind.
  2. Bauen Sie den Server mit:
    npm install
    npm run build
    
  3. Bearbeiten Sie Ihre claude_desktop_config.json, um den MCP-Server hinzuzufügen:
    {
      "mcpServers": {
        "langfuse": {
          "command": "node",
          "args": ["<absolute-path>/build/index.js"],
          "env": {
            "LANGFUSE_PUBLIC_KEY": "your-public-key",
            "LANGFUSE_SECRET_KEY": "your-secret-key",
            "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
          }
        }
      }
    }
    
  4. Ersetzen Sie die Umgebungsvariablen durch Ihre echten Langfuse-API-Keys.
  5. Speichern Sie die Konfiguration und starten Sie Claude Desktop neu.
  6. Prüfen Sie, ob der Server in der Claude Desktop MCP-Oberfläche verfügbar ist.

Cursor

  1. Stellen Sie sicher, dass Node.js und npm installiert sind.
  2. Bauen Sie den Server:
    npm install
    npm run build
    
  3. Fügen Sie in Cursor einen neuen MCP-Server hinzu mit:
    • Name: Langfuse Prompts
    • Typ: command
    • Befehl:
      LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
      
  4. Ersetzen Sie die Umgebungsvariablen durch Ihre echten Langfuse-API-Keys.
  5. Speichern und überprüfen Sie die Serververbindung.

Cline

Im Repository wurden keine spezifischen Anweisungen für Cline gefunden.

API-Keys absichern

Es wird empfohlen, Ihre API-Keys über Umgebungsvariablen abzusichern. Hier ein Beispiel-JSON-Snippet für die MCP-Serverkonfiguration:

{
  "mcpServers": {
    "langfuse": {
      "command": "node",
      "args": ["<absolute-path>/build/index.js"],
      "env": {
        "LANGFUSE_PUBLIC_KEY": "your-public-key",
        "LANGFUSE_SECRET_KEY": "your-secret-key",
        "LANGFUSE_BASEURL": "https://cloud.langfuse.com"
      }
    }
  }
}

Ersetzen Sie die Werte durch Ihre echten API-Zugangsdaten.

So nutzen Sie diesen MCP in Flows

Einsatz von MCP in FlowHunt

Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden diese mit Ihrem KI-Agenten:

FlowHunt MCP flow

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich der System-MCP-Konfiguration tragen Sie die Angaben zu Ihrem MCP-Server in folgendem JSON-Format ein:

{
  "langfuse": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten nutzen. Denken Sie daran, "langfuse" auf den tatsächlichen Namen Ihres MCP-Servers zu ändern und die URL durch Ihre eigene MCP-Server-URL zu ersetzen.


Übersicht

AbschnittVerfügbarkeitDetails/Hinweise
ÜbersichtLangfuse MCP für Prompt-Management
Liste der Promptsprompts/list, prompts/get
Liste der RessourcenPrompt-Listing, Prompt-Variablen, paginierte Ressourcen
Liste der Toolsget-prompts, get-prompt
API-Keys absichernÜber Umgebungsvariablen in der MCP-Konfiguration
Sampling-Support (weniger relevant für Bewertung)Nicht erwähnt

Auf Basis der verfügbaren Abschnitte und Funktionen ist der Langfuse MCP Server gut dokumentiert und deckt die wichtigsten MCP-Fähigkeiten – insbesondere für das Prompt-Management – ab. Die fehlende explizite Unterstützung für Sampling oder Roots schmälert die Erweiterbarkeit leicht. Insgesamt ist es eine starke Implementierung für den vorgesehenen Einsatzbereich.


MCP Score

Lizenz vorhanden✅ (MIT)
Mindestens ein Tool
Anzahl Forks22
Anzahl Stars98

Häufig gestellte Fragen

Was ist der Langfuse MCP Server?

Der Langfuse MCP Server ist ein Model Context Protocol-Server, der KI-Clients wie FlowHunt mit der Prompt-Management-Plattform von Langfuse verbindet. Er ermöglicht Prompt-Entdeckung, -Abruf und dynamische Kompilierung und optimiert Workflows für Prompts in LLMs und Agenten.

Welche Funktionen unterstützt der Langfuse MCP Server?

Er unterstützt die Auflistung aller verfügbaren Prompts, das Abrufen und Kompilieren von Prompts mit Variablen, paginierte Prompt-Entdeckung und das Bereitstellen von Prompt-Argumenten. Alle Argumente gelten als optional und der Server ist für produktives Prompt-Management in LLMOps-Szenarien ausgelegt.

Wie sichere ich meine Langfuse API-Keys?

Sie sollten API-Keys als Umgebungsvariablen in Ihrer MCP-Server-Konfiguration speichern, um sie sicher zu halten. Siehe die bereitgestellten Konfigurationsbeispiele für Details zur Einrichtung von Umgebungsvariablen.

Kann ich den Langfuse MCP Server in FlowHunt-Workflows nutzen?

Ja! Fügen Sie die MCP-Komponente in Ihrem FlowHunt-Flow hinzu, konfigurieren Sie sie so, dass sie auf Ihren Langfuse MCP Server verweist, und Ihre Agenten können Prompts aus Langfuse dynamisch abrufen, entdecken und kompilieren.

Was sind typische Anwendungsfälle für diese Integration?

Zentralisiertes Prompt-Management, standardisierter Abruf für LLM-Workflows, dynamische Prompt-Kompilierung mit Laufzeitvariablen, Unterstützung von Prompt-Auswahl-Oberflächen und Integration mit LLMOps-Tools für bessere Governance und Auditing.

Verbinden Sie FlowHunt mit Langfuse Prompt Management

Zentralisieren und standardisieren Sie Ihre KI-Prompt-Workflows, indem Sie den Langfuse MCP Server mit FlowHunt integrieren. Schalten Sie effiziente Prompt-Entdeckung, -Abruf und dynamische Kompilierung für fortschrittliche LLM-Operationen frei.

Mehr erfahren