Langfuse MCP Server-Integration
Integrieren Sie den Langfuse MCP Server mit FlowHunt, um KI-Prompts zentral zu verwalten, abzurufen und zu kompilieren – für dynamische und standardisierte LLM-Workflows.

Was macht der “Langfuse” MCP Server?
Der Langfuse MCP Server ist ein Model Context Protocol (MCP) Server, der für das Langfuse Prompt Management entwickelt wurde. Er ermöglicht es KI-Assistenten und Entwicklern, auf Prompts zuzugreifen, die in Langfuse gespeichert sind, und diese über die standardisierte MCP-Schnittstelle zu verwalten. Durch die Verbindung von KI-Clients mit externen Prompt-Repositories über MCP vereinfacht dieser Server das Abrufen, Auflisten und Kompilieren von Prompts, was den Entwicklungsworkflow für Large Language Models (LLMs) verbessert. Der Langfuse MCP Server unterstützt Prompt-Entdeckung, -Abruf und -Kompilierung und erlaubt Aufgaben wie dynamische Prompt-Auswahl und Variablenersetzung. Diese Integration vereinfacht das Prompt-Management und standardisiert die Interaktion zwischen LLMs und Prompt-Datenbanken – besonders nützlich in Umgebungen, in denen konsistente Prompt-Nutzung und -Teilen team- oder plattformübergreifend erforderlich sind.
Liste der Prompts
prompts/list
: Listet alle verfügbaren Prompts im Langfuse-Repository auf. Unterstützt optional cursor-basierte Paginierung und liefert Prompt-Namen mit ihren benötigten Argumenten. Alle Argumente gelten als optional.prompts/get
: Ruft einen bestimmten Prompt anhand seines Namens ab und kompiliert ihn mit bereitgestellten Variablen. Unterstützt sowohl Text- als auch Chat-Prompts und wandelt sie in MCP-Prompt-Objekte um.
Liste der Ressourcen
- Langfuse Prompts Resource: Stellt alle in Langfuse als
production
gekennzeichneten Prompts zur Entdeckung und zum Abruf für KI-Clients bereit. - Prompt-Argumente-Resource: Gibt Informationen zu Prompt-Variablen zurück (alle optional; keine detaillierten Beschreibungen aufgrund von Einschränkungen der Langfuse-Spezifikation).
- Paginierte Prompts Resource: Unterstützt die Auflistung von Prompts mit Paginierung für effizienten Zugriff in großen Repositories.
Liste der Tools
get-prompts
: Listet verfügbare Prompts mit ihren Argumenten auf. Unterstützt den optionalencursor
-Parameter für die Seitennavigation und gibt eine Liste von Prompt-Namen und Argumenten zurück.get-prompt
: Ruft einen bestimmten Prompt ab und kompiliert ihn. Erfordert den Parametername
und optional ein JSON-Objekt mit Variablen, um den Prompt auszufüllen.
Anwendungsfälle dieses MCP Servers
- Zentralisiertes Prompt-Management: Vereinfachen Sie Prompt-Updates und -Freigaben teamübergreifend, indem Sie alle Prompts in Langfuse verwalten und per MCP verschiedenen KI-Clients bereitstellen.
- Standardisierter Prompt-Abruf: Sorgen Sie für konsistente Prompt-Nutzung in LLM-Workflows, indem Sie mit MCP validierte, produktionsreife Prompts bei Bedarf abrufen.
- Dynamische Prompt-Kompilierung: Erlauben Sie LLMs oder KI-Agenten, Prompts mit Laufzeitvariablen zu kompilieren – für flexible und dynamische Interaktionen.
- Prompt-Entdeckung in Apps: Ermöglichen Sie Prompt-Auswahl-Oberflächen in Entwickler-Tools oder KI-Assistenten, indem Sie verfügbare Prompts und deren Parameter listen.
- Integration mit LLMOps-Workflows: Verbinden Sie Langfuse-Prompt-Repositories mit LLMOps-Plattformen und Agenten-Frameworks per MCP-Protokoll für bessere Prompt-Governance und Auditing.
So richten Sie es ein
Windsurf
Im Repository wurden keine spezifischen Anweisungen für Windsurf gefunden.
Claude
- Stellen Sie sicher, dass Node.js und npm installiert sind.
- Bauen Sie den Server mit:
npm install npm run build
- Bearbeiten Sie Ihre
claude_desktop_config.json
, um den MCP-Server hinzuzufügen:{ "mcpServers": { "langfuse": { "command": "node", "args": ["<absolute-path>/build/index.js"], "env": { "LANGFUSE_PUBLIC_KEY": "your-public-key", "LANGFUSE_SECRET_KEY": "your-secret-key", "LANGFUSE_BASEURL": "https://cloud.langfuse.com" } } } }
- Ersetzen Sie die Umgebungsvariablen durch Ihre echten Langfuse-API-Keys.
- Speichern Sie die Konfiguration und starten Sie Claude Desktop neu.
- Prüfen Sie, ob der Server in der Claude Desktop MCP-Oberfläche verfügbar ist.
Cursor
- Stellen Sie sicher, dass Node.js und npm installiert sind.
- Bauen Sie den Server:
npm install npm run build
- Fügen Sie in Cursor einen neuen MCP-Server hinzu mit:
- Name: Langfuse Prompts
- Typ: command
- Befehl:
LANGFUSE_PUBLIC_KEY="your-public-key" LANGFUSE_SECRET_KEY="your-secret-key" LANGFUSE_BASEURL="https://cloud.langfuse.com" node absolute-path/build/index.js
- Ersetzen Sie die Umgebungsvariablen durch Ihre echten Langfuse-API-Keys.
- Speichern und überprüfen Sie die Serververbindung.
Cline
Im Repository wurden keine spezifischen Anweisungen für Cline gefunden.
API-Keys absichern
Es wird empfohlen, Ihre API-Keys über Umgebungsvariablen abzusichern. Hier ein Beispiel-JSON-Snippet für die MCP-Serverkonfiguration:
{
"mcpServers": {
"langfuse": {
"command": "node",
"args": ["<absolute-path>/build/index.js"],
"env": {
"LANGFUSE_PUBLIC_KEY": "your-public-key",
"LANGFUSE_SECRET_KEY": "your-secret-key",
"LANGFUSE_BASEURL": "https://cloud.langfuse.com"
}
}
}
}
Ersetzen Sie die Werte durch Ihre echten API-Zugangsdaten.
So nutzen Sie diesen MCP in Flows
Einsatz von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden diese mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich der System-MCP-Konfiguration tragen Sie die Angaben zu Ihrem MCP-Server in folgendem JSON-Format ein:
{
"langfuse": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten nutzen. Denken Sie daran, "langfuse"
auf den tatsächlichen Namen Ihres MCP-Servers zu ändern und die URL durch Ihre eigene MCP-Server-URL zu ersetzen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Hinweise |
---|---|---|
Übersicht | ✅ | Langfuse MCP für Prompt-Management |
Liste der Prompts | ✅ | prompts/list , prompts/get |
Liste der Ressourcen | ✅ | Prompt-Listing, Prompt-Variablen, paginierte Ressourcen |
Liste der Tools | ✅ | get-prompts , get-prompt |
API-Keys absichern | ✅ | Über Umgebungsvariablen in der MCP-Konfiguration |
Sampling-Support (weniger relevant für Bewertung) | ⛔ | Nicht erwähnt |
Auf Basis der verfügbaren Abschnitte und Funktionen ist der Langfuse MCP Server gut dokumentiert und deckt die wichtigsten MCP-Fähigkeiten – insbesondere für das Prompt-Management – ab. Die fehlende explizite Unterstützung für Sampling oder Roots schmälert die Erweiterbarkeit leicht. Insgesamt ist es eine starke Implementierung für den vorgesehenen Einsatzbereich.
MCP Score
Lizenz vorhanden | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 22 |
Anzahl Stars | 98 |
Häufig gestellte Fragen
- Was ist der Langfuse MCP Server?
Der Langfuse MCP Server ist ein Model Context Protocol-Server, der KI-Clients wie FlowHunt mit der Prompt-Management-Plattform von Langfuse verbindet. Er ermöglicht Prompt-Entdeckung, -Abruf und dynamische Kompilierung und optimiert Workflows für Prompts in LLMs und Agenten.
- Welche Funktionen unterstützt der Langfuse MCP Server?
Er unterstützt die Auflistung aller verfügbaren Prompts, das Abrufen und Kompilieren von Prompts mit Variablen, paginierte Prompt-Entdeckung und das Bereitstellen von Prompt-Argumenten. Alle Argumente gelten als optional und der Server ist für produktives Prompt-Management in LLMOps-Szenarien ausgelegt.
- Wie sichere ich meine Langfuse API-Keys?
Sie sollten API-Keys als Umgebungsvariablen in Ihrer MCP-Server-Konfiguration speichern, um sie sicher zu halten. Siehe die bereitgestellten Konfigurationsbeispiele für Details zur Einrichtung von Umgebungsvariablen.
- Kann ich den Langfuse MCP Server in FlowHunt-Workflows nutzen?
Ja! Fügen Sie die MCP-Komponente in Ihrem FlowHunt-Flow hinzu, konfigurieren Sie sie so, dass sie auf Ihren Langfuse MCP Server verweist, und Ihre Agenten können Prompts aus Langfuse dynamisch abrufen, entdecken und kompilieren.
- Was sind typische Anwendungsfälle für diese Integration?
Zentralisiertes Prompt-Management, standardisierter Abruf für LLM-Workflows, dynamische Prompt-Kompilierung mit Laufzeitvariablen, Unterstützung von Prompt-Auswahl-Oberflächen und Integration mit LLMOps-Tools für bessere Governance und Auditing.
Verbinden Sie FlowHunt mit Langfuse Prompt Management
Zentralisieren und standardisieren Sie Ihre KI-Prompt-Workflows, indem Sie den Langfuse MCP Server mit FlowHunt integrieren. Schalten Sie effiziente Prompt-Entdeckung, -Abruf und dynamische Kompilierung für fortschrittliche LLM-Operationen frei.