Databricks Genie MCP Server
Verbinden Sie Ihren KI-Assistenten mit Databricks über den Genie MCP Server, um Abfragen in natürlicher Sprache, Zugriff auf Workspace-Metadaten und Multi-Turn-Konversationsmanagement für optimierte datengetriebene Workflows zu ermöglichen.

Was macht der “Databricks Genie” MCP Server?
Der Databricks Genie MCP Server ist ein Model Context Protocol (MCP) Server, der als Brücke zwischen KI-Assistenten und der Databricks Genie API dient. Diese Integration befähigt große Sprachmodelle (LLMs), mit Databricks-Umgebungen in natürlicher Sprache zu interagieren. Über den Server können LLMs Aktionen wie das Auflisten von Genie Spaces, das Abrufen von Workspace-Metadaten, das Initiieren und Verwalten von Genie-Konversationen sowie das Ausführen von SQL-Abfragen durchführen – alles über standardisierte MCP-Tools. Als Konnektor ermöglicht der Databricks Genie MCP Server Entwickler:innen, ihre Workflows mit konversationeller Datenexploration, direkter SQL-Abfrage und nahtloser Interaktion mit Databricks-Konversationsagenten zu erweitern und datengetriebene Entwicklung sowie Analyse zu optimieren.
Liste der Prompts
Im Repository sind keine expliziten Prompt-Vorlagen dokumentiert.
Liste der Ressourcen
Im Repository sind keine expliziten Ressourcen beschrieben.
Liste der Tools
- get_genie_space_id()
Listet verfügbare Genie Space IDs und Titel in Ihrem Databricks Workspace auf. - get_space_info(space_id: str)
Ruft den Titel und die Beschreibung eines angegebenen Genie Space ab. - ask_genie(space_id: str, question: str)
Startet eine neue Genie-Konversation mit einer Frage in natürlicher Sprache und gibt SQL sowie Ergebnistabellen zurück. - follow_up(space_id: str, conversation_id: str, question: str)
Führt eine bestehende Genie-Konversation mit einer Folgefrage fort.
Anwendungsfälle dieses MCP Servers
- Konversationelle Datenexploration
Entwickler:innen und Analyst:innen können mit Genie über natürliche Sprache interaktiv Databricks-Daten abfragen und so Datenanalysen zugänglicher und intuitiver machen. - Automatisierte SQL-Abfragegenerierung
Der Server wandelt Fragen in natürlicher Sprache in SQL-Anweisungen um, führt diese auf Genie Spaces aus und liefert strukturierte Ergebnisse zurück. Das spart Zeit und reduziert Fehler. - Abruf von Workspace-Metadaten
Erfassen Sie einfach Metadaten (Titel, Beschreibungen) zu Genie Spaces, um verfügbare Datenressourcen besser zu verstehen und zu dokumentieren. - Konversationsmanagement
Behalten Sie den Kontext über mehrstufige Konversationen hinweg bei – ideal für komplexe Analyseworkflows, bei denen Fragen aufeinander aufbauen. - Integration mit KI-Assistenten
Fügen Sie Databricks Genie nahtlos zu KI-gestützten IDEs oder Chat-Oberflächen hinzu und verschlanken Sie Data-Science-Workflows in vertrauten Tools.
So richten Sie es ein
Windsurf
- Stellen Sie sicher, dass Python 3.7+ auf Ihrem System installiert ist.
- Klonen Sie das Databricks Genie MCP Repository und installieren Sie die Abhängigkeiten.
- Erstellen Sie eine
.env
-Datei mit Ihren Databricks-Zugangsdaten (DATABRICKS_HOST
undDATABRICKS_TOKEN
). - Ergänzen Sie Ihre Windsurf-Konfiguration um den MCP-Server mit folgendem JSON-Snippet:
{ "mcpServers": { "databricks-genie": { "command": "python", "args": ["main.py"] } } }
- Starten Sie Windsurf neu und prüfen Sie, ob der Server in Ihren verfügbaren MCP-Servern erscheint.
- API-Keys sichern:
Verwenden Sie Umgebungsvariablen, um die Zugangsdaten sicher zu halten. Beispiel:{ "env": { "DATABRICKS_HOST": "your-databricks-instance.cloud.databricks.com", "DATABRICKS_TOKEN": "your-personal-access-token" }, "inputs": {} }
Claude
- Installieren Sie Python 3.7+ und die Abhängigkeiten aus dem Repository.
- Konfigurieren Sie
.env
mit Ihrem Databricks-Host und Token. - Führen Sie im Projektverzeichnis folgenden Befehl aus:
mcp install main.py
- Öffnen Sie Claude Desktop, gehen Sie zu Ressourcen → Ressource hinzufügen und wählen Sie Ihren Genie MCP Server aus.
- Beginnen Sie mit der Konversation mit Ihren Databricks-Daten.
Cursor
- Stellen Sie sicher, dass alle Voraussetzungen und Abhängigkeiten erfüllt sind und
.env
konfiguriert ist. - Fügen Sie Folgendes zu Ihrer Cursor-Konfiguration hinzu:
{ "mcpServers": { "databricks-genie": { "command": "python", "args": ["main.py"] } } }
- Speichern Sie die Konfiguration und starten Sie Cursor neu.
- Überprüfen Sie die Serververbindung und stellen Sie sicher, dass die Umgebungsvariablen wie oben angegeben gesetzt sind.
Cline
- Installieren Sie Python 3.7+, klonen Sie das Repository und richten Sie Ihre
.env
ein. - Fügen Sie den MCP-Server in Ihrer Cline-Konfiguration hinzu:
{ "mcpServers": { "databricks-genie": { "command": "python", "args": ["main.py"] } } }
- Starten Sie Cline neu und prüfen Sie, ob der MCP-Server aktiv ist.
- Verwenden Sie Umgebungsvariablen, um Ihre Zugangsdaten zu schützen.
So verwenden Sie diesen MCP in Flows
MCP in FlowHunt nutzen
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zuerst die MCP-Komponente zu Ihrem Flow hinzu und verknüpfen Sie sie mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationsfeld zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie die Details Ihres MCP-Servers in folgendem JSON-Format ein:
{
"databricks-genie": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit all seinen Funktionen und Möglichkeiten nutzen. Denken Sie daran, “databricks-genie” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL mit Ihrer eigenen MCP-Server-URL zu aktualisieren.
Übersicht
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen im Repository beschrieben |
Liste der Ressourcen | ⛔ | Keine expliziten MCP-Ressourcen dokumentiert |
Liste der Tools | ✅ | 4 Tools: siehe Abschnitt oben |
API-Key Sicherung | ✅ | Erläutert via .env und JSON-Beispiel |
Sampling Support (weniger wichtig bei Bewertung) | ⛔ | Keine Erwähnung |
Unsere Meinung
Der Databricks Genie MCP Server bietet eine praktische Brücke zwischen Databricks und LLMs, mit klaren Setup-Anweisungen und Werkzeugen. Allerdings fehlen Prompt-Vorlagen, explizite Ressourcen und eine Dokumentation zu fortgeschrittenen MCP-Features wie Sampling oder Roots. Die Kernwerkzeuge sind gut definiert und für Databricks-Nutzer:innen nützlich. Insgesamt fällt die Bewertung überdurchschnittlich aus, allerdings wäre eine stärkere Nutzung erweiterter MCP-Funktionen wünschenswert.
MCP Score
Hat eine LICENSE | Ja (MIT) |
---|---|
Mindestens ein Tool | Ja |
Anzahl Forks | 1 |
Anzahl Sterne | 3 |
Häufig gestellte Fragen
- Was ist der Databricks Genie MCP Server?
Es handelt sich um einen Model Context Protocol Server, der große Sprachmodelle mit Databricks Genie verbindet und so Interaktion in natürlicher Sprache, SQL-Abfragegenerierung und das Abrufen von Workspace-Metadaten direkt aus KI-Assistenten ermöglicht.
- Welche Aufgaben können über den Genie MCP Server ausgeführt werden?
Sie können Genie Spaces auflisten, Space-Metadaten abrufen, Genie-Konversationen mit natürlicher Sprache starten und verwalten sowie SQL-Abfragen ausführen oder nachfassen.
- Wie verbessert der Genie MCP Server Daten-Workflows?
Er vereinfacht die Datenexploration, indem konversationelle, mehrstufige Abfragen und automatisierte SQL-Generierung ermöglicht werden, macht Analysen zugänglicher und reduziert manuellen SQL-Aufwand.
- Wie werden Zugangsdaten gesichert?
Zugangsdaten wie Databricks Host und Token werden über Umgebungsvariablen verwaltet und nie fest im Code hinterlegt, sodass sensible Informationen geschützt bleiben.
- Stellt dieser Server Prompt-Vorlagen oder explizite Ressourcen bereit?
Nein, das Repository enthält keine expliziten Prompt-Vorlagen oder zusätzlichen MCP-Ressourcen, aber die Kernwerkzeuge für Konversation und SQL-Abfragen werden vollständig unterstützt.
Machen Sie Databricks mit Genie MCP leistungsstärker
Schalten Sie konversationelle Datenanalyse und direkte SQL-Abfragen in FlowHunt frei, indem Sie Ihren Databricks Workspace mit dem Genie MCP Server verbinden.