Databricks MCP-Server
Verbinden Sie Ihre KI-Agenten mit Databricks für automatisierte SQLs, Job-Monitoring und Workflow-Management mithilfe des Databricks MCP-Servers in FlowHunt.

Was macht der “Databricks” MCP-Server?
Der Databricks MCP (Model Context Protocol) Server ist ein spezialisiertes Tool, das KI-Assistenten mit der Databricks-Plattform verbindet und so eine nahtlose Interaktion mit Databricks-Ressourcen über natürliche Sprachschnittstellen ermöglicht. Dieser Server fungiert als Brücke zwischen großen Sprachmodellen (LLMs) und Databricks-APIs und erlaubt es LLMs, SQL-Abfragen auszuführen, Jobs aufzulisten, Job-Status abzurufen und detaillierte Job-Informationen einzuholen. Durch die Bereitstellung dieser Funktionen über das MCP-Protokoll ermöglicht der Databricks MCP-Server Entwicklern und KI-Agenten die Automatisierung von Daten-Workflows, das Management von Databricks-Jobs und die Optimierung von Datenbankoperationen – und steigert so die Produktivität in datengetriebenen Entwicklungsumgebungen.
Liste der Prompts
Im Repository sind keine Prompt-Vorlagen beschrieben.
Liste der Ressourcen
Im Repository sind keine expliziten Ressourcen aufgeführt.
Liste der Tools
- run_sql_query(sql: str)
Führt SQL-Abfragen auf dem Databricks SQL Warehouse aus. - list_jobs()
Listet alle Databricks-Jobs im Workspace auf. - get_job_status(job_id: int)
Ruft den Status eines bestimmten Databricks-Jobs anhand der ID ab. - get_job_details(job_id: int)
Holt detaillierte Informationen zu einem bestimmten Databricks-Job.
Anwendungsfälle dieses MCP-Servers
- Automatisierung von Datenbankabfragen
Ermöglicht es LLMs und Nutzern, SQL-Abfragen auf Databricks Warehouses direkt aus Konversationsschnittstellen heraus auszuführen und so Datenanalyse-Workflows zu beschleunigen. - Job-Management
Listet Databricks-Jobs auf und überwacht diese, damit Nutzer Aufgaben in ihrem Workspace im Blick behalten. - Job-Status-Tracking
Ruft schnell den Status bestimmter Databricks-Jobs ab, um Monitoring und Fehlerbehebung zu erleichtern. - Detaillierte Job-Inspektion
Gewährt Zugriff auf tiefergehende Informationen zu Databricks-Jobs zur Fehleranalyse und Optimierung von ETL-Pipelines oder Batch-Jobs.
So richten Sie es ein
Windsurf
- Stellen Sie sicher, dass Python 3.7+ installiert ist und Databricks-Zugangsdaten verfügbar sind.
- Klonen Sie das Repository und installieren Sie die Anforderungen mit
pip install -r requirements.txt
. - Erstellen Sie eine
.env
-Datei mit Ihren Databricks-Zugangsdaten. - Fügen Sie den Databricks MCP-Server zu Ihrer Windsurf-Konfiguration hinzu:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Speichern Sie die Konfiguration und starten Sie Windsurf neu. Überprüfen Sie die Einrichtung durch Ausführen einer Testabfrage.
Beispiel zur Absicherung von API-Schlüsseln:
{
"mcpServers": {
"databricks": {
"command": "python",
"args": ["main.py"],
"env": {
"DATABRICKS_HOST": "${DATABRICKS_HOST}",
"DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
"DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
}
}
}
}
Claude
- Installieren Sie Python 3.7+ und klonen Sie das Repository.
- Richten Sie die
.env
-Datei mit Databricks-Zugangsdaten ein. - Konfigurieren Sie die MCP-Schnittstelle von Claude:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Starten Sie Claude neu und prüfen Sie die Verbindung.
Cursor
- Klonen Sie das Repository und richten Sie die Python-Umgebung ein.
- Installieren Sie die Abhängigkeiten und erstellen Sie eine
.env
mit Zugangsdaten. - Fügen Sie den Server zur Cursor-Konfiguration hinzu:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Konfiguration speichern und Verbindung testen.
Cline
- Bereiten Sie Python und Zugangsdaten wie oben vor.
- Klonen Sie das Repository, installieren Sie die Anforderungen und konfigurieren Sie
.env
. - Fügen Sie den MCP-Server in die Cline-Konfiguration ein:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Speichern, Cline neu starten und prüfen, ob der MCP-Server läuft.
Hinweis: Sichern Sie Ihre API-Schlüssel und Geheimnisse immer, indem Sie Umgebungsvariablen wie in den obigen Konfigurationsbeispielen verwenden.
So nutzen Sie diesen MCP in Flows
Verwendung von MCP in FlowHunt
Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie diese mit Ihrem KI-Agenten:

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Geben Sie im Bereich der System-MCP-Konfiguration Ihre MCP-Serverdaten in folgendem JSON-Format ein:
{
"databricks": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle seine Funktionen nutzen. Denken Sie daran, “databricks” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL entsprechend anzupassen.
Übersicht
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen im Repository angegeben |
Liste der Ressourcen | ⛔ | Keine expliziten Ressourcen definiert |
Liste der Tools | ✅ | 4 Tools: run_sql_query, list_jobs, get_job_status, get_job_details |
Absicherung der API-Schlüssel | ✅ | Über Umgebungsvariablen in .env und JSON-Konfig |
Sampling Support (weniger wichtig für Bewertung) | ⛔ | Nicht erwähnt |
| Roots Support | ⛔ | Nicht erwähnt |
Basierend auf der Verfügbarkeit von Kernfunktionen (Tools, Setup- und Sicherheitshinweise, aber keine Ressourcen oder Prompt-Vorlagen) eignet sich der Databricks MCP-Server gut für die Databricks-API-Integration, es fehlen jedoch einige fortgeschrittene MCP-Primitiven. Ich würde diesem MCP-Server eine 6 von 10 für Gesamtvollständigkeit und Nutzen im Kontext des MCP-Ökosystems geben.
MCP-Score
Hat eine LICENSE | ⛔ (nicht gefunden) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl der Forks | 13 |
Anzahl der Sterne | 33 |
Häufig gestellte Fragen
- Was ist der Databricks MCP-Server?
Der Databricks MCP-Server ist eine Brücke zwischen KI-Assistenten und Databricks und stellt Databricks-Funktionen wie SQL-Ausführung und Job-Management über das MCP-Protokoll für automatisierte Workflows bereit.
- Welche Operationen unterstützt dieser MCP-Server?
Er unterstützt das Ausführen von SQL-Abfragen, das Auflisten aller Jobs, das Abrufen von Job-Status und das Einholen detaillierter Informationen zu bestimmten Databricks-Jobs.
- Wie speichere ich meine Databricks-Zugangsdaten sicher?
Nutzen Sie immer Umgebungsvariablen, z. B. indem Sie sie in einer `.env`-Datei ablegen oder in Ihrer MCP-Server-Konfiguration einrichten, anstatt sensible Informationen hart zu codieren.
- Kann ich diesen Server in FlowHunt-Flows verwenden?
Ja, fügen Sie einfach die MCP-Komponente zu Ihrem Flow hinzu, konfigurieren Sie sie mit Ihren Databricks MCP-Serverdaten und Ihre KI-Agenten können auf alle unterstützten Databricks-Funktionen zugreifen.
- Wie ist der Gesamtnutzenwert dieses MCP-Servers?
Basierend auf verfügbaren Tools, Einrichtungshilfen und Sicherheitsunterstützung, aber fehlenden Ressourcen und Prompt-Vorlagen, erhält dieser MCP-Server eine Bewertung von 6 von 10 hinsichtlich Vollständigkeit im MCP-Ökosystem.
Optimieren Sie Ihre Databricks-Workflows
Automatisieren Sie SQL-Abfragen, überwachen Sie Jobs und verwalten Sie Databricks-Ressourcen direkt aus KI-Dialogoberflächen heraus. Integrieren Sie den Databricks MCP-Server in Ihre FlowHunt-Flows für Produktivität auf neuem Niveau.