Databricks MCP Server
Collega i tuoi agenti AI a Databricks per SQL automatizzato, monitoraggio dei job e gestione dei flussi di lavoro utilizzando il Databricks MCP Server in FlowHunt.

Cosa fa il “Databricks” MCP Server?
Il Databricks MCP (Model Context Protocol) Server è uno strumento specializzato che collega gli assistenti AI alla piattaforma Databricks, consentendo un’interazione fluida con le risorse Databricks tramite interfacce in linguaggio naturale. Questo server funge da ponte tra i large language model (LLM) e le API Databricks, permettendo agli LLM di eseguire query SQL, elencare i job, recuperare gli stati dei job e ottenere informazioni dettagliate sui job. Esposte queste capacità tramite il protocollo MCP, il Databricks MCP Server permette a sviluppatori e agenti AI di automatizzare i workflow sui dati, gestire i job Databricks e semplificare le operazioni sui database, migliorando così la produttività negli ambienti di sviluppo data-driven.
Elenco dei Prompt
Nessun template di prompt è descritto nel repository.
Elenco delle Risorse
Nessuna risorsa esplicita è elencata nel repository.
Elenco degli Strumenti
- run_sql_query(sql: str)
Esegue query SQL sul warehouse SQL di Databricks. - list_jobs()
Elenca tutti i job Databricks nello workspace. - get_job_status(job_id: int)
Recupera lo stato di un job Databricks specifico tramite il suo ID. - get_job_details(job_id: int)
Ottiene informazioni dettagliate su un job Databricks specifico.
Casi d’Uso di questo MCP Server
- Automazione delle Query di Database
Permette a LLM e utenti di eseguire query SQL sui warehouse Databricks direttamente da interfacce conversazionali, semplificando i flussi di analisi dati. - Gestione dei Job
Elenca e monitora i job Databricks, aiutando gli utenti a tenere traccia delle attività in corso o programmate nel loro workspace. - Monitoraggio dello Stato dei Job
Recupera rapidamente lo stato di job Databricks specifici, consentendo monitoraggio efficiente e troubleshooting. - Ispezione Dettagliata dei Job
Accede a informazioni approfondite sui job Databricks, facilitando il debug e l’ottimizzazione di pipeline ETL o job batch.
Come configurarlo
Windsurf
- Assicurati che Python 3.7+ sia installato e che le credenziali Databricks siano disponibili.
- Clona il repository e installa i requisiti con
pip install -r requirements.txt
. - Crea un file
.env
con le tue credenziali Databricks. - Aggiungi il Databricks MCP Server alla configurazione di Windsurf:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Salva la configurazione e riavvia Windsurf. Verifica la configurazione eseguendo una query di prova.
Esempio di protezione delle API Key:
{
"mcpServers": {
"databricks": {
"command": "python",
"args": ["main.py"],
"env": {
"DATABRICKS_HOST": "${DATABRICKS_HOST}",
"DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
"DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
}
}
}
}
Claude
- Installa Python 3.7+ e clona il repository.
- Configura il file
.env
con le credenziali Databricks. - Configura l’interfaccia MCP di Claude:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Riavvia Claude e valida la connessione.
Cursor
- Clona il repository e configura l’ambiente Python.
- Installa le dipendenze e crea
.env
con le credenziali. - Aggiungi il server alla configurazione di Cursor:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Salva la configurazione e testa la connessione.
Cline
- Prepara Python e le credenziali come sopra.
- Clona il repository, installa i requisiti e configura
.env
. - Aggiungi la voce MCP server alla configurazione di Cline:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Salva, riavvia Cline e verifica che il MCP Server sia operativo.
Nota: Proteggi sempre le tue API key e i segreti utilizzando le variabili d’ambiente come mostrato negli esempi di configurazione sopra.
Come utilizzare questo MCP nei flussi
Utilizzo di MCP in FlowHunt
Per integrare i server MCP nel tuo workflow FlowHunt, inizia aggiungendo il componente MCP al tuo flusso e collegandolo al tuo agente AI:

Clicca sul componente MCP per aprire il pannello di configurazione. Nella sezione di configurazione MCP di sistema, inserisci i dettagli del tuo server MCP utilizzando questo formato JSON:
{
"databricks": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una volta configurato, l’agente AI potrà ora utilizzare questo MCP come strumento con accesso a tutte le sue funzioni e capacità. Ricorda di cambiare “databricks” con il nome reale del tuo server MCP e di sostituire l’URL con quello del tuo MCP server.
Panoramica
Sezione | Disponibilità | Dettagli/Note |
---|---|---|
Panoramica | ✅ | |
Elenco dei Prompt | ⛔ | Nessun template di prompt specificato nel repo |
Elenco delle Risorse | ⛔ | Nessuna risorsa esplicita definita |
Elenco degli Strumenti | ✅ | 4 strumenti: run_sql_query, list_jobs, get_job_status, get_job_details |
Protezione delle API Key | ✅ | Tramite variabili d’ambiente in .env e config JSON |
Supporto Sampling (meno importante in valutazione) | ⛔ | Non menzionato |
| Supporto Roots | ⛔ | Non menzionato |
In base alla disponibilità delle funzionalità principali (strumenti, guida alla configurazione e sicurezza, ma senza risorse o template di prompt), il Databricks MCP Server è efficace per l’integrazione API Databricks ma manca di alcune primitive MCP avanzate. Valuterei questo MCP server 6 su 10 per completezza e utilità nel contesto dell’ecosistema MCP.
MCP Score
Ha una LICENSE | ⛔ (non trovata) |
---|---|
Ha almeno uno strumento | ✅ |
Numero di Fork | 13 |
Numero di Stelle | 33 |
Domande frequenti
- Cos'è il Databricks MCP Server?
Il Databricks MCP Server è un ponte tra gli assistenti AI e Databricks, esponendo capacità di Databricks come l'esecuzione di SQL e la gestione dei job tramite il protocollo MCP per workflow automatizzati.
- Quali operazioni sono supportate da questo MCP Server?
Supporta l'esecuzione di query SQL, l'elenco di tutti i job, il recupero degli stati dei job e l'ottenimento di informazioni dettagliate su specifici job Databricks.
- Come posso archiviare in modo sicuro le mie credenziali Databricks?
Utilizza sempre variabili d'ambiente, ad esempio inserendole in un file `.env` o configurandole nell'impostazione del tuo MCP server, invece di inserire direttamente informazioni sensibili nel codice.
- Posso usare questo server nei flussi FlowHunt?
Sì, basta aggiungere il componente MCP al tuo flusso, configurarlo con i dettagli del tuo server MCP Databricks e i tuoi agenti AI potranno accedere a tutte le funzioni Databricks supportate.
- Qual è il punteggio di utilità complessivo di questo MCP Server?
Sulla base degli strumenti disponibili, delle indicazioni di setup e del supporto per la sicurezza, ma con risorse e template prompt mancanti, questo MCP Server è valutato 6 su 10 per completezza nell'ecosistema MCP.
Migliora i tuoi workflow Databricks
Automatizza le query SQL, monitora i job e gestisci le risorse Databricks direttamente da interfacce AI conversazionali. Integra il Databricks MCP Server nei tuoi flussi FlowHunt per una produttività di livello superiore.