Servidor Databricks MCP
Conecta tus agentes de IA a Databricks para SQL automatizado, monitoreo de trabajos y gestión de flujos de trabajo usando el Servidor Databricks MCP en FlowHunt.

¿Qué hace el Servidor “Databricks” MCP?
El Servidor Databricks MCP (Model Context Protocol) es una herramienta especializada que conecta asistentes de IA con la plataforma Databricks, permitiendo una interacción fluida con recursos de Databricks a través de interfaces de lenguaje natural. Este servidor actúa como un puente entre modelos de lenguaje grande (LLM) y las APIs de Databricks, permitiendo a los LLM ejecutar consultas SQL, listar trabajos, recuperar el estado de trabajos y obtener información detallada de los mismos. Al exponer estas capacidades mediante el protocolo MCP, el Servidor Databricks MCP empodera a desarrolladores y agentes de IA para automatizar flujos de datos, gestionar trabajos de Databricks y optimizar operaciones de bases de datos, mejorando así la productividad en entornos de desarrollo orientados a datos.
Lista de Prompts
No se describen plantillas de prompt en el repositorio.
Lista de Recursos
No se listan recursos explícitos en el repositorio.
Lista de Herramientas
- run_sql_query(sql: str)
Ejecutar consultas SQL en el almacén de Databricks SQL. - list_jobs()
Listar todos los trabajos de Databricks en el espacio de trabajo. - get_job_status(job_id: int)
Recuperar el estado de un trabajo específico de Databricks por su ID. - get_job_details(job_id: int)
Obtener información detallada de un trabajo específico de Databricks.
Casos de uso de este Servidor MCP
- Automatización de consultas a bases de datos
Permite que LLMs y usuarios ejecuten consultas SQL en almacenes Databricks directamente desde interfaces conversacionales, optimizando los flujos de análisis de datos. - Gestión de trabajos
Lista y monitoriza trabajos de Databricks, ayudando a los usuarios a hacer seguimiento de tareas en curso o programadas dentro de su espacio de trabajo. - Monitoreo de estado de trabajos
Recupera rápidamente el estado de trabajos específicos de Databricks, permitiendo un monitoreo y resolución de problemas eficiente. - Inspección detallada de trabajos
Accede a información detallada sobre los trabajos de Databricks, facilitando la depuración y optimización de pipelines ETL o trabajos por lotes.
¿Cómo configurarlo?
Windsurf
- Asegúrate de tener Python 3.7+ instalado y contar con las credenciales de Databricks.
- Clona el repositorio e instala los requisitos con
pip install -r requirements.txt
. - Crea un archivo
.env
con tus credenciales de Databricks. - Agrega el Servidor Databricks MCP a tu configuración de Windsurf:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Guarda la configuración y reinicia Windsurf. Verifica la configuración ejecutando una consulta de prueba.
Ejemplo de protección de claves API:
{
"mcpServers": {
"databricks": {
"command": "python",
"args": ["main.py"],
"env": {
"DATABRICKS_HOST": "${DATABRICKS_HOST}",
"DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
"DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
}
}
}
}
Claude
- Instala Python 3.7+ y clona el repositorio.
- Configura el archivo
.env
con las credenciales de Databricks. - Configura la interfaz MCP de Claude:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Reinicia Claude y valida la conexión.
Cursor
- Clona el repositorio y configura el entorno de Python.
- Instala las dependencias y crea el
.env
con las credenciales. - Agrega el servidor a la configuración de Cursor:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Guarda la configuración y prueba la conexión.
Cline
- Prepara Python y las credenciales como se indicó antes.
- Clona el repositorio, instala los requisitos y configura el
.env
. - Agrega la entrada del servidor MCP a la configuración de Cline:
{ "mcpServers": { "databricks": { "command": "python", "args": ["main.py"] } } }
- Guarda, reinicia Cline y verifica que el Servidor MCP esté operativo.
Nota: Protege siempre tus claves y secretos de API usando variables de entorno como se muestra en los ejemplos de configuración anteriores.
Cómo usar este MCP en los flujos
Uso de MCP en FlowHunt
Para integrar servidores MCP en tu flujo de trabajo de FlowHunt, comienza añadiendo el componente MCP a tu flujo y conectándolo a tu agente de IA:

Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración del sistema MCP, inserta los detalles de tu servidor MCP usando este formato JSON:
{
"databricks": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Una vez configurado, el agente de IA podrá utilizar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerda cambiar “databricks” por el nombre real de tu servidor MCP y reemplazar la URL con la de tu propio servidor MCP.
Resumen
Sección | Disponibilidad | Detalles/Notas |
---|---|---|
Resumen | ✅ | |
Lista de Prompts | ⛔ | No se especifican plantillas de prompt en el repo |
Lista de Recursos | ⛔ | No se definen recursos explícitos |
Lista de Herramientas | ✅ | 4 herramientas: run_sql_query, list_jobs, get_job_status, get_job_details |
Protección de claves API | ✅ | A través de variables de entorno en .env y JSON de configuración |
Soporte de muestreo (menos relevante en la evaluación) | ⛔ | No mencionado |
| Soporte de Roots | ⛔ | No mencionado |
En función de la disponibilidad de las características principales (herramientas, guía de configuración y seguridad, pero sin recursos ni plantillas de prompt), el Servidor Databricks MCP es efectivo para la integración con la API de Databricks, aunque carece de algunos primitivos avanzados de MCP. Calificaría este servidor MCP con un 6 de 10 en cuanto a integridad y utilidad general en el contexto del ecosistema MCP.
Puntuación MCP
¿Tiene LICENSE? | ⛔ (no encontrada) |
---|---|
¿Tiene al menos una herramienta? | ✅ |
Número de Forks | 13 |
Número de Stars | 33 |
Preguntas frecuentes
- ¿Qué es el Servidor Databricks MCP?
El Servidor Databricks MCP es un puente entre asistentes de IA y Databricks, exponiendo capacidades de Databricks como la ejecución de SQL y la gestión de trabajos vía protocolo MCP para flujos de trabajo automatizados.
- ¿Qué operaciones soporta este Servidor MCP?
Permite ejecutar consultas SQL, listar todos los trabajos, recuperar el estado de los trabajos y obtener información detallada sobre trabajos específicos de Databricks.
- ¿Cómo guardo de forma segura mis credenciales de Databricks?
Utiliza siempre variables de entorno, por ejemplo colocándolas en un archivo `.env` o configurándolas en tu servidor MCP, en lugar de codificar información sensible directamente en el código.
- ¿Puedo usar este servidor en flujos de FlowHunt?
Sí, solo tienes que añadir el componente MCP a tu flujo, configurarlo con los detalles de tu servidor Databricks MCP, y tus agentes de IA podrán acceder a todas las funciones soportadas de Databricks.
- ¿Cuál es la puntuación general de utilidad de este Servidor MCP?
En base a las herramientas disponibles, guía de configuración y soporte de seguridad, pero careciendo de recursos y plantillas de prompts, este Servidor MCP recibe una calificación de 6 sobre 10 en cuanto a integridad dentro del ecosistema MCP.
Impulsa tus flujos de trabajo en Databricks
Automatiza consultas SQL, monitorea trabajos y gestiona recursos de Databricks directamente desde interfaces de IA conversacional. Integra el Servidor Databricks MCP en tus flujos de FlowHunt para llevar tu productividad al siguiente nivel.