Databricks MCP 服务器

Databricks MCP 服务器

将您的 AI 代理连接到 Databricks,使用 Databricks MCP 服务器在 FlowHunt 中实现自动 SQL、作业监控和流程管理。

“Databricks” MCP 服务器的作用是什么?

Databricks MCP(模型上下文协议)服务器是一个专门的工具,将 AI 助手与 Databricks 平台连接起来,使其能够通过自然语言界面无缝访问 Databricks 资源。该服务器作为大型语言模型(LLM)与 Databricks API 之间的桥梁,使 LLM 能够执行 SQL 查询、列出作业、获取作业状态以及获取作业详细信息。通过 MCP 协议开放这些能力,Databricks MCP 服务器帮助开发者和 AI 代理自动化数据工作流、管理 Databricks 作业并简化数据库操作,从而提升数据驱动开发环境下的生产力。

提示模板列表

仓库中未描述任何提示模板。

资源列表

仓库中未明确列出任何资源。

工具列表

  • run_sql_query(sql: str)
    在 Databricks SQL 仓库中执行 SQL 查询。
  • list_jobs()
    列出工作区内所有 Databricks 作业。
  • get_job_status(job_id: int)
    根据作业 ID 获取指定 Databricks 作业的状态。
  • get_job_details(job_id: int)
    获取指定 Databricks 作业的详细信息。

该 MCP 服务器的使用场景

  • 数据库查询自动化
    允许 LLM 和用户直接通过对话界面对 Databricks 仓库执行 SQL 查询,简化数据分析流程。
  • 作业管理
    列出并监控 Databricks 作业,帮助用户跟踪工作区中正在进行或计划中的任务。
  • 作业状态追踪
    快速检索特定 Databricks 作业的状态,实现高效监控和问题排查。
  • 作业详情查看
    获取 Databricks 作业的详细信息,便于 ETL 流水线或批处理作业的调试与优化。

如何部署

Windsurf

  1. 确保已安装 Python 3.7+ 并准备好 Databricks 凭证。
  2. 克隆仓库并使用 pip install -r requirements.txt 安装依赖。
  3. 创建包含 Databricks 凭证的 .env 文件。
  4. 在 Windsurf 配置中添加 Databricks MCP 服务器:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。通过运行测试查询验证设置。

API 密钥安全示例:

{
  "mcpServers": {
    "databricks": {
      "command": "python",
      "args": ["main.py"],
      "env": {
        "DATABRICKS_HOST": "${DATABRICKS_HOST}",
        "DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
        "DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
      }
    }
  }
}

Claude

  1. 安装 Python 3.7+ 并克隆仓库。
  2. 使用 Databricks 凭证配置 .env 文件。
  3. 配置 Claude 的 MCP 接口:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. 重启 Claude 并验证连接。

Cursor

  1. 克隆仓库并设置 Python 环境。
  2. 安装依赖并创建包含凭证的 .env 文件。
  3. 在 Cursor 配置中添加服务器:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. 保存配置并测试连接。

Cline

  1. 按上述方式准备 Python 和凭证。
  2. 克隆仓库,安装依赖,并配置 .env
  3. 在 Cline 配置中添加 MCP 服务器条目:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. 保存,重启 Cline,并验证 MCP 服务器是否可用。

注意: 请务必按照上述配置示例,通过环境变量安全存储您的 API 密钥和凭证。

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进您的 FlowHunt 工作流,请先添加 MCP 组件到流程并与 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式输入您的 MCP 服务器信息:

{
  "databricks": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,访问其全部功能。请记得将 “databricks” 替换为实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

模块可用性说明/备注
概览
提示模板列表仓库未指定提示模板
资源列表仓库未定义资源
工具列表4 个工具:run_sql_query, list_jobs, get_job_status, get_job_details
API 密钥安全通过 .env 文件及配置 JSON 环境变量实现
采样支持(评估时次要)未提及

| 根节点支持 | ⛔ | 未提及 |


根据核心特性的可用性(工具、部署和安全指导,但无资源和提示模板),Databricks MCP 服务器非常适合用于 Databricks API 集成,但缺少部分高级 MCP 原语。综合来看,在 MCP 生态内整体完整性与实用性评分为 6/10


MCP 评分

是否有 LICENSE⛔ (未找到)
工具数量≥1
Fork 数量13
Star 数量33

常见问题

什么是 Databricks MCP 服务器?

Databricks MCP 服务器是 AI 助手与 Databricks 之间的桥梁,通过 MCP 协议将 Databricks 的 SQL 执行和作业管理等能力开放出来,实现自动化工作流。

该 MCP 服务器支持哪些操作?

支持执行 SQL 查询、列出所有作业、获取作业状态,以及获取特定 Databricks 作业的详细信息。

如何安全存储我的 Databricks 凭证?

始终使用环境变量,例如放在 `.env` 文件中或在 MCP 服务器配置时设置,而不是将敏感信息硬编码进代码。

我可以在 FlowHunt 流程中使用此服务器吗?

可以,只需将 MCP 组件添加到您的流程中,配置好 Databricks MCP 服务器信息,您的 AI 代理即可访问所有支持的 Databricks 功能。

该 MCP 服务器的整体实用评分是多少?

综合可用工具、部署指南和安全性支持(但缺乏资源和提示模板),该 MCP 服务器在 MCP 生态中完整性得分为 6 分(满分 10 分)。

为您的 Databricks 工作流提速

通过对话式 AI 界面直接自动化 SQL 查询、监控作业并管理 Databricks 资源。将 Databricks MCP 服务器集成进 FlowHunt 流程,打造高效生产力。

了解更多

Databricks MCP 服务器
Databricks MCP 服务器

Databricks MCP 服务器

Databricks MCP 服务器将 AI 助手连接到 Databricks 环境,实现对 Unity Catalog 元数据和数据资产的自主探索、理解和交互。它使智能体能够发现数据、构建 SQL 查询,并自动化复杂的分析工作流,无需人工干预。...

2 分钟阅读
AI MCP Server +5
DataHub MCP 服务器集成
DataHub MCP 服务器集成

DataHub MCP 服务器集成

DataHub MCP 服务器为 FlowHunt AI 代理与 DataHub 元数据平台之间架起桥梁,实现高级数据发现、血缘分析、自动元数据检索,以及与 AI 驱动工作流的无缝集成。...

2 分钟阅读
AI Metadata +6
Snowflake MCP 服务器
Snowflake MCP 服务器

Snowflake MCP 服务器

Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。...

2 分钟阅读
AI Database +5