Databricks MCPサーバー

Databricks MCPサーバー

FlowHunt内のDatabricks MCPサーバーを利用して、AIエージェントをDatabricksに接続し、自動SQL・ジョブ監視・ワークフロー管理を実現します。

「Databricks」MCPサーバーの機能とは?

Databricks MCP(Model Context Protocol)サーバーは、AIアシスタントとDatabricksプラットフォームを接続するための特化ツールであり、自然言語インターフェースを通じてDatabricksリソースをシームレスに操作できます。このサーバーは大規模言語モデル(LLM)とDatabricks APIの間の橋渡しとして機能し、LLMがSQLクエリの実行、ジョブの一覧取得、ジョブステータスの取得、詳細情報の取得を可能にします。これらの機能をMCPプロトコル経由で公開することで、開発者やAIエージェントはデータワークフローの自動化、Databricksジョブの管理、データベース操作の効率化を実現し、データ駆動型開発環境での生産性を向上させます。

プロンプト一覧

リポジトリ内にプロンプトテンプレートは記載されていません。

リソース一覧

リポジトリ内に明示的なリソースはありません。

ツール一覧

  • run_sql_query(sql: str)
    Databricks SQLウェアハウスでSQLクエリを実行します。
  • list_jobs()
    ワークスペース内のすべてのDatabricksジョブを一覧表示します。
  • get_job_status(job_id: int)
    指定したIDのDatabricksジョブのステータスを取得します。
  • get_job_details(job_id: int)
    指定したDatabricksジョブの詳細情報を取得します。

このMCPサーバーのユースケース

  • データベースクエリア自動化
    LLMやユーザーが会話型インターフェースから直接Databricksウェアハウス上でSQLクエリを実行し、データ分析ワークフローを効率化します。
  • ジョブ管理
    Databricksジョブの一覧や監視を行い、ワークスペース内で進行中または予定されたタスクを把握できます。
  • ジョブステータス追跡
    特定のDatabricksジョブのステータスをすばやく取得し、効率的な監視やトラブルシューティングを可能にします。
  • 詳細なジョブ調査
    Databricksジョブの詳細情報にアクセスし、ETLパイプラインやバッチジョブのデバッグ・最適化をサポートします。

セットアップ手順

Windsurf

  1. Python 3.7+がインストールされており、Databricksの認証情報があることを確認します。
  2. リポジトリをクローンし、pip install -r requirements.txtで依存パッケージをインストールします。
  3. Databricks認証情報を記載した.envファイルを作成します。
  4. Windsurfの設定にDatabricks MCPサーバーを追加します:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. 設定を保存し、Windsurfを再起動してください。テストクエリでセットアップを確認します。

APIキーのセキュリティ例:

{
  "mcpServers": {
    "databricks": {
      "command": "python",
      "args": ["main.py"],
      "env": {
        "DATABRICKS_HOST": "${DATABRICKS_HOST}",
        "DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
        "DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
      }
    }
  }
}

Claude

  1. Python 3.7+をインストールし、リポジトリをクローンします。
  2. Databricks認証情報を設定した.envファイルを用意します。
  3. ClaudeのMCPインターフェースを構成します:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Claudeを再起動し、接続を検証します。

Cursor

  1. リポジトリをクローンし、Python環境をセットアップします。
  2. 依存関係をインストールし、認証情報入りの.envを作成します。
  3. サーバーをCursorの設定に追加します:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. 設定を保存し、接続をテストします。

Cline

  1. 上記と同様にPythonと認証情報を準備します。
  2. リポジトリをクローンし、要件をインストールし、.envを設定します。
  3. Clineの設定にMCPサーバーのエントリを追加します:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. 保存し、Clineを再起動してMCPサーバーの動作を確認します。

注意: 上記の設定例のように、APIキーやシークレットは必ず環境変数で安全に管理してください。

フロー内でのMCPの使い方

FlowHuntでのMCP利用

MCPサーバーをFlowHuntワークフローに統合するには、まずMCPコンポーネントをフローに追加し、AIエージェントに接続します。

FlowHunt MCP flow

MCPコンポーネントをクリックし、構成パネルを開きます。システムMCP設定セクションにて、次のJSON形式でMCPサーバー情報を入力してください。

{
  "databricks": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

設定が完了すると、AIエージェントはこのMCPをツールとして利用でき、すべての機能にアクセス可能になります。なお、“databricks” をご自身のMCPサーバー名に、URLもご自身のMCPサーバーURLに変更してください。


概要

セクション利用可否詳細・備考
概要
プロンプト一覧リポジトリにプロンプトテンプレートなし
リソース一覧明示的なリソース定義なし
ツール一覧4つのツール: run_sql_query, list_jobs, get_job_status, get_job_details
APIキーのセキュリティ.envや設定JSONで環境変数として管理
サンプリングサポート(評価時は重要度低)記載なし

| Rootsサポート | ⛔ | 記載なし |


コア機能(ツール、セットアップやセキュリティガイド)は利用可能ですが、リソースやプロンプトテンプレートが未整備のため、Databricks API統合には有効ながら一部MCPプリミティブが不足しています。MCPエコシステム全体での完成度・有用性は10点中6点と評価します。


MCPスコア

ライセンス有無⛔ (見つからず)
ツールが1つ以上ある
フォーク数13
スター数33

よくある質問

Databricks MCPサーバーとは何ですか?

Databricks MCPサーバーは、AIアシスタントとDatabricks間の橋渡しを行い、SQL実行やジョブ管理などのDatabricks機能をMCPプロトコル経由で自動化ワークフローに提供します。

このMCPサーバーでサポートされている操作は?

SQLクエリの実行、すべてのジョブの一覧取得、ジョブステータスの取得、特定のDatabricksジョブの詳細情報取得をサポートしています。

Databricksの認証情報を安全に保管する方法は?

常に環境変数を利用してください。たとえば`.env`ファイルに記載するか、MCPサーバー設定で環境変数として構成し、機密情報をハードコーディングしないようにします。

FlowHuntフローでこのサーバーは使えますか?

はい、MCPコンポーネントをフローに追加し、Databricks MCPサーバーの詳細で構成すれば、AIエージェントはすべての対応Databricks機能にアクセスできます。

このMCPサーバーの総合スコアは?

利用可能なツール、セットアップガイド、セキュリティサポートを基にしていますが、リソースやプロンプトテンプレートが不足しているため、MCPエコシステムでの完成度は10点中6点です。

Databricksワークフローを強化しよう

SQLクエリの自動化、ジョブの監視、Databricksリソースの管理を会話型AIインターフェースから直接実行。FlowHuntフローにDatabricks MCPサーバーを統合し、生産性を次のレベルへ。

詳細はこちら

Databricks MCPサーバー
Databricks MCPサーバー

Databricks MCPサーバー

Databricks MCPサーバーは、AIアシスタントとDatabricks環境を接続し、Unity Catalogのメタデータやデータ資産の自律的な探索・理解・操作を可能にします。エージェントはデータを発見し、SQLクエリを構築し、手動操作なしで複雑な分析ワークフローを自動化できます。...

1 分で読める
AI MCP Server +5
Databricks Genie MCPサーバー
Databricks Genie MCPサーバー

Databricks Genie MCPサーバー

Databricks Genie MCPサーバーは、Genie APIを通じてDatabricks環境と大規模言語モデルを連携させ、会話型データ探索、自動SQL生成、ワークスペースのメタデータ取得を標準化されたModel Context Protocol(MCP)ツールで実現します。...

1 分で読める
AI Databricks +6
DataHub MCPサーバー連携
DataHub MCPサーバー連携

DataHub MCPサーバー連携

DataHub MCPサーバーは、FlowHuntのAIエージェントとDataHubメタデータプラットフォームを橋渡しし、高度なデータ探索、リネージ分析、自動メタデータ取得、AI駆動ワークフローとのシームレスな統合を実現します。...

1 分で読める
AI Metadata +6