Databricks MCP-server

Databricks MCP-server

Koppla dina AI-agenter till Databricks för automatiserad SQL, jobbövervakning och arbetsflödesshantering med Databricks MCP-server i FlowHunt.

Vad gör “Databricks” MCP-servern?

Databricks MCP (Model Context Protocol) Server är ett specialverktyg som kopplar AI-assistenter till Databricks-plattformen och möjliggör sömlös interaktion med Databricks-resurser via naturliga språkliga gränssnitt. Servern fungerar som en brygga mellan stora språkmodeller (LLM:er) och Databricks API:er, vilket gör det möjligt för LLM:er att köra SQL-frågor, lista jobb, hämta jobbstatus och få detaljerad jobbinformation. Genom att exponera dessa möjligheter via MCP-protokollet ger Databricks MCP-servern utvecklare och AI-agenter möjlighet att automatisera dataflöden, hantera Databricks-jobb och effektivisera databasoperationer och därmed öka produktiviteten i datadrivna utvecklingsmiljöer.

Lista över prompts

Inga promptmallar beskrivs i repot.

Lista över resurser

Inga specifika resurser listas i repot.

Lista över verktyg

  • run_sql_query(sql: str)
    Kör SQL-frågor på Databricks SQL-lagret.
  • list_jobs()
    Lista alla Databricks-jobb i arbetsytan.
  • get_job_status(job_id: int)
    Hämta status för ett specifikt Databricks-jobb via dess ID.
  • get_job_details(job_id: int)
    Hämta detaljerad information om ett specifikt Databricks-jobb.

Användningsfall för denna MCP-server

  • Automatisering av databasfrågor
    Gör det möjligt för LLM:er och användare att köra SQL-frågor på Databricks-lager direkt från konversationsgränssnitt och effektivisera dataanalysflöden.
  • Jobbhantering
    Lista och övervaka Databricks-jobb, vilket hjälper användare att hålla koll på pågående eller schemalagda uppgifter i arbetsytan.
  • Jobbstatusspårning
    Hämta snabbt statusen för specifika Databricks-jobb för effektiv övervakning och felsökning.
  • Detaljerad jobbinspektion
    Få djupgående information om Databricks-jobb och underlätta felsökning och optimering av ETL-pipelines eller batchjobb.

Hur man sätter upp det

Windsurf

  1. Säkerställ att Python 3.7+ är installerat och att Databricks-uppgifter finns tillgängliga.
  2. Klona repot och installera beroenden med pip install -r requirements.txt.
  3. Skapa en .env-fil med dina Databricks-uppgifter.
  4. Lägg till Databricks MCP-server i din Windsurf-konfiguration:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. Spara konfigurationen och starta om Windsurf. Verifiera installationen genom att köra en testfråga.

Exempel på säkring av API-nycklar:

{
  "mcpServers": {
    "databricks": {
      "command": "python",
      "args": ["main.py"],
      "env": {
        "DATABRICKS_HOST": "${DATABRICKS_HOST}",
        "DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
        "DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
      }
    }
  }
}

Claude

  1. Installera Python 3.7+ och klona repot.
  2. Skapa .env-filen med Databricks-uppgifter.
  3. Konfigurera Claudes MCP-gränssnitt:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Starta om Claude och validera anslutningen.

Cursor

  1. Klona repot och sätt upp Python-miljön.
  2. Installera beroenden och skapa .env med uppgifter.
  3. Lägg till servern i Cursors konfiguration:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Spara konfigurationen och testa anslutningen.

Cline

  1. Förbered Python och uppgifter enligt ovan.
  2. Klona repot, installera beroenden och konfigurera .env.
  3. Lägg till MCP-serverpost i Clines konfiguration:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Spara, starta om Cline och verifiera att MCP-servern är igång.

Obs! Skydda alltid dina API-nycklar och hemligheter genom att använda miljövariabler som visas i konfigurationsexemplen ovan.

Hur man använder denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion anger du dina MCP-serveruppgifter med detta JSON-format:

{
  "databricks": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att byta ut “databricks” till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-serveradress.


Översikt

SektionTillgängligDetaljer/Kommentarer
Översikt
Lista över promptsInga promptmallar angivna i repo
Lista över resurserInga specifika resurser definierade
Lista över verktyg4 verktyg: run_sql_query, list_jobs, get_job_status, get_job_details
Säkring av API-nycklarVia miljövariabler i .env och config-JSON
Stöd för sampling (mindre viktigt vid utvärdering)Ej nämnt

| Rotstöd | ⛔ | Ej nämnt |


Utifrån tillgången till kärnfunktioner (verktyg, installations- och säkerhetsvägledning men inga resurser eller promptmallar) är Databricks MCP-servern effektiv för Databricks API-integration men saknar vissa avancerade MCP-primitiver. Jag skulle ge denna MCP-server 6 av 10 för övergripande fullständighet och nytta i MCP-ekosystemet.


MCP-poäng

Har LICENSE⛔ (saknas)
Har minst ett verktyg
Antal förgreningar13
Antal stjärnor33

Vanliga frågor

Vad är Databricks MCP-server?

Databricks MCP-server är en brygga mellan AI-assistenter och Databricks, och exponerar Databricks-funktioner som SQL-exekvering och jobbhantering via MCP-protokollet för automatiserade arbetsflöden.

Vilka operationer stöds av denna MCP-server?

Den stöder exekvering av SQL-frågor, listning av alla jobb, hämtning av jobbstatusar samt att få detaljerad information om specifika Databricks-jobb.

Hur lagrar jag mina Databricks-uppgifter säkert?

Använd alltid miljövariabler, till exempel genom att lägga dem i en `.env`-fil eller konfigurera dem i din MCP-serverinstallation, istället för att hårdkoda känslig information.

Kan jag använda denna server i FlowHunt-flöden?

Ja, lägg bara till MCP-komponenten i ditt flöde, konfigurera den med dina Databricks MCP-serveruppgifter, så kan dina AI-agenter få åtkomst till alla stödda Databricks-funktioner.

Vad är det totala nyttopoängvärdet för denna MCP-server?

Baserat på tillgängliga verktyg, installationsvägledning och säkerhetsstöd, men utan resurser och promptmallar, får denna MCP-server 6 av 10 för fullständighet i MCP-ekosystemet.

Maximera Dina Databricks-arbetsflöden

Automatisera SQL-frågor, övervaka jobb och hantera Databricks-resurser direkt från konversationsbaserade AI-gränssnitt. Integrera Databricks MCP-server i dina FlowHunt-flöden för nästa nivå av produktivitet.

Lär dig mer

Databricks MCP-server
Databricks MCP-server

Databricks MCP-server

Databricks MCP-server kopplar AI-assistenter till Databricks-miljöer och möjliggör autonom utforskning, förståelse och interaktion med Unity Catalog-metadata oc...

4 min läsning
AI MCP Server +5
DataHub MCP Server-integration
DataHub MCP Server-integration

DataHub MCP Server-integration

DataHub MCP Server fungerar som en brygga mellan FlowHunt AI-agenter och DataHub-metadata-plattformen, vilket möjliggör avancerad datadiscovery, linjeanalys, au...

4 min läsning
AI Metadata +6
Databricks Genie MCP-server
Databricks Genie MCP-server

Databricks Genie MCP-server

Databricks Genie MCP-server möjliggör för stora språkmodeller att interagera med Databricks-miljöer via Genie API, med stöd för konversationell datautforskning,...

4 min läsning
AI Databricks +6