Databricks Genie MCP-server

AI Databricks MCP Server Automation

Kontakta oss för att vara värd för din MCP-server i FlowHunt

FlowHunt erbjuder ett extra säkerhetslager mellan dina interna system och AI-verktyg, vilket ger dig granulär kontroll över vilka verktyg som är tillgängliga från dina MCP-servrar. MCP-servrar som hostas i vår infrastruktur kan sömlöst integreras med FlowHunts chatbot samt populära AI-plattformar som ChatGPT, Claude och olika AI-redigerare.

Vad gör “Databricks Genie” MCP-servern?

Databricks Genie MCP-servern är en Model Context Protocol (MCP)-server utformad för att koppla samman AI-assistenter och Databricks Genie API. Denna integration ger stora språkmodeller (LLM:er) möjlighet att interagera med Databricks-miljöer via naturligt språk. Genom servern kan LLM:er utföra åtgärder som att lista Genie spaces, hämta metadata om arbetsytor, initiera och hantera Genie-konversationer samt köra SQL-frågor – allt via standardiserade MCP-verktyg. Databricks Genie MCP-servern fungerar som en brygga och möjliggör för utvecklare att förbättra sina arbetsflöden med konversationell datautforskning, direkt SQL-frågning och sömlös interaktion med Databricks-konversationsagenter, vilket effektiviserar datadrivet utvecklings- och analysarbete.

Lista över prompts

Inga explicita promptmallar är dokumenterade i repot.

Logo

Redo att växa ditt företag?

Starta din kostnadsfria provperiod idag och se resultat inom några dagar.

Lista över resurser

Inga explicita resurser är beskrivna i repot.

Lista över verktyg

  • get_genie_space_id()
    Listar tillgängliga Genie space-ID:n och titlar i din Databricks-arbetsyta.
  • get_space_info(space_id: str)
    Hämtar titel och beskrivningsmetadata för en angiven Genie space.
  • ask_genie(space_id: str, question: str)
    Startar en ny Genie-konversation genom att ställa en fråga på naturligt språk och returnerar SQL och resultat-tabeller.
  • follow_up(space_id: str, conversation_id: str, question: str)
    Fortsätter en befintlig Genie-konversation med en uppföljningsfråga.

Användningsområden för denna MCP-server

  • Konversationell datautforskning
    Utvecklare och analytiker kan använda naturligt språk för att interaktivt fråga Databricks-data via Genie, vilket gör dataanalys mer tillgänglig och intuitiv.
  • Automatisk SQL-frågegenerering
    Servern omvandlar naturliga språkfrågor till SQL-satser, kör dem på Genie spaces och returnerar strukturerade resultat, vilket sparar tid och minskar fel.
  • Hämtning av arbetsytas metadata
    Hämta enkelt metadata (titlar, beskrivningar) om Genie spaces för att förstå och dokumentera tillgängliga dataresurser.
  • Konversationshantering
    Bibehåll kontext över flerstegskonversationer, vilket möjliggör komplexa analytiska arbetsflöden där frågor bygger på tidigare svar.
  • Integration med AI-assistenter
    Lägg smidigt till Databricks Genie-funktionalitet i AI-drivna IDE:er eller chattgränssnitt och effektivisera data science-arbetsflöden i välbekanta verktyg.

Så här sätter du upp det

Windsurf

  1. Säkerställ att Python 3.7+ är installerat på ditt system.
  2. Klona Databricks Genie MCP-repot och installera beroenden.
  3. Skapa en .env-fil med dina Databricks-inloggningsuppgifter (DATABRICKS_HOST och DATABRICKS_TOKEN).
  4. Lägg till MCP-servern i din Windsurf-konfiguration med följande JSON-snippet:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. Starta om Windsurf och verifiera att servern dyker upp bland dina tillgängliga MCP-servrar.
  6. Säkra API-nycklar:
    Använd miljövariabler för att hålla inloggningsuppgifter säkra. Exempel:
    {
      "env": {
        "DATABRICKS_HOST": "your-databricks-instance.cloud.databricks.com",
        "DATABRICKS_TOKEN": "your-personal-access-token"
      },
      "inputs": {}
    }
    

Claude

  1. Installera Python 3.7+ och repo-beroenden.
  2. Konfigurera .env med din Databricks host och token.
  3. Kör från projektkatalogen:
    mcp install main.py
    
  4. Öppna Claude Desktop, navigera till Resources → Add Resource och välj din Genie MCP-server.
  5. Börja chatta med din Databricks-data.

Cursor

  1. Säkerställ att alla förutsättningar och beroenden är uppfyllda och att .env är konfigurerad.
  2. Lägg till följande i din Cursor-konfiguration:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  3. Spara konfigurationen och starta om Cursor.
  4. Kontrollera serveranslutningen och att miljövariabler satts enligt ovan.

Cline

  1. Installera Python 3.7+, klona repot och konfigurera din .env.
  2. Lägg till MCP-servern i din Cline-konfig:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  3. Starta om Cline och verifiera att MCP-servern är aktiv.
  4. Använd miljövariabler för att skydda dina inloggningsuppgifter.

Så här använder du denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serverdetaljer med detta JSON-format:

{
  "databricks-genie": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När detta är konfigurerat kan AI-agenten nu använda MCP:t som ett verktyg med åtkomst till alla dess funktioner och möjligheter. Kom ihåg att ändra “databricks-genie” till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Noteringar
Översikt
Lista över promptsInga promptmallar beskrivna i repot
Lista över resurserInga explicita MCP-resurser dokumenterade
Lista över verktyg4 verktyg: se avsnittet ovan
Säkra API-nycklarBeskrivet via .env och JSON-exempel
Sampling-stöd (mindre viktigt vid utvärdering)Ingen nämnd

Vår åsikt

Databricks Genie MCP-servern erbjuder en praktisk brygga mellan Databricks och LLM:er med tydliga installationsinstruktioner och verktyg. Dock saknas promptmallar, explicita resurser och dokumentation kring avancerade MCP-funktioner som sampling eller roots. Kärnverktygen är väldefinierade och användbara för Databricks-användare. Sammantaget får den ett betyg över medel, men skulle vinna på ett rikare utnyttjande av MCP-funktionalitet.

MCP-betyg

Har LICENSEJa (MIT)
Har minst ett verktygJa
Antal forks1
Antal stjärnor3

Vanliga frågor

Ge Databricks extra kraft med Genie MCP

Lås upp konversationell dataanalys och direkt SQL-frågning i FlowHunt genom att koppla din Databricks-arbetsyta till Genie MCP-servern.

Lär dig mer

Databricks MCP-server
Databricks MCP-server

Databricks MCP-server

Databricks MCP-server möjliggör sömlös integration mellan AI-assistenter och Databricks-plattformen, vilket ger naturlig språkåtkomst till Databricks-resurser, ...

4 min läsning
AI Databricks +4
Databricks MCP-server
Databricks MCP-server

Databricks MCP-server

Databricks MCP-server kopplar AI-assistenter till Databricks-miljöer och möjliggör autonom utforskning, förståelse och interaktion med Unity Catalog-metadata oc...

4 min läsning
AI MCP Server +5
Databricks Genie MCP
Databricks Genie MCP

Databricks Genie MCP

Integrera FlowHunt med Databricks Genie MCP Server för att möjliggöra konversationell analys, automatisera SQL-frågor och ge teamen säker, naturlig språktillgån...

4 min läsning
AI Databricks +4