Databricks Genie MCP-server

Databricks Genie MCP-server

Koppla din AI-assistent till Databricks med Genie MCP-servern för att möjliggöra sökningar på naturligt språk, åtkomst till arbetsytans metadata och hantering av konversationer för effektivare dataflöden.

Vad gör “Databricks Genie” MCP-servern?

Databricks Genie MCP-servern är en Model Context Protocol (MCP)-server utformad för att koppla samman AI-assistenter och Databricks Genie API. Denna integration ger stora språkmodeller (LLM:er) möjlighet att interagera med Databricks-miljöer via naturligt språk. Genom servern kan LLM:er utföra åtgärder som att lista Genie spaces, hämta metadata om arbetsytor, initiera och hantera Genie-konversationer samt köra SQL-frågor – allt via standardiserade MCP-verktyg. Databricks Genie MCP-servern fungerar som en brygga och möjliggör för utvecklare att förbättra sina arbetsflöden med konversationell datautforskning, direkt SQL-frågning och sömlös interaktion med Databricks-konversationsagenter, vilket effektiviserar datadrivet utvecklings- och analysarbete.

Lista över prompts

Inga explicita promptmallar är dokumenterade i repot.

Lista över resurser

Inga explicita resurser är beskrivna i repot.

Lista över verktyg

  • get_genie_space_id()
    Listar tillgängliga Genie space-ID:n och titlar i din Databricks-arbetsyta.
  • get_space_info(space_id: str)
    Hämtar titel och beskrivningsmetadata för en angiven Genie space.
  • ask_genie(space_id: str, question: str)
    Startar en ny Genie-konversation genom att ställa en fråga på naturligt språk och returnerar SQL och resultat-tabeller.
  • follow_up(space_id: str, conversation_id: str, question: str)
    Fortsätter en befintlig Genie-konversation med en uppföljningsfråga.

Användningsområden för denna MCP-server

  • Konversationell datautforskning
    Utvecklare och analytiker kan använda naturligt språk för att interaktivt fråga Databricks-data via Genie, vilket gör dataanalys mer tillgänglig och intuitiv.
  • Automatisk SQL-frågegenerering
    Servern omvandlar naturliga språkfrågor till SQL-satser, kör dem på Genie spaces och returnerar strukturerade resultat, vilket sparar tid och minskar fel.
  • Hämtning av arbetsytas metadata
    Hämta enkelt metadata (titlar, beskrivningar) om Genie spaces för att förstå och dokumentera tillgängliga dataresurser.
  • Konversationshantering
    Bibehåll kontext över flerstegskonversationer, vilket möjliggör komplexa analytiska arbetsflöden där frågor bygger på tidigare svar.
  • Integration med AI-assistenter
    Lägg smidigt till Databricks Genie-funktionalitet i AI-drivna IDE:er eller chattgränssnitt och effektivisera data science-arbetsflöden i välbekanta verktyg.

Så här sätter du upp det

Windsurf

  1. Säkerställ att Python 3.7+ är installerat på ditt system.
  2. Klona Databricks Genie MCP-repot och installera beroenden.
  3. Skapa en .env-fil med dina Databricks-inloggningsuppgifter (DATABRICKS_HOST och DATABRICKS_TOKEN).
  4. Lägg till MCP-servern i din Windsurf-konfiguration med följande JSON-snippet:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. Starta om Windsurf och verifiera att servern dyker upp bland dina tillgängliga MCP-servrar.
  6. Säkra API-nycklar:
    Använd miljövariabler för att hålla inloggningsuppgifter säkra. Exempel:
    {
      "env": {
        "DATABRICKS_HOST": "your-databricks-instance.cloud.databricks.com",
        "DATABRICKS_TOKEN": "your-personal-access-token"
      },
      "inputs": {}
    }
    

Claude

  1. Installera Python 3.7+ och repo-beroenden.
  2. Konfigurera .env med din Databricks host och token.
  3. Kör från projektkatalogen:
    mcp install main.py
    
  4. Öppna Claude Desktop, navigera till Resources → Add Resource och välj din Genie MCP-server.
  5. Börja chatta med din Databricks-data.

Cursor

  1. Säkerställ att alla förutsättningar och beroenden är uppfyllda och att .env är konfigurerad.
  2. Lägg till följande i din Cursor-konfiguration:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  3. Spara konfigurationen och starta om Cursor.
  4. Kontrollera serveranslutningen och att miljövariabler satts enligt ovan.

Cline

  1. Installera Python 3.7+, klona repot och konfigurera din .env.
  2. Lägg till MCP-servern i din Cline-konfig:
    {
      "mcpServers": {
        "databricks-genie": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  3. Starta om Cline och verifiera att MCP-servern är aktiv.
  4. Använd miljövariabler för att skydda dina inloggningsuppgifter.

Så här använder du denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serverdetaljer med detta JSON-format:

{
  "databricks-genie": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När detta är konfigurerat kan AI-agenten nu använda MCP:t som ett verktyg med åtkomst till alla dess funktioner och möjligheter. Kom ihåg att ändra “databricks-genie” till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Noteringar
Översikt
Lista över promptsInga promptmallar beskrivna i repot
Lista över resurserInga explicita MCP-resurser dokumenterade
Lista över verktyg4 verktyg: se avsnittet ovan
Säkra API-nycklarBeskrivet via .env och JSON-exempel
Sampling-stöd (mindre viktigt vid utvärdering)Ingen nämnd

Vår åsikt

Databricks Genie MCP-servern erbjuder en praktisk brygga mellan Databricks och LLM:er med tydliga installationsinstruktioner och verktyg. Dock saknas promptmallar, explicita resurser och dokumentation kring avancerade MCP-funktioner som sampling eller roots. Kärnverktygen är väldefinierade och användbara för Databricks-användare. Sammantaget får den ett betyg över medel, men skulle vinna på ett rikare utnyttjande av MCP-funktionalitet.

MCP-betyg

Har LICENSEJa (MIT)
Har minst ett verktygJa
Antal forks1
Antal stjärnor3

Vanliga frågor

Vad är Databricks Genie MCP-server?

Det är en Model Context Protocol-server som kopplar stora språkmodeller till Databricks Genie och möjliggör interaktion på naturligt språk, SQL-frågegenerering och hämtning av arbetsytas metadata direkt från AI-assistenter.

Vilka uppgifter kan utföras via Genie MCP-servern?

Du kan lista Genie spaces, hämta space-metadata, starta och hantera Genie-konversationer med naturligt språk samt köra eller följa upp SQL-frågor.

Hur förbättrar Genie MCP-servern dataflöden?

Den förenklar datautforskning genom att möjliggöra konversationella frågor och automatisk SQL-generering, vilket gör dataanalys mer tillgänglig och minskar manuellt SQL-skrivande.

Hur skyddas inloggningsuppgifterna?

Inloggningsuppgifter som Databricks host och token hanteras via miljövariabler och är aldrig hårdkodade, vilket säkerställer att känslig information förblir skyddad.

Tillhandahåller denna server promptmallar eller explicita resurser?

Nej, repot innehåller inte några explicita promptmallar eller ytterligare MCP-resurser, men kärnverktygen för konversation och SQL-frågning stöds fullt ut.

Ge Databricks extra kraft med Genie MCP

Lås upp konversationell dataanalys och direkt SQL-frågning i FlowHunt genom att koppla din Databricks-arbetsyta till Genie MCP-servern.

Lär dig mer

Databricks MCP-server
Databricks MCP-server

Databricks MCP-server

Databricks MCP-server möjliggör sömlös integration mellan AI-assistenter och Databricks-plattformen, vilket ger naturlig språkåtkomst till Databricks-resurser, ...

4 min läsning
AI Databricks +4
Databricks MCP-server
Databricks MCP-server

Databricks MCP-server

Databricks MCP-server kopplar AI-assistenter till Databricks-miljöer och möjliggör autonom utforskning, förståelse och interaktion med Unity Catalog-metadata oc...

4 min läsning
AI MCP Server +5
DataHub MCP Server-integration
DataHub MCP Server-integration

DataHub MCP Server-integration

DataHub MCP Server fungerar som en brygga mellan FlowHunt AI-agenter och DataHub-metadata-plattformen, vilket möjliggör avancerad datadiscovery, linjeanalys, au...

4 min läsning
AI Metadata +6