
Databricks MCP-server
Databricks MCP-server möjliggör sömlös integration mellan AI-assistenter och Databricks-plattformen, vilket ger naturlig språkåtkomst till Databricks-resurser, ...
Koppla din AI-assistent till Databricks med Genie MCP-servern för att möjliggöra sökningar på naturligt språk, åtkomst till arbetsytans metadata och hantering av konversationer för effektivare dataflöden.
Databricks Genie MCP-servern är en Model Context Protocol (MCP)-server utformad för att koppla samman AI-assistenter och Databricks Genie API. Denna integration ger stora språkmodeller (LLM:er) möjlighet att interagera med Databricks-miljöer via naturligt språk. Genom servern kan LLM:er utföra åtgärder som att lista Genie spaces, hämta metadata om arbetsytor, initiera och hantera Genie-konversationer samt köra SQL-frågor – allt via standardiserade MCP-verktyg. Databricks Genie MCP-servern fungerar som en brygga och möjliggör för utvecklare att förbättra sina arbetsflöden med konversationell datautforskning, direkt SQL-frågning och sömlös interaktion med Databricks-konversationsagenter, vilket effektiviserar datadrivet utvecklings- och analysarbete.
Inga explicita promptmallar är dokumenterade i repot.
Inga explicita resurser är beskrivna i repot.
.env
-fil med dina Databricks-inloggningsuppgifter (DATABRICKS_HOST
och DATABRICKS_TOKEN
).{
"mcpServers": {
"databricks-genie": {
"command": "python",
"args": ["main.py"]
}
}
}
{
"env": {
"DATABRICKS_HOST": "your-databricks-instance.cloud.databricks.com",
"DATABRICKS_TOKEN": "your-personal-access-token"
},
"inputs": {}
}
.env
med din Databricks host och token.mcp install main.py
.env
är konfigurerad.{
"mcpServers": {
"databricks-genie": {
"command": "python",
"args": ["main.py"]
}
}
}
.env
.{
"mcpServers": {
"databricks-genie": {
"command": "python",
"args": ["main.py"]
}
}
}
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serverdetaljer med detta JSON-format:
{
"databricks-genie": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När detta är konfigurerat kan AI-agenten nu använda MCP:t som ett verktyg med åtkomst till alla dess funktioner och möjligheter. Kom ihåg att ändra “databricks-genie” till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-server-URL.
Sektion | Tillgänglighet | Detaljer/Noteringar |
---|---|---|
Översikt | ✅ | |
Lista över prompts | ⛔ | Inga promptmallar beskrivna i repot |
Lista över resurser | ⛔ | Inga explicita MCP-resurser dokumenterade |
Lista över verktyg | ✅ | 4 verktyg: se avsnittet ovan |
Säkra API-nycklar | ✅ | Beskrivet via .env och JSON-exempel |
Sampling-stöd (mindre viktigt vid utvärdering) | ⛔ | Ingen nämnd |
Databricks Genie MCP-servern erbjuder en praktisk brygga mellan Databricks och LLM:er med tydliga installationsinstruktioner och verktyg. Dock saknas promptmallar, explicita resurser och dokumentation kring avancerade MCP-funktioner som sampling eller roots. Kärnverktygen är väldefinierade och användbara för Databricks-användare. Sammantaget får den ett betyg över medel, men skulle vinna på ett rikare utnyttjande av MCP-funktionalitet.
Har LICENSE | Ja (MIT) |
---|---|
Har minst ett verktyg | Ja |
Antal forks | 1 |
Antal stjärnor | 3 |
Det är en Model Context Protocol-server som kopplar stora språkmodeller till Databricks Genie och möjliggör interaktion på naturligt språk, SQL-frågegenerering och hämtning av arbetsytas metadata direkt från AI-assistenter.
Du kan lista Genie spaces, hämta space-metadata, starta och hantera Genie-konversationer med naturligt språk samt köra eller följa upp SQL-frågor.
Den förenklar datautforskning genom att möjliggöra konversationella frågor och automatisk SQL-generering, vilket gör dataanalys mer tillgänglig och minskar manuellt SQL-skrivande.
Inloggningsuppgifter som Databricks host och token hanteras via miljövariabler och är aldrig hårdkodade, vilket säkerställer att känslig information förblir skyddad.
Nej, repot innehåller inte några explicita promptmallar eller ytterligare MCP-resurser, men kärnverktygen för konversation och SQL-frågning stöds fullt ut.
Lås upp konversationell dataanalys och direkt SQL-frågning i FlowHunt genom att koppla din Databricks-arbetsyta till Genie MCP-servern.
Databricks MCP-server möjliggör sömlös integration mellan AI-assistenter och Databricks-plattformen, vilket ger naturlig språkåtkomst till Databricks-resurser, ...
Databricks MCP-server kopplar AI-assistenter till Databricks-miljöer och möjliggör autonom utforskning, förståelse och interaktion med Unity Catalog-metadata oc...
DataHub MCP Server fungerar som en brygga mellan FlowHunt AI-agenter och DataHub-metadata-plattformen, vilket möjliggör avancerad datadiscovery, linjeanalys, au...