Databricks MCP Sunucusu

Databricks MCP Sunucusu

AI ajanlarınızı Databricks MCP Sunucusu ile FlowHunt üzerinden otomatik SQL, iş takibi ve iş akışı yönetimi için Databricks’e bağlayın.

“Databricks” MCP Sunucusu ne işe yarar?

Databricks MCP (Model Context Protocol) Sunucusu, AI asistanlarını Databricks platformuna bağlayan, Databricks kaynaklarıyla doğal dil arayüzü üzerinden sorunsuz etkileşim sağlayan özel bir araçtır. Bu sunucu, büyük dil modelleri (LLM) ile Databricks API’leri arasında köprü görevi görerek LLM’lerin SQL sorguları çalıştırmasına, işleri listelemesine, iş durumlarını almasına ve detaylı iş bilgisi edinmesine imkan tanır. Bu yetenekleri MCP protokolü üzerinden sunarak Databricks MCP Sunucusu, geliştiricilere ve AI ajanlarına veri iş akışlarını otomatikleştirme, Databricks işleri yönetme ve veritabanı işlemlerini kolaylaştırma olanağı verir; böylece veri odaklı geliştirme ortamlarında verimliliği artırır.

Prompt Listesi

Depoda herhangi bir prompt şablonu tanımlanmamıştır.

Kaynak Listesi

Depoda açıkça belirtilmiş bir kaynak yoktur.

Araç Listesi

  • run_sql_query(sql: str)
    Databricks SQL ambarında SQL sorguları çalıştırır.
  • list_jobs()
    Workspace’teki tüm Databricks işlerini listeler.
  • get_job_status(job_id: int)
    Belirli bir Databricks işinin durumunu kimliğiyle alır.
  • get_job_details(job_id: int)
    Belirli bir Databricks işi hakkında ayrıntılı bilgi alır.

Bu MCP Sunucusunun Kullanım Senaryoları

  • Veritabanı Sorgu Otomasyonu
    LLM’lerin ve kullanıcıların sohbet arayüzlerinden doğrudan Databricks ambarlarında SQL sorguları çalıştırmasını sağlayarak veri analiz iş akışlarını hızlandırır.
  • İş Yönetimi
    Databricks işlerini listeleyip izleyin; kullanıcıların çalışma alanlarındaki mevcut veya planlı görevleri takip etmelerine yardımcı olur.
  • İş Durumu Takibi
    Belirli Databricks işlerinin durumunu hızlıca alın; verimli izleme ve sorun giderme imkanı sunar.
  • Detaylı İş İncelemesi
    Databricks işleriniz hakkında derinlemesine bilgi edinin; ETL boru hatları veya toplu işler için hata ayıklama ve optimizasyonu kolaylaştırır.

Kurulum Nasıl Yapılır

Windsurf

  1. Python 3.7+ yüklü olduğundan ve Databricks kimlik bilgilerinizin mevcut olduğundan emin olun.
  2. Depoyu klonlayın ve gereksinimleri pip install -r requirements.txt ile yükleyin.
  3. Databricks kimlik bilgilerinizle bir .env dosyası oluşturun.
  4. Databricks MCP Sunucusu’nu Windsurf yapılandırmanıza ekleyin:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  5. Yapılandırmayı kaydedin ve Windsurf’ü yeniden başlatın. Kurulumu bir test sorgusu çalıştırarak doğrulayın.

API Anahtarlarını Güvenli Saklama Örneği:

{
  "mcpServers": {
    "databricks": {
      "command": "python",
      "args": ["main.py"],
      "env": {
        "DATABRICKS_HOST": "${DATABRICKS_HOST}",
        "DATABRICKS_TOKEN": "${DATABRICKS_TOKEN}",
        "DATABRICKS_HTTP_PATH": "${DATABRICKS_HTTP_PATH}"
      }
    }
  }
}

Claude

  1. Python 3.7+ yükleyin ve depoyu klonlayın.
  2. .env dosyasını Databricks kimlik bilgilerinizle oluşturun.
  3. Claude’un MCP arayüzünü yapılandırın:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Claude’u yeniden başlatın ve bağlantıyı doğrulayın.

Cursor

  1. Depoyu klonlayın ve Python ortamını kurun.
  2. Bağımlılıkları yükleyin ve kimlik bilgileriyle .env oluşturun.
  3. Sunucuyu Cursor yapılandırmasına ekleyin:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Yapılandırmayı kaydedin ve bağlantıyı test edin.

Cline

  1. Yukarıdaki gibi Python ve kimlik bilgilerini hazırlayın.
  2. Depoyu klonlayın, gereksinimleri yükleyin ve .env dosyasını yapılandırın.
  3. MCP sunucusu girdisini Cline yapılandırmasına ekleyin:
    {
      "mcpServers": {
        "databricks": {
          "command": "python",
          "args": ["main.py"]
        }
      }
    }
    
  4. Kaydedin, Cline’ı yeniden başlatın ve MCP Sunucusu’nun çalışır durumda olduğunu doğrulayın.

Not: API anahtarlarınızı ve şifrelerinizi yukarıdaki yapılandırma örneklerinde gösterildiği gibi her zaman ortam değişkenleriyle güvenli şekilde saklayın.

Bu MCP’yi akışlarda nasıl kullanabilirim?

FlowHunt’ta MCP Kullanımı

MCP sunucularını FlowHunt iş akışınıza entegre etmek için, öncelikle MCP bileşenini akışınıza ekleyin ve AI ajanınıza bağlayın:

FlowHunt MCP flow

MCP bileşenine tıklayarak yapılandırma panelini açın. Sistem MCP yapılandırması bölümüne aşağıdaki JSON formatında MCP sunucu detaylarınızı girin:

{
  "databricks": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Yapılandırmayı tamamladıktan sonra, AI ajanı artık bu MCP’yi bir araç olarak kullanabilir ve tüm fonksiyonlarına erişebilir. “databricks” ismini MCP sunucunuzun gerçek adıyla, URL’yi kendi MCP sunucu adresinizle değiştirmeniz gerektiğini unutmayın.


Genel Bakış

BölümMevcutlukDetaylar/Notlar
Genel Bakış
Prompt ListesiDepoda prompt şablonu belirtilmemiş
Kaynak ListesiAçıkça tanımlanmış kaynak yok
Araç Listesi4 araç: run_sql_query, list_jobs, get_job_status, get_job_details
API Anahtarlarını Güvenli Saklama.env ve config JSON’da ortam değişkenleriyle
Örnekleme Desteği (değerlendirmede önemsiz)Bahsedilmemiş

| Roots Desteği | ⛔ | Bahsedilmemiş |


Temel özelliklerin (araçlar, kurulum ve güvenlik rehberi mevcut, fakat kaynak ve prompt şablonları yok) bulunabilirliği açısından Databricks MCP Sunucusu, Databricks API entegrasyonu için etkilidir ancak bazı gelişmiş MCP ilkeleri eksiktir. MCP ekosistemi bağlamında bu MCP sunucusuna 10 üzerinden 6 puan veriyorum.


MCP Puanı

Lisansı Var mı?⛔ (bulunamadı)
En az bir aracı var
Fork Sayısı13
Yıldız Sayısı33

Sıkça sorulan sorular

Databricks MCP Sunucusu nedir?

Databricks MCP Sunucusu, AI asistanları ile Databricks arasında köprü görevi görür; Databricks’in SQL çalıştırma ve iş yönetimi gibi yeteneklerini MCP protokolü ile otomatik iş akışları için sunar.

Bu MCP Sunucusu hangi işlemleri destekler?

SQL sorguları çalıştırma, tüm işleri listeleme, iş durumlarını getirme ve belirli Databricks işleri hakkında detaylı bilgi edinme işlemlerini destekler.

Databricks kimlik bilgilerimi güvenli olarak nasıl saklarım?

Her zaman ortam değişkenlerini kullanın; örneğin, kimlik bilgilerinizi bir `.env` dosyasına yerleştirerek veya MCP sunucu yapılandırmanıza ekleyerek hassas bilgileri kod içine gömmekten kaçının.

Bu sunucuyu FlowHunt akışlarında kullanabilir miyim?

Evet, MCP bileşenini akışınıza ekleyip Databricks MCP sunucu detaylarınızla yapılandırarak AI ajanlarınızın desteklenen tüm Databricks fonksiyonlarına erişmesini sağlayabilirsiniz.

Bu MCP Sunucusunun genel fayda puanı nedir?

Mevcut araçlar, kurulum rehberi ve güvenlik desteğine sahip ancak kaynak ve prompt şablonları eksik olduğu için bu MCP Sunucusu, MCP ekosisteminde tamamlayıcılık açısından 10 üzerinden 6 puan alıyor.

Databricks İş Akışlarınızı Hızlandırın

SQL sorgularını otomatikleştirin, işleri izleyin ve Databricks kaynaklarını doğrudan sohbet tabanlı AI arayüzlerinden yönetin. Databricks MCP Sunucusu’nu FlowHunt akışlarınıza entegre ederek bir üst düzey verimlilik elde edin.

Daha fazla bilgi

Databricks MCP Sunucusu
Databricks MCP Sunucusu

Databricks MCP Sunucusu

Databricks MCP Sunucusu, AI asistanlarını Databricks ortamlarına bağlayarak Unity Catalog meta verilerine ve veri varlıklarına otonom keşif, anlama ve etkileşim...

4 dakika okuma
AI MCP Server +5
Databricks Genie MCP Sunucusu
Databricks Genie MCP Sunucusu

Databricks Genie MCP Sunucusu

Databricks Genie MCP Sunucusu, Genie API aracılığıyla büyük dil modellerinin Databricks ortamlarıyla etkileşime geçmesini sağlar ve standart Model Context Proto...

4 dakika okuma
AI Databricks +6
MSSQL MCP Sunucusu
MSSQL MCP Sunucusu

MSSQL MCP Sunucusu

MSSQL MCP Sunucusu, AI asistanlarını Microsoft SQL Server veritabanlarıyla bağlayarak gelişmiş veri işlemleri, iş zekâsı ve iş akışı otomasyonunu doğrudan AI ak...

4 dakika okuma
AI Database +4