LLM Context MCP Sunucusu

AI MCP Server Development Tools Context Injection

MCP Sunucunuzu FlowHunt'ta barındırmak için bizimle iletişime geçin

FlowHunt, dahili sistemleriniz ile AI araçları arasında ek bir güvenlik katmanı sağlayarak MCP sunucularınızdan hangi araçlara erişilebileceği konusunda size ayrıntılı kontrol verir. Altyapımızda barındırılan MCP sunucuları, FlowHunt'ın chatbotu ile ChatGPT, Claude ve çeşitli AI editörleri gibi popüler AI platformlarıyla sorunsuz bir şekilde entegre edilebilir.

“LLM Context” MCP Sunucusu ne yapar?

LLM Context MCP Sunucusu, AI asistanlarını harici kod ve metin projeleriyle sorunsuz bir şekilde bağlamak için tasarlanmış bir araçtır ve Model Context Protocol (MCP) üzerinden geliştirme iş akışınızı geliştirir. Akıllı dosya seçimi için .gitignore desenlerinden yararlanarak, geliştiricilerin son derece ilgili içeriği doğrudan LLM sohbet arayüzlerine enjekte etmesine veya kolaylaştırılmış bir pano iş akışını kullanmasına olanak tanır. Bu, kod incelemesi, dokümantasyon oluşturma ve proje keşfi gibi görevlerin bağlamsal AI yardımıyla verimli bir şekilde yürütülmesini sağlar. LLM Context, hem kod depoları hem de metin belge koleksiyonları için özellikle etkilidir ve proje verileriyle AI destekli iş akışları arasında çok yönlü bir köprü görevi görür.

Prompt Listesi

Depoda tanımlı prompt şablonlarına dair bilgi bulunamadı.

Logo

İşinizi büyütmeye hazır mısınız?

Bugün ücretsiz denemenizi başlatın ve günler içinde sonuçları görün.

Kaynak Listesi

Sunulan dosya veya belgelerde açıkça belirtilmiş bir kaynak bulunmamaktadır.

Araç Listesi

Görünür depo yapısında server.py veya eşdeğer bir dosya yoktur. Açığa çıkan araçlara dair bilgi bulunamadı.

Bu MCP Sunucusunun Kullanım Alanları

  • Kod İnceleme Otomasyonu: İlgili kod bölümlerini LLM arayüzlerine aktararak otomatik veya destekli kod incelemelerine yardımcı olur.
  • Dokümantasyon Oluşturma: AI’ın proje dosyalarından doğrudan dokümantasyonlara erişmesini ve özetlemesini sağlar.
  • Proje Keşfi: Geliştiricilere ve AI ajanlarına, büyük kod tabanlarını veya metin projelerini hızlıca anlamak için önemli dosyaları ve özetleri öne çıkarır.
  • Pano İş Akışı: Kullanıcıların içerikleri panoya kopyalayıp LLM’lerle hızlıca paylaşmasını sağlar; sohbet tabanlı iş akışlarında verimliliği artırır.

Kurulum Nasıl Yapılır

Windsurf

  1. Node.js ve Windsurf’ün kurulu olduğundan emin olun.
  2. Windsurf yapılandırma dosyasını bulun (ör. windsurf.config.json).
  3. Aşağıdaki JSON kod parçası ile LLM Context MCP Sunucusunu ekleyin:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Yapılandırmayı kaydedin ve Windsurf’ü yeniden başlatın.
  2. MCP sunucusunun Windsurf’te görünüp görünmediğini kontrol ederek kurulumu doğrulayın.

Claude

  1. Node.js’i yükleyin ve Claude’un MCP entegrasyonunu desteklediğinden emin olun.
  2. Claude’un yapılandırma dosyasını MCP sunucusu ekleyecek şekilde düzenleyin:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Dosyayı kaydedin ve Claude’u yeniden başlatın.
  2. Sunucunun Claude’un MCP ayarlarında mevcut olduğunu doğrulayın.

Cursor

  1. Cursor editörü için gerekli ön koşulları yükleyin.
  2. Cursor’un MCP yapılandırma dosyasını açın.
  3. LLM Context MCP Sunucusunu ekleyin:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Değişiklikleri kaydedin ve Cursor’u yeniden başlatın.
  2. MCP sunucusunun çalışır durumda olduğunu doğrulayın.

Cline

  1. Node.js ve Cline’ı yükleyin.
  2. MCP sunucusunu kaydedecek şekilde Cline yapılandırmasını düzenleyin:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Kaydedin ve Cline’ı yeniden başlatın.
  2. MCP sunucusunun erişilebilir olup olmadığını kontrol edin.

API Anahtarlarını Güvenceye Alma

API anahtarlarını ve gizli bilgileri korumak için ortam değişkenleri ayarlayın. Örnek yapılandırma:

{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": [],
      "env": {
        "API_KEY": "${LLM_CONTEXT_API_KEY}"
      },
      "inputs": {
        "apiKey": "${LLM_CONTEXT_API_KEY}"
      }
    }
  }
}

Bu MCP’yi akışlarda nasıl kullanırsınız

FlowHunt’ta MCP Kullanımı

MCP sunucularını FlowHunt iş akışınıza entegre etmek için öncelikle akışınıza MCP bileşenini ekleyin ve AI ajanınıza bağlayın:

FlowHunt MCP flow

MCP bileşenine tıklayarak yapılandırma panelini açın. Sistem MCP yapılandırma bölümüne şu JSON formatında MCP sunucu bilgilerinizi girin:

{
  "llm-context": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Yapılandırma tamamlandığında, AI ajanı artık bu MCP’yi bir araç olarak tüm işlev ve yetenekleriyle kullanabilir. “llm-context” ifadesini kendi MCP sunucunuzun adı ile ve URL’yi kendi MCP sunucu adresinizle değiştirmeniz gerektiğini unutmayın.


Genel Bakış

BölümMevcutDetaylar/Notlar
Genel Bakış
Prompt ListesiBilgi bulunamadı
Kaynak ListesiBilgi bulunamadı
Araç ListesiBilgi bulunamadı
API Anahtarlarının GüvenliğiOrtam değişkeni örnek yapılandırma sağlandı
Örnekleme Desteği (değerlendirmede önemsiz)Bilgi bulunamadı

İki tabloya dayanarak, bu MCP sunucusu güçlü bir genel bakışa ve güvenlik en iyi uygulamalarına sahip, ancak promptlar, kaynaklar ve araçlara dair net bir dokümantasyon eksik. Bu nedenle en çok temel bağlam paylaşımı iş akışlarında faydalı olup, MCP’nin gelişmiş özelliklerinden tam anlamıyla yararlanmak için ek dokümantasyona ihtiyaç duyar.

MCP Puanı

Lisansı var mı?✅ (Apache-2.0)
En az bir aracı var mı?
Fork sayısı18
Yıldız sayısı231

Sıkça sorulan sorular

LLM Context MCP ile AI İş Akışınızı Güçlendirin

LLM Context MCP Sunucusunu FlowHunt'a entegre edin, kodlama ve dokümantasyon süreçlerinizde daha akıllı, bağlam farkında otomasyon elde edin.

Daha fazla bilgi

LlamaCloud MCP Sunucusu
LlamaCloud MCP Sunucusu

LlamaCloud MCP Sunucusu

LlamaCloud MCP Sunucusu, AI asistanlarını LlamaCloud üzerindeki birden fazla yönetilen indekse bağlayarak, temiz ve araç tabanlı Model Context Protocol arayüzüy...

4 dakika okuma
AI MCP Server +5
Lspace MCP Sunucusu
Lspace MCP Sunucusu

Lspace MCP Sunucusu

Lspace MCP Sunucusu, Model Context Protocol (MCP)'yi uygulayan açık kaynaklı bir arka uç ve bağımsız uygulamadır. Herhangi bir yapay zeka oturumundan elde edile...

3 dakika okuma
MCP Server Open Source +3
Figma-Context MCP Sunucusu
Figma-Context MCP Sunucusu

Figma-Context MCP Sunucusu

Figma-Context MCP Sunucusu, AI kodlama ajanlarını Figma tasarım düzenleriyle Model Context Protocol (MCP) üzerinden entegre eder. AI asistanlarının Figma dosyal...

4 dakika okuma
AI MCP Server +4