LLM Context MCP Server

AI MCP Server Development Tools Context Injection

Kontaktieren Sie uns, um Ihren MCP-Server in FlowHunt zu hosten

FlowHunt bietet eine zusätzliche Sicherheitsschicht zwischen Ihren internen Systemen und KI-Tools und gibt Ihnen granulare Kontrolle darüber, welche Tools von Ihren MCP-Servern aus zugänglich sind. In unserer Infrastruktur gehostete MCP-Server können nahtlos mit FlowHunts Chatbot sowie beliebten KI-Plattformen wie ChatGPT, Claude und verschiedenen KI-Editoren integriert werden.

Was macht der “LLM Context” MCP Server?

Der LLM Context MCP Server ist ein Tool, das KI-Assistenten nahtlos mit externen Code- und Textprojekten verbindet und so den Entwicklungs-Workflow über das Model Context Protocol (MCP) optimiert. Durch die Nutzung von .gitignore-Mustern zur intelligenten Dateiauswahl können Entwickler besonders relevante Inhalte direkt in LLM-Chat-Oberflächen einspielen oder einen effizienten Clipboard-Workflow verwenden. So werden Aufgaben wie Code-Review, Dokumentationsgenerierung und Projekterkundung kontextbewusst und mit KI-Unterstützung effizient durchgeführt. LLM Context ist sowohl für Code-Repositories als auch für Sammlungen von Textdokumenten besonders effektiv und bildet damit eine vielseitige Brücke zwischen Projektdaten und KI-gestützten Workflows.

Liste der Prompts

Im Repository wurden keine Informationen zu definierten Prompt-Vorlagen gefunden.

Logo

Bereit, Ihr Geschäft zu erweitern?

Starten Sie heute Ihre kostenlose Testversion und sehen Sie innerhalb weniger Tage Ergebnisse.

Liste der Ressourcen

In den bereitgestellten Dateien oder der Dokumentation werden keine expliziten Ressourcen erwähnt.

Liste der Tools

Im sichtbaren Repository ist keine server.py oder vergleichbare Datei mit Tool-Definitionen vorhanden. Es konnten keine Informationen zu verfügbaren Tools gefunden werden.

Anwendungsfälle dieses MCP Servers

  • Code-Review-Automatisierung: Integriert relevante Code-Segmente in LLM-Oberflächen zur Unterstützung automatisierter oder begleiteter Code-Reviews.
  • Dokumentationsgenerierung: Ermöglicht KI den Zugriff auf und die Zusammenfassung von Dokumentation direkt aus Projektdateien.
  • Projekterkundung: Unterstützt Entwickler und KI-Agenten dabei, große Codebasen oder Textprojekte schnell zu erfassen, indem Schlüsseldateien und Übersichten hervorgehoben werden.
  • Clipboard-Workflow: Ermöglicht das Kopieren von Inhalten in die Zwischenablage und zurück für schnelles Teilen mit LLMs und steigert die Produktivität in chatbasierten Workflows.

Einrichtung

Windsurf

  1. Stellen Sie sicher, dass Node.js und Windsurf installiert sind.
  2. Suchen Sie die Windsurf-Konfigurationsdatei (z. B. windsurf.config.json).
  3. Fügen Sie den LLM Context MCP Server mit folgendem JSON-Snippet hinzu:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Speichern Sie die Konfiguration und starten Sie Windsurf neu.
  2. Überprüfen Sie, ob der MCP-Server in Windsurf angezeigt wird.

Claude

  1. Installieren Sie Node.js und stellen Sie sicher, dass Claude die MCP-Integration unterstützt.
  2. Bearbeiten Sie die Claude-Konfigurationsdatei, um den MCP-Server einzubinden:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Speichern Sie die Datei und starten Sie Claude neu.
  2. Bestätigen Sie, dass der Server in den MCP-Einstellungen von Claude verfügbar ist.

Cursor

  1. Installieren Sie alle Voraussetzungen für den Editor Cursor.
  2. Öffnen Sie die MCP-Konfigurationsdatei von Cursor.
  3. Fügen Sie den LLM Context MCP Server hinzu:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Änderungen speichern und Cursor neu starten.
  2. Überprüfen Sie, ob der MCP-Server betriebsbereit ist.

Cline

  1. Installieren Sie Node.js und Cline.
  2. Bearbeiten Sie die Cline-Konfiguration, um den MCP-Server einzurichten:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. Speichern und Cline neu starten.
  2. Prüfen Sie, ob der MCP-Server jetzt erreichbar ist.

API Keys absichern

Setzen Sie Umgebungsvariablen, um API-Keys und Geheimnisse zu schützen. Beispielkonfiguration:

{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": [],
      "env": {
        "API_KEY": "${LLM_CONTEXT_API_KEY}"
      },
      "inputs": {
        "apiKey": "${LLM_CONTEXT_API_KEY}"
      }
    }
  }
}

Wie Sie diesen MCP in Flows nutzen

Nutzung von MCP in FlowHunt

Um MCP-Server in Ihren FlowHunt-Workflow zu integrieren, fügen Sie zunächst die MCP-Komponente zu Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

FlowHunt MCP flow

Klicken Sie auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Fügen Sie im Bereich System-MCP-Konfiguration Ihre MCP-Serverdaten mit folgendem JSON-Format ein:

{
  "llm-context": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Möglichkeiten nutzen. Denken Sie daran, “llm-context” durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL auf Ihren eigenen MCP-Server anzupassen.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
Übersicht
Liste der PromptsKeine Informationen gefunden
Liste der RessourcenKeine Informationen gefunden
Liste der ToolsKeine Informationen gefunden
API Keys absichernBeispiel für Umgebungsvariablen angegeben
Sampling-Unterstützung (weniger relevant)Keine Informationen gefunden

Basierend auf den beiden Tabellen bietet dieser MCP-Server einen guten Überblick und Best Practices zur Sicherheit, fehlt aber an klarer Dokumentation zu Prompts, Ressourcen und Tools. Er eignet sich daher vor allem für grundlegende Kontext-Workflows und benötigt weitere Dokumentation, um das volle Potenzial der erweiterten MCP-Funktionen auszuschöpfen.

MCP Score

Hat eine LICENSE✅ (Apache-2.0)
Mindestens ein Tool
Anzahl der Forks18
Anzahl der Stars231

Häufig gestellte Fragen

Steigern Sie Ihren KI-Workflow mit LLM Context MCP

Integrieren Sie den LLM Context MCP Server in FlowHunt für intelligentere, kontextbewusste Automatisierung in Ihren Coding- und Dokumentationsprozessen.

Mehr erfahren

Lspace MCP Server
Lspace MCP Server

Lspace MCP Server

Der Lspace MCP Server ist eine Open-Source-Backend- und Standalone-Anwendung, die das Model Context Protocol (MCP) implementiert. Er ermöglicht eine dauerhafte,...

3 Min. Lesezeit
MCP Server Open Source +3
LlamaCloud MCP Server
LlamaCloud MCP Server

LlamaCloud MCP Server

Der LlamaCloud MCP Server verbindet KI-Assistenten mit mehreren verwalteten Indizes auf LlamaCloud und ermöglicht unternehmensweite Dokumentenrecherche, Suche u...

4 Min. Lesezeit
AI MCP Server +5
MongoDB MCP-Server
MongoDB MCP-Server

MongoDB MCP-Server

Der MongoDB MCP-Server ermöglicht eine nahtlose Integration zwischen KI-Assistenten und MongoDB-Datenbanken, wodurch direktes Datenbankmanagement, Abfrageautoma...

4 Min. Lesezeit
AI MCP +5