mcp-rag-local MCP Server

Ein lokaler, semantischer Memory MCP Server für FlowHunt, gebaut mit ChromaDB und Ollama. Ermöglicht KI-Agenten, Texte, Dokumente und PDFs anhand ihrer Bedeutung zu speichern und abzurufen – unterstützt leistungsstarke RAG- und Wissensworkflows.

mcp-rag-local MCP Server

Was macht der “mcp-rag-local” MCP Server?

Der mcp-rag-local MCP Server ist als Memory Server konzipiert, der es KI-Assistenten ermöglicht, Textpassagen nach semantischer Bedeutung – und nicht nur nach Schlüsselwörtern – zu speichern und abzurufen. Mithilfe von Ollama zur Generierung von Text-Embeddings und ChromaDB zur Vektorspeicherung und Ähnlichkeitssuche ermöglicht er eine nahtlose Speicherung („Memorierung“) und das Abrufen relevanter Texte für eine bestimmte Anfrage. Das befähigt KI-basierte Workflows wie Wissensmanagement, kontextuelle Erinnerung und semantische Suche. Entwickler können mit dem Server interagieren, um einzelne Texte, mehrere Texte oder sogar Inhalte von PDF-Dateien zu speichern und später die kontextuell relevantesten Informationen abzurufen – das steigert Produktivität und Kontextbewusstsein in Anwendungen.

Liste der Prompts

  • Im Repository oder in der Dokumentation werden keine expliziten Prompt-Vorlagen erwähnt.

Liste der Ressourcen

  • Keine expliziten MCP-Ressourcen sind im Repository oder README dokumentiert.

Liste der Tools

  • memorize_text
    Ermöglicht dem Server, eine einzelne Textpassage für zukünftiges semantisches Abrufen zu speichern.

  • memorize_multiple_texts
    Erlaubt die Batch-Speicherung mehrerer Texte auf einmal und erleichtert so das Ingestieren von Wissen in großen Mengen.

  • memorize_pdf_file
    Liest und extrahiert bis zu 20 Seiten gleichzeitig aus einer PDF-Datei, zerlegt den Inhalt und merkt ihn sich für semantisches Abrufen.

  • retrieve_similar_texts
    Ruft die relevantesten gespeicherten Textpassagen anhand der Anfrage eines Nutzers mittels semantischer Ähnlichkeit ab.

(Toolnamen abgeleitet aus dokumentierten Nutzungsmustern; die exakten Namen können im Code variieren.)

Anwendungsfälle dieses MCP Servers

  • Persönliche Wissensdatenbank
    Entwickler und Nutzer können eine persistente, durchsuchbare Wissensbasis aufbauen, indem sie Artikel, Notizen oder Forschungsarbeiten für semantisches Abrufen speichern.

  • Dokumenten- und PDF-Zusammenfassung
    Durch das Memorieren ganzer PDFs können Nutzer später relevante Abschnitte oder Zusammenfassungen abfragen und so Recherche und Review beschleunigen.

  • Konversationelles Gedächtnis für Chatbots
    Statte KI-Assistenten oder Chatbots mit einem langfristigen, kontextbewussten Gedächtnis aus, um im Verlauf kohärentere und relevantere Antworten zu liefern.

  • Semantische Suchmaschine
    Implementiere eine semantische Suchfunktion in Anwendungen, sodass Nutzer relevante Informationen anhand der Bedeutung und nicht nur anhand von Schlüsselwörtern finden.

  • Forschung und Datenexploration
    Speichere und durchsuche technische Dokumente, Code-Snippets oder wissenschaftliche Literatur für schnelles, bedeutungsbasiertes Abrufen beim Recherchieren oder Entwickeln.

Wie richtet man ihn ein

Windsurf

  1. Voraussetzungen:
    • Installiere uv als Python-Paketmanager.
    • Stelle sicher, dass Docker installiert und aktiv ist.
  2. Klonen und Installieren:
    • Repository klonen:
      git clone <repository-url>
      cd mcp-rag-local
    • Abhängigkeiten mit uv installieren.
  3. Dienste starten:
    • Mit docker-compose up ChromaDB und Ollama starten.
    • Embedding-Modell laden:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. MCP Server konfigurieren:
    • In deiner Windsurf-MCP-Server-Konfiguration hinzufügen (z. B. in mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Speichern & Neustarten:
    • Konfiguration speichern und Windsurf neu starten.
  6. Setup prüfen:
    • Prüfen, ob der Server läuft und erreichbar ist.

Claude

  1. Befolge die Schritte 1–3 oben (Voraussetzungen, klonen/installieren, Dienste starten).
  2. Füge Folgendes deiner Claude-MCP-Konfiguration hinzu:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern und Claude neu starten.
  4. Prüfen, ob der Server gelistet und aktiv ist.

Cursor

  1. Führe die Schritte 1–3 (wie oben) aus.
  2. In deiner Cursor-Konfiguration hinzufügen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern und Cursor neu starten.
  4. Prüfen, ob der MCP Server läuft.

Cline

  1. Wiederhole Schritte 1–3 (Voraussetzungen, klonen/installieren, Dienste starten).
  2. In der Cline-Konfiguration hinzufügen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern, Cline neu starten und Setup prüfen.

API-Schlüssel absichern

  • Verwende Umgebungsvariablen im env-Abschnitt deiner Konfiguration.
  • Beispiel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Stelle sicher, dass sensible Schlüssel nicht hart codiert, sondern aus der Umgebung referenziert werden.

Wie nutzt man diesen MCP in Flows

Verwendung von MCP in FlowHunt

Um MCP-Server in deinen FlowHunt-Workflow zu integrieren, füge zunächst die MCP-Komponente zu deinem Flow hinzu und verbinde sie mit deinem KI-Agenten:

FlowHunt MCP flow

Klicke auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration trägst du die Details zu deinem MCP-Server in folgendem JSON-Format ein:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Fähigkeiten nutzen. Denke daran, “mcp-rag-local” ggf. durch den tatsächlichen Namen deines MCP-Servers zu ersetzen und die URL mit deiner eigenen MCP-Server-URL anzugeben.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
Übersicht
Liste der PromptsKeine Prompts/Vorlagen dokumentiert
Liste der RessourcenKeine Ressourcen dokumentiert
Liste der Toolsmemorize_text, memorize_multiple_texts, etc.
API-Schlüssel absichernüber env in der Konfiguration, Beispiel
Sampling-Unterstützung (weniger relevant)Nicht erwähnt

Unsere Meinung

Dieser MCP ist unkompliziert und klar auf semantisches Memory fokussiert, bietet aber keine erweiterten Features wie Prompt-Vorlagen, explizite Ressourcen oder Sampling/Roots-Support. Tooling und Einrichtung sind übersichtlich. Am besten für einfache RAG-/lokale Wissensworkflows geeignet.

MCP Score

Lizenz vorhanden✅ (MIT)
Mindestens ein Tool
Anzahl der Forks1
Anzahl der Stars5

Häufig gestellte Fragen

Was ist der mcp-rag-local MCP Server?

Es handelt sich um einen lokalen MCP Server, der KI-Agenten die Fähigkeit gibt, Texte, Dokumente und PDFs anhand ihrer semantischen Bedeutung zu speichern und abzurufen. Angetrieben von Ollama und ChromaDB ermöglicht er Wissensmanagement, kontextuelles Gedächtnis und semantische Suche für deine Anwendungen.

Welche Tools stellt mcp-rag-local bereit?

Er bietet Tools zum Speichern einzelner oder mehrerer Textpassagen, zum Import von PDF-Dateien und zum Abruf ähnlicher Texte mittels semantischer Suche. Damit werden Workflows wie der Aufbau persönlicher Wissensdatenbanken, Dokumentenzusammenfassungen und konversationelles Gedächtnis für Chatbots ermöglicht.

Wie richte ich mcp-rag-local ein?

Installiere uv und Docker, klone das Repository, starte Ollama und ChromaDB und konfiguriere den MCP Server in der Konfigurationsdatei deines Clients mit den angegebenen Ports. Umgebungsvariablen werden für eine sichere Konfiguration verwendet.

Was sind die Hauptanwendungsfälle?

Anwendungsfälle sind der Aufbau einer semantischen Wissensdatenbank, Dokumenten-/PDF-Zusammenfassungen, Verbesserung des Chatbot-Gedächtnisses, semantische Suche und Recherche von Datenbeständen.

Wie sichere ich API-Schlüssel oder Ports?

Verwende immer Umgebungsvariablen im env-Abschnitt deiner Konfiguration, um sensible Informationen nicht hart zu codieren und so Sicherheit und Best Practices zu gewährleisten.

Teste mcp-rag-local mit FlowHunt

Beschleunige deine KI-Workflows mit semantischem Gedächtnis und lokaler Dokumentensuche dank mcp-rag-local. In wenigen Minuten eingerichtet – transformiere, wie deine Agenten Wissen abrufen und verarbeiten.

Mehr erfahren