mcp-rag-local MCP Server

MCP Semantic Search RAG Knowledge Management

Kontaktieren Sie uns, um Ihren MCP-Server in FlowHunt zu hosten

FlowHunt bietet eine zusätzliche Sicherheitsschicht zwischen Ihren internen Systemen und KI-Tools und gibt Ihnen granulare Kontrolle darüber, welche Tools von Ihren MCP-Servern aus zugänglich sind. In unserer Infrastruktur gehostete MCP-Server können nahtlos mit FlowHunts Chatbot sowie beliebten KI-Plattformen wie ChatGPT, Claude und verschiedenen KI-Editoren integriert werden.

Was macht der “mcp-rag-local” MCP Server?

Der mcp-rag-local MCP Server ist als Memory Server konzipiert, der es KI-Assistenten ermöglicht, Textpassagen nach semantischer Bedeutung – und nicht nur nach Schlüsselwörtern – zu speichern und abzurufen. Mithilfe von Ollama zur Generierung von Text-Embeddings und ChromaDB zur Vektorspeicherung und Ähnlichkeitssuche ermöglicht er eine nahtlose Speicherung („Memorierung“) und das Abrufen relevanter Texte für eine bestimmte Anfrage. Das befähigt KI-basierte Workflows wie Wissensmanagement, kontextuelle Erinnerung und semantische Suche. Entwickler können mit dem Server interagieren, um einzelne Texte, mehrere Texte oder sogar Inhalte von PDF-Dateien zu speichern und später die kontextuell relevantesten Informationen abzurufen – das steigert Produktivität und Kontextbewusstsein in Anwendungen.

Liste der Prompts

  • Im Repository oder in der Dokumentation werden keine expliziten Prompt-Vorlagen erwähnt.
Logo

Bereit, Ihr Geschäft zu erweitern?

Starten Sie heute Ihre kostenlose Testversion und sehen Sie innerhalb weniger Tage Ergebnisse.

Liste der Ressourcen

  • Keine expliziten MCP-Ressourcen sind im Repository oder README dokumentiert.

Liste der Tools

  • memorize_text
    Ermöglicht dem Server, eine einzelne Textpassage für zukünftiges semantisches Abrufen zu speichern.

  • memorize_multiple_texts
    Erlaubt die Batch-Speicherung mehrerer Texte auf einmal und erleichtert so das Ingestieren von Wissen in großen Mengen.

  • memorize_pdf_file
    Liest und extrahiert bis zu 20 Seiten gleichzeitig aus einer PDF-Datei, zerlegt den Inhalt und merkt ihn sich für semantisches Abrufen.

  • retrieve_similar_texts
    Ruft die relevantesten gespeicherten Textpassagen anhand der Anfrage eines Nutzers mittels semantischer Ähnlichkeit ab.

(Toolnamen abgeleitet aus dokumentierten Nutzungsmustern; die exakten Namen können im Code variieren.)

Anwendungsfälle dieses MCP Servers

  • Persönliche Wissensdatenbank
    Entwickler und Nutzer können eine persistente, durchsuchbare Wissensbasis aufbauen, indem sie Artikel, Notizen oder Forschungsarbeiten für semantisches Abrufen speichern.

  • Dokumenten- und PDF-Zusammenfassung
    Durch das Memorieren ganzer PDFs können Nutzer später relevante Abschnitte oder Zusammenfassungen abfragen und so Recherche und Review beschleunigen.

  • Konversationelles Gedächtnis für Chatbots
    Statte KI-Assistenten oder Chatbots mit einem langfristigen, kontextbewussten Gedächtnis aus, um im Verlauf kohärentere und relevantere Antworten zu liefern.

  • Semantische Suchmaschine
    Implementiere eine semantische Suchfunktion in Anwendungen, sodass Nutzer relevante Informationen anhand der Bedeutung und nicht nur anhand von Schlüsselwörtern finden.

  • Forschung und Datenexploration
    Speichere und durchsuche technische Dokumente, Code-Snippets oder wissenschaftliche Literatur für schnelles, bedeutungsbasiertes Abrufen beim Recherchieren oder Entwickeln.

Wie richtet man ihn ein

Windsurf

  1. Voraussetzungen:
    • Installiere uv als Python-Paketmanager.
    • Stelle sicher, dass Docker installiert und aktiv ist.
  2. Klonen und Installieren:
    • Repository klonen:
      git clone <repository-url>
      cd mcp-rag-local
    • Abhängigkeiten mit uv installieren.
  3. Dienste starten:
    • Mit docker-compose up ChromaDB und Ollama starten.
    • Embedding-Modell laden:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. MCP Server konfigurieren:
    • In deiner Windsurf-MCP-Server-Konfiguration hinzufügen (z. B. in mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Speichern & Neustarten:
    • Konfiguration speichern und Windsurf neu starten.
  6. Setup prüfen:
    • Prüfen, ob der Server läuft und erreichbar ist.

Claude

  1. Befolge die Schritte 1–3 oben (Voraussetzungen, klonen/installieren, Dienste starten).
  2. Füge Folgendes deiner Claude-MCP-Konfiguration hinzu:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern und Claude neu starten.
  4. Prüfen, ob der Server gelistet und aktiv ist.

Cursor

  1. Führe die Schritte 1–3 (wie oben) aus.
  2. In deiner Cursor-Konfiguration hinzufügen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern und Cursor neu starten.
  4. Prüfen, ob der MCP Server läuft.

Cline

  1. Wiederhole Schritte 1–3 (Voraussetzungen, klonen/installieren, Dienste starten).
  2. In der Cline-Konfiguration hinzufügen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Speichern, Cline neu starten und Setup prüfen.

API-Schlüssel absichern

  • Verwende Umgebungsvariablen im env-Abschnitt deiner Konfiguration.
  • Beispiel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Stelle sicher, dass sensible Schlüssel nicht hart codiert, sondern aus der Umgebung referenziert werden.

Wie nutzt man diesen MCP in Flows

Verwendung von MCP in FlowHunt

Um MCP-Server in deinen FlowHunt-Workflow zu integrieren, füge zunächst die MCP-Komponente zu deinem Flow hinzu und verbinde sie mit deinem KI-Agenten:

FlowHunt MCP flow

Klicke auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration trägst du die Details zu deinem MCP-Server in folgendem JSON-Format ein:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Fähigkeiten nutzen. Denke daran, “mcp-rag-local” ggf. durch den tatsächlichen Namen deines MCP-Servers zu ersetzen und die URL mit deiner eigenen MCP-Server-URL anzugeben.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
Übersicht
Liste der PromptsKeine Prompts/Vorlagen dokumentiert
Liste der RessourcenKeine Ressourcen dokumentiert
Liste der Toolsmemorize_text, memorize_multiple_texts, etc.
API-Schlüssel absichernüber env in der Konfiguration, Beispiel
Sampling-Unterstützung (weniger relevant)Nicht erwähnt

Unsere Meinung

Dieser MCP ist unkompliziert und klar auf semantisches Memory fokussiert, bietet aber keine erweiterten Features wie Prompt-Vorlagen, explizite Ressourcen oder Sampling/Roots-Support. Tooling und Einrichtung sind übersichtlich. Am besten für einfache RAG-/lokale Wissensworkflows geeignet.

MCP Score

Lizenz vorhanden✅ (MIT)
Mindestens ein Tool
Anzahl der Forks1
Anzahl der Stars5

Häufig gestellte Fragen

Teste mcp-rag-local mit FlowHunt

Beschleunige deine KI-Workflows mit semantischem Gedächtnis und lokaler Dokumentensuche dank mcp-rag-local. In wenigen Minuten eingerichtet – transformiere, wie deine Agenten Wissen abrufen und verarbeiten.

Mehr erfahren

Rememberizer MCP Server
Rememberizer MCP Server

Rememberizer MCP Server

Der Rememberizer MCP Server schlägt eine Brücke zwischen KI-Assistenten und Wissensmanagement, ermöglicht semantische Suche, einheitliches Dokumenten-Retrieval ...

5 Min. Lesezeit
AI Knowledge Management +4