
mcp-local-rag MCP-Server
Der mcp-local-rag MCP-Server ermöglicht datenschutzfreundliche, lokale Retrieval-Augmented Generation (RAG) Websuche für LLMs. Er erlaubt KI-Assistenten den Zug...
Ein lokaler, semantischer Memory MCP Server für FlowHunt, gebaut mit ChromaDB und Ollama. Ermöglicht KI-Agenten, Texte, Dokumente und PDFs anhand ihrer Bedeutung zu speichern und abzurufen – unterstützt leistungsstarke RAG- und Wissensworkflows.
Der mcp-rag-local MCP Server ist als Memory Server konzipiert, der es KI-Assistenten ermöglicht, Textpassagen nach semantischer Bedeutung – und nicht nur nach Schlüsselwörtern – zu speichern und abzurufen. Mithilfe von Ollama zur Generierung von Text-Embeddings und ChromaDB zur Vektorspeicherung und Ähnlichkeitssuche ermöglicht er eine nahtlose Speicherung („Memorierung“) und das Abrufen relevanter Texte für eine bestimmte Anfrage. Das befähigt KI-basierte Workflows wie Wissensmanagement, kontextuelle Erinnerung und semantische Suche. Entwickler können mit dem Server interagieren, um einzelne Texte, mehrere Texte oder sogar Inhalte von PDF-Dateien zu speichern und später die kontextuell relevantesten Informationen abzurufen – das steigert Produktivität und Kontextbewusstsein in Anwendungen.
memorize_text
Ermöglicht dem Server, eine einzelne Textpassage für zukünftiges semantisches Abrufen zu speichern.
memorize_multiple_texts
Erlaubt die Batch-Speicherung mehrerer Texte auf einmal und erleichtert so das Ingestieren von Wissen in großen Mengen.
memorize_pdf_file
Liest und extrahiert bis zu 20 Seiten gleichzeitig aus einer PDF-Datei, zerlegt den Inhalt und merkt ihn sich für semantisches Abrufen.
retrieve_similar_texts
Ruft die relevantesten gespeicherten Textpassagen anhand der Anfrage eines Nutzers mittels semantischer Ähnlichkeit ab.
(Toolnamen abgeleitet aus dokumentierten Nutzungsmustern; die exakten Namen können im Code variieren.)
Persönliche Wissensdatenbank
Entwickler und Nutzer können eine persistente, durchsuchbare Wissensbasis aufbauen, indem sie Artikel, Notizen oder Forschungsarbeiten für semantisches Abrufen speichern.
Dokumenten- und PDF-Zusammenfassung
Durch das Memorieren ganzer PDFs können Nutzer später relevante Abschnitte oder Zusammenfassungen abfragen und so Recherche und Review beschleunigen.
Konversationelles Gedächtnis für Chatbots
Statte KI-Assistenten oder Chatbots mit einem langfristigen, kontextbewussten Gedächtnis aus, um im Verlauf kohärentere und relevantere Antworten zu liefern.
Semantische Suchmaschine
Implementiere eine semantische Suchfunktion in Anwendungen, sodass Nutzer relevante Informationen anhand der Bedeutung und nicht nur anhand von Schlüsselwörtern finden.
Forschung und Datenexploration
Speichere und durchsuche technische Dokumente, Code-Snippets oder wissenschaftliche Literatur für schnelles, bedeutungsbasiertes Abrufen beim Recherchieren oder Entwickeln.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
ChromaDB und Ollama starten.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
-Abschnitt deiner Konfiguration."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Verwendung von MCP in FlowHunt
Um MCP-Server in deinen FlowHunt-Workflow zu integrieren, füge zunächst die MCP-Komponente zu deinem Flow hinzu und verbinde sie mit deinem KI-Agenten:
Klicke auf die MCP-Komponente, um das Konfigurationspanel zu öffnen. Im Bereich System-MCP-Konfiguration trägst du die Details zu deinem MCP-Server in folgendem JSON-Format ein:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Nach der Konfiguration kann der KI-Agent diesen MCP als Tool mit Zugriff auf alle Funktionen und Fähigkeiten nutzen. Denke daran, “mcp-rag-local” ggf. durch den tatsächlichen Namen deines MCP-Servers zu ersetzen und die URL mit deiner eigenen MCP-Server-URL anzugeben.
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | |
Liste der Prompts | ⛔ | Keine Prompts/Vorlagen dokumentiert |
Liste der Ressourcen | ⛔ | Keine Ressourcen dokumentiert |
Liste der Tools | ✅ | memorize_text, memorize_multiple_texts, etc. |
API-Schlüssel absichern | ✅ | über env in der Konfiguration, Beispiel |
Sampling-Unterstützung (weniger relevant) | ⛔ | Nicht erwähnt |
Dieser MCP ist unkompliziert und klar auf semantisches Memory fokussiert, bietet aber keine erweiterten Features wie Prompt-Vorlagen, explizite Ressourcen oder Sampling/Roots-Support. Tooling und Einrichtung sind übersichtlich. Am besten für einfache RAG-/lokale Wissensworkflows geeignet.
Lizenz vorhanden | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl der Forks | 1 |
Anzahl der Stars | 5 |
Es handelt sich um einen lokalen MCP Server, der KI-Agenten die Fähigkeit gibt, Texte, Dokumente und PDFs anhand ihrer semantischen Bedeutung zu speichern und abzurufen. Angetrieben von Ollama und ChromaDB ermöglicht er Wissensmanagement, kontextuelles Gedächtnis und semantische Suche für deine Anwendungen.
Er bietet Tools zum Speichern einzelner oder mehrerer Textpassagen, zum Import von PDF-Dateien und zum Abruf ähnlicher Texte mittels semantischer Suche. Damit werden Workflows wie der Aufbau persönlicher Wissensdatenbanken, Dokumentenzusammenfassungen und konversationelles Gedächtnis für Chatbots ermöglicht.
Installiere uv und Docker, klone das Repository, starte Ollama und ChromaDB und konfiguriere den MCP Server in der Konfigurationsdatei deines Clients mit den angegebenen Ports. Umgebungsvariablen werden für eine sichere Konfiguration verwendet.
Anwendungsfälle sind der Aufbau einer semantischen Wissensdatenbank, Dokumenten-/PDF-Zusammenfassungen, Verbesserung des Chatbot-Gedächtnisses, semantische Suche und Recherche von Datenbeständen.
Verwende immer Umgebungsvariablen im env-Abschnitt deiner Konfiguration, um sensible Informationen nicht hart zu codieren und so Sicherheit und Best Practices zu gewährleisten.
Beschleunige deine KI-Workflows mit semantischem Gedächtnis und lokaler Dokumentensuche dank mcp-rag-local. In wenigen Minuten eingerichtet – transformiere, wie deine Agenten Wissen abrufen und verarbeiten.
Der mcp-local-rag MCP-Server ermöglicht datenschutzfreundliche, lokale Retrieval-Augmented Generation (RAG) Websuche für LLMs. Er erlaubt KI-Assistenten den Zug...
Der Rememberizer MCP Server schlägt eine Brücke zwischen KI-Assistenten und Wissensmanagement, ermöglicht semantische Suche, einheitliches Dokumenten-Retrieval ...
Der Ragie MCP-Server ermöglicht KI-Assistenten die semantische Suche und das Abrufen relevanter Informationen aus Ragie-Wissensdatenbanken und verbessert so Ent...