mcp-rag-local Serveur MCP

Un serveur MCP local à mémoire sémantique pour FlowHunt, construit avec ChromaDB et Ollama. Permet aux agents IA de mémoriser et retrouver textes, documents et PDFs par signification, pour des workflows RAG puissants et de gestion des connaissances.

mcp-rag-local Serveur MCP

Que fait le serveur MCP “mcp-rag-local” ?

Le serveur MCP mcp-rag-local est conçu comme un serveur de mémoire permettant aux assistants IA de stocker et de retrouver des passages de texte selon leur signification sémantique, et non uniquement par mots-clés. S’appuyant sur Ollama pour la génération des embeddings de texte et sur ChromaDB pour le stockage vectoriel et la recherche de similarité, il permet un stockage (“mémorisation”) fluide et la récupération de textes pertinents pour une requête donnée. Cela permet des workflows IA tels que la gestion des connaissances, le rappel contextuel et la recherche sémantique. Les développeurs peuvent interagir avec le serveur pour stocker des textes individuels, plusieurs textes ou même le contenu de fichiers PDF, et retrouver ensuite les informations les plus contextuellement pertinentes, améliorant ainsi la productivité et la conscience contextuelle dans les applications.

Liste des prompts

  • Aucun modèle de prompt explicite n’est mentionné dans le dépôt ou la documentation.

Liste des ressources

  • Aucune ressource MCP explicite n’est documentée dans le dépôt ou le README.

Liste des outils

  • memorize_text
    Permet au serveur de stocker un passage de texte pour une récupération sémantique ultérieure.

  • memorize_multiple_texts
    Permet le stockage en lot de plusieurs textes à la fois, facilitant l’ingestion massive de connaissances.

  • memorize_pdf_file
    Lit et extrait jusqu’à 20 pages à la fois d’un fichier PDF, segmente le contenu et le mémorise pour une récupération sémantique.

  • retrieve_similar_texts
    Récupère les passages de texte les plus pertinents stockés selon la requête utilisateur, via la similarité sémantique.

(Noms des outils déduits des usages documentés ; les noms exacts peuvent différer dans le code.)

Cas d’utilisation de ce serveur MCP

  • Base de connaissances personnelle
    Développeurs et utilisateurs peuvent constituer une base de connaissances persistante et interrogeable en mémorisant articles, notes ou papiers de recherche pour un rappel sémantique.

  • Synthèse de documents et PDF
    En mémorisant des documents PDF entiers, l’utilisateur pourra ensuite interroger et extraire des sections ou résumés pertinents, facilitant la recherche et la relecture.

  • Mémoire conversationnelle pour chatbots
    Renforcez assistants IA ou chatbots avec une mémoire à long terme et contextuelle afin de fournir des réponses plus cohérentes et pertinentes sur la durée.

  • Moteur de recherche sémantique
    Implémentez une fonctionnalité de recherche sémantique dans vos applications, permettant de trouver des informations par la signification et non par mots-clés.

  • Exploration de données et recherche
    Stockez et interrogez des documents techniques, extraits de code ou articles scientifiques pour une récupération rapide fondée sur le sens lors d’investigations ou développement.

Comment l’installer

Windsurf

  1. Prérequis :
    • Installez uv comme gestionnaire de paquets Python.
    • Vérifiez que Docker est installé et lancé.
  2. Clonage et installation :
    • Clonez le dépôt :
      git clone <repository-url>
      cd mcp-rag-local
    • Installez les dépendances avec uv.
  3. Démarrage des services :
    • Lancez docker-compose up pour démarrer ChromaDB et Ollama.
    • Téléchargez le modèle d’embedding :
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configurer le serveur MCP :
    • Ajoutez à votre configuration MCP Windsurf (par exemple, dans mcpServers) :
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Sauvegarder et redémarrer :
    • Sauvegardez la configuration et redémarrez Windsurf.
  6. Vérifier l’installation :
    • Vérifiez que le serveur fonctionne et est accessible.

Claude

  1. Suivez les étapes 1–3 ci-dessus (prérequis, clonage/installation, démarrage services).
  2. Ajoutez ce qui suit à la configuration MCP de Claude :
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Sauvegardez et redémarrez Claude.
  4. Vérifiez que le serveur est listé et fonctionne.

Cursor

  1. Effectuez les étapes 1–3 (comme ci-dessus).
  2. Ajoutez à votre configuration Cursor :
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Sauvegardez et redémarrez Cursor.
  4. Vérifiez que le serveur MCP est opérationnel.

Cline

  1. Répétez les étapes 1–3 (prérequis, clonage/installation, démarrage services).
  2. Dans la configuration Cline, ajoutez :
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Sauvegardez, redémarrez Cline et vérifiez l’installation.

Sécurisation des clés API

  • Utilisez des variables d’environnement dans la section env de votre configuration.
  • Exemple :
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Assurez-vous que les clés sensibles ne sont pas codées en dur mais référencées via votre environnement.

Comment utiliser ce MCP dans les flux

Utiliser le MCP dans FlowHunt

Pour intégrer les serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et reliez-le à votre agent IA :

FlowHunt MCP flow

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration système du MCP, insérez les détails de votre serveur MCP dans ce format JSON :

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Une fois configuré, l’agent IA pourra utiliser ce MCP comme outil et accéder à toutes ses fonctions et capacités. N’oubliez pas de remplacer “mcp-rag-local” par le nom réel de votre serveur MCP et l’URL par celle de votre propre serveur MCP.


Vue d’ensemble

SectionDisponibilitéDétails/Notes
Vue d’ensemble
Liste des promptsAucun prompt/modèle documenté
Liste des ressourcesAucune ressource documentée
Liste des outilsmemorize_text, memorize_multiple_texts, etc.
Sécurisation des clés APIvia env en config, exemple montré
Support sampling (moins important à l’éval)Non mentionné

Notre avis

Ce MCP est simple, bien ciblé sur la mémoire sémantique, mais sans fonctionnalités avancées comme les modèles de prompts, ressources explicites ou sampling/roots. Les outils et l’installation sont clairs. Idéal pour des workflows RAG/knowledge locaux et simples.

Score MCP

Possède une LICENCE✅ (MIT)
Au moins un outil
Nombre de forks1
Nombre d’étoiles5

Questions fréquemment posées

Qu'est-ce que le serveur MCP mcp-rag-local ?

C'est un serveur MCP local qui donne aux agents IA la capacité de stocker et de retrouver textes, documents et PDFs par signification sémantique. Propulsé par Ollama et ChromaDB, il permet la gestion des connaissances, une mémoire contextuelle et la recherche sémantique pour vos applications.

Quels outils propose mcp-rag-local ?

Il propose des outils pour stocker un ou plusieurs passages de texte, ingérer des fichiers PDF et retrouver des textes similaires via la recherche sémantique. Cela permet des workflows comme la création de bases de connaissances personnelles, la synthèse de documents et la mémoire conversationnelle pour chatbots.

Comment installer mcp-rag-local ?

Installez uv et Docker, clonez le dépôt, démarrez Ollama et ChromaDB, puis configurez le serveur MCP dans le fichier de configuration de votre client avec les ports spécifiés. Les variables d'environnement sont utilisées pour une configuration sécurisée.

Quels sont les principaux cas d'usage ?

Les usages incluent la création d'une base de connaissances sémantique, la synthèse de documents/PDF, l'amélioration de la mémoire de chatbot, la recherche sémantique et l'exploration de données pour la recherche.

Comment sécuriser les clés API ou les ports ?

Utilisez toujours les variables d'environnement dans la section env de votre configuration pour éviter de coder en dur des informations sensibles, garantissant ainsi sécurité et bonnes pratiques.

Essayez mcp-rag-local avec FlowHunt

Boostez vos workflows IA avec la mémoire sémantique et la recherche documentaire locale grâce à mcp-rag-local. Installation en quelques minutes et transformation de la gestion de la connaissance par vos agents.

En savoir plus