
Serveur MCP mcp-local-rag
Le serveur MCP mcp-local-rag permet une recherche web locale respectueuse de la vie privée, basée sur le Retrieval-Augmented Generation (RAG) pour les LLM. Il a...
Un serveur MCP local à mémoire sémantique pour FlowHunt, construit avec ChromaDB et Ollama. Permet aux agents IA de mémoriser et retrouver textes, documents et PDFs par signification, pour des workflows RAG puissants et de gestion des connaissances.
Le serveur MCP mcp-rag-local est conçu comme un serveur de mémoire permettant aux assistants IA de stocker et de retrouver des passages de texte selon leur signification sémantique, et non uniquement par mots-clés. S’appuyant sur Ollama pour la génération des embeddings de texte et sur ChromaDB pour le stockage vectoriel et la recherche de similarité, il permet un stockage (“mémorisation”) fluide et la récupération de textes pertinents pour une requête donnée. Cela permet des workflows IA tels que la gestion des connaissances, le rappel contextuel et la recherche sémantique. Les développeurs peuvent interagir avec le serveur pour stocker des textes individuels, plusieurs textes ou même le contenu de fichiers PDF, et retrouver ensuite les informations les plus contextuellement pertinentes, améliorant ainsi la productivité et la conscience contextuelle dans les applications.
memorize_text
Permet au serveur de stocker un passage de texte pour une récupération sémantique ultérieure.
memorize_multiple_texts
Permet le stockage en lot de plusieurs textes à la fois, facilitant l’ingestion massive de connaissances.
memorize_pdf_file
Lit et extrait jusqu’à 20 pages à la fois d’un fichier PDF, segmente le contenu et le mémorise pour une récupération sémantique.
retrieve_similar_texts
Récupère les passages de texte les plus pertinents stockés selon la requête utilisateur, via la similarité sémantique.
(Noms des outils déduits des usages documentés ; les noms exacts peuvent différer dans le code.)
Base de connaissances personnelle
Développeurs et utilisateurs peuvent constituer une base de connaissances persistante et interrogeable en mémorisant articles, notes ou papiers de recherche pour un rappel sémantique.
Synthèse de documents et PDF
En mémorisant des documents PDF entiers, l’utilisateur pourra ensuite interroger et extraire des sections ou résumés pertinents, facilitant la recherche et la relecture.
Mémoire conversationnelle pour chatbots
Renforcez assistants IA ou chatbots avec une mémoire à long terme et contextuelle afin de fournir des réponses plus cohérentes et pertinentes sur la durée.
Moteur de recherche sémantique
Implémentez une fonctionnalité de recherche sémantique dans vos applications, permettant de trouver des informations par la signification et non par mots-clés.
Exploration de données et recherche
Stockez et interrogez des documents techniques, extraits de code ou articles scientifiques pour une récupération rapide fondée sur le sens lors d’investigations ou développement.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
pour démarrer ChromaDB et Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
) :"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
de votre configuration."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Utiliser le MCP dans FlowHunt
Pour intégrer les serveurs MCP dans votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flow et reliez-le à votre agent IA :
Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration système du MCP, insérez les détails de votre serveur MCP dans ce format JSON :
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme outil et accéder à toutes ses fonctions et capacités. N’oubliez pas de remplacer “mcp-rag-local” par le nom réel de votre serveur MCP et l’URL par celle de votre propre serveur MCP.
Section | Disponibilité | Détails/Notes |
---|---|---|
Vue d’ensemble | ✅ | |
Liste des prompts | ⛔ | Aucun prompt/modèle documenté |
Liste des ressources | ⛔ | Aucune ressource documentée |
Liste des outils | ✅ | memorize_text, memorize_multiple_texts, etc. |
Sécurisation des clés API | ✅ | via env en config, exemple montré |
Support sampling (moins important à l’éval) | ⛔ | Non mentionné |
Ce MCP est simple, bien ciblé sur la mémoire sémantique, mais sans fonctionnalités avancées comme les modèles de prompts, ressources explicites ou sampling/roots. Les outils et l’installation sont clairs. Idéal pour des workflows RAG/knowledge locaux et simples.
Possède une LICENCE | ✅ (MIT) |
---|---|
Au moins un outil | ✅ |
Nombre de forks | 1 |
Nombre d’étoiles | 5 |
C'est un serveur MCP local qui donne aux agents IA la capacité de stocker et de retrouver textes, documents et PDFs par signification sémantique. Propulsé par Ollama et ChromaDB, il permet la gestion des connaissances, une mémoire contextuelle et la recherche sémantique pour vos applications.
Il propose des outils pour stocker un ou plusieurs passages de texte, ingérer des fichiers PDF et retrouver des textes similaires via la recherche sémantique. Cela permet des workflows comme la création de bases de connaissances personnelles, la synthèse de documents et la mémoire conversationnelle pour chatbots.
Installez uv et Docker, clonez le dépôt, démarrez Ollama et ChromaDB, puis configurez le serveur MCP dans le fichier de configuration de votre client avec les ports spécifiés. Les variables d'environnement sont utilisées pour une configuration sécurisée.
Les usages incluent la création d'une base de connaissances sémantique, la synthèse de documents/PDF, l'amélioration de la mémoire de chatbot, la recherche sémantique et l'exploration de données pour la recherche.
Utilisez toujours les variables d'environnement dans la section env de votre configuration pour éviter de coder en dur des informations sensibles, garantissant ainsi sécurité et bonnes pratiques.
Boostez vos workflows IA avec la mémoire sémantique et la recherche documentaire locale grâce à mcp-rag-local. Installation en quelques minutes et transformation de la gestion de la connaissance par vos agents.
Le serveur MCP mcp-local-rag permet une recherche web locale respectueuse de la vie privée, basée sur le Retrieval-Augmented Generation (RAG) pour les LLM. Il a...
Le serveur Rememberizer MCP fait le lien entre les assistants IA et la gestion des connaissances, permettant la recherche sémantique, la récupération unifiée de...
Le serveur Chroma MCP offre aux utilisateurs de FlowHunt des fonctionnalités avancées de base de données vectorielle, incluant la recherche sémantique, le filtr...