
mcp-local-rag MCP Server
De mcp-local-rag MCP Server maakt privacyvriendelijke, lokale Retrieval-Augmented Generation (RAG) webzoekopdrachten mogelijk voor LLM's. Hiermee kunnen AI-assi...
Een lokale, semantisch geheugen MCP-server voor FlowHunt, gebouwd met ChromaDB en Ollama. Maakt het mogelijk voor AI-agenten om tekst, documenten en PDF’s te onthouden en op te halen op betekenis, wat krachtige RAG- en kennisworkflows ondersteunt.
De mcp-rag-local MCP Server is ontworpen als een geheugenserver waarmee AI-assistenten tekstfragmenten kunnen opslaan en ophalen op basis van hun semantische betekenis, niet alleen op trefwoorden. Met gebruik van Ollama voor het genereren van tekstembeddings en ChromaDB voor vectoropslag en gelijkeniszoekopdrachten, maakt het naadloze opslag (“onthouden”) en het ophalen van relevante teksten voor een bepaalde vraag mogelijk. Dit ondersteunt AI-gedreven workflows zoals kennisbeheer, contextueel geheugen en semantisch zoeken. Ontwikkelaars kunnen communiceren met de server om individuele teksten, meerdere teksten, of zelfs de inhoud van PDF-bestanden op te slaan en later de meest contextueel relevante informatie op te halen, wat de productiviteit en contextueel bewustzijn in applicaties vergroot.
memorize_text
Hiermee kan de server een enkel tekstfragment opslaan voor toekomstige semantische zoekopdrachten.
memorize_multiple_texts
Maakt batchopslag van meerdere teksten tegelijk mogelijk, wat bulkkennisinvoer vergemakkelijkt.
memorize_pdf_file
Leest en extraheert tot 20 pagina’s tegelijk uit een PDF-bestand, splitst de inhoud en slaat deze op voor semantische zoekopdrachten.
retrieve_similar_texts
Haalt de meest relevante opgeslagen tekstfragmenten op basis van een gebruikersvraag, met behulp van semantische gelijkenis.
(Toolnamen afgeleid uit gedocumenteerde gebruikspatronen; exacte namen kunnen in de code afwijken.)
Persoonlijke Kennisbank
Ontwikkelaars en gebruikers kunnen een blijvende, doorzoekbare kennisbank bouwen door artikelen, notities of onderzoeksartikelen op te slaan voor semantische terughaalbaarheid.
Document- en PDF-samenvatting
Door volledige PDF-documenten te onthouden, kunnen gebruikers later relevante secties of samenvattingen opvragen, wat onderzoek en beoordeling stroomlijnt.
Conversatiegeheugen voor Chatbots
Voorzie AI-assistenten of chatbots van langdurig, contextbewust geheugen om na verloop van tijd coherente en contextueel relevante antwoorden te bieden.
Semantische Zoekmachine
Implementeer een semantische zoekfunctie in applicaties, zodat gebruikers relevante informatie kunnen vinden op basis van betekenis, niet enkel op trefwoorden.
Onderzoek en Data-exploratie
Sla technische documenten, codefragmenten of wetenschappelijke literatuur op en raadpleeg deze snel op betekenis tijdens onderzoek of ontwikkeling.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
uit om ChromaDB en Ollama te starten.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
-deel van je configuratie."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
MCP gebruiken in FlowHunt
Om MCP-servers in je FlowHunt-workflow te integreren, voeg je het MCP-component toe aan je flow en verbind je deze met je AI-agent:
Klik op het MCP-component om het configuratievenster te openen. Voeg in het systeem MCP-configuratiegedeelte je MCP-servergegevens in met dit JSON-formaat:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Na configuratie kan de AI-agent deze MCP nu als tool gebruiken met toegang tot al zijn functies en mogelijkheden. Vergeet niet “mcp-rag-local” te wijzigen naar de daadwerkelijke naam van jouw MCP-server en de URL te vervangen door je eigen MCP-server-URL.
Sectie | Beschikbaarheid | Details/Opmerkingen |
---|---|---|
Overzicht | ✅ | |
Lijst van Prompts | ⛔ | Geen prompts/templates gedocumenteerd |
Lijst van Resources | ⛔ | Geen resources gedocumenteerd |
Lijst van Tools | ✅ | memorize_text, memorize_multiple_texts, etc. |
API-sleutels beveiligen | ✅ | via env in config, voorbeeld getoond |
Sampling-ondersteuning (minder van belang) | ⛔ | Niet vermeld |
Deze MCP is eenvoudig en goed gericht op semantisch geheugen, maar mist geavanceerde functies zoals prompt-templates, expliciete resources of sampling/roots-ondersteuning. Tooling en setup zijn duidelijk. Het beste voor simpele RAG/lokale kennisworkflows.
Heeft een LICENSE | ✅ (MIT) |
---|---|
Heeft minimaal één tool | ✅ |
Aantal Forks | 1 |
Aantal Sterren | 5 |
Het is een lokale MCP-server die AI-agenten de mogelijkheid geeft om tekst, documenten en PDF's op te slaan en op te halen op semantische betekenis. Aangedreven door Ollama en ChromaDB, maakt het kennisbeheer, contextueel geheugen en semantisch zoeken mogelijk voor je applicaties.
Het biedt tools voor het opslaan van één of meerdere teksten, het verwerken van PDF-bestanden en het ophalen van vergelijkbare teksten via semantisch zoeken. Dit maakt workflows mogelijk zoals het bouwen van persoonlijke kennisbanken, documentsamenvattingen en conversatiegeheugen voor chatbots.
Installeer uv en Docker, kloon de repository, start Ollama en ChromaDB en configureer de MCP-server in het configuratiebestand van je client met de opgegeven poorten. Omgevingsvariabelen worden gebruikt voor veilige configuratie.
Use-cases zijn onder andere het bouwen van een semantische kennisbank, document/PDF-samenvatting, het verbeteren van chatbot-geheugen, semantisch zoeken en het verkennen van onderzoeksdata.
Gebruik altijd omgevingsvariabelen in het env-gedeelte van je configuratie om te voorkomen dat gevoelige informatie wordt hard gecodeerd. Dit zorgt voor veiligheid en best practices.
Geef je AI-workflows een boost met semantisch geheugen en lokale documentzoekopdrachten via mcp-rag-local. Zet binnen enkele minuten op en transformeer hoe je agenten kennis onthouden en redeneren.
De mcp-local-rag MCP Server maakt privacyvriendelijke, lokale Retrieval-Augmented Generation (RAG) webzoekopdrachten mogelijk voor LLM's. Hiermee kunnen AI-assi...
De Ragie MCP Server stelt AI-assistenten in staat om semantisch te zoeken en relevante informatie op te halen uit Ragie kennisbanken, waardoor ontwikkelworkflow...
De Rememberizer MCP Server vormt de brug tussen AI-assistenten en kennisbeheer, en maakt semantisch zoeken, uniforme documentopvraging en team samenwerking moge...