
mcp-local-rag MCP Server
De mcp-local-rag MCP Server maakt privacyvriendelijke, lokale Retrieval-Augmented Generation (RAG) webzoekopdrachten mogelijk voor LLM's. Hiermee kunnen AI-assi...

Een lokale, semantisch geheugen MCP-server voor FlowHunt, gebouwd met ChromaDB en Ollama. Maakt het mogelijk voor AI-agenten om tekst, documenten en PDF’s te onthouden en op te halen op betekenis, wat krachtige RAG- en kennisworkflows ondersteunt.
FlowHunt biedt een extra beveiligingslaag tussen uw interne systemen en AI-tools, waardoor u granulaire controle heeft over welke tools toegankelijk zijn vanaf uw MCP-servers. MCP-servers die in onze infrastructuur worden gehost, kunnen naadloos worden geïntegreerd met FlowHunt's chatbot evenals populaire AI-platforms zoals ChatGPT, Claude en verschillende AI-editors.
De mcp-rag-local MCP Server is ontworpen als een geheugenserver waarmee AI-assistenten tekstfragmenten kunnen opslaan en ophalen op basis van hun semantische betekenis, niet alleen op trefwoorden. Met gebruik van Ollama voor het genereren van tekstembeddings en ChromaDB voor vectoropslag en gelijkeniszoekopdrachten, maakt het naadloze opslag (“onthouden”) en het ophalen van relevante teksten voor een bepaalde vraag mogelijk. Dit ondersteunt AI-gedreven workflows zoals kennisbeheer, contextueel geheugen en semantisch zoeken. Ontwikkelaars kunnen communiceren met de server om individuele teksten, meerdere teksten, of zelfs de inhoud van PDF-bestanden op te slaan en later de meest contextueel relevante informatie op te halen, wat de productiviteit en contextueel bewustzijn in applicaties vergroot.
memorize_text
Hiermee kan de server een enkel tekstfragment opslaan voor toekomstige semantische zoekopdrachten.
memorize_multiple_texts
Maakt batchopslag van meerdere teksten tegelijk mogelijk, wat bulkkennisinvoer vergemakkelijkt.
memorize_pdf_file
Leest en extraheert tot 20 pagina’s tegelijk uit een PDF-bestand, splitst de inhoud en slaat deze op voor semantische zoekopdrachten.
retrieve_similar_texts
Haalt de meest relevante opgeslagen tekstfragmenten op basis van een gebruikersvraag, met behulp van semantische gelijkenis.
(Toolnamen afgeleid uit gedocumenteerde gebruikspatronen; exacte namen kunnen in de code afwijken.)
Persoonlijke Kennisbank
Ontwikkelaars en gebruikers kunnen een blijvende, doorzoekbare kennisbank bouwen door artikelen, notities of onderzoeksartikelen op te slaan voor semantische terughaalbaarheid.
Document- en PDF-samenvatting
Door volledige PDF-documenten te onthouden, kunnen gebruikers later relevante secties of samenvattingen opvragen, wat onderzoek en beoordeling stroomlijnt.
Conversatiegeheugen voor Chatbots
Voorzie AI-assistenten of chatbots van langdurig, contextbewust geheugen om na verloop van tijd coherente en contextueel relevante antwoorden te bieden.
Semantische Zoekmachine
Implementeer een semantische zoekfunctie in applicaties, zodat gebruikers relevante informatie kunnen vinden op basis van betekenis, niet enkel op trefwoorden.
Onderzoek en Data-exploratie
Sla technische documenten, codefragmenten of wetenschappelijke literatuur op en raadpleeg deze snel op betekenis tijdens onderzoek of ontwikkeling.
git clone <repository-url>cd mcp-rag-localdocker-compose up uit om ChromaDB en Ollama te starten.docker exec -it ollama ollama pull all-minilm:l6-v2mcpServers):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env-deel van je configuratie."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
MCP gebruiken in FlowHunt
Om MCP-servers in je FlowHunt-workflow te integreren, voeg je het MCP-component toe aan je flow en verbind je deze met je AI-agent:

Klik op het MCP-component om het configuratievenster te openen. Voeg in het systeem MCP-configuratiegedeelte je MCP-servergegevens in met dit JSON-formaat:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Na configuratie kan de AI-agent deze MCP nu als tool gebruiken met toegang tot al zijn functies en mogelijkheden. Vergeet niet “mcp-rag-local” te wijzigen naar de daadwerkelijke naam van jouw MCP-server en de URL te vervangen door je eigen MCP-server-URL.
| Sectie | Beschikbaarheid | Details/Opmerkingen |
|---|---|---|
| Overzicht | ✅ | |
| Lijst van Prompts | ⛔ | Geen prompts/templates gedocumenteerd |
| Lijst van Resources | ⛔ | Geen resources gedocumenteerd |
| Lijst van Tools | ✅ | memorize_text, memorize_multiple_texts, etc. |
| API-sleutels beveiligen | ✅ | via env in config, voorbeeld getoond |
| Sampling-ondersteuning (minder van belang) | ⛔ | Niet vermeld |
Deze MCP is eenvoudig en goed gericht op semantisch geheugen, maar mist geavanceerde functies zoals prompt-templates, expliciete resources of sampling/roots-ondersteuning. Tooling en setup zijn duidelijk. Het beste voor simpele RAG/lokale kennisworkflows.
| Heeft een LICENSE | ✅ (MIT) |
|---|---|
| Heeft minimaal één tool | ✅ |
| Aantal Forks | 1 |
| Aantal Sterren | 5 |
Geef je AI-workflows een boost met semantisch geheugen en lokale documentzoekopdrachten via mcp-rag-local. Zet binnen enkele minuten op en transformeer hoe je agenten kennis onthouden en redeneren.

De mcp-local-rag MCP Server maakt privacyvriendelijke, lokale Retrieval-Augmented Generation (RAG) webzoekopdrachten mogelijk voor LLM's. Hiermee kunnen AI-assi...

Integreer FlowHunt met de mcp-rag-local Memory Server om geavanceerde semantische opslag en terughalen van tekstgegevens mogelijk te maken. Maak gebruik van AI-...

De Rememberizer MCP Server vormt de brug tussen AI-assistenten en kennisbeheer, en maakt semantisch zoeken, uniforme documentopvraging en team samenwerking moge...
Cookie Toestemming
We gebruiken cookies om uw browse-ervaring te verbeteren en ons verkeer te analyseren. See our privacy policy.