
mcp-local-rag MCP Server
mcp-local-rag MCP Server muliggør privatlivsrespekterende, lokal Retrieval-Augmented Generation (RAG) web-søgning for LLM'er. Den gør det muligt for AI-assisten...
En lokal, semantisk hukommelses-MCP-server til FlowHunt, bygget med ChromaDB og Ollama. Gør det muligt for AI-agenter at huske og hente tekst, dokumenter og PDF’er ud fra betydning og understøtter kraftfulde RAG- og vidensworkflows.
mcp-rag-local MCP Server er designet som en hukommelsesserver, der gør det muligt for AI-assistenter at lagre og hente tekstafsnit baseret på deres semantiske betydning – ikke kun nøgleord. Ved at bruge Ollama til at generere tekst-embeddings og ChromaDB til vektorlager og lighedssøgning, muliggør den problemfri lagring (“memorisering”) og hentning af relevante tekster for en given forespørgsel. Dette styrker AI-drevne workflows såsom videnshåndtering, kontekstuel genkaldelse og semantisk søgning. Udviklere kan interagere med serveren for at lagre enkelte tekster, flere tekster eller endda indholdet af PDF-filer og senere hente den mest kontekstuelle relevante information, hvilket øger produktivitet og kontekstbevidsthed i applikationer.
memorize_text
Giver serveren mulighed for at lagre et enkelt tekstafsnit til fremtidig semantisk hentning.
memorize_multiple_texts
Muliggør batch-lagring af flere tekster på én gang og letter bulk-vidensindtagelse.
memorize_pdf_file
Læser og udtrækker op til 20 sider ad gangen fra en PDF-fil, opdeler indholdet og memorerer det til semantisk hentning.
retrieve_similar_texts
Henter de mest relevante lagrede tekstafsnit baseret på en brugers forespørgsel ved hjælp af semantisk lighed.
(Værktøjsnavne udledt fra dokumenteret brugsmønster; eksakte navne kan variere i koden.)
Personlig vidensbase
Udviklere og brugere kan bygge en vedvarende, søgbar vidensbase ved at memorere artikler, noter eller forskningsartikler til semantisk genkaldelse.
Dokument- og PDF-opsummering
Ved at memorere hele PDF-dokumenter kan brugere senere forespørge og hente relevante sektioner eller opsummeringer, hvilket effektiviserer forskning og gennemgang.
Samtalehukommelse til chatbots
Giv AI-assistenter eller chatbots langtidshukommelse og kontekstforståelse for at levere mere sammenhængende og relevante svar over tid.
Semantisk søgemaskine
Implementér en semantisk søgefunktion i applikationer, så brugere kan finde relevant information baseret på betydning – ikke kun nøgleord.
Forskning og dataudforskning
Lagring og forespørgsel på tekniske dokumenter, kodeeksempler eller videnskabelig litteratur for hurtig, betydningsbaseret hentning under undersøgelse eller udvikling.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
for at starte ChromaDB og Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
-sektionen af din konfiguration."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Brug af MCP i FlowHunt
For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:
Klik på MCP-komponenten for at åbne konfigurationspanelet. I systemets MCP-konfigurationssektion indsætter du dine MCP-serverdetaljer med følgende JSON-format:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når dette er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “mcp-rag-local” til det faktiske navn på din MCP-server og udskifte URL’en med din egen MCP-server-URL.
Sektion | Tilgængelighed | Detaljer/Noter |
---|---|---|
Overblik | ✅ | |
Liste over Prompts | ⛔ | Ingen prompts/skabeloner dokumenteret |
Liste over Ressourcer | ⛔ | Ingen ressourcer dokumenteret |
Liste over Værktøjer | ✅ | memorize_text, memorize_multiple_texts, osv. |
Sikring af API-nøgler | ✅ | via env i config, eksempel vist |
Sampling Support (mindre vigtigt i evaluering) | ⛔ | Ikke nævnt |
Denne MCP er ligetil og velafgrænset omkring semantisk hukommelse, men mangler avancerede funktioner som promptskabeloner, eksplicitte ressourcer eller sampling/roots-support. Værktøjer og opsætning er klare. Bedst til simple RAG-/lokale vidensworkflows.
Har en LICENSE | ✅ (MIT) |
---|---|
Har mindst ét værktøj | ✅ |
Antal forks | 1 |
Antal stjerner | 5 |
Det er en lokal MCP-server, der giver AI-agenter mulighed for at lagre og hente tekst, dokumenter og PDF'er baseret på semantisk betydning. Drevet af Ollama og ChromaDB muliggør den videnshåndtering, kontekstuel hukommelse og semantisk søgning til dine applikationer.
Den tilbyder værktøjer til at lagre enkeltstående eller flere tekstafsnit, indlæse PDF-filer samt hente lignende tekster via semantisk søgning. Det muliggør workflows som opbygning af personlige vidensbaser, dokumentopsummering og samtalehukommelse til chatbots.
Installer uv og Docker, klon repository'et, start Ollama og ChromaDB, og konfigurer MCP-serveren i din klients konfigurationsfil med de angivne porte. Miljøvariabler bruges til sikker konfiguration.
Anvendelsestilfælde omfatter opbygning af en semantisk vidensbase, dokument/PDF-opsummering, forbedring af chatbot-hukommelse, semantisk søgning samt udforskning af forskningsdata.
Brug altid miljøvariabler i din konfigurations env-sektion for at undgå hardkodning af følsomme oplysninger, så du sikrer sikkerhed og best practice.
Giv dine AI-workflows et boost med semantisk hukommelse og lokal dokumentsøgning via mcp-rag-local. Opsætning på få minutter – transformer, hvordan dine agenter genkalder og ræsonnerer over viden.
mcp-local-rag MCP Server muliggør privatlivsrespekterende, lokal Retrieval-Augmented Generation (RAG) web-søgning for LLM'er. Den gør det muligt for AI-assisten...
Memgraph MCP Server forbinder Memgraph grafdatabasen med store sprogmodeller og muliggør adgang til grafdata i realtid samt AI-drevne arbejdsgange via standardi...
Ragie MCP Server gør det muligt for AI-assistenter at udføre semantisk søgning og hente relevant information fra Ragie vidensbaser, hvilket styrker udviklingsar...