
mcp-local-rag MCP Server
mcp-local-rag MCP Server muliggjør personvernsvennlig, lokal Retrieval-Augmented Generation (RAG) nettsøk for LLM-er. Den lar AI-assistenter få tilgang til, ind...
En lokal, semantisk minne-MCP-server for FlowHunt, bygget med ChromaDB og Ollama. Gjør det mulig for AI-agenter å huske og hente tekst, dokumenter og PDF-er etter mening, og støtter kraftige RAG- og kunnskapsarbeidsflyter.
mcp-rag-local MCP-serveren er utformet som en minneserver som lar AI-assistenter lagre og hente tekstutdrag basert på deres semantiske mening, ikke bare nøkkelord. Ved å bruke Ollama for å generere tekst-embedding og ChromaDB for vektorlagring og likhetssøk, muliggjør den sømløs lagring (“memorering”) og gjenfinning av relevante tekster for en gitt forespørsel. Dette gir kraft til AI-drevne arbeidsflyter som kunnskapsforvaltning, kontekstuelt minne og semantisk søk. Utviklere kan samhandle med serveren for å lagre enkelttekster, flere tekster eller til og med innholdet i PDF-filer, og senere hente den mest kontekstuelt relevante informasjonen – noe som øker produktivitet og kontekstuell bevissthet i applikasjoner.
memorize_text
Lar serveren lagre et enkelt tekstutdrag for fremtidig semantisk gjenfinning.
memorize_multiple_texts
Muliggjør batchlagring av flere tekster samtidig, som forenkler masseinnhenting av kunnskap.
memorize_pdf_file
Leser og trekker ut opptil 20 sider av gangen fra en PDF-fil, deler opp innholdet og lagrer det for semantisk gjenfinning.
retrieve_similar_texts
Henter de mest relevante lagrede tekstutdragene basert på en brukers forespørsel, ved bruk av semantisk likhet.
(Verktøynavn utledet fra dokumentert bruk; eksakte navn kan variere i koden.)
Personlig kunnskapsbase
Utviklere og brukere kan bygge en vedvarende, søkbar kunnskapsbase ved å lagre artikler, notater eller forskningsartikler for semantisk gjenfinning.
Dokument- og PDF-sammendrag
Ved å lagre hele PDF-dokumenter kan brukere senere søke opp og hente relevante seksjoner eller sammendrag, noe som forenkler forskning og gjennomgang.
Samtaleminne for chatboter
Forbedre AI-assistenter eller chatboter med langtidshukommelse og kontekstuelt minne for mer sammenhengende og relevante svar over tid.
Semantisk søkemotor
Implementer en semantisk søkefunksjon i applikasjoner, slik at brukere kan finne relevant informasjon basert på mening, ikke bare nøkkelord.
Forskning og datautforskning
Lagre og søk i tekniske dokumenter, kodeutdrag eller vitenskapelig litteratur for rask, meningsbasert gjenfinning under undersøkelse eller utvikling.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
for å starte ChromaDB og Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
-seksjonen av konfigurasjonen din."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Bruke MCP i FlowHunt
For å integrere MCP-servere i FlowHunt-arbeidsflyten din, start med å legge til MCP-komponenten i flyten og koble den til AI-agenten:
Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon setter du inn MCP-serverdetaljene dine med dette JSON-formatet:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når det er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre “mcp-rag-local” til det faktiske navnet på MCP-serveren din og bytte ut URL-en med din egen MCP-server-URL.
Seksjon | Tilgjengelighet | Detaljer/Notater |
---|---|---|
Oversikt | ✅ | |
Liste over prompt-maler | ⛔ | Ingen prompt-maler dokumentert |
Liste over ressurser | ⛔ | Ingen ressurser dokumentert |
Liste over verktøy | ✅ | memorize_text, memorize_multiple_texts, osv. |
Sikre API-nøkler | ✅ | via env i konfig, eksempel vist |
Sampling-støtte (mindre viktig i vurdering) | ⛔ | Ikke nevnt |
Denne MCP-en er enkel og fokusert på semantisk minne, men mangler avanserte funksjoner som prompt-maler, eksplisitte ressurser eller sampling/roots-støtte. Verktøy og oppsett er tydelig. Best egnet for enkle RAG/lokale kunnskapsarbeidsflyter.
Har en LICENSE | ✅ (MIT) |
---|---|
Har minst ett verktøy | ✅ |
Antall forks | 1 |
Antall stjerner | 5 |
Det er en lokal MCP-server som gir AI-agenter mulighet til å lagre og hente tekst, dokumenter og PDF-er etter semantisk mening. Drevet av Ollama og ChromaDB muliggjør den kunnskapsforvaltning, kontekstuelt minne og semantisk søk for dine applikasjoner.
Den tilbyr verktøy for å lagre enkelttekster eller flere tekstutdrag, innta PDF-filer og hente lignende tekster med semantisk søk. Dette muliggjør arbeidsflyter som å bygge personlige kunnskapsbaser, dokumentsammendrag og samtaleminne for chatboter.
Installer uv og Docker, klon repoet, start Ollama og ChromaDB, og konfigurer MCP-serveren i klientens konfigurasjonsfil med angitte porter. Miljøvariabler brukes for sikker konfigurasjon.
Bruksområder inkluderer å bygge en semantisk kunnskapsbase, dokument-/PDF-sammendrag, forbedre chatbot-minne, semantisk søk og utforskning av forskningsdata.
Bruk alltid miljøvariabler i env-delen av konfigurasjonen for å unngå å hardkode sensitiv informasjon, og sikre sikkerhet og beste praksis.
Superlad AI-arbeidsflytene dine med semantisk minne og lokal dokumentsøk ved å bruke mcp-rag-local. Sett opp på minutter og forandre måten agentene dine husker og resonerer over kunnskap.
mcp-local-rag MCP Server muliggjør personvernsvennlig, lokal Retrieval-Augmented Generation (RAG) nettsøk for LLM-er. Den lar AI-assistenter få tilgang til, ind...
Ragie MCP-serveren gjør det mulig for AI-assistenter å utføre semantisk søk og hente relevant informasjon fra Ragie kunnskapsbaser, og forbedrer utviklingsarbei...
Rememberizer MCP-serveren bygger bro mellom AI-assistenter og kunnskapsforvaltning, og muliggjør semantisk søk, samlet dokumentgjenfinning og team-samarbeid på ...