mcp-rag-local MCP-server

mcp-rag-local MCP-server

En lokal, semantisk minne-MCP-server for FlowHunt, bygget med ChromaDB og Ollama. Gjør det mulig for AI-agenter å huske og hente tekst, dokumenter og PDF-er etter mening, og støtter kraftige RAG- og kunnskapsarbeidsflyter.

Hva gjør “mcp-rag-local” MCP-serveren?

mcp-rag-local MCP-serveren er utformet som en minneserver som lar AI-assistenter lagre og hente tekstutdrag basert på deres semantiske mening, ikke bare nøkkelord. Ved å bruke Ollama for å generere tekst-embedding og ChromaDB for vektorlagring og likhetssøk, muliggjør den sømløs lagring (“memorering”) og gjenfinning av relevante tekster for en gitt forespørsel. Dette gir kraft til AI-drevne arbeidsflyter som kunnskapsforvaltning, kontekstuelt minne og semantisk søk. Utviklere kan samhandle med serveren for å lagre enkelttekster, flere tekster eller til og med innholdet i PDF-filer, og senere hente den mest kontekstuelt relevante informasjonen – noe som øker produktivitet og kontekstuell bevissthet i applikasjoner.

Liste over prompt-maler

  • Ingen eksplisitte prompt-maler er nevnt i repoet eller dokumentasjonen.

Liste over ressurser

  • Ingen eksplisitte MCP-ressurser er dokumentert i repoet eller README.

Liste over verktøy

  • memorize_text
    Lar serveren lagre et enkelt tekstutdrag for fremtidig semantisk gjenfinning.

  • memorize_multiple_texts
    Muliggjør batchlagring av flere tekster samtidig, som forenkler masseinnhenting av kunnskap.

  • memorize_pdf_file
    Leser og trekker ut opptil 20 sider av gangen fra en PDF-fil, deler opp innholdet og lagrer det for semantisk gjenfinning.

  • retrieve_similar_texts
    Henter de mest relevante lagrede tekstutdragene basert på en brukers forespørsel, ved bruk av semantisk likhet.

(Verktøynavn utledet fra dokumentert bruk; eksakte navn kan variere i koden.)

Bruksområder for denne MCP-serveren

  • Personlig kunnskapsbase
    Utviklere og brukere kan bygge en vedvarende, søkbar kunnskapsbase ved å lagre artikler, notater eller forskningsartikler for semantisk gjenfinning.

  • Dokument- og PDF-sammendrag
    Ved å lagre hele PDF-dokumenter kan brukere senere søke opp og hente relevante seksjoner eller sammendrag, noe som forenkler forskning og gjennomgang.

  • Samtaleminne for chatboter
    Forbedre AI-assistenter eller chatboter med langtidshukommelse og kontekstuelt minne for mer sammenhengende og relevante svar over tid.

  • Semantisk søkemotor
    Implementer en semantisk søkefunksjon i applikasjoner, slik at brukere kan finne relevant informasjon basert på mening, ikke bare nøkkelord.

  • Forskning og datautforskning
    Lagre og søk i tekniske dokumenter, kodeutdrag eller vitenskapelig litteratur for rask, meningsbasert gjenfinning under undersøkelse eller utvikling.

Slik setter du det opp

Windsurf

  1. Forutsetninger:
    • Installer uv som din Python-pakkebehandler.
    • Sørg for at Docker er installert og kjører.
  2. Klon og installer:
    • Klon repoet:
      git clone <repository-url>
      cd mcp-rag-local
    • Installer avhengigheter med uv.
  3. Start tjenester:
    • Kjør docker-compose up for å starte ChromaDB og Ollama.
    • Last ned embedding-modellen:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Konfigurer MCP-server:
    • Legg til i Windsurf MCP-serverkonfigurasjon (f.eks. i mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Lagre og start på nytt:
    • Lagre konfigurasjonen og start Windsurf på nytt.
  6. Verifiser oppsettet:
    • Bekreft at serveren kjører og er tilgjengelig.

Claude

  1. Følg steg 1–3 over (forutsetninger, klon/installer, start tjenester).
  2. Legg til følgende i Claude MCP-konfigurasjonen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lagre og start Claude på nytt.
  4. Verifiser at serveren er oppført og kjører.

Cursor

  1. Fullfør steg 1–3 (som over).
  2. Legg til i Cursor-konfigurasjonen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lagre og start Cursor på nytt.
  4. Sjekk at MCP-serveren er operativ.

Cline

  1. Gjenta steg 1–3 (forutsetninger, klon/installer, start tjenester).
  2. I Cline-konfigurasjonen, legg til:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Lagre, start Cline på nytt, og verifiser oppsettet.

Sikre API-nøkler

  • Bruk miljøvariabler i env-seksjonen av konfigurasjonen din.
  • Eksempel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Sørg for at sensitive nøkler ikke hardkodes, men refereres fra ditt miljø.

Slik bruker du denne MCP-en i flows

Bruke MCP i FlowHunt

For å integrere MCP-servere i FlowHunt-arbeidsflyten din, start med å legge til MCP-komponenten i flyten og koble den til AI-agenten:

FlowHunt MCP flow

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon setter du inn MCP-serverdetaljene dine med dette JSON-formatet:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når det er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy med tilgang til alle dens funksjoner og egenskaper. Husk å endre “mcp-rag-local” til det faktiske navnet på MCP-serveren din og bytte ut URL-en med din egen MCP-server-URL.


Oversikt

SeksjonTilgjengelighetDetaljer/Notater
Oversikt
Liste over prompt-malerIngen prompt-maler dokumentert
Liste over ressurserIngen ressurser dokumentert
Liste over verktøymemorize_text, memorize_multiple_texts, osv.
Sikre API-nøklervia env i konfig, eksempel vist
Sampling-støtte (mindre viktig i vurdering)Ikke nevnt

Vår mening

Denne MCP-en er enkel og fokusert på semantisk minne, men mangler avanserte funksjoner som prompt-maler, eksplisitte ressurser eller sampling/roots-støtte. Verktøy og oppsett er tydelig. Best egnet for enkle RAG/lokale kunnskapsarbeidsflyter.

MCP-score

Har en LICENSE✅ (MIT)
Har minst ett verktøy
Antall forks1
Antall stjerner5

Vanlige spørsmål

Hva er mcp-rag-local MCP-serveren?

Det er en lokal MCP-server som gir AI-agenter mulighet til å lagre og hente tekst, dokumenter og PDF-er etter semantisk mening. Drevet av Ollama og ChromaDB muliggjør den kunnskapsforvaltning, kontekstuelt minne og semantisk søk for dine applikasjoner.

Hvilke verktøy tilbyr mcp-rag-local?

Den tilbyr verktøy for å lagre enkelttekster eller flere tekstutdrag, innta PDF-filer og hente lignende tekster med semantisk søk. Dette muliggjør arbeidsflyter som å bygge personlige kunnskapsbaser, dokumentsammendrag og samtaleminne for chatboter.

Hvordan setter jeg opp mcp-rag-local?

Installer uv og Docker, klon repoet, start Ollama og ChromaDB, og konfigurer MCP-serveren i klientens konfigurasjonsfil med angitte porter. Miljøvariabler brukes for sikker konfigurasjon.

Hva er hovedbruksområdene?

Bruksområder inkluderer å bygge en semantisk kunnskapsbase, dokument-/PDF-sammendrag, forbedre chatbot-minne, semantisk søk og utforskning av forskningsdata.

Hvordan sikrer jeg API-nøkler eller porter?

Bruk alltid miljøvariabler i env-delen av konfigurasjonen for å unngå å hardkode sensitiv informasjon, og sikre sikkerhet og beste praksis.

Prøv mcp-rag-local med FlowHunt

Superlad AI-arbeidsflytene dine med semantisk minne og lokal dokumentsøk ved å bruke mcp-rag-local. Sett opp på minutter og forandre måten agentene dine husker og resonerer over kunnskap.

Lær mer

mcp-local-rag MCP Server
mcp-local-rag MCP Server

mcp-local-rag MCP Server

mcp-local-rag MCP Server muliggjør personvernsvennlig, lokal Retrieval-Augmented Generation (RAG) nettsøk for LLM-er. Den lar AI-assistenter få tilgang til, ind...

4 min lesing
MCP RAG +5
Ragie MCP-server
Ragie MCP-server

Ragie MCP-server

Ragie MCP-serveren gjør det mulig for AI-assistenter å utføre semantisk søk og hente relevant informasjon fra Ragie kunnskapsbaser, og forbedrer utviklingsarbei...

4 min lesing
AI MCP Server +4
Rememberizer MCP-server
Rememberizer MCP-server

Rememberizer MCP-server

Rememberizer MCP-serveren bygger bro mellom AI-assistenter og kunnskapsforvaltning, og muliggjør semantisk søk, samlet dokumentgjenfinning og team-samarbeid på ...

4 min lesing
AI Knowledge Management +4