mcp-rag-local MCP Server

MCP Semantic Search RAG Knowledge Management

Kontakt os for at hoste din MCP-server i FlowHunt

FlowHunt giver et ekstra sikkerhedslag mellem dine interne systemer og AI-værktøjer, hvilket giver dig granulær kontrol over hvilke værktøjer der er tilgængelige fra dine MCP-servere. MCP-servere hostet i vores infrastruktur kan problemfrit integreres med FlowHunts chatbot samt populære AI-platforme som ChatGPT, Claude og forskellige AI-editorer.

Hvad gør “mcp-rag-local” MCP Server?

mcp-rag-local MCP Server er designet som en hukommelsesserver, der gør det muligt for AI-assistenter at lagre og hente tekstafsnit baseret på deres semantiske betydning – ikke kun nøgleord. Ved at bruge Ollama til at generere tekst-embeddings og ChromaDB til vektorlager og lighedssøgning, muliggør den problemfri lagring (“memorisering”) og hentning af relevante tekster for en given forespørgsel. Dette styrker AI-drevne workflows såsom videnshåndtering, kontekstuel genkaldelse og semantisk søgning. Udviklere kan interagere med serveren for at lagre enkelte tekster, flere tekster eller endda indholdet af PDF-filer og senere hente den mest kontekstuelle relevante information, hvilket øger produktivitet og kontekstbevidsthed i applikationer.

Liste over Prompts

  • Ingen eksplicitte promptskabeloner er nævnt i repository eller dokumentation.
Logo

Klar til at vokse din virksomhed?

Start din gratis prøveperiode i dag og se resultater inden for få dage.

Liste over Ressourcer

  • Ingen eksplicitte MCP-ressourcer er dokumenteret i repository eller README.

Liste over Værktøjer

  • memorize_text
    Giver serveren mulighed for at lagre et enkelt tekstafsnit til fremtidig semantisk hentning.

  • memorize_multiple_texts
    Muliggør batch-lagring af flere tekster på én gang og letter bulk-vidensindtagelse.

  • memorize_pdf_file
    Læser og udtrækker op til 20 sider ad gangen fra en PDF-fil, opdeler indholdet og memorerer det til semantisk hentning.

  • retrieve_similar_texts
    Henter de mest relevante lagrede tekstafsnit baseret på en brugers forespørgsel ved hjælp af semantisk lighed.

(Værktøjsnavne udledt fra dokumenteret brugsmønster; eksakte navne kan variere i koden.)

Anvendelsestilfælde for denne MCP Server

  • Personlig vidensbase
    Udviklere og brugere kan bygge en vedvarende, søgbar vidensbase ved at memorere artikler, noter eller forskningsartikler til semantisk genkaldelse.

  • Dokument- og PDF-opsummering
    Ved at memorere hele PDF-dokumenter kan brugere senere forespørge og hente relevante sektioner eller opsummeringer, hvilket effektiviserer forskning og gennemgang.

  • Samtalehukommelse til chatbots
    Giv AI-assistenter eller chatbots langtidshukommelse og kontekstforståelse for at levere mere sammenhængende og relevante svar over tid.

  • Semantisk søgemaskine
    Implementér en semantisk søgefunktion i applikationer, så brugere kan finde relevant information baseret på betydning – ikke kun nøgleord.

  • Forskning og dataudforskning
    Lagring og forespørgsel på tekniske dokumenter, kodeeksempler eller videnskabelig litteratur for hurtig, betydningsbaseret hentning under undersøgelse eller udvikling.

Sådan sætter du det op

Windsurf

  1. Forudsætninger:
    • Installer uv som din Python-pakkemanager.
    • Sørg for, at Docker er installeret og kører.
  2. Klon og installer:
    • Klon repository’et:
      git clone <repository-url>
      cd mcp-rag-local
    • Installer afhængigheder med uv.
  3. Start tjenester:
    • Kør docker-compose up for at starte ChromaDB og Ollama.
    • Hent embedding-modellen:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Konfigurer MCP-server:
    • Tilføj til din Windsurf MCP-serverkonfiguration (f.eks. i mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Gem og genstart:
    • Gem din konfiguration og genstart Windsurf.
  6. Verificer opsætning:
    • Bekræft, at serveren kører og er tilgængelig.

Claude

  1. Følg trin 1–3 ovenfor (forudsætninger, klon/installér, start tjenester).
  2. Tilføj følgende til din Claude MCP-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem og genstart Claude.
  4. Verificer, at serveren er opført og kører.

Cursor

  1. Udfør trin 1–3 (som ovenfor).
  2. Tilføj til din Cursor-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem og genstart Cursor.
  4. Kontroller, at MCP-serveren er operationel.

Cline

  1. Gentag trin 1–3 (forudsætninger, klon/installér, start tjenester).
  2. Tilføj i Cline-konfigurationen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem, genstart Cline, og verificer opsætningen.

Sikring af API-nøgler

  • Brug miljøvariabler i env-sektionen af din konfiguration.
  • Eksempel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Sørg for, at følsomme nøgler ikke hardkodes, men refereres fra dit miljø.

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. I systemets MCP-konfigurationssektion indsætter du dine MCP-serverdetaljer med følgende JSON-format:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når dette er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “mcp-rag-local” til det faktiske navn på din MCP-server og udskifte URL’en med din egen MCP-server-URL.


Overblik

SektionTilgængelighedDetaljer/Noter
Overblik
Liste over PromptsIngen prompts/skabeloner dokumenteret
Liste over RessourcerIngen ressourcer dokumenteret
Liste over Værktøjermemorize_text, memorize_multiple_texts, osv.
Sikring af API-nøglervia env i config, eksempel vist
Sampling Support (mindre vigtigt i evaluering)Ikke nævnt

Vores vurdering

Denne MCP er ligetil og velafgrænset omkring semantisk hukommelse, men mangler avancerede funktioner som promptskabeloner, eksplicitte ressourcer eller sampling/roots-support. Værktøjer og opsætning er klare. Bedst til simple RAG-/lokale vidensworkflows.

MCP-score

Har en LICENSE✅ (MIT)
Har mindst ét værktøj
Antal forks1
Antal stjerner5

Ofte stillede spørgsmål

Prøv mcp-rag-local med FlowHunt

Giv dine AI-workflows et boost med semantisk hukommelse og lokal dokumentsøgning via mcp-rag-local. Opsætning på få minutter – transformer, hvordan dine agenter genkalder og ræsonnerer over viden.

Lær mere

mcp-local-rag MCP Server
mcp-local-rag MCP Server

mcp-local-rag MCP Server

mcp-local-rag MCP Server muliggør privatlivsrespekterende, lokal Retrieval-Augmented Generation (RAG) web-søgning for LLM'er. Den gør det muligt for AI-assisten...

4 min læsning
MCP RAG +5
MCP Memory Server Integration
MCP Memory Server Integration

MCP Memory Server Integration

Integrer FlowHunt med mcp-rag-local Memory Server for at muliggøre avanceret semantisk lagring og hentning af tekstdata. Udnyt AI-drevne arbejdsgange, der benyt...

4 min læsning
AI Semantic Search +4
Rememberizer MCP-server
Rememberizer MCP-server

Rememberizer MCP-server

Rememberizer MCP-serveren forbinder AI-assistenter og vidensstyring, hvilket muliggør semantisk søgning, samlet dokumenthentning og teamsamarbejde på tværs af S...

4 min læsning
AI Knowledge Management +4