mcp-rag-local MCP Server

mcp-rag-local MCP Server

En lokal, semantisk hukommelses-MCP-server til FlowHunt, bygget med ChromaDB og Ollama. Gør det muligt for AI-agenter at huske og hente tekst, dokumenter og PDF’er ud fra betydning og understøtter kraftfulde RAG- og vidensworkflows.

Hvad gør “mcp-rag-local” MCP Server?

mcp-rag-local MCP Server er designet som en hukommelsesserver, der gør det muligt for AI-assistenter at lagre og hente tekstafsnit baseret på deres semantiske betydning – ikke kun nøgleord. Ved at bruge Ollama til at generere tekst-embeddings og ChromaDB til vektorlager og lighedssøgning, muliggør den problemfri lagring (“memorisering”) og hentning af relevante tekster for en given forespørgsel. Dette styrker AI-drevne workflows såsom videnshåndtering, kontekstuel genkaldelse og semantisk søgning. Udviklere kan interagere med serveren for at lagre enkelte tekster, flere tekster eller endda indholdet af PDF-filer og senere hente den mest kontekstuelle relevante information, hvilket øger produktivitet og kontekstbevidsthed i applikationer.

Liste over Prompts

  • Ingen eksplicitte promptskabeloner er nævnt i repository eller dokumentation.

Liste over Ressourcer

  • Ingen eksplicitte MCP-ressourcer er dokumenteret i repository eller README.

Liste over Værktøjer

  • memorize_text
    Giver serveren mulighed for at lagre et enkelt tekstafsnit til fremtidig semantisk hentning.

  • memorize_multiple_texts
    Muliggør batch-lagring af flere tekster på én gang og letter bulk-vidensindtagelse.

  • memorize_pdf_file
    Læser og udtrækker op til 20 sider ad gangen fra en PDF-fil, opdeler indholdet og memorerer det til semantisk hentning.

  • retrieve_similar_texts
    Henter de mest relevante lagrede tekstafsnit baseret på en brugers forespørgsel ved hjælp af semantisk lighed.

(Værktøjsnavne udledt fra dokumenteret brugsmønster; eksakte navne kan variere i koden.)

Anvendelsestilfælde for denne MCP Server

  • Personlig vidensbase
    Udviklere og brugere kan bygge en vedvarende, søgbar vidensbase ved at memorere artikler, noter eller forskningsartikler til semantisk genkaldelse.

  • Dokument- og PDF-opsummering
    Ved at memorere hele PDF-dokumenter kan brugere senere forespørge og hente relevante sektioner eller opsummeringer, hvilket effektiviserer forskning og gennemgang.

  • Samtalehukommelse til chatbots
    Giv AI-assistenter eller chatbots langtidshukommelse og kontekstforståelse for at levere mere sammenhængende og relevante svar over tid.

  • Semantisk søgemaskine
    Implementér en semantisk søgefunktion i applikationer, så brugere kan finde relevant information baseret på betydning – ikke kun nøgleord.

  • Forskning og dataudforskning
    Lagring og forespørgsel på tekniske dokumenter, kodeeksempler eller videnskabelig litteratur for hurtig, betydningsbaseret hentning under undersøgelse eller udvikling.

Sådan sætter du det op

Windsurf

  1. Forudsætninger:
    • Installer uv som din Python-pakkemanager.
    • Sørg for, at Docker er installeret og kører.
  2. Klon og installer:
    • Klon repository’et:
      git clone <repository-url>
      cd mcp-rag-local
    • Installer afhængigheder med uv.
  3. Start tjenester:
    • Kør docker-compose up for at starte ChromaDB og Ollama.
    • Hent embedding-modellen:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Konfigurer MCP-server:
    • Tilføj til din Windsurf MCP-serverkonfiguration (f.eks. i mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Gem og genstart:
    • Gem din konfiguration og genstart Windsurf.
  6. Verificer opsætning:
    • Bekræft, at serveren kører og er tilgængelig.

Claude

  1. Følg trin 1–3 ovenfor (forudsætninger, klon/installér, start tjenester).
  2. Tilføj følgende til din Claude MCP-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem og genstart Claude.
  4. Verificer, at serveren er opført og kører.

Cursor

  1. Udfør trin 1–3 (som ovenfor).
  2. Tilføj til din Cursor-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem og genstart Cursor.
  4. Kontroller, at MCP-serveren er operationel.

Cline

  1. Gentag trin 1–3 (forudsætninger, klon/installér, start tjenester).
  2. Tilføj i Cline-konfigurationen:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Gem, genstart Cline, og verificer opsætningen.

Sikring af API-nøgler

  • Brug miljøvariabler i env-sektionen af din konfiguration.
  • Eksempel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Sørg for, at følsomme nøgler ikke hardkodes, men refereres fra dit miljø.

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. I systemets MCP-konfigurationssektion indsætter du dine MCP-serverdetaljer med følgende JSON-format:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når dette er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “mcp-rag-local” til det faktiske navn på din MCP-server og udskifte URL’en med din egen MCP-server-URL.


Overblik

SektionTilgængelighedDetaljer/Noter
Overblik
Liste over PromptsIngen prompts/skabeloner dokumenteret
Liste over RessourcerIngen ressourcer dokumenteret
Liste over Værktøjermemorize_text, memorize_multiple_texts, osv.
Sikring af API-nøglervia env i config, eksempel vist
Sampling Support (mindre vigtigt i evaluering)Ikke nævnt

Vores vurdering

Denne MCP er ligetil og velafgrænset omkring semantisk hukommelse, men mangler avancerede funktioner som promptskabeloner, eksplicitte ressourcer eller sampling/roots-support. Værktøjer og opsætning er klare. Bedst til simple RAG-/lokale vidensworkflows.

MCP-score

Har en LICENSE✅ (MIT)
Har mindst ét værktøj
Antal forks1
Antal stjerner5

Ofte stillede spørgsmål

Hvad er mcp-rag-local MCP Server?

Det er en lokal MCP-server, der giver AI-agenter mulighed for at lagre og hente tekst, dokumenter og PDF'er baseret på semantisk betydning. Drevet af Ollama og ChromaDB muliggør den videnshåndtering, kontekstuel hukommelse og semantisk søgning til dine applikationer.

Hvilke værktøjer tilbyder mcp-rag-local?

Den tilbyder værktøjer til at lagre enkeltstående eller flere tekstafsnit, indlæse PDF-filer samt hente lignende tekster via semantisk søgning. Det muliggør workflows som opbygning af personlige vidensbaser, dokumentopsummering og samtalehukommelse til chatbots.

Hvordan sætter jeg mcp-rag-local op?

Installer uv og Docker, klon repository'et, start Ollama og ChromaDB, og konfigurer MCP-serveren i din klients konfigurationsfil med de angivne porte. Miljøvariabler bruges til sikker konfiguration.

Hvad er de primære anvendelsestilfælde?

Anvendelsestilfælde omfatter opbygning af en semantisk vidensbase, dokument/PDF-opsummering, forbedring af chatbot-hukommelse, semantisk søgning samt udforskning af forskningsdata.

Hvordan sikrer jeg API-nøgler eller porte?

Brug altid miljøvariabler i din konfigurations env-sektion for at undgå hardkodning af følsomme oplysninger, så du sikrer sikkerhed og best practice.

Prøv mcp-rag-local med FlowHunt

Giv dine AI-workflows et boost med semantisk hukommelse og lokal dokumentsøgning via mcp-rag-local. Opsætning på få minutter – transformer, hvordan dine agenter genkalder og ræsonnerer over viden.

Lær mere

mcp-local-rag MCP Server
mcp-local-rag MCP Server

mcp-local-rag MCP Server

mcp-local-rag MCP Server muliggør privatlivsrespekterende, lokal Retrieval-Augmented Generation (RAG) web-søgning for LLM'er. Den gør det muligt for AI-assisten...

4 min læsning
MCP RAG +5
Memgraph MCP Server-integration
Memgraph MCP Server-integration

Memgraph MCP Server-integration

Memgraph MCP Server forbinder Memgraph grafdatabasen med store sprogmodeller og muliggør adgang til grafdata i realtid samt AI-drevne arbejdsgange via standardi...

3 min læsning
AI MCP +5
Ragie MCP Server
Ragie MCP Server

Ragie MCP Server

Ragie MCP Server gør det muligt for AI-assistenter at udføre semantisk søgning og hente relevant information fra Ragie vidensbaser, hvilket styrker udviklingsar...

4 min læsning
AI MCP Server +4