mcp-rag-local MCP-server

mcp-rag-local MCP-server

En lokal MCP-server med semantiskt minne för FlowHunt, byggd med ChromaDB och Ollama. Möjliggör för AI-agenter att minnas och hämta text, dokument och PDF:er utifrån innebörd, för kraftfulla RAG- och kunskapsflöden.

Vad gör “mcp-rag-local” MCP-servern?

mcp-rag-local MCP-servern är utformad som en minnesserver som gör det möjligt för AI-assistenter att lagra och hämta textavsnitt baserat på deras semantiska innebörd, inte bara nyckelord. Genom att utnyttja Ollama för att skapa textinbäddningar och ChromaDB för vektorlagring och likhetssökning, möjliggör den sömlös lagring (“memorering”) och hämtning av relevanta texter för en given fråga. Detta stärker AI-drivna arbetsflöden såsom kunskapshantering, kontextuell återkallning och semantisk sökning. Utvecklare kan interagera med servern för att lagra enskilda texter, flera texter eller till och med innehåll från PDF-filer, och senare hämta den mest kontextuellt relevanta informationen – vilket höjer produktiviteten och den kontextuella medvetenheten i applikationer.

Lista över prompts

  • Inga explicita promptmallar nämns i repot eller dokumentationen.

Lista över resurser

  • Inga explicita MCP-resurser dokumenterade i repot eller README.

Lista över verktyg

  • memorize_text
    Gör det möjligt för servern att lagra ett enskilt textavsnitt för framtida semantisk hämtning.

  • memorize_multiple_texts
    Möjliggör batchlagring av flera texter samtidigt för effektiv kunskapsinläsning.

  • memorize_pdf_file
    Läser och extraherar upp till 20 sidor åt gången från en PDF-fil, delar upp innehållet och memorerar det för semantisk hämtning.

  • retrieve_similar_texts
    Hämtar de mest relevanta lagrade textavsnitten baserat på en användares fråga, med hjälp av semantisk likhet.

(Verktygsnamn tolkade från dokumenterade användningsmönster; exakta namn kan variera i koden.)

Användningsområden för denna MCP-server

  • Personlig kunskapsbas
    Utvecklare och användare kan bygga en beständig, sökbar kunskapsbas genom att memorera artiklar, anteckningar eller forskningsartiklar för semantisk återkallning.

  • Dokument- och PDF-summering
    Genom att memorera hela PDF-dokument kan användare senare ställa frågor och hämta relevanta avsnitt eller sammanfattningar, vilket effektiviserar forskning och översikt.

  • Samtalsminne för chattbottar
    Stärk AI-assistenter eller chattbottar med långsiktigt, kontextmedvetet minne för att ge mer sammanhängande och kontextuellt relevanta svar över tid.

  • Semantisk sökmotor
    Implementera en semantisk sökfunktion i applikationer, så att användare kan hitta relevant information baserat på innebörd snarare än bara nyckelord.

  • Forskning och datautforskning
    Lagra och sök bland tekniska dokument, kodsnuttar eller vetenskaplig litteratur för snabb, meningsbaserad hämtning under undersökning eller utveckling.

Hur sätter man upp det

Windsurf

  1. Förutsättningar:
    • Installera uv som din Python-pakethanterare.
    • Säkerställ att Docker är installerat och igång.
  2. Klona och installera:
    • Klona repot:
      git clone <repository-url>
      cd mcp-rag-local
    • Installera beroenden med uv.
  3. Starta tjänster:
    • Kör docker-compose up för att starta ChromaDB och Ollama.
    • Hämta inbäddningsmodellen:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Konfigurera MCP-server:
    • Lägg till i din Windsurf MCP-serverkonfiguration (t.ex. i mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Spara och starta om:
    • Spara din konfiguration och starta om Windsurf.
  6. Verifiera installationen:
    • Kontrollera att servern körs och är tillgänglig.

Claude

  1. Följ steg 1–3 ovan (förutsättningar, klona/installera, starta tjänster).
  2. Lägg till följande i din Claude MCP-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Spara och starta om Claude.
  4. Verifiera att servern är listad och igång.

Cursor

  1. Slutför steg 1–3 (som ovan).
  2. Lägg till i din Cursor-konfiguration:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Spara och starta om Cursor.
  4. Kontrollera att MCP-servern är aktiv.

Cline

  1. Upprepa steg 1–3 (förutsättningar, klona/installera, starta tjänster).
  2. I Cline-konfigurationen, lägg till:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Spara, starta om Cline och verifiera installationen.

Skydda API-nycklar

  • Använd miljövariabler i env-sektionen av din konfiguration.
  • Exempel:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Se till att känsliga nycklar inte hårdkodas utan hämtas från din miljö.

Hur man använder denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP-flöde

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, ange dina MCP-serveruppgifter enligt detta JSON-format:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När den är konfigurerad kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att ändra “mcp-rag-local” till det faktiska namnet på din MCP-server och byt ut URL:en mot din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Anteckningar
Översikt
Lista över promptsInga prompts/mallar dokumenterade
Lista över resurserInga resurser dokumenterade
Lista över verktygmemorize_text, memorize_multiple_texts, m.fl.
Skydda API-nycklarvia env i konfiguration, exempel visas
Sampling-stöd (mindre viktigt i utvärdering)Ej nämnt

Vår bedömning

Denna MCP är enkel och tydligt fokuserad på semantiskt minne, men saknar avancerade funktioner som promptmallar, explicita resurser eller sampling/roots-stöd. Verktyg och installation är tydliga. Bäst för enkla RAG/lokala kunskapsflöden.

MCP-poäng

Har LICENSE✅ (MIT)
Har minst ett verktyg
Antal forks1
Antal stjärnor5

Vanliga frågor

Vad är mcp-rag-local MCP-server?

Det är en lokal MCP-server som ger AI-agenter möjlighet att lagra och hämta text, dokument och PDF:er utifrån semantisk innebörd. Drivs av Ollama och ChromaDB och möjliggör kunskapshantering, kontextuellt minne och semantisk sökning för dina applikationer.

Vilka verktyg tillhandahåller mcp-rag-local?

Den tillhandahåller verktyg för att lagra enskilda eller flera textavsnitt, läsa in PDF-filer och hämta liknande texter med hjälp av semantisk sökning. Detta möjliggör arbetsflöden som att bygga personliga kunskapsbaser, dokumentsummering och samtalsminne för chattbottar.

Hur sätter jag upp mcp-rag-local?

Installera uv och Docker, klona repot, starta Ollama och ChromaDB, och konfigurera MCP-servern i din klients konfigurationsfil med angivna portar. Miljövariabler används för säker konfiguration.

Vilka är de huvudsakliga användningsområdena?

Användningsområden inkluderar att bygga en semantisk kunskapsbas, dokument/PDF-summering, förstärka chattbottens minne, semantisk sökning och utforskning av forskningsdata.

Hur skyddar jag API-nycklar eller portar?

Använd alltid miljövariabler i env-sektionen av din konfiguration för att undvika hårdkodning av känslig information och säkerställa bästa säkerhetspraxis.

Testa mcp-rag-local med FlowHunt

Snabba upp dina AI-arbetsflöden med semantiskt minne och lokal dokumentsökning via mcp-rag-local. Sätt upp på några minuter och förändra hur dina agenter återkallar och resonerar kring kunskap.

Lär dig mer

mcp-local-rag MCP-server
mcp-local-rag MCP-server

mcp-local-rag MCP-server

mcp-local-rag MCP-servern möjliggör integritetsvänlig, lokal Retrieval-Augmented Generation (RAG) webbsökning för LLM:er. Den låter AI-assistenter få tillgång t...

4 min läsning
MCP RAG +5
Chroma MCP Server-integrering
Chroma MCP Server-integrering

Chroma MCP Server-integrering

Chroma MCP Server ger FlowHunt-användare avancerade vektordatabaskapaciteter inklusive semantisk sökning, metadatafiltrering och robust samlingshantering för AI...

4 min läsning
Database AI Tools +5
Ragie MCP Server
Ragie MCP Server

Ragie MCP Server

Ragie MCP Server möjliggör för AI-assistenter att utföra semantisk sökning och hämta relevant information från Ragies kunskapsbaser, vilket förbättrar utvecklin...

4 min läsning
AI MCP Server +4