mcp-rag-local Server MCP

mcp-rag-local Server MCP

Un server MCP local, cu memorie semantică, pentru FlowHunt, construit cu ChromaDB și Ollama. Permite agenților AI să memoreze și să regăsească texte, documente și PDF-uri după semnificație, susținând puternic fluxurile RAG și de cunoaștere.

Ce face serverul MCP “mcp-rag-local”?

mcp-rag-local MCP Server este conceput ca un server de memorie care permite asistenților AI să stocheze și să regăsească pasaje de text pe baza semnificației semantice, nu doar a cuvintelor cheie. Bazându-se pe Ollama pentru generarea embedding-urilor de text și ChromaDB pentru stocare vectorială și căutare de similaritate, permite stocarea (“memorarea”) și regăsirea fluentă a textelor relevante pentru o anumită interogare. Acest lucru facilitează fluxuri AI precum managementul cunoștințelor, reamintirea contextuală și căutarea semantică. Dezvoltatorii pot interacționa cu serverul pentru a stoca texte individuale, multiple sau chiar conținutul fișierelor PDF, și ulterior pot regăsi cele mai relevante informații contextual, sporind productivitatea și conștientizarea contextuală în aplicații.

Lista de Prompts

  • Nu sunt menționate șabloane de prompt explicite în repository sau documentație.

Lista de Resurse

  • Nu sunt documentate resurse MCP explicite în repository sau README.

Lista de Instrumente

  • memorize_text
    Permite serverului să stocheze un singur pasaj de text pentru regăsire semantică viitoare.

  • memorize_multiple_texts
    Permite stocarea în lot a mai multor texte simultan, facilitând ingestia rapidă de cunoștințe.

  • memorize_pdf_file
    Citește și extrage până la 20 de pagini odată dintr-un fișier PDF, segmentează conținutul și îl memorează pentru regăsire semantică.

  • retrieve_similar_texts
    Recuperează cele mai relevante pasaje de text stocate pe baza interogării utilizatorului, folosind similaritate semantică.

(Numele instrumentelor sunt deduse din exemplele de utilizare documentate; denumirea exactă poate varia în cod.)

Cazuri de utilizare ale acestui server MCP

  • Bază Personală de Cunoștințe
    Dezvoltatorii și utilizatorii pot construi o bază persistentă de cunoștințe, interogabilă semantic, memorând articole, notițe sau lucrări științifice pentru reamintire semantică.

  • Sumarizare Documente și PDF-uri
    Memorând documente PDF întregi, utilizatorii pot ulterior interoga și regăsi secțiuni relevante sau rezumate, eficientizând cercetarea și revizuirea.

  • Memorie conversațională pentru chatboți
    Îmbunătățește asistenții AI sau chatboții cu memorie contextuală pe termen lung pentru a oferi răspunsuri mai coerente și relevante în timp.

  • Motor de căutare semantic
    Implementează o funcționalitate de căutare semantică în aplicații, permițând utilizatorilor să găsească informații relevante pe bază de semnificație, nu doar cuvinte cheie.

  • Cercetare și explorare de date
    Stochează și interoghează documentație tehnică, fragmente de cod sau literatură științifică pentru regăsire rapidă, bazată pe semnificație, în timpul investigațiilor sau dezvoltării.

Cum se configurează

Windsurf

  1. Prerechizite:
    • Instalează uv ca manager de pachete Python.
    • Asigură-te că Docker este instalat și rulează.
  2. Clonare și instalare:
    • Clonează repository-ul:
      git clone <repository-url>
      cd mcp-rag-local
    • Instalează dependențele folosind uv.
  3. Pornește serviciile:
    • Rulează docker-compose up pentru a porni ChromaDB și Ollama.
    • Descarcă modelul de embedding:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configurează serverul MCP:
    • Adaugă în configurația serverului MCP Windsurf (de ex. în mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Salvează și repornește:
    • Salvează configurația și repornește Windsurf.
  6. Verifică instalarea:
    • Confirmă că serverul rulează și este accesibil.

Claude

  1. Urmează pașii 1–3 de mai sus (prerechizite, clonare/instalare, pornire servicii).
  2. Adaugă următoarele în configurația MCP Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salvează și repornește Claude.
  4. Verifică dacă serverul este listat și funcțional.

Cursor

  1. Completează pașii 1–3 (ca mai sus).
  2. Adaugă în configurația Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salvează și repornește Cursor.
  4. Verifică funcționarea serverului MCP.

Cline

  1. Repetă pașii 1–3 (prerechizite, clonare/instalare, pornire servicii).
  2. În configurația Cline, adaugă:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salvează, repornește Cline și verifică instalarea.

Securizarea cheilor API

  • Utilizează variabile de mediu în secțiunea env din configurație.
  • Exemplu:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Asigură-te că cheile sensibile nu sunt incluse direct, ci referențiate din mediul de execuție.

Cum folosești acest MCP în fluxuri

Utilizarea MCP în FlowHunt

Pentru a integra serverele MCP în fluxul tău FlowHunt, adaugă componenta MCP în flow și conecteaz-o la agentul tău AI:

Flux MCP FlowHunt

Dă click pe componenta MCP pentru a deschide panoul de configurare. În secțiunea de configurare MCP a sistemului, inserează detaliile serverului MCP folosind acest format JSON:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

După configurare, agentul AI va putea folosi acest MCP ca instrument, având acces la toate funcțiile și capabilitățile sale. Nu uita să schimbi “mcp-rag-local” cu numele real al serverului tău MCP și să înlocuiești URL-ul cu cel al propriului server MCP.


Prezentare generală

SecțiuneDisponibilitateDetalii/Note
Prezentare generală
Lista de PromptsNu sunt documentate prompts/șabloane
Lista de ResurseNu sunt documentate resurse
Lista de Instrumentememorize_text, memorize_multiple_texts, etc.
Securizarea cheilor APIprin env în config, exemplu prezentat
Suport sampling (mai puțin relevant)Nu este menționat

Opinia noastră

Acest MCP este simplu și bine concentrat pe memoria semantică, dar îi lipsesc funcții avansate precum șabloane de prompt, resurse explicite sau suport sampling/roots. Instrumentele și instalarea sunt clare. Cel mai potrivit pentru fluxuri simple RAG/de cunoaștere locală.

Scor MCP

Are LICENȚĂ✅ (MIT)
Are cel puțin un tool
Număr de Fork-uri1
Număr de Stele5

Întrebări frecvente

Ce este serverul MCP mcp-rag-local?

Este un server MCP local care oferă agenților AI abilitatea de a stoca și regăsi texte, documente și PDF-uri după semnificația semantică. Susținut de Ollama și ChromaDB, permite gestionarea cunoștințelor, memorie contextuală și căutare semantică pentru aplicațiile tale.

Ce instrumente oferă mcp-rag-local?

Oferă instrumente pentru stocarea de unul sau mai multe pasaje de text, ingestia de fișiere PDF și regăsirea textelor similare folosind căutare semantică. Acest lucru permite fluxuri precum construirea unor baze personale de cunoștințe, sumarizare documente și memorie conversațională pentru chatboți.

Cum configurez mcp-rag-local?

Instalează uv și Docker, clonează repository-ul, pornește Ollama și ChromaDB și configurează serverul MCP în fișierul de configurare al clientului tău cu porturile specificate. Variabilele de mediu sunt folosite pentru configurare sigură.

Care sunt principalele cazuri de utilizare?

Cazurile de utilizare includ construirea unei baze de cunoștințe semantice, sumarizarea documentelor/PDF-urilor, îmbunătățirea memoriei chatbot-urilor, căutare semantică și explorarea datelor de cercetare.

Cum securizez cheile API sau porturile?

Folosește întotdeauna variabile de mediu în secțiunea env din configurație pentru a evita includerea directă a informațiilor sensibile, asigurând securitatea și cele mai bune practici.

Încearcă mcp-rag-local cu FlowHunt

Îmbunătățește-ți fluxurile AI cu memorie semantică și căutare locală în documente folosind mcp-rag-local. Configurează în câteva minute și transformă modul în care agenții tăi accesează și procesează cunoștințele.

Află mai multe

mcp-local-rag Serverul MCP
mcp-local-rag Serverul MCP

mcp-local-rag Serverul MCP

Serverul mcp-local-rag MCP permite o căutare web RAG (Retrieval-Augmented Generation) locală, care respectă confidențialitatea pentru LLM-uri. Permite asistenți...

4 min citire
MCP RAG +5
Rememberizer MCP Server
Rememberizer MCP Server

Rememberizer MCP Server

Rememberizer MCP Server face legătura între asistenții AI și managementul cunoștințelor, permițând căutare semantică, regăsire unificată a documentelor și colab...

5 min citire
AI Knowledge Management +4
Ragie MCP Server
Ragie MCP Server

Ragie MCP Server

Ragie MCP Server permite asistenților AI să efectueze căutări semantice și să recupereze informații relevante din bazele de cunoștințe Ragie, îmbunătățind fluxu...

4 min citire
AI MCP Server +4