mcp-rag-local MCP Server

Un server MCP locale a memoria semantica per FlowHunt, costruito con ChromaDB e Ollama. Permette agli agenti AI di memorizzare e recuperare testo, documenti e PDF per significato, supportando potenti workflow RAG e di gestione della conoscenza.

mcp-rag-local MCP Server

Cosa fa il server MCP “mcp-rag-local”?

Il server MCP mcp-rag-local è progettato come un server di memoria che consente agli assistenti AI di memorizzare e recuperare passaggi di testo in base al loro significato semantico, non solo tramite parole chiave. Sfruttando Ollama per la generazione di embeddings di testo e ChromaDB per l’archiviazione e la ricerca per similarità vettoriale, permette l’archiviazione (“memorizzazione”) e il recupero fluido dei testi rilevanti per una determinata query. Questo abilita workflow guidati dall’AI come la gestione della conoscenza, il richiamo contestuale e la ricerca semantica. Gli sviluppatori possono interagire con il server per archiviare testi singoli, multipli o anche contenuti di file PDF, e successivamente recuperare le informazioni più contestualmente rilevanti, migliorando produttività e consapevolezza contestuale nelle applicazioni.

Elenco dei Prompt

  • Nessun template di prompt esplicito è menzionato nel repository o nella documentazione.

Elenco delle Risorse

  • Nessuna risorsa MCP esplicita è documentata nel repository o nel README.

Elenco degli Strumenti

  • memorize_text
    Permette al server di memorizzare un singolo passaggio di testo per un futuro recupero semantico.

  • memorize_multiple_texts
    Consente l’archiviazione in batch di più testi contemporaneamente, facilitando l’importazione di conoscenza in massa.

  • memorize_pdf_file
    Legge ed estrae fino a 20 pagine per volta da un file PDF, suddivide il contenuto e lo memorizza per il recupero semantico.

  • retrieve_similar_texts
    Recupera i passaggi di testo più rilevanti memorizzati in base a una query dell’utente, utilizzando la similarità semantica.

(Nomi degli strumenti dedotti dai pattern d’uso documentati; i nomi esatti potrebbero variare nel codice.)

Casi d’Uso di questo Server MCP

  • Base di Conoscenza Personale
    Sviluppatori e utenti possono costruire una base di conoscenza persistente e ricercabile memorizzando articoli, note o pubblicazioni per un richiamo semantico.

  • Sintesi di Documenti e PDF
    Memorizzando interi documenti PDF, gli utenti possono successivamente effettuare query e recuperare sezioni o sintesi rilevanti, semplificando ricerca e revisione.

  • Memoria Conversazionale per Chatbot
    Migliora assistenti AI o chatbot con una memoria a lungo termine e consapevole del contesto per risposte più coerenti e pertinenti nel tempo.

  • Motore di Ricerca Semantico
    Implementa una funzione di ricerca semantica nelle applicazioni, permettendo agli utenti di trovare informazioni rilevanti in base al significato e non solo alle parole chiave.

  • Ricerca ed Esplorazione Dati
    Archivia e interroga documenti tecnici, frammenti di codice o letteratura scientifica per un recupero rapido e basato sul significato durante investigazioni o sviluppo.

Come configurarlo

Windsurf

  1. Prerequisiti:
    • Installa uv come gestore di pacchetti Python.
    • Verifica che Docker sia installato e in esecuzione.
  2. Clona e Installa:
    • Clona il repository:
      git clone <repository-url>
      cd mcp-rag-local
    • Installa le dipendenze usando uv.
  3. Avvia i Servizi:
    • Esegui docker-compose up per avviare ChromaDB e Ollama.
    • Scarica il modello di embedding:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configura il Server MCP:
    • Aggiungi alla configurazione MCP di Windsurf (es. in mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Salva e Riavvia:
    • Salva la configurazione e riavvia Windsurf.
  6. Verifica la Configurazione:
    • Conferma che il server sia avviato e accessibile.

Claude

  1. Segui i passaggi 1–3 sopra (prerequisiti, clona/installa, avvia i servizi).
  2. Aggiungi quanto segue alla configurazione MCP di Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva e riavvia Claude.
  4. Verifica che il server sia elencato e attivo.

Cursor

  1. Completa i passaggi 1–3 (come sopra).
  2. Aggiungi alla configurazione di Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva e riavvia Cursor.
  4. Controlla che il server MCP sia operativo.

Cline

  1. Ripeti i passaggi 1–3 (prerequisiti, clona/installa, avvia i servizi).
  2. Nella configurazione di Cline, aggiungi:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva, riavvia Cline e verifica la configurazione.

Protezione delle Chiavi API

  • Usa le variabili d’ambiente nella sezione env della tua configurazione.
  • Esempio:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Assicurati che le chiavi sensibili non siano salvate in chiaro ma referenziate dall’ambiente.

Come usare questo MCP nei flow

Utilizzo del MCP in FlowHunt

Per integrare i server MCP nel tuo workflow FlowHunt, inizia aggiungendo il componente MCP al tuo flow e collegandolo al tuo agente AI:

FlowHunt MCP flow

Clicca sul componente MCP per aprire il pannello di configurazione. Nella sezione di configurazione MCP di sistema, inserisci i dettagli del tuo server MCP usando questo formato JSON:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Una volta configurato, l’agente AI potrà utilizzare questo MCP come strumento con accesso a tutte le sue funzioni e capacità. Ricorda di cambiare “mcp-rag-local” con il nome effettivo del tuo server MCP e sostituire la URL con quella del tuo MCP.


Panoramica

SezioneDisponibilitàDettagli/Note
Panoramica
Elenco dei PromptNessun prompt/template documentato
Elenco delle RisorseNessuna risorsa documentata
Elenco degli Strumentimemorize_text, memorize_multiple_texts, ecc.
Protezione Chiavi APItramite env in config, esempio mostrato
Supporto Sampling (meno rilevante in valutazione)Non menzionato

La nostra opinione

Questo MCP è semplice e ben focalizzato sulla memoria semantica, ma manca di funzionalità avanzate come template di prompt, risorse esplicite o supporto sampling/roots. Strumenti e configurazione sono chiari. Ideale per workflow RAG/knowledge locali semplici.

MCP Score

Ha una LICENSE✅ (MIT)
Ha almeno uno strumento
Numero di Fork1
Numero di Stelle5

Domande frequenti

Cos'è il server MCP mcp-rag-local?

È un server MCP locale che offre agli agenti AI la capacità di memorizzare e recuperare testi, documenti e PDF in base al significato semantico. Alimentato da Ollama e ChromaDB, consente gestione della conoscenza, memoria contestuale e ricerca semantica per le tue applicazioni.

Quali strumenti offre mcp-rag-local?

Fornisce strumenti per memorizzare uno o più passaggi di testo, importare file PDF e recuperare testi simili tramite ricerca semantica. Questo abilita workflow come la costruzione di basi di conoscenza personali, la sintesi di documenti e la memoria conversazionale per chatbot.

Come configuro mcp-rag-local?

Installa uv e Docker, clona il repository, avvia Ollama e ChromaDB e configura il server MCP nel file di configurazione del tuo client con le porte specificate. Le variabili d'ambiente vengono utilizzate per una configurazione sicura.

Quali sono i principali casi d'uso?

I casi d'uso includono la creazione di una base di conoscenza semantica, sintesi di documenti/PDF, miglioramento della memoria chatbot, ricerca semantica ed esplorazione di dati di ricerca.

Come proteggo le chiavi API o le porte?

Usa sempre le variabili d'ambiente nella sezione env della tua configurazione per evitare di inserire informazioni sensibili nel codice, garantendo sicurezza e best practice.

Prova mcp-rag-local con FlowHunt

Potenzia i tuoi flussi di lavoro AI con memoria semantica e ricerca locale di documenti usando mcp-rag-local. Configura in pochi minuti e trasforma il modo in cui i tuoi agenti richiamano e ragionano sulla conoscenza.

Scopri di più