mcp-rag-local MCP Server

mcp-rag-local MCP Server

Un server MCP locale a memoria semantica per FlowHunt, costruito con ChromaDB e Ollama. Permette agli agenti AI di memorizzare e recuperare testo, documenti e PDF per significato, supportando potenti workflow RAG e di gestione della conoscenza.

Cosa fa il server MCP “mcp-rag-local”?

Il server MCP mcp-rag-local è progettato come un server di memoria che consente agli assistenti AI di memorizzare e recuperare passaggi di testo in base al loro significato semantico, non solo tramite parole chiave. Sfruttando Ollama per la generazione di embeddings di testo e ChromaDB per l’archiviazione e la ricerca per similarità vettoriale, permette l’archiviazione (“memorizzazione”) e il recupero fluido dei testi rilevanti per una determinata query. Questo abilita workflow guidati dall’AI come la gestione della conoscenza, il richiamo contestuale e la ricerca semantica. Gli sviluppatori possono interagire con il server per archiviare testi singoli, multipli o anche contenuti di file PDF, e successivamente recuperare le informazioni più contestualmente rilevanti, migliorando produttività e consapevolezza contestuale nelle applicazioni.

Elenco dei Prompt

  • Nessun template di prompt esplicito è menzionato nel repository o nella documentazione.

Elenco delle Risorse

  • Nessuna risorsa MCP esplicita è documentata nel repository o nel README.

Elenco degli Strumenti

  • memorize_text
    Permette al server di memorizzare un singolo passaggio di testo per un futuro recupero semantico.

  • memorize_multiple_texts
    Consente l’archiviazione in batch di più testi contemporaneamente, facilitando l’importazione di conoscenza in massa.

  • memorize_pdf_file
    Legge ed estrae fino a 20 pagine per volta da un file PDF, suddivide il contenuto e lo memorizza per il recupero semantico.

  • retrieve_similar_texts
    Recupera i passaggi di testo più rilevanti memorizzati in base a una query dell’utente, utilizzando la similarità semantica.

(Nomi degli strumenti dedotti dai pattern d’uso documentati; i nomi esatti potrebbero variare nel codice.)

Casi d’Uso di questo Server MCP

  • Base di Conoscenza Personale
    Sviluppatori e utenti possono costruire una base di conoscenza persistente e ricercabile memorizzando articoli, note o pubblicazioni per un richiamo semantico.

  • Sintesi di Documenti e PDF
    Memorizzando interi documenti PDF, gli utenti possono successivamente effettuare query e recuperare sezioni o sintesi rilevanti, semplificando ricerca e revisione.

  • Memoria Conversazionale per Chatbot
    Migliora assistenti AI o chatbot con una memoria a lungo termine e consapevole del contesto per risposte più coerenti e pertinenti nel tempo.

  • Motore di Ricerca Semantico
    Implementa una funzione di ricerca semantica nelle applicazioni, permettendo agli utenti di trovare informazioni rilevanti in base al significato e non solo alle parole chiave.

  • Ricerca ed Esplorazione Dati
    Archivia e interroga documenti tecnici, frammenti di codice o letteratura scientifica per un recupero rapido e basato sul significato durante investigazioni o sviluppo.

Come configurarlo

Windsurf

  1. Prerequisiti:
    • Installa uv come gestore di pacchetti Python.
    • Verifica che Docker sia installato e in esecuzione.
  2. Clona e Installa:
    • Clona il repository:
      git clone <repository-url>
      cd mcp-rag-local
    • Installa le dipendenze usando uv.
  3. Avvia i Servizi:
    • Esegui docker-compose up per avviare ChromaDB e Ollama.
    • Scarica il modello di embedding:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configura il Server MCP:
    • Aggiungi alla configurazione MCP di Windsurf (es. in mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Salva e Riavvia:
    • Salva la configurazione e riavvia Windsurf.
  6. Verifica la Configurazione:
    • Conferma che il server sia avviato e accessibile.

Claude

  1. Segui i passaggi 1–3 sopra (prerequisiti, clona/installa, avvia i servizi).
  2. Aggiungi quanto segue alla configurazione MCP di Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva e riavvia Claude.
  4. Verifica che il server sia elencato e attivo.

Cursor

  1. Completa i passaggi 1–3 (come sopra).
  2. Aggiungi alla configurazione di Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva e riavvia Cursor.
  4. Controlla che il server MCP sia operativo.

Cline

  1. Ripeti i passaggi 1–3 (prerequisiti, clona/installa, avvia i servizi).
  2. Nella configurazione di Cline, aggiungi:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Salva, riavvia Cline e verifica la configurazione.

Protezione delle Chiavi API

  • Usa le variabili d’ambiente nella sezione env della tua configurazione.
  • Esempio:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Assicurati che le chiavi sensibili non siano salvate in chiaro ma referenziate dall’ambiente.

Come usare questo MCP nei flow

Utilizzo del MCP in FlowHunt

Per integrare i server MCP nel tuo workflow FlowHunt, inizia aggiungendo il componente MCP al tuo flow e collegandolo al tuo agente AI:

FlowHunt MCP flow

Clicca sul componente MCP per aprire il pannello di configurazione. Nella sezione di configurazione MCP di sistema, inserisci i dettagli del tuo server MCP usando questo formato JSON:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Una volta configurato, l’agente AI potrà utilizzare questo MCP come strumento con accesso a tutte le sue funzioni e capacità. Ricorda di cambiare “mcp-rag-local” con il nome effettivo del tuo server MCP e sostituire la URL con quella del tuo MCP.


Panoramica

SezioneDisponibilitàDettagli/Note
Panoramica
Elenco dei PromptNessun prompt/template documentato
Elenco delle RisorseNessuna risorsa documentata
Elenco degli Strumentimemorize_text, memorize_multiple_texts, ecc.
Protezione Chiavi APItramite env in config, esempio mostrato
Supporto Sampling (meno rilevante in valutazione)Non menzionato

La nostra opinione

Questo MCP è semplice e ben focalizzato sulla memoria semantica, ma manca di funzionalità avanzate come template di prompt, risorse esplicite o supporto sampling/roots. Strumenti e configurazione sono chiari. Ideale per workflow RAG/knowledge locali semplici.

MCP Score

Ha una LICENSE✅ (MIT)
Ha almeno uno strumento
Numero di Fork1
Numero di Stelle5

Domande frequenti

Cos'è il server MCP mcp-rag-local?

È un server MCP locale che offre agli agenti AI la capacità di memorizzare e recuperare testi, documenti e PDF in base al significato semantico. Alimentato da Ollama e ChromaDB, consente gestione della conoscenza, memoria contestuale e ricerca semantica per le tue applicazioni.

Quali strumenti offre mcp-rag-local?

Fornisce strumenti per memorizzare uno o più passaggi di testo, importare file PDF e recuperare testi simili tramite ricerca semantica. Questo abilita workflow come la costruzione di basi di conoscenza personali, la sintesi di documenti e la memoria conversazionale per chatbot.

Come configuro mcp-rag-local?

Installa uv e Docker, clona il repository, avvia Ollama e ChromaDB e configura il server MCP nel file di configurazione del tuo client con le porte specificate. Le variabili d'ambiente vengono utilizzate per una configurazione sicura.

Quali sono i principali casi d'uso?

I casi d'uso includono la creazione di una base di conoscenza semantica, sintesi di documenti/PDF, miglioramento della memoria chatbot, ricerca semantica ed esplorazione di dati di ricerca.

Come proteggo le chiavi API o le porte?

Usa sempre le variabili d'ambiente nella sezione env della tua configurazione per evitare di inserire informazioni sensibili nel codice, garantendo sicurezza e best practice.

Prova mcp-rag-local con FlowHunt

Potenzia i tuoi flussi di lavoro AI con memoria semantica e ricerca locale di documenti usando mcp-rag-local. Configura in pochi minuti e trasforma il modo in cui i tuoi agenti richiamano e ragionano sulla conoscenza.

Scopri di più

mcp-local-rag MCP Server
mcp-local-rag MCP Server

mcp-local-rag MCP Server

Il server MCP mcp-local-rag consente una ricerca web RAG (Retrieval-Augmented Generation) locale e rispettosa della privacy per LLM. Permette agli assistenti AI...

4 min di lettura
MCP RAG +5
Integrazione con Chroma MCP Server
Integrazione con Chroma MCP Server

Integrazione con Chroma MCP Server

Il Chroma MCP Server offre agli utenti di FlowHunt avanzate funzionalità di database vettoriale, tra cui ricerca semantica, filtraggio dei metadati e una gestio...

4 min di lettura
Database AI Tools +5
Rememberizer MCP Server
Rememberizer MCP Server

Rememberizer MCP Server

Il Rememberizer MCP Server fa da ponte tra assistenti AI e gestione della conoscenza, abilitando ricerca semantica, recupero unificato di documenti e collaboraz...

5 min di lettura
AI Knowledge Management +4