mcp-rag-local Servidor MCP

Un servidor MCP local de memoria semántica para FlowHunt, construido con ChromaDB y Ollama. Permite a los agentes de IA memorizar y recuperar textos, documentos y PDFs por significado, apoyando potentes flujos de RAG y conocimiento.

mcp-rag-local Servidor MCP

¿Qué hace el servidor MCP “mcp-rag-local”?

El servidor MCP mcp-rag-local está diseñado como un servidor de memoria que permite a los asistentes de IA almacenar y recuperar fragmentos de texto según su significado semántico, no solo por palabras clave. Aprovechando Ollama para la generación de embeddings de texto y ChromaDB para el almacenamiento vectorial y búsqueda de similitud, permite el almacenamiento sin fisuras (“memorización”) y la recuperación de textos relevantes para una consulta dada. Esto potencia flujos impulsados por IA como la gestión del conocimiento, recuperación contextual y búsqueda semántica. Los desarrolladores pueden interactuar con el servidor para almacenar textos individuales, múltiples textos o incluso contenidos de archivos PDF, y posteriormente recuperar la información más relevante contextual, mejorando la productividad y la conciencia contextual en las aplicaciones.

Lista de Prompts

  • No se mencionan plantillas de prompt explícitas en el repositorio ni en la documentación.

Lista de Recursos

  • No se documentan recursos MCP explícitos en el repositorio ni en el README.

Lista de Herramientas

  • memorize_text
    Permite al servidor almacenar un único fragmento de texto para recuperación semántica futura.

  • memorize_multiple_texts
    Permite el almacenamiento por lotes de varios textos a la vez, facilitando la ingestión masiva de conocimiento.

  • memorize_pdf_file
    Lee y extrae hasta 20 páginas a la vez de un archivo PDF, fragmenta el contenido y lo memoriza para su recuperación semántica.

  • retrieve_similar_texts
    Recupera los fragmentos de texto almacenados más relevantes según la consulta del usuario, usando similitud semántica.

(Nombres de herramientas inferidos de los patrones de uso documentados; los nombres exactos pueden variar en el código.)

Casos de Uso de este Servidor MCP

  • Base de Conocimientos Personal
    Desarrolladores y usuarios pueden construir una base de conocimientos persistente y consultable memorizando artículos, notas o trabajos de investigación para recuperación semántica.

  • Resumen de Documentos y PDF
    Al memorizar documentos PDF completos, los usuarios pueden posteriormente consultar y recuperar secciones relevantes o resúmenes, agilizando la investigación y revisión.

  • Memoria Conversacional para Chatbots
    Mejora asistentes de IA o chatbots con memoria a largo plazo y consciente del contexto para dar respuestas más coherentes y relevantes con el tiempo.

  • Motor de Búsqueda Semántica
    Implementa una funcionalidad de búsqueda semántica en aplicaciones, permitiendo a los usuarios encontrar información relevante por significado, no solo palabras clave.

  • Investigación y Exploración de Datos
    Almacena y consulta documentos técnicos, fragmentos de código o literatura científica para una recuperación rápida basada en significado durante la investigación o el desarrollo.

Cómo configurarlo

Windsurf

  1. Requisitos previos:
    • Instala uv como gestor de paquetes de Python.
    • Asegúrate de que Docker esté instalado y en ejecución.
  2. Clonar e Instalar:
    • Clona el repositorio:
      git clone <repository-url>
      cd mcp-rag-local
    • Instala las dependencias usando uv.
  3. Iniciar Servicios:
    • Ejecuta docker-compose up para iniciar ChromaDB y Ollama.
    • Descarga el modelo de embeddings:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. Configurar el Servidor MCP:
    • Añade a tu configuración del servidor MCP de Windsurf (por ejemplo, en mcpServers):
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. Guardar y Reiniciar:
    • Guarda tu configuración y reinicia Windsurf.
  6. Verificar Configuración:
    • Confirma que el servidor está en ejecución y accesible.

Claude

  1. Sigue los pasos 1–3 anteriores (requisitos previos, clonar/instalar, iniciar servicios).
  2. Añade lo siguiente a tu configuración MCP de Claude:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Guarda y reinicia Claude.
  4. Verifica que el servidor esté listado y en ejecución.

Cursor

  1. Completa los pasos 1–3 (como arriba).
  2. Añade a tu configuración de Cursor:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Guarda y reinicia Cursor.
  4. Verifica que el servidor MCP esté operativo.

Cline

  1. Repite los pasos 1–3 (requisitos previos, clonar/instalar, iniciar servicios).
  2. En la configuración de Cline, añade:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. Guarda, reinicia Cline y verifica la configuración.

Asegurando las claves API

  • Utiliza variables de entorno en la sección env de tu configuración.
  • Ejemplo:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • Asegúrate de que las claves sensibles no estén codificadas directamente sino referenciadas desde tu entorno.

Cómo usar este MCP dentro de los flujos

Uso de MCP en FlowHunt

Para integrar servidores MCP en tu flujo de trabajo de FlowHunt, comienza agregando el componente MCP a tu flujo y conectándolo a tu agente de IA:

FlowHunt MCP flow

Haz clic en el componente MCP para abrir el panel de configuración. En la sección de configuración del sistema MCP, inserta los detalles de tu servidor MCP usando este formato JSON:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Una vez configurado, el agente de IA ya puede usar este MCP como herramienta con acceso a todas sus funciones y capacidades. Recuerda cambiar “mcp-rag-local” por el nombre real de tu servidor MCP y reemplazar la URL por la de tu servidor MCP.


Resumen

SecciónDisponibilidadDetalles/Notas
Resumen
Lista de PromptsNo se documentan prompts/plantillas
Lista de RecursosNo se documentan recursos
Lista de Herramientasmemorize_text, memorize_multiple_texts, etc.
Asegurando claves APIvía env en la config, ejemplo mostrado
Soporte de muestreo (menos importante)No mencionado

Nuestra opinión

Este MCP es sencillo y está bien enfocado en la memoria semántica, pero carece de características avanzadas como plantillas de prompt, recursos explícitos o soporte de muestreo/raíces. La configuración y herramientas son claras. Ideal para flujos de trabajo simples de RAG/conocimiento local.

Puntuación MCP

Tiene LICENSE✅ (MIT)
Tiene al menos una herramienta
Número de Forks1
Número de Stars5

Preguntas frecuentes

¿Qué es el servidor MCP mcp-rag-local?

Es un servidor MCP local que proporciona a los agentes de IA la capacidad de almacenar y recuperar textos, documentos y PDFs según su significado semántico. Impulsado por Ollama y ChromaDB, permite la gestión del conocimiento, memoria contextual y búsqueda semántica para tus aplicaciones.

¿Qué herramientas proporciona mcp-rag-local?

Proporciona herramientas para almacenar uno o varios fragmentos de texto, ingerir archivos PDF y recuperar textos similares usando búsqueda semántica. Esto habilita flujos como la construcción de bases de conocimiento personales, resumen de documentos y memoria conversacional para chatbots.

¿Cómo configuro mcp-rag-local?

Instala uv y Docker, clona el repositorio, inicia Ollama y ChromaDB, y configura el servidor MCP en el archivo de configuración de tu cliente con los puertos especificados. Se utilizan variables de entorno para una configuración segura.

¿Cuáles son los principales casos de uso?

Los casos de uso incluyen la construcción de una base de conocimientos semántica, resumen de documentos/PDF, mejora de la memoria del chatbot, búsqueda semántica y exploración de datos de investigación.

¿Cómo aseguro las claves API o los puertos?

Utiliza siempre variables de entorno en la sección env de tu configuración para evitar codificar información sensible, asegurando seguridad y buenas prácticas.

Prueba mcp-rag-local con FlowHunt

Impulsa tus flujos de trabajo de IA con memoria semántica y búsqueda local de documentos usando mcp-rag-local. Configúralo en minutos y transforma cómo tus agentes recuerdan y razonan sobre conocimiento.

Saber más