mcp-rag-local Servidor MCP
Um servidor MCP local de memória semântica para FlowHunt, construído com ChromaDB e Ollama. Permite que agentes de IA memorizem e recuperem textos, documentos e PDFs pelo significado, apoiando fluxos de trabalho poderosos de RAG e conhecimento.

O que faz o Servidor MCP “mcp-rag-local”?
O mcp-rag-local Servidor MCP foi projetado como um servidor de memória que permite a assistentes de IA armazenar e recuperar passagens de texto com base no significado semântico, e não apenas em palavras-chave. Aproveitando o Ollama para gerar embeddings de texto e o ChromaDB para armazenamento vetorial e busca por similaridade, permite o armazenamento (“memorização”) fluido e a recuperação de textos relevantes para uma determinada consulta. Isso potencializa fluxos de trabalho guiados por IA como gestão do conhecimento, recordação contextual e busca semântica. Desenvolvedores podem interagir com o servidor para armazenar textos individuais, múltiplos textos ou até conteúdos de arquivos PDF, e posteriormente recuperar as informações mais relevantes, aumentando a produtividade e consciência contextual em aplicações.
Lista de Prompts
- Nenhum template explícito de prompt é mencionado no repositório ou documentação.
Lista de Recursos
- Nenhum recurso MCP explícito está documentado no repositório ou README.
Lista de Ferramentas
memorize_text
Permite ao servidor armazenar uma passagem de texto para futura recuperação semântica.memorize_multiple_texts
Habilita o armazenamento em lote de vários textos de uma só vez, facilitando a ingestão em massa de conhecimento.memorize_pdf_file
Lê e extrai até 20 páginas por vez de um arquivo PDF, fragmenta o conteúdo e o memoriza para recuperação semântica.retrieve_similar_texts
Recupera as passagens de texto armazenadas mais relevantes com base em uma consulta do usuário, usando similaridade semântica.
(Nomes das ferramentas inferidos a partir dos padrões de uso documentados; nomes exatos podem variar no código.)
Casos de Uso deste Servidor MCP
Base de Conhecimento Pessoal
Desenvolvedores e usuários podem construir uma base de conhecimento persistente e pesquisável memorizando artigos, anotações ou artigos científicos para recordação semântica.Sumarização de Documentos e PDFs
Ao memorizar documentos PDF inteiros, usuários podem posteriormente consultar e recuperar seções ou resumos relevantes, otimizando pesquisas e revisões.Memória Conversacional para Chatbots
Aprimore assistentes de IA ou chatbots com memória de longo prazo e sensível ao contexto para fornecer respostas mais coerentes e relevantes ao longo do tempo.Motor de Busca Semântica
Implemente uma função de busca semântica em aplicações, permitindo que usuários encontrem informações relevantes pelo significado, não apenas por palavras-chave.Pesquisa e Exploração de Dados
Armazene e consulte documentos técnicos, trechos de código ou literatura científica para recuperação rápida e baseada em significado durante investigações ou desenvolvimento.
Como configurar
Windsurf
- Pré-requisitos:
- Instale o uv como seu gerenciador de pacotes Python.
- Certifique-se de que o Docker está instalado e em execução.
- Clone e Instale:
- Clone o repositório:
git clone <repository-url>
cd mcp-rag-local
- Instale as dependências usando o uv.
- Clone o repositório:
- Inicie os Serviços:
- Execute
docker-compose up
para iniciar o ChromaDB e o Ollama. - Baixe o modelo de embedding:
docker exec -it ollama ollama pull all-minilm:l6-v2
- Execute
- Configure o Servidor MCP:
- Adicione à configuração do servidor MCP no Windsurf (ex: em
mcpServers
):"mcp-rag-local": { "command": "uv", "args": [ "--directory", "path\\to\\mcp-rag-local", "run", "main.py" ], "env": { "CHROMADB_PORT": "8321", "OLLAMA_PORT": "11434" } }
- Adicione à configuração do servidor MCP no Windsurf (ex: em
- Salve e Reinicie:
- Salve sua configuração e reinicie o Windsurf.
- Verifique a Instalação:
- Confirme que o servidor está em execução e acessível.
Claude
- Siga as etapas 1–3 acima (pré-requisitos, clone/instale, inicie os serviços).
- Adicione o seguinte à configuração MCP do Claude:
"mcpServers": { "mcp-rag-local": { "command": "uv", "args": [ "--directory", "path\\to\\mcp-rag-local", "run", "main.py" ], "env": { "CHROMADB_PORT": "8321", "OLLAMA_PORT": "11434" } } }
- Salve e reinicie o Claude.
- Verifique se o servidor está listado e em execução.
Cursor
- Complete as etapas 1–3 (como acima).
- Adicione à configuração do Cursor:
"mcpServers": { "mcp-rag-local": { "command": "uv", "args": [ "--directory", "path\\to\\mcp-rag-local", "run", "main.py" ], "env": { "CHROMADB_PORT": "8321", "OLLAMA_PORT": "11434" } } }
- Salve e reinicie o Cursor.
- Verifique se o servidor MCP está operacional.
Cline
- Repita as etapas 1–3 (pré-requisitos, clone/instale, inicie os serviços).
- Na configuração do Cline, adicione:
"mcpServers": { "mcp-rag-local": { "command": "uv", "args": [ "--directory", "path\\to\\mcp-rag-local", "run", "main.py" ], "env": { "CHROMADB_PORT": "8321", "OLLAMA_PORT": "11434" } } }
- Salve, reinicie o Cline e verifique a instalação.
Protegendo Chaves de API
- Use variáveis de ambiente na seção
env
da sua configuração. - Exemplo:
"env": { "CHROMADB_PORT": "8321", "OLLAMA_PORT": "11434", "MY_API_KEY": "${MY_API_KEY}" }
- Certifique-se de que chaves sensíveis não estão hardcoded, mas referenciadas do seu ambiente.
Como usar este MCP em fluxos
Utilizando MCP no FlowHunt
Para integrar servidores MCP ao seu fluxo de trabalho no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://seumcpserver.exemplo/caminhoparamcp/url"
}
}
Uma vez configurado, o agente de IA poderá usar este MCP como ferramenta com acesso a todas as suas funções e capacidades. Lembre-se de alterar “mcp-rag-local” para o nome real do seu servidor MCP e substituir a URL pela URL do seu MCP.
Visão Geral
Seção | Disponibilidade | Detalhes/Notas |
---|---|---|
Visão Geral | ✅ | |
Lista de Prompts | ⛔ | Nenhum prompt/template documentado |
Lista de Recursos | ⛔ | Nenhum recurso documentado |
Lista de Ferramentas | ✅ | memorize_text, memorize_multiple_texts, etc. |
Proteção de API Keys | ✅ | via env na config, exemplo mostrado |
Suporte a Sampling (menos relevante na avaliação) | ⛔ | Não mencionado |
Nossa opinião
Este MCP é direto e bem focado em memória semântica, mas carece de recursos avançados como templates de prompt, recursos explícitos ou suporte a sampling/roots. Ferramentas e configuração são claras. Melhor para fluxos simples de RAG/conhecimento local.
Pontuação do MCP
Possui LICENSE | ✅ (MIT) |
---|---|
Possui ao menos uma ferramenta | ✅ |
Número de Forks | 1 |
Número de Stars | 5 |
Perguntas frequentes
- O que é o servidor MCP mcp-rag-local?
É um servidor MCP local que oferece aos agentes de IA a capacidade de armazenar e recuperar textos, documentos e PDFs por significado semântico. Alimentado por Ollama e ChromaDB, possibilita gestão do conhecimento, memória contextual e busca semântica para suas aplicações.
- Quais ferramentas o mcp-rag-local oferece?
Oferece ferramentas para armazenar um ou vários textos, ingerir arquivos PDF e recuperar textos semelhantes usando busca semântica. Isso possibilita fluxos como construção de bases de conhecimento pessoais, sumarização de documentos e memória conversacional para chatbots.
- Como faço para configurar o mcp-rag-local?
Instale uv e Docker, clone o repositório, inicie o Ollama e o ChromaDB e configure o servidor MCP no arquivo de configuração do seu cliente com as portas especificadas. Variáveis de ambiente são usadas para configuração segura.
- Quais são os principais casos de uso?
Casos de uso incluem construção de base de conhecimento semântica, sumarização de documentos/PDFs, aprimoramento da memória de chatbots, busca semântica e exploração de dados de pesquisa.
- Como proteger chaves de API ou portas?
Sempre utilize variáveis de ambiente na seção env da sua configuração para evitar hardcode de informações sensíveis, garantindo segurança e boas práticas.
Experimente o mcp-rag-local com o FlowHunt
Turbine seus fluxos de trabalho de IA com memória semântica e busca local de documentos usando o mcp-rag-local. Configure em minutos e transforme a maneira como seus agentes recordam e raciocinam sobre conhecimentos.