
mcp-local-rag MCP Server
O mcp-local-rag MCP Server possibilita uma busca web local e que respeita a privacidade para Geração Aumentada por Recuperação (RAG) em LLMs. Permite que assist...

Automação de IA
Um servidor MCP local de memória semântica para FlowHunt, construído com ChromaDB e Ollama. Permite que agentes de IA memorizem e recuperem textos, documentos e PDFs pelo significado, apoiando fluxos de trabalho poderosos de RAG e conhecimento.
O FlowHunt fornece uma camada de segurança adicional entre seus sistemas internos e ferramentas de IA, dando-lhe controle granular sobre quais ferramentas são acessíveis a partir de seus servidores MCP. Os servidores MCP hospedados em nossa infraestrutura podem ser perfeitamente integrados com o chatbot do FlowHunt, bem como com plataformas de IA populares como ChatGPT, Claude e vários editores de IA.
O mcp-rag-local Servidor MCP foi projetado como um servidor de memória que permite a assistentes de IA armazenar e recuperar passagens de texto com base no significado semântico, e não apenas em palavras-chave. Aproveitando o Ollama para gerar embeddings de texto e o ChromaDB para armazenamento vetorial e busca por similaridade, permite o armazenamento (“memorização”) fluido e a recuperação de textos relevantes para uma determinada consulta. Isso potencializa fluxos de trabalho guiados por IA como gestão do conhecimento, recordação contextual e busca semântica. Desenvolvedores podem interagir com o servidor para armazenar textos individuais, múltiplos textos ou até conteúdos de arquivos PDF, e posteriormente recuperar as informações mais relevantes, aumentando a produtividade e consciência contextual em aplicações.
memorize_text
Permite ao servidor armazenar uma passagem de texto para futura recuperação semântica.
memorize_multiple_texts
Habilita o armazenamento em lote de vários textos de uma só vez, facilitando a ingestão em massa de conhecimento.
memorize_pdf_file
Lê e extrai até 20 páginas por vez de um arquivo PDF, fragmenta o conteúdo e o memoriza para recuperação semântica.
retrieve_similar_texts
Recupera as passagens de texto armazenadas mais relevantes com base em uma consulta do usuário, usando similaridade semântica.
(Nomes das ferramentas inferidos a partir dos padrões de uso documentados; nomes exatos podem variar no código.)
Base de Conhecimento Pessoal
Desenvolvedores e usuários podem construir uma base de conhecimento persistente e pesquisável memorizando artigos, anotações ou artigos científicos para recordação semântica.
Sumarização de Documentos e PDFs
Ao memorizar documentos PDF inteiros, usuários podem posteriormente consultar e recuperar seções ou resumos relevantes, otimizando pesquisas e revisões.
Memória Conversacional para Chatbots
Aprimore assistentes de IA ou chatbots com memória de longo prazo e sensível ao contexto para fornecer respostas mais coerentes e relevantes ao longo do tempo.
Motor de Busca Semântica
Implemente uma função de busca semântica em aplicações, permitindo que usuários encontrem informações relevantes pelo significado, não apenas por palavras-chave.
Pesquisa e Exploração de Dados
Armazene e consulte documentos técnicos, trechos de código ou literatura científica para recuperação rápida e baseada em significado durante investigações ou desenvolvimento.
git clone <repository-url>cd mcp-rag-localdocker-compose up para iniciar o ChromaDB e o Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2mcpServers):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env da sua configuração."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Utilizando MCP no FlowHunt
Para integrar servidores MCP ao seu fluxo de trabalho no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:

Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://seumcpserver.exemplo/caminhoparamcp/url"
}
}
Uma vez configurado, o agente de IA poderá usar este MCP como ferramenta com acesso a todas as suas funções e capacidades. Lembre-se de alterar “mcp-rag-local” para o nome real do seu servidor MCP e substituir a URL pela URL do seu MCP.
| Seção | Disponibilidade | Detalhes/Notas |
|---|---|---|
| Visão Geral | ✅ | |
| Lista de Prompts | ⛔ | Nenhum prompt/template documentado |
| Lista de Recursos | ⛔ | Nenhum recurso documentado |
| Lista de Ferramentas | ✅ | memorize_text, memorize_multiple_texts, etc. |
| Proteção de API Keys | ✅ | via env na config, exemplo mostrado |
| Suporte a Sampling (menos relevante na avaliação) | ⛔ | Não mencionado |
Este MCP é direto e bem focado em memória semântica, mas carece de recursos avançados como templates de prompt, recursos explícitos ou suporte a sampling/roots. Ferramentas e configuração são claras. Melhor para fluxos simples de RAG/conhecimento local.
| Possui LICENSE | ✅ (MIT) |
|---|---|
| Possui ao menos uma ferramenta | ✅ |
| Número de Forks | 1 |
| Número de Stars | 5 |
Turbine seus fluxos de trabalho de IA com memória semântica e busca local de documentos usando o mcp-rag-local. Configure em minutos e transforme a maneira como seus agentes recordam e raciocinam sobre conhecimentos.

O mcp-local-rag MCP Server possibilita uma busca web local e que respeita a privacidade para Geração Aumentada por Recuperação (RAG) em LLMs. Permite que assist...

Integre o FlowHunt com o mcp-rag-local Memory Server para habilitar armazenamento semântico avançado e recuperação de dados textuais. Aproveite workflows orient...

O Rememberizer MCP Server faz a ponte entre assistentes de IA e a gestão do conhecimento, permitindo busca semântica, recuperação unificada de documentos e cola...
Consentimento de Cookies
Usamos cookies para melhorar sua experiência de navegação e analisar nosso tráfego. See our privacy policy.