
mcp-local-rag MCP Server
O mcp-local-rag MCP Server possibilita uma busca web local e que respeita a privacidade para Geração Aumentada por Recuperação (RAG) em LLMs. Permite que assist...
Um servidor MCP local de memória semântica para FlowHunt, construído com ChromaDB e Ollama. Permite que agentes de IA memorizem e recuperem textos, documentos e PDFs pelo significado, apoiando fluxos de trabalho poderosos de RAG e conhecimento.
O mcp-rag-local Servidor MCP foi projetado como um servidor de memória que permite a assistentes de IA armazenar e recuperar passagens de texto com base no significado semântico, e não apenas em palavras-chave. Aproveitando o Ollama para gerar embeddings de texto e o ChromaDB para armazenamento vetorial e busca por similaridade, permite o armazenamento (“memorização”) fluido e a recuperação de textos relevantes para uma determinada consulta. Isso potencializa fluxos de trabalho guiados por IA como gestão do conhecimento, recordação contextual e busca semântica. Desenvolvedores podem interagir com o servidor para armazenar textos individuais, múltiplos textos ou até conteúdos de arquivos PDF, e posteriormente recuperar as informações mais relevantes, aumentando a produtividade e consciência contextual em aplicações.
memorize_text
Permite ao servidor armazenar uma passagem de texto para futura recuperação semântica.
memorize_multiple_texts
Habilita o armazenamento em lote de vários textos de uma só vez, facilitando a ingestão em massa de conhecimento.
memorize_pdf_file
Lê e extrai até 20 páginas por vez de um arquivo PDF, fragmenta o conteúdo e o memoriza para recuperação semântica.
retrieve_similar_texts
Recupera as passagens de texto armazenadas mais relevantes com base em uma consulta do usuário, usando similaridade semântica.
(Nomes das ferramentas inferidos a partir dos padrões de uso documentados; nomes exatos podem variar no código.)
Base de Conhecimento Pessoal
Desenvolvedores e usuários podem construir uma base de conhecimento persistente e pesquisável memorizando artigos, anotações ou artigos científicos para recordação semântica.
Sumarização de Documentos e PDFs
Ao memorizar documentos PDF inteiros, usuários podem posteriormente consultar e recuperar seções ou resumos relevantes, otimizando pesquisas e revisões.
Memória Conversacional para Chatbots
Aprimore assistentes de IA ou chatbots com memória de longo prazo e sensível ao contexto para fornecer respostas mais coerentes e relevantes ao longo do tempo.
Motor de Busca Semântica
Implemente uma função de busca semântica em aplicações, permitindo que usuários encontrem informações relevantes pelo significado, não apenas por palavras-chave.
Pesquisa e Exploração de Dados
Armazene e consulte documentos técnicos, trechos de código ou literatura científica para recuperação rápida e baseada em significado durante investigações ou desenvolvimento.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
para iniciar o ChromaDB e o Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
da sua configuração."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Utilizando MCP no FlowHunt
Para integrar servidores MCP ao seu fluxo de trabalho no FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:
Clique no componente MCP para abrir o painel de configuração. Na seção de configuração do MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://seumcpserver.exemplo/caminhoparamcp/url"
}
}
Uma vez configurado, o agente de IA poderá usar este MCP como ferramenta com acesso a todas as suas funções e capacidades. Lembre-se de alterar “mcp-rag-local” para o nome real do seu servidor MCP e substituir a URL pela URL do seu MCP.
Seção | Disponibilidade | Detalhes/Notas |
---|---|---|
Visão Geral | ✅ | |
Lista de Prompts | ⛔ | Nenhum prompt/template documentado |
Lista de Recursos | ⛔ | Nenhum recurso documentado |
Lista de Ferramentas | ✅ | memorize_text, memorize_multiple_texts, etc. |
Proteção de API Keys | ✅ | via env na config, exemplo mostrado |
Suporte a Sampling (menos relevante na avaliação) | ⛔ | Não mencionado |
Este MCP é direto e bem focado em memória semântica, mas carece de recursos avançados como templates de prompt, recursos explícitos ou suporte a sampling/roots. Ferramentas e configuração são claras. Melhor para fluxos simples de RAG/conhecimento local.
Possui LICENSE | ✅ (MIT) |
---|---|
Possui ao menos uma ferramenta | ✅ |
Número de Forks | 1 |
Número de Stars | 5 |
É um servidor MCP local que oferece aos agentes de IA a capacidade de armazenar e recuperar textos, documentos e PDFs por significado semântico. Alimentado por Ollama e ChromaDB, possibilita gestão do conhecimento, memória contextual e busca semântica para suas aplicações.
Oferece ferramentas para armazenar um ou vários textos, ingerir arquivos PDF e recuperar textos semelhantes usando busca semântica. Isso possibilita fluxos como construção de bases de conhecimento pessoais, sumarização de documentos e memória conversacional para chatbots.
Instale uv e Docker, clone o repositório, inicie o Ollama e o ChromaDB e configure o servidor MCP no arquivo de configuração do seu cliente com as portas especificadas. Variáveis de ambiente são usadas para configuração segura.
Casos de uso incluem construção de base de conhecimento semântica, sumarização de documentos/PDFs, aprimoramento da memória de chatbots, busca semântica e exploração de dados de pesquisa.
Sempre utilize variáveis de ambiente na seção env da sua configuração para evitar hardcode de informações sensíveis, garantindo segurança e boas práticas.
Turbine seus fluxos de trabalho de IA com memória semântica e busca local de documentos usando o mcp-rag-local. Configure em minutos e transforme a maneira como seus agentes recordam e raciocinam sobre conhecimentos.
O mcp-local-rag MCP Server possibilita uma busca web local e que respeita a privacidade para Geração Aumentada por Recuperação (RAG) em LLMs. Permite que assist...
O Rememberizer MCP Server faz a ponte entre assistentes de IA e a gestão do conhecimento, permitindo busca semântica, recuperação unificada de documentos e cola...
O Servidor MCP Chroma capacita usuários do FlowHunt com recursos avançados de banco de dados vetorial, incluindo busca semântica, filtragem por metadados e gest...