
mcp-local-rag MCP-server
mcp-local-rag MCP-servern möjliggör integritetsvänlig, lokal Retrieval-Augmented Generation (RAG) webbsökning för LLM:er. Den låter AI-assistenter få tillgång t...
En lokal MCP-server med semantiskt minne för FlowHunt, byggd med ChromaDB och Ollama. Möjliggör för AI-agenter att minnas och hämta text, dokument och PDF:er utifrån innebörd, för kraftfulla RAG- och kunskapsflöden.
mcp-rag-local MCP-servern är utformad som en minnesserver som gör det möjligt för AI-assistenter att lagra och hämta textavsnitt baserat på deras semantiska innebörd, inte bara nyckelord. Genom att utnyttja Ollama för att skapa textinbäddningar och ChromaDB för vektorlagring och likhetssökning, möjliggör den sömlös lagring (“memorering”) och hämtning av relevanta texter för en given fråga. Detta stärker AI-drivna arbetsflöden såsom kunskapshantering, kontextuell återkallning och semantisk sökning. Utvecklare kan interagera med servern för att lagra enskilda texter, flera texter eller till och med innehåll från PDF-filer, och senare hämta den mest kontextuellt relevanta informationen – vilket höjer produktiviteten och den kontextuella medvetenheten i applikationer.
memorize_text
Gör det möjligt för servern att lagra ett enskilt textavsnitt för framtida semantisk hämtning.
memorize_multiple_texts
Möjliggör batchlagring av flera texter samtidigt för effektiv kunskapsinläsning.
memorize_pdf_file
Läser och extraherar upp till 20 sidor åt gången från en PDF-fil, delar upp innehållet och memorerar det för semantisk hämtning.
retrieve_similar_texts
Hämtar de mest relevanta lagrade textavsnitten baserat på en användares fråga, med hjälp av semantisk likhet.
(Verktygsnamn tolkade från dokumenterade användningsmönster; exakta namn kan variera i koden.)
Personlig kunskapsbas
Utvecklare och användare kan bygga en beständig, sökbar kunskapsbas genom att memorera artiklar, anteckningar eller forskningsartiklar för semantisk återkallning.
Dokument- och PDF-summering
Genom att memorera hela PDF-dokument kan användare senare ställa frågor och hämta relevanta avsnitt eller sammanfattningar, vilket effektiviserar forskning och översikt.
Samtalsminne för chattbottar
Stärk AI-assistenter eller chattbottar med långsiktigt, kontextmedvetet minne för att ge mer sammanhängande och kontextuellt relevanta svar över tid.
Semantisk sökmotor
Implementera en semantisk sökfunktion i applikationer, så att användare kan hitta relevant information baserat på innebörd snarare än bara nyckelord.
Forskning och datautforskning
Lagra och sök bland tekniska dokument, kodsnuttar eller vetenskaplig litteratur för snabb, meningsbaserad hämtning under undersökning eller utveckling.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
för att starta ChromaDB och Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
-sektionen av din konfiguration."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, ange dina MCP-serveruppgifter enligt detta JSON-format:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När den är konfigurerad kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att ändra “mcp-rag-local” till det faktiska namnet på din MCP-server och byt ut URL:en mot din egen MCP-server-URL.
Sektion | Tillgänglighet | Detaljer/Anteckningar |
---|---|---|
Översikt | ✅ | |
Lista över prompts | ⛔ | Inga prompts/mallar dokumenterade |
Lista över resurser | ⛔ | Inga resurser dokumenterade |
Lista över verktyg | ✅ | memorize_text, memorize_multiple_texts, m.fl. |
Skydda API-nycklar | ✅ | via env i konfiguration, exempel visas |
Sampling-stöd (mindre viktigt i utvärdering) | ⛔ | Ej nämnt |
Denna MCP är enkel och tydligt fokuserad på semantiskt minne, men saknar avancerade funktioner som promptmallar, explicita resurser eller sampling/roots-stöd. Verktyg och installation är tydliga. Bäst för enkla RAG/lokala kunskapsflöden.
Har LICENSE | ✅ (MIT) |
---|---|
Har minst ett verktyg | ✅ |
Antal forks | 1 |
Antal stjärnor | 5 |
Det är en lokal MCP-server som ger AI-agenter möjlighet att lagra och hämta text, dokument och PDF:er utifrån semantisk innebörd. Drivs av Ollama och ChromaDB och möjliggör kunskapshantering, kontextuellt minne och semantisk sökning för dina applikationer.
Den tillhandahåller verktyg för att lagra enskilda eller flera textavsnitt, läsa in PDF-filer och hämta liknande texter med hjälp av semantisk sökning. Detta möjliggör arbetsflöden som att bygga personliga kunskapsbaser, dokumentsummering och samtalsminne för chattbottar.
Installera uv och Docker, klona repot, starta Ollama och ChromaDB, och konfigurera MCP-servern i din klients konfigurationsfil med angivna portar. Miljövariabler används för säker konfiguration.
Användningsområden inkluderar att bygga en semantisk kunskapsbas, dokument/PDF-summering, förstärka chattbottens minne, semantisk sökning och utforskning av forskningsdata.
Använd alltid miljövariabler i env-sektionen av din konfiguration för att undvika hårdkodning av känslig information och säkerställa bästa säkerhetspraxis.
Snabba upp dina AI-arbetsflöden med semantiskt minne och lokal dokumentsökning via mcp-rag-local. Sätt upp på några minuter och förändra hur dina agenter återkallar och resonerar kring kunskap.
mcp-local-rag MCP-servern möjliggör integritetsvänlig, lokal Retrieval-Augmented Generation (RAG) webbsökning för LLM:er. Den låter AI-assistenter få tillgång t...
Chroma MCP Server ger FlowHunt-användare avancerade vektordatabaskapaciteter inklusive semantisk sökning, metadatafiltrering och robust samlingshantering för AI...
Ragie MCP Server möjliggör för AI-assistenter att utföra semantisk sökning och hämta relevant information från Ragies kunskapsbaser, vilket förbättrar utvecklin...