
mcp-local-rag Serverul MCP
Serverul mcp-local-rag MCP permite o căutare web RAG (Retrieval-Augmented Generation) locală, care respectă confidențialitatea pentru LLM-uri. Permite asistenți...
Un server MCP local, cu memorie semantică, pentru FlowHunt, construit cu ChromaDB și Ollama. Permite agenților AI să memoreze și să regăsească texte, documente și PDF-uri după semnificație, susținând puternic fluxurile RAG și de cunoaștere.
mcp-rag-local MCP Server este conceput ca un server de memorie care permite asistenților AI să stocheze și să regăsească pasaje de text pe baza semnificației semantice, nu doar a cuvintelor cheie. Bazându-se pe Ollama pentru generarea embedding-urilor de text și ChromaDB pentru stocare vectorială și căutare de similaritate, permite stocarea (“memorarea”) și regăsirea fluentă a textelor relevante pentru o anumită interogare. Acest lucru facilitează fluxuri AI precum managementul cunoștințelor, reamintirea contextuală și căutarea semantică. Dezvoltatorii pot interacționa cu serverul pentru a stoca texte individuale, multiple sau chiar conținutul fișierelor PDF, și ulterior pot regăsi cele mai relevante informații contextual, sporind productivitatea și conștientizarea contextuală în aplicații.
memorize_text
Permite serverului să stocheze un singur pasaj de text pentru regăsire semantică viitoare.
memorize_multiple_texts
Permite stocarea în lot a mai multor texte simultan, facilitând ingestia rapidă de cunoștințe.
memorize_pdf_file
Citește și extrage până la 20 de pagini odată dintr-un fișier PDF, segmentează conținutul și îl memorează pentru regăsire semantică.
retrieve_similar_texts
Recuperează cele mai relevante pasaje de text stocate pe baza interogării utilizatorului, folosind similaritate semantică.
(Numele instrumentelor sunt deduse din exemplele de utilizare documentate; denumirea exactă poate varia în cod.)
Bază Personală de Cunoștințe
Dezvoltatorii și utilizatorii pot construi o bază persistentă de cunoștințe, interogabilă semantic, memorând articole, notițe sau lucrări științifice pentru reamintire semantică.
Sumarizare Documente și PDF-uri
Memorând documente PDF întregi, utilizatorii pot ulterior interoga și regăsi secțiuni relevante sau rezumate, eficientizând cercetarea și revizuirea.
Memorie conversațională pentru chatboți
Îmbunătățește asistenții AI sau chatboții cu memorie contextuală pe termen lung pentru a oferi răspunsuri mai coerente și relevante în timp.
Motor de căutare semantic
Implementează o funcționalitate de căutare semantică în aplicații, permițând utilizatorilor să găsească informații relevante pe bază de semnificație, nu doar cuvinte cheie.
Cercetare și explorare de date
Stochează și interoghează documentație tehnică, fragmente de cod sau literatură științifică pentru regăsire rapidă, bazată pe semnificație, în timpul investigațiilor sau dezvoltării.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
pentru a porni ChromaDB și Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
din configurație."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Utilizarea MCP în FlowHunt
Pentru a integra serverele MCP în fluxul tău FlowHunt, adaugă componenta MCP în flow și conecteaz-o la agentul tău AI:
Dă click pe componenta MCP pentru a deschide panoul de configurare. În secțiunea de configurare MCP a sistemului, inserează detaliile serverului MCP folosind acest format JSON:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
După configurare, agentul AI va putea folosi acest MCP ca instrument, având acces la toate funcțiile și capabilitățile sale. Nu uita să schimbi “mcp-rag-local” cu numele real al serverului tău MCP și să înlocuiești URL-ul cu cel al propriului server MCP.
Secțiune | Disponibilitate | Detalii/Note |
---|---|---|
Prezentare generală | ✅ | |
Lista de Prompts | ⛔ | Nu sunt documentate prompts/șabloane |
Lista de Resurse | ⛔ | Nu sunt documentate resurse |
Lista de Instrumente | ✅ | memorize_text, memorize_multiple_texts, etc. |
Securizarea cheilor API | ✅ | prin env în config, exemplu prezentat |
Suport sampling (mai puțin relevant) | ⛔ | Nu este menționat |
Acest MCP este simplu și bine concentrat pe memoria semantică, dar îi lipsesc funcții avansate precum șabloane de prompt, resurse explicite sau suport sampling/roots. Instrumentele și instalarea sunt clare. Cel mai potrivit pentru fluxuri simple RAG/de cunoaștere locală.
Are LICENȚĂ | ✅ (MIT) |
---|---|
Are cel puțin un tool | ✅ |
Număr de Fork-uri | 1 |
Număr de Stele | 5 |
Este un server MCP local care oferă agenților AI abilitatea de a stoca și regăsi texte, documente și PDF-uri după semnificația semantică. Susținut de Ollama și ChromaDB, permite gestionarea cunoștințelor, memorie contextuală și căutare semantică pentru aplicațiile tale.
Oferă instrumente pentru stocarea de unul sau mai multe pasaje de text, ingestia de fișiere PDF și regăsirea textelor similare folosind căutare semantică. Acest lucru permite fluxuri precum construirea unor baze personale de cunoștințe, sumarizare documente și memorie conversațională pentru chatboți.
Instalează uv și Docker, clonează repository-ul, pornește Ollama și ChromaDB și configurează serverul MCP în fișierul de configurare al clientului tău cu porturile specificate. Variabilele de mediu sunt folosite pentru configurare sigură.
Cazurile de utilizare includ construirea unei baze de cunoștințe semantice, sumarizarea documentelor/PDF-urilor, îmbunătățirea memoriei chatbot-urilor, căutare semantică și explorarea datelor de cercetare.
Folosește întotdeauna variabile de mediu în secțiunea env din configurație pentru a evita includerea directă a informațiilor sensibile, asigurând securitatea și cele mai bune practici.
Îmbunătățește-ți fluxurile AI cu memorie semantică și căutare locală în documente folosind mcp-rag-local. Configurează în câteva minute și transformă modul în care agenții tăi accesează și procesează cunoștințele.
Serverul mcp-local-rag MCP permite o căutare web RAG (Retrieval-Augmented Generation) locală, care respectă confidențialitatea pentru LLM-uri. Permite asistenți...
Rememberizer MCP Server face legătura între asistenții AI și managementul cunoștințelor, permițând căutare semantică, regăsire unificată a documentelor și colab...
Ragie MCP Server permite asistenților AI să efectueze căutări semantice și să recupereze informații relevante din bazele de cunoștințe Ragie, îmbunătățind fluxu...