
mcp-local-rag MCP Server
Serwer mcp-local-rag MCP umożliwia lokalne, dbające o prywatność wyszukiwanie internetowe Retrieval-Augmented Generation (RAG) dla LLM-ów. Pozwala asystentom AI...
Lokalny, semantyczny serwer MCP dla FlowHunt, oparty na ChromaDB i Ollama. Umożliwia agentom AI zapamiętywanie i wyszukiwanie tekstów, dokumentów i plików PDF według znaczenia, wspierając potężne procesy RAG i zarządzania wiedzą.
mcp-rag-local to serwer MCP zaprojektowany jako serwer pamięci, który pozwala asystentom AI zapisywać i wyszukiwać fragmenty tekstu na podstawie znaczenia semantycznego, a nie tylko słów kluczowych. Wykorzystuje on Ollama do generowania embeddingów tekstu oraz ChromaDB do przechowywania wektorowego i wyszukiwania podobieństw, umożliwiając wygodne zapisywanie („zapamiętywanie”) oraz przywoływanie odpowiednich tekstów dla danego zapytania. Umożliwia to procesy oparte na AI, takie jak zarządzanie wiedzą, przywoływanie kontekstowe oraz wyszukiwanie semantyczne. Programiści mogą korzystać z serwera do zapisywania pojedynczych tekstów, wielu tekstów, a nawet zawartości plików PDF, a następnie wyszukiwać najbardziej kontekstowo powiązane informacje, zwiększając produktywność i świadomość kontekstową w aplikacjach.
memorize_text
Pozwala serwerowi zapisać pojedynczy fragment tekstu do przyszłego wyszukiwania semantycznego.
memorize_multiple_texts
Umożliwia zbiorcze zapisywanie kilku tekstów jednocześnie, ułatwiając hurtowe gromadzenie wiedzy.
memorize_pdf_file
Odczytuje i przetwarza do 20 stron jednocześnie z pliku PDF, dzieli treść i zapamiętuje ją do wyszukiwania semantycznego.
retrieve_similar_texts
Wyszukuje najbardziej odpowiednie zapisane fragmenty tekstu na podstawie zapytania użytkownika, wykorzystując podobieństwo semantyczne.
(Nazwy narzędzi wydedukowane na podstawie udokumentowanych wzorców użycia; dokładne nazwy mogą się różnić w kodzie.)
Osobista baza wiedzy
Programiści i użytkownicy mogą budować trwałą, przeszukiwalną bazę wiedzy, zapamiętując artykuły, notatki lub publikacje naukowe do kontekstowego przywoływania.
Streszczanie dokumentów i PDF
Po zapamiętaniu całych dokumentów PDF użytkownik może później zadawać pytania i przywoływać odpowiednie fragmenty lub streszczenia, usprawniając badania i przeglądanie.
Pamięć konwersacyjna dla chatbotów
Rozszerz możliwości asystentów AI lub chatbotów o długoterminową, kontekstową pamięć, aby zapewnić bardziej spójne i adekwatne odpowiedzi w dłuższym czasie.
Wyszukiwarka semantyczna
Zaimplementuj w aplikacji wyszukiwanie semantyczne, pozwalając użytkownikom znajdować istotne informacje na podstawie znaczenia, a nie tylko słów kluczowych.
Eksploracja badań i danych
Przechowuj i przeszukuj dokumenty techniczne, fragmenty kodu lub literaturę naukową, aby szybko i znaczeniowo odzyskiwać informacje podczas analizy lub rozwoju.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
, aby wystartować ChromaDB i Ollama.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
):"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
swojej konfiguracji."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
Korzystanie z MCP w FlowHunt
Aby zintegrować serwery MCP z przepływem pracy w FlowHunt, zacznij od dodania komponentu MCP do flow i połącz go ze swoim agentem AI:
Kliknij komponent MCP, aby otworzyć panel konfiguracji. W sekcji konfiguracji systemowego MCP wprowadź dane swojego serwera MCP w tym formacie JSON:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po skonfigurowaniu agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by “mcp-rag-local” zamienić na faktyczną nazwę swojego serwera MCP i podać własny adres URL serwera MCP.
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | |
Lista promptów | ⛔ | Brak udokumentowanych promptów/szablonów |
Lista zasobów | ⛔ | Brak udokumentowanych zasobów |
Lista narzędzi | ✅ | memorize_text, memorize_multiple_texts, itd. |
Zabezpieczanie kluczy API | ✅ | przez env w configu, pokazano przykład |
Wsparcie dla sampling (mało istotne) | ⛔ | Nie wspomniano |
Ten MCP jest prosty i skupiony na pamięci semantycznej, ale nie posiada zaawansowanych funkcji, takich jak szablony promptów, jawne zasoby czy wsparcie sampling/roots. Narzędzia i konfiguracja są przejrzyste. Najlepszy do prostych lokalnych procesów RAG/wiedzy.
Ma LICENCJĘ | ✅ (MIT) |
---|---|
Ma przynajmniej jedno narzędzie | ✅ |
Liczba forków | 1 |
Liczba gwiazdek | 5 |
To lokalny serwer MCP, który daje agentom AI możliwość zapisywania i wyszukiwania tekstów, dokumentów i plików PDF na podstawie znaczenia semantycznego. Oparty na Ollama i ChromaDB, umożliwia zarządzanie wiedzą, pamięć kontekstową oraz wyszukiwanie semantyczne w Twoich aplikacjach.
Oferuje narzędzia do zapisywania pojedynczych lub wielu fragmentów tekstu, przetwarzania plików PDF oraz wyszukiwania podobnych tekstów za pomocą wyszukiwania semantycznego. Umożliwia to np. budowę osobistych baz wiedzy, streszczanie dokumentów czy pamięć konwersacyjną dla chatbotów.
Zainstaluj uv i Dockera, sklonuj repozytorium, uruchom Ollama i ChromaDB oraz skonfiguruj serwer MCP w pliku konfiguracyjnym klienta ze wskazanymi portami. Zmienna środowiskowe służą do bezpiecznej konfiguracji.
Przykłady zastosowań to budowa semantycznej bazy wiedzy, streszczenia dokumentów/PDF, wzbogacanie pamięci chatbota, wyszukiwanie semantyczne oraz eksploracja danych naukowych.
Zawsze używaj zmiennych środowiskowych w sekcji env swojej konfiguracji, aby nie umieszczać wrażliwych danych na stałe, zapewniając bezpieczeństwo i zgodność z dobrymi praktykami.
Wzmocnij swoje procesy AI dzięki pamięci semantycznej i lokalnemu wyszukiwaniu dokumentów z mcp-rag-local. Skonfiguruj w kilka minut i zmień sposób, w jaki Twoi agenci przywołują i analizują wiedzę.
Serwer mcp-local-rag MCP umożliwia lokalne, dbające o prywatność wyszukiwanie internetowe Retrieval-Augmented Generation (RAG) dla LLM-ów. Pozwala asystentom AI...
Rememberizer MCP Server łączy asystentów AI z zarządzaniem wiedzą, umożliwiając semantyczne wyszukiwanie, zunifikowane pobieranie dokumentów i współpracę zespoł...
Serwer Chroma MCP daje użytkownikom FlowHunt zaawansowane możliwości bazy wektorowej, w tym wyszukiwanie semantyczne, filtrowanie po metadanych oraz solidne zar...