
mcp-rag-local Serwer MCP
Serwer mcp-rag-local MCP umożliwia asystentom AI korzystanie z pamięci semantycznej, pozwalając na zapisywanie i wyszukiwanie fragmentów tekstu na podstawie zna...
Prosty, lokalny i dbający o prywatność serwer MCP do wyszukiwania internetowego w czasie rzeczywistym i Retrieval-Augmented Generation w FlowHunt oraz innych workflow AI.
mcp-local-rag MCP Server to „prymitywny” serwer Model Context Protocol (MCP) typu Retrieval-Augmented Generation (RAG), który działa lokalnie bez potrzeby korzystania z zewnętrznych API. Jego główną funkcją jest połączenie asystentów AI z internetem jako źródłem danych, umożliwiając dużym modelom językowym (LLM) wykonywanie wyszukiwań internetowych, pobieranie i osadzanie wyników oraz wyodrębnianie istotnych treści — wszystko w środowisku lokalnym z poszanowaniem prywatności. Serwer zarządza tym procesem, przesyłając zapytania użytkownika do wyszukiwarki (DuckDuckGo), pobierając wiele wyników, porównując je pod względem podobieństwa z użyciem Google MediaPipe Text Embedder oraz wyciągając istotny kontekst ze stron. Dzięki temu deweloperzy i klienci AI mają dostęp do aktualnych informacji z sieci, co wzbogaca workflow takie jak badania, tworzenie treści czy odpowiadanie na pytania — bez konieczności korzystania z zamkniętych API sieciowych.
W repozytorium ani dokumentacji nie ma wyszczególnionych szablonów promptów.
W dostępnych materiałach repozytorium nie opisano żadnych jawnych „zasobów” MCP.
W plikach ani dokumentacji nie wymieniono bezpośrednio żadnych narzędzi MCP.
Poniżej znajdziesz ogólne instrukcje integracji mcp-local-rag MCP Server z różnymi klientami MCP. Dostosuj JSON konfiguracyjny do swojego środowiska.
mcpServers
:{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
]
}
}
}
Dla mcp-local-rag nie są wymagane żadne zewnętrzne klucze API, ale jeśli chcesz ustawić zmienne środowiskowe (np. dla Dockera), użyj obiektu env
w konfiguracji:
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
],
"env": {
"EXAMPLE_ENV_VAR": "value"
},
"inputs": {}
}
}
}
Używanie MCP w FlowHunt
Aby zintegrować serwery MCP z workflow w FlowHunt, zacznij od dodania komponentu MCP do swojego flow i połączenia go z agentem AI:
Kliknij na komponent MCP, by otworzyć panel konfiguracji. W sekcji konfiguracji systemowej MCP wklej dane swojego serwera MCP w następującym formacie JSON:
{
"mcp-local-rag": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po skonfigurowaniu agent AI będzie mógł używać tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by zmienić “mcp-local-rag” na faktyczną nazwę swojego serwera MCP i podstawić własny adres URL.
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | |
Lista promptów | ⛔ | Brak |
Lista zasobów | ⛔ | Brak |
Lista narzędzi | ⛔ | Brak |
Zabezpieczanie kluczy API | ✅ | Przykład z env |
Obsługa sampling-u (mniej istotne w ocenie) | ⛔ | Brak wzmianki |
Podsumowując, mcp-local-rag to prosty, dbający o prywatność serwer MCP do wyszukiwania sieciowego, ale brakuje mu szczegółów w dokumentacji promptów, zasobów i narzędzi. Jest łatwy w konfiguracji i użyciu z głównymi klientami, najlepiej sprawdza się w prostych przypadkach użycia web RAG.
Posiada LICENSE | ✅ (MIT) |
---|---|
Ma przynajmniej jedno narzędzie | ⛔ |
Liczba forków | 12 |
Liczba gwiazdek | 48 |
To lokalny serwer MCP do wyszukiwania internetowego dbający o prywatność dla Retrieval-Augmented Generation (RAG). Łączy LLM-y z siecią, pobiera i osadza wyniki wyszukiwania oraz wyodrębnia istotne treści bez konieczności używania zewnętrznych API czy chmury.
Przykłady użycia to wyszukiwanie internetowe w czasie rzeczywistym dla LLM-ów, podsumowywanie treści, retrieval-augmented generation, produktywność deweloperska (np. wyszukiwanie dokumentacji), edukacja (pozyskiwanie świeżych materiałów do nauki).
Nie są wymagane żadne klucze API. Serwer działa lokalnie i używa DuckDuckGo do wyszukiwania, więc Twoje zapytania pozostają prywatne i nie potrzebujesz płatnych API.
Dodaj komponent MCP do swojego flow w FlowHunt, otwórz jego konfigurację i wstaw dane serwera MCP w zalecanym formacie JSON. Przykłady konfiguracji znajdziesz wyżej.
W dokumentacji nie zdefiniowano żadnych wzorcowych promptów, zasobów ani narzędzi. Serwer został zaprojektowany do prostego przeszukiwania sieci i pobierania kontekstu.
Zwiększ możliwości swojej AI dzięki prywatnemu, aktualnemu wyszukiwaniu internetowemu z mcp-local-rag. Bez zewnętrznych API czy kluczy!
Serwer mcp-rag-local MCP umożliwia asystentom AI korzystanie z pamięci semantycznej, pozwalając na zapisywanie i wyszukiwanie fragmentów tekstu na podstawie zna...
Serwer RAG Web Browser MCP wyposaża asystentów AI i modele językowe LLM w możliwości wyszukiwania na żywo w internecie oraz ekstrakcji treści, umożliwiając retr...
Serwer Ragie MCP umożliwia asystentom AI wykonywanie wyszukiwania semantycznego i pobieranie odpowiednich informacji z baz wiedzy Ragie, wzbogacając procesy dew...