
Lspace MCP Server
Lspace MCP Server to otwartoźródłowy backend oraz aplikacja samodzielna implementująca Model Context Protocol (MCP). Umożliwia trwałe, przeszukiwalne gromadzeni...

Połącz płynnie agentów AI z projektami kodu i tekstu dzięki LLM Context MCP Server—optymalizując przepływy pracy deweloperskiej dzięki bezpiecznej, bogatej w kontekst i zautomatyzowanej pomocy.
FlowHunt zapewnia dodatkową warstwę bezpieczeństwa między Twoimi systemami wewnętrznymi a narzędziami AI, dając Ci szczegółową kontrolę nad tym, które narzędzia są dostępne z Twoich serwerów MCP. Serwery MCP hostowane w naszej infrastrukturze można bezproblemowo zintegrować z chatbotem FlowHunt oraz popularnymi platformami AI, takimi jak ChatGPT, Claude i różne edytory AI.
LLM Context MCP Server to narzędzie zaprojektowane do płynnego łączenia asystentów AI z zewnętrznymi projektami kodu i tekstu, usprawniające workflow deweloperski poprzez Model Context Protocol (MCP). Wykorzystując wzorce .gitignore do inteligentnego wyboru plików, pozwala deweloperom wstrzykiwać wysoce relewantne treści bezpośrednio do interfejsów czatu LLM lub korzystać z uproszczonego workflow ze schowkiem. Umożliwia to efektywne realizowanie zadań takich jak przegląd kodu, generowanie dokumentacji czy eksploracja projektu z pomocą kontekstowego wsparcia AI. LLM Context sprawdza się zarówno w repozytoriach kodu, jak i kolekcjach dokumentów tekstowych, stanowiąc uniwersalne łącze między danymi projektowymi a workflow opartym na AI.
Brak informacji o zdefiniowanych szablonach promptów w repozytorium.
W udostępnionych plikach lub dokumentacji nie wspomniano o żadnych zasobach.
W widocznej strukturze repozytorium nie występuje plik server.py ani równoważny plik z listą narzędzi. Nie znaleziono informacji o dostępnych narzędziach.
windsurf.config.json).{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
Ustaw zmienne środowiskowe, aby chronić klucze API i sekrety. Przykładowa konfiguracja:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
Użycie MCP w FlowHunt
Aby zintegrować serwery MCP z workflow w FlowHunt, zacznij od dodania komponentu MCP do swojego flow i połącz go z agentem AI:

Kliknij na komponent MCP, aby otworzyć panel konfiguracyjny. W sekcji konfiguracji systemowej MCP wstaw szczegóły swojego serwera MCP używając tego formatu JSON:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po zapisaniu agent AI będzie mógł korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, aby zmienić “llm-context” na faktyczną nazwę swojego serwera MCP i podać własny adres URL serwera MCP.
| Sekcja | Dostępność | Szczegóły/Uwagi |
|---|---|---|
| Przegląd | ✅ | |
| Lista promptów | ⛔ | Brak znalezionych informacji |
| Lista zasobów | ⛔ | Brak znalezionych informacji |
| Lista narzędzi | ⛔ | Brak znalezionych informacji |
| Zabezpieczanie kluczy API | ✅ | Podany przykład zmiennej środowiskowej |
| Sampling Support (mniej istotne przy ocenie) | ⛔ | Brak znalezionych informacji |
Na podstawie obu tabel, ten serwer MCP posiada mocny przegląd oraz dobre praktyki bezpieczeństwa, ale brakuje mu jasnej dokumentacji dotyczącej promptów, zasobów i narzędzi. Jest zatem najbardziej przydatny do podstawowych workflow dzielenia się kontekstem i wymaga dalszej dokumentacji, by w pełni wykorzystać zaawansowane możliwości MCP.
| Czy posiada LICENCJĘ | ✅ (Apache-2.0) |
|---|---|
| Czy ma przynajmniej jedno narzędzie | ⛔ |
| Liczba forków | 18 |
| Liczba gwiazdek | 231 |
Zintegruj LLM Context MCP Server z FlowHunt, aby uzyskać inteligentniejszą, kontekstową automatyzację w procesach kodowania i dokumentacji.

Lspace MCP Server to otwartoźródłowy backend oraz aplikacja samodzielna implementująca Model Context Protocol (MCP). Umożliwia trwałe, przeszukiwalne gromadzeni...

Serwer LSP MCP łączy serwery Language Server Protocol (LSP) z asystentami AI, umożliwiając zaawansowaną analizę kodu, inteligentne podpowiedzi, diagnostykę oraz...

Serwer LlamaCloud MCP łączy asystentów AI z wieloma zarządzanymi indeksami na LlamaCloud, umożliwiając wyszukiwanie dokumentów na skalę przedsiębiorstwa, przesz...
Zgoda na Pliki Cookie
Używamy plików cookie, aby poprawić jakość przeglądania i analizować nasz ruch. See our privacy policy.