
LLM Context MCP Server
LLM Context MCP Server propojuje AI asistenty s externími kódovými a textovými projekty a umožňuje kontextově orientované workflow pro kontrolu kódu, generování...

Lspace MCP Server promění roztříštěné AI konverzace v trvalou, vyhledatelnou znalostní bázi a umožňuje bezproblémové sdílení kontextu napříč vývojářskými nástroji.
FlowHunt poskytuje dodatečnou bezpečnostní vrstvu mezi vašimi interními systémy a AI nástroji, čímž vám dává podrobnou kontrolu nad tím, které nástroje jsou přístupné z vašich MCP serverů. MCP servery hostované v naší infrastruktuře lze bezproblémově integrovat s chatbotem FlowHunt i s populárními AI platformami jako jsou ChatGPT, Claude a různé AI editory.
Lspace MCP Server je open-source backend a samostatná aplikace, která implementuje Model Context Protocol (MCP). Je navržena tak, aby eliminovala problémy s přepínáním kontextu pro vývojáře díky zachycování poznatků z libovolných AI relací a jejich trvalé dostupnosti napříč různými nástroji. Propojením AI agentů a externích nástrojů se spravovanými obsahovými repozitáři Lspace proměňuje roztříštěné konverzace v trvalé, vyhledatelné znalosti. Umožňuje workflow jako je inteligentní generování znalostních bází, obohacení AI asistentů o kontext a bezproblémovou integraci s nástroji, které mohou dotazovat nebo aktualizovat uložené znalosti. Lspace umožňuje vývojářům spravovat znalostní repozitáře a podporuje efektivnější vývojářské workflow i spolupráci.
V poskytnutých souborech ani dokumentaci nebyly identifikovány žádné šablony promptů.
V dostupných souborech ani README nejsou zdokumentované žádné explicitní MCP „zdroje“.
V dostupných souborech ani dokumentaci nejsou zdokumentovány žádné explicitní definice nástrojů (např. query_database, read_write_file apod.).
V poskytnutých materiálech nebyly nalezeny žádné instrukce specifické pro platformu Windsurf.
V poskytnutých materiálech nebyly nalezeny žádné instrukce specifické pro platformu Claude.
git clone https://github.com/Lspace-io/lspace-server.git
cd lspace-server
npm install
npm run build
cp .env.example .env
# Upravte .env a nastavte OPENAI_API_KEY a další proměnné podle potřeby
cp config.example.json config.local.json
# Upravte config.local.json a přidejte svůj GitHub PAT a repozitáře
{
"mcpServers": [
{
"command": "node",
"args": ["/skutečná/absolutní/cesta/k/vašemu/lspace-server/lspace-mcp-server.js"]
}
]
}
Ukládejte citlivé API klíče (např. OPENAI_API_KEY) do proměnných prostředí. Ukázková konfigurace:
{
"mcpServers": [
{
"command": "node",
"args": ["/path/to/lspace-mcp-server.js"],
"env": {
"OPENAI_API_KEY": "váš-openai-api-klíč"
},
"inputs": {}
}
]
}
V poskytnutých materiálech nebyly nalezeny žádné instrukce specifické pro platformu Cline.
Použití MCP ve FlowHunt
Pro integraci MCP serverů do workflow ve FlowHunt začněte přidáním MCP komponenty do svého flow a propojte ji se svým AI agentem:

Klikněte na MCP komponentu pro otevření konfiguračního panelu. V sekci systémové konfigurace MCP vložte údaje o svém MCP serveru v tomto JSON formátu:
{
"lspace-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po konfiguraci může AI agent používat tento MCP jako nástroj s přístupem ke všem jeho funkcím a možnostem. Nezapomeňte změnit “lspace-mcp” na skutečný název vašeho MCP serveru a URL na adresu vašeho MCP serveru.
| Sekce | Dostupnost | Detaily/Poznámky |
|---|---|---|
| Přehled | ✅ | |
| Seznam promptů | ⛔ | Není zdokumentováno |
| Seznam zdrojů | ⛔ | Není zdokumentováno |
| Seznam nástrojů | ⛔ | Není zdokumentováno |
| Zabezpečení API klíčů | ✅ | .env/.json |
| Podpora sampling (méně důležité pro hodnocení) | ⛔ | Není zmíněno |
Na základě úrovně dokumentace, přítomnosti jasného přehledu, funkčního nastavení a popisu případů použití, ale s absencí dokumentace k nástrojům, promptům, zdrojům, rootům a sampling, bych tomuto MCP serveru přiřadil 4/10 za úplnost a vývojářskou přívětivost.
| Má LICENSE | ✅ |
|---|---|
| Má alespoň jeden nástroj | ⛔ |
| Počet Forků | 0 |
| Počet hvězdiček | 1 |
Integrujte Lspace MCP Server do svého workflow ve FlowHunt a zachycujte, uchovávejte a sdílejte znalosti napříč všemi AI nástroji a relacemi.

LLM Context MCP Server propojuje AI asistenty s externími kódovými a textovými projekty a umožňuje kontextově orientované workflow pro kontrolu kódu, generování...

LSP MCP Server propojuje Language Server Protocol (LSP) servery s AI asistenty, což umožňuje pokročilou analýzu kódu, inteligentní doplňování, diagnostiku a aut...

KubeSphere MCP Server umožňuje AI asistentům a nástrojům pro vývoj LLM bezproblémově spravovat KubeSphere clustery, automatizovat úlohy jako správa pracovních p...
Souhlas s cookies
Používáme cookies ke zlepšení vašeho prohlížení a analýze naší návštěvnosti. See our privacy policy.