
Lspace MCP Server
Lspace MCP Server är en öppen källkods-backend och fristående applikation som implementerar Model Context Protocol (MCP). Den möjliggör beständig, sökbar kunska...
Koppla smidigt AI-agenter till kod- och textprojekt med LLM Context MCP Server—optimera utvecklingsflöden med säkra, kontextberikade och automatiserade assistansfunktioner.
LLM Context MCP Server är ett verktyg utformat för att sömlöst koppla AI-assistenter till externa kod- och textprojekt och förbättra utvecklingsflödet via Model Context Protocol (MCP). Genom att utnyttja .gitignore
-mönster för intelligent filval kan utvecklare injicera högst relevant innehåll direkt i LLM-chattgränssnitt eller använda ett förenklat urklippsarbetsflöde. Detta möjliggör att uppgifter som kodgranskning, dokumentationsgenerering och projektexplorering kan utföras effektivt med kontextmedveten AI-assistans. LLM Context är särskilt effektiv för både kodförråd och samlingar av textdokument, vilket gör den till en mångsidig brygga mellan projektdata och AI-drivna arbetsflöden.
Ingen information hittades i arkivet angående definierade promptmallar.
Inga explicita resurser nämns i de medföljande filerna eller dokumentationen.
Någon server.py eller motsvarande fil som listar verktyg finns inte i den synliga arkivstrukturen. Ingen information om exponerade verktyg kunde hittas.
windsurf.config.json
).{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
Ställ in miljövariabler för att skydda API-nycklar och hemligheter. Exempel på konfiguration:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
Använda MCP i FlowHunt
För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:
Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion, lägg in dina MCP-serveruppgifter med detta JSON-format:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och kapaciteter. Kom ihåg att ändra “llm-context” till det faktiska namnet på din MCP-server och ersätta URL:en med din egen MCP-server-URL.
Sektion | Tillgänglighet | Detaljer/Noteringar |
---|---|---|
Översikt | ✅ | |
Lista över Prompts | ⛔ | Ingen information hittad |
Lista över Resurser | ⛔ | Ingen information hittad |
Lista över Verktyg | ⛔ | Ingen information hittad |
Säkra API-nycklar | ✅ | Exempel på miljövariabel medföljer |
Stöd för sampling (mindre viktigt i utvärdering) | ⛔ | Ingen information hittad |
Baserat på de två tabellerna har denna MCP-server en stark översikt och säkerhetsrutiner men saknar tydlig dokumentation för prompts, resurser och verktyg. Därför är den mest användbar för grundläggande kontextdelningsflöden och kräver ytterligare dokumentation för att fullt ut utnyttja MCP:s avancerade funktioner.
Har LICENS | ✅ (Apache-2.0) |
---|---|
Har minst ett verktyg | ⛔ |
Antal Forks | 18 |
Antal Stars | 231 |
LLM Context MCP Server kopplar AI-agenter till externa kod- och textprojekt, tillhandahåller intelligent kontextval via .gitignore-mönster och möjliggör avancerade arbetsflöden som kodgranskning, dokumentationsgenerering och projektexplorering direkt i LLM-chattgränssnitt.
Viktiga användningsområden inkluderar automatiserad kodgranskning, dokumentationsgenerering, snabb projektexplorering och urklippsbaserad innehållsdelning med LLM:er för ökad produktivitet i chattbaserade arbetsflöden.
Ställ in miljövariabler med dina API-nycklar (t.ex. LLM_CONTEXT_API_KEY) och referera dem i din MCP-serverkonfiguration för att hålla dina nycklar utanför källkod och konfigurationsfiler.
Nej, nuvarande version saknar definierade prompts och explicita verktyg, vilket gör den idealisk för grundläggande kontextdelningsflöden men kräver vidare anpassning för mer avancerade funktioner.
Denna server är öppen källkod under Apache-2.0-licensen.
Lägg till MCP-komponenten i ditt FlowHunt-flöde, ange MCP-serveruppgifter i konfigurationspanelen med det angivna JSON-formatet och koppla den till din AI-agent för förbättrad, kontextmedveten automatisering.
Integrera LLM Context MCP Server i FlowHunt för smartare, kontextmedveten automatisering i dina kodnings- och dokumentationsprocesser.
Lspace MCP Server är en öppen källkods-backend och fristående applikation som implementerar Model Context Protocol (MCP). Den möjliggör beständig, sökbar kunska...
Litmus MCP-servern möjliggör sömlös integration mellan stora språkmodeller (LLM:er) och Litmus Edge för konfiguration, övervakning och hantering av industriella...
LlamaCloud MCP-servern kopplar AI-assistenter till flera hanterade index på LlamaCloud, vilket möjliggör dokumentsökning i företagsklass, informationsåtervinnin...