
Lspace MCP Server
Lspace MCP Server er en open-source backend og selvstændig applikation, der implementerer Model Context Protocol (MCP). Den muliggør vedvarende, søgbar viden ve...

Forbind AI-agenter problemfrit til kode- og tekstprojekter med LLM Context MCP Server—optimerer udviklingsworkflows med sikker, kontekstrig og automatiseret assistance.
FlowHunt giver et ekstra sikkerhedslag mellem dine interne systemer og AI-værktøjer, hvilket giver dig granulær kontrol over hvilke værktøjer der er tilgængelige fra dine MCP-servere. MCP-servere hostet i vores infrastruktur kan problemfrit integreres med FlowHunts chatbot samt populære AI-platforme som ChatGPT, Claude og forskellige AI-editorer.
LLM Context MCP Server er et værktøj designet til problemfrit at forbinde AI-assistenter med eksterne kode- og tekstprojekter og forbedre udviklingsworkflowet gennem Model Context Protocol (MCP). Ved at udnytte .gitignore-mønstre til intelligent filvalg gør det det muligt for udviklere at indsætte yderst relevant indhold direkte i LLM-chatgrænseflader eller bruge et strømlinet clipboard-workflow. Dette muliggør opgaver såsom kodegennemgang, dokumentationsgenerering og projektekspolering, der kan udføres effektivt med kontekstbevidst AI-assistance. LLM Context er særligt effektiv til både koderepositorier og samlinger af tekstuelle dokumenter, hvilket gør det til en alsidig bro mellem projektdata og AI-drevne workflows.
Ingen oplysninger fundet i arkivet om definerede prompt-skabeloner.
Ingen eksplicitte ressourcer er nævnt i de leverede filer eller dokumentation.
Ingen server.py eller tilsvarende fil med en liste over værktøjer er til stede i den synlige arkivstruktur. Ingen oplysninger om eksponerede værktøjer kunne findes.
windsurf.config.json).{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
Angiv miljøvariabler for at beskytte API-nøgler og hemmeligheder. Eksempel på konfiguration:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
Brug af MCP i FlowHunt
For at integrere MCP-servere i dit FlowHunt-workflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

Klik på MCP-komponenten for at åbne konfigurationspanelet. I system-MCP-konfigurationssektionen indsætter du dine MCP-serveroplysninger ved hjælp af dette JSON-format:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “llm-context” til det faktiske navn på din MCP-server og udskifte URL’en med din egen MCP-server-URL.
| Sektion | Tilgængelighed | Detaljer/Noter |
|---|---|---|
| Oversigt | ✅ | |
| Liste over Prompts | ⛔ | Ingen oplysninger fundet |
| Liste over Ressourcer | ⛔ | Ingen oplysninger fundet |
| Liste over Værktøjer | ⛔ | Ingen oplysninger fundet |
| Sikring af API-nøgler | ✅ | Eksempel på miljøvariabel givet |
| Sampling Support (mindre vigtigt i evaluering) | ⛔ | Ingen oplysninger fundet |
På baggrund af de to tabeller har denne MCP-server et stærkt overblik og gode sikkerhedspraksisser, men mangler klar dokumentation for prompts, ressourcer og værktøjer. Derfor er den mest nyttig til grundlæggende kontekstdelingsworkflows og kræver yderligere dokumentation for fuldt ud at udnytte MCP’s avancerede funktioner.
| Har LICENS | ✅ (Apache-2.0) |
|---|---|
| Har mindst ét værktøj | ⛔ |
| Antal forks | 18 |
| Antal stjerner | 231 |
Integrer LLM Context MCP Server i FlowHunt for smartere, kontekstbevidst automatisering i dine kode- og dokumentationsprocesser.

Lspace MCP Server er en open-source backend og selvstændig applikation, der implementerer Model Context Protocol (MCP). Den muliggør vedvarende, søgbar viden ve...

LSP MCP Server forbinder Language Server Protocol (LSP)-servere til AI-assistenter og muliggør avanceret kodeanalyse, intelligent autofuldførelse, diagnostik og...

LlamaCloud MCP-serveren forbinder AI-assistenter med flere administrerede indekser på LlamaCloud, hvilket muliggør dokumenthentning, søgning og vidensudvidelse ...
Cookie Samtykke
Vi bruger cookies til at forbedre din browsingoplevelse og analysere vores trafik. See our privacy policy.