
Lspace MCP 服务器
Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

使用 LLM Context MCP 服务器无缝连接 AI 代理与代码及文本项目——通过安全、丰富上下文和自动化协助优化开发工作流。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
LLM Context MCP 服务器是一款旨在无缝连接 AI 助手与外部代码及文本项目的工具,通过模型上下文协议(MCP)提升开发工作流。它利用 .gitignore 规则进行智能文件选择,让开发者可以将高度相关的内容直接注入到 LLM 聊天界面,或采用便捷的剪贴板工作流。借助上下文感知的 AI 协助,可高效完成代码评审、文档生成和项目探索等任务。LLM Context 非常适用于代码仓库和文本资料集合,是项目数据与 AI 驱动工作流之间的多功能桥梁。
在仓库中未找到有关已定义提示词模板的信息。
在所提供文件或文档中未明确提及任何资源。
在仓库结构中未找到 server.py 或类似文件,未找到有关已暴露工具的信息。
windsurf.config.json)。{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
请通过设置环境变量保护 API 密钥和机密信息。示例配置如下:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
在 FlowHunt 中集成 MCP
将 MCP 服务器集成到 FlowHunt 工作流时,首先添加 MCP 组件,并将其连接到你的 AI 代理:

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,采用以下 JSON 格式填写你的 MCP 服务器信息:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP 并访问其所有功能。请记得将 “llm-context” 替换成你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。
| 部分 | 可用性 | 说明/备注 |
|---|---|---|
| 概览 | ✅ | |
| 提示词列表 | ⛔ | 未找到信息 |
| 资源列表 | ⛔ | 未找到信息 |
| 工具列表 | ⛔ | 未找到信息 |
| API 密钥安全配置 | ✅ | 提供了环境变量配置示例 |
| 采样支持(评估时不重要) | ⛔ | 未找到信息 |
根据以上表格,此 MCP 服务器在概览和安全最佳实践方面表现良好,但缺乏提示词、资源和工具的详细文档。因此,它最适合基础的上下文共享工作流,如需充分发挥 MCP 的高级功能还需进一步补充文档。
| 有 LICENSE | ✅ (Apache-2.0) |
|---|---|
| 至少有一个工具 | ⛔ |
| Fork 数量 | 18 |
| Star 数量 | 231 |
将 LLM Context MCP 服务器集成到 FlowHunt,实现更智能、上下文感知的自动化编码与文档流程。

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

DocsMCP 是一款模型上下文协议(MCP)服务器,为大型语言模型(LLM)提供对本地和远程文档源的实时访问,通过实现即时、具备上下文感知的文档查询,提升开发者工作流与 AI 助理的能力。...

ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.