
LLM Context MCP 服务器
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
Lspace MCP 服务器将分散的 AI 对话转化为持久可检索的知识库,实现开发工具间上下文的无缝共享。
Lspace MCP 服务器是一个开源后端及独立应用,实现了模型上下文协议(MCP)。它旨在为开发者消除上下文切换的摩擦,通过捕获任意 AI 会话的洞见,使这些信息在各类工具中持久可用。通过将 AI 代理与外部工具连接到受管内容仓库,Lspace 能将分散的对话转化为持久可检索的知识。它支持智能知识库生成、为 AI 助手提供上下文增强,以及与可查询或更新存储知识的工具无缝集成等工作流。Lspace 赋能开发者集成并管理知识仓库,促进更高效的开发协作与流程。
未在提供的文件或文档中识别到提示词模板。
在现有文件或 README 中未发现显式 MCP“资源”文档。
在现有文件或文档中未发现显式工具定义(如 query_database、read_write_file 等)。
在现有材料中未找到 Windsurf 的平台专用说明。
在现有材料中未找到 Claude 的平台专用说明。
git clone https://github.com/Lspace-io/lspace-server.git
cd lspace-server
npm install
npm run build
cp .env.example .env
# 编辑 .env,设置 OPENAI_API_KEY 及其他所需变量
cp config.example.json config.local.json
# 编辑 config.local.json,添加你的 GitHub PAT 和仓库信息
{
"mcpServers": [
{
"command": "node",
"args": ["/actual/absolute/path/to/your/lspace-server/lspace-mcp-server.js"]
}
]
}
将敏感 API 密钥(如 OPENAI_API_KEY
)存放于环境变量。配置示例:
{
"mcpServers": [
{
"command": "node",
"args": ["/path/to/lspace-mcp-server.js"],
"env": {
"OPENAI_API_KEY": "your-openai-api-key"
},
"inputs": {}
}
]
}
在现有材料中未找到 Cline 的平台专用说明。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成进 FlowHunt 工作流,先在流程中添加 MCP 组件,并连接至你的 AI 代理:
点击 MCP 组件,打开配置面板。在系统 MCP 配置区,按照如下 JSON 格式填写你的 MCP 服务器信息:
{
"lspace-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。注意将 “lspace-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 换成自己的 MCP 服务器地址。
模块 | 是否可用 | 说明/备注 |
---|---|---|
概述 | ✅ | |
提示词列表 | ⛔ | 无相关文档 |
资源列表 | ⛔ | 无相关文档 |
工具列表 | ⛔ | 无相关文档 |
API 密钥安全存储 | ✅ | .env/.json |
采样支持(评估中不重要) | ⛔ | 未提及 |
根据文档完整性,包含清晰的概述、可用的部署说明和部分使用场景,但缺少工具、提示词、资源、roots 及采样相关文档,综合来看本 MCP 服务器的完整度与开发体验评分为 4/10。
是否有 LICENSE | ✅ |
---|---|
至少有一个工具 | ⛔ |
Fork 数量 | 0 |
Star 数量 | 1 |
Lspace MCP 服务器是一个开源后端应用,实现了模型上下文协议(MCP),用于捕获、存储和共享 AI 会话中的洞见。它将分散的对话转化为可持久存储、可检索的知识,以便跨工具和工作流使用。
通过与 AI 代理和仓库集成,Lspace 消除了上下文切换带来的摩擦,为 AI 交互持续注入上下文,并让洞见在多工具间可用,提高了效率和协作力。
Lspace 适合于从 AI 对话生成知识库、为 AI 助手提供上下文记忆、将代码及文档仓库作为上下文管理,以及与多种工作流工具无缝集成。
如 OPENAI_API_KEY 等 API 密钥应存储在环境变量(例如 .env 文件或 MCP 服务器配置的 'env' 部分)中,而非硬编码进代码,这样可更好地保障凭证安全。
当前文档未包含提示词模板或显式工具定义。Lspace 的重点在于知识持久化、上下文管理与仓库集成,以服务于 AI 工作流。
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
LSP MCP服务器将语言服务器协议(LSP)服务器与AI助手连接,实现先进的代码分析、智能补全、诊断以及通过标准化LSP功能在FlowHunt中进行编辑器自动化。...
Boost.space MCP 服务器连接 AI 助理与 Boost.Space REST API,使其能在 FlowHunt 内无缝访问组织数据与工作流。它作为 AI 自动化和集成的安全 API 代理,简化了开发者操作。...