Lspace MCP 服务器

MCP Server Open Source AI Integration Knowledge Management

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Lspace” MCP 服务器的作用是什么?

Lspace MCP 服务器是一个开源后端及独立应用,实现了模型上下文协议(MCP)。它旨在为开发者消除上下文切换的摩擦,通过捕获任意 AI 会话的洞见,使这些信息在各类工具中持久可用。通过将 AI 代理与外部工具连接到受管内容仓库,Lspace 能将分散的对话转化为持久可检索的知识。它支持智能知识库生成、为 AI 助手提供上下文增强,以及与可查询或更新存储知识的工具无缝集成等工作流。Lspace 赋能开发者集成并管理知识仓库,促进更高效的开发协作与流程。

提示词列表

未在提供的文件或文档中识别到提示词模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

在现有文件或 README 中未发现显式 MCP“资源”文档。

工具列表

在现有文件或文档中未发现显式工具定义(如 query_database、read_write_file 等)。

本 MCP 服务器的应用场景

  • 知识库生成: Lspace 支持捕获并存储 AI 会话的洞见和输出,可作为持久知识库进行管理。
  • 上下文 AI 辅助: 开发者可借助 Lspace,将过往对话或仓库的上下文丰富到 AI 交互中,提升准确性与相关性。
  • 仓库管理: 通过配置本地或 GitHub 仓库,Lspace 可将代码和文档管理为 AI 代理的上下文。
  • 无缝工具集成: Lspace 让洞见跨多种工具可用,减少上下文切换,提高工作流效率。

如何设置

Windsurf

在现有材料中未找到 Windsurf 的平台专用说明。

Claude

在现有材料中未找到 Claude 的平台专用说明。

Cursor

  1. 确保前置条件:安装 Node.js(LTS 版)、npm 和 Git。
  2. 克隆仓库:
    git clone https://github.com/Lspace-io/lspace-server.git
    cd lspace-server
    
  3. 安装依赖:
    npm install
    npm run build
    
  4. 配置环境变量:
    cp .env.example .env
    # 编辑 .env,设置 OPENAI_API_KEY 及其他所需变量
    
  5. 配置仓库和凭证:
    cp config.example.json config.local.json
    # 编辑 config.local.json,添加你的 GitHub PAT 和仓库信息
    
  6. 在 Cursor 中,配置 MCP 服务器,添加如下 JSON 片段(将路径替换为你的实际路径):
    {
      "mcpServers": [
        {
          "command": "node",
          "args": ["/actual/absolute/path/to/your/lspace-server/lspace-mcp-server.js"]
        }
      ]
    }
    

API 密钥安全存储

将敏感 API 密钥(如 OPENAI_API_KEY)存放于环境变量。配置示例:

{
  "mcpServers": [
    {
      "command": "node",
      "args": ["/path/to/lspace-mcp-server.js"],
      "env": {
        "OPENAI_API_KEY": "your-openai-api-key"
      },
      "inputs": {}
    }
  ]
}

Cline

在现有材料中未找到 Cline 的平台专用说明。

在流程中如何使用此 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进 FlowHunt 工作流,先在流程中添加 MCP 组件,并连接至你的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置区,按照如下 JSON 格式填写你的 MCP 服务器信息:

{
  "lspace-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具访问 MCP 的全部功能。注意将 “lspace-mcp” 替换为你的 MCP 服务器实际名称,并将 URL 换成自己的 MCP 服务器地址。


概览

模块是否可用说明/备注
概述
提示词列表无相关文档
资源列表无相关文档
工具列表无相关文档
API 密钥安全存储.env/.json
采样支持(评估中不重要)未提及

根据文档完整性,包含清晰的概述、可用的部署说明和部分使用场景,但缺少工具、提示词、资源、roots 及采样相关文档,综合来看本 MCP 服务器的完整度与开发体验评分为 4/10


MCP 评分

是否有 LICENSE
至少有一个工具
Fork 数量0
Star 数量1

常见问题

在 FlowHunt 中试用 Lspace MCP 服务器

将 Lspace MCP 服务器集成到你的 FlowHunt 工作流中,捕获、存储并在所有 AI 工具和会话间共享知识。

了解更多

LLM Context MCP 服务器
LLM Context MCP 服务器

LLM Context MCP 服务器

LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...

2 分钟阅读
AI MCP Server +5
LSP MCP服务器集成
LSP MCP服务器集成

LSP MCP服务器集成

LSP MCP服务器将语言服务器协议(LSP)服务器与AI助手连接,实现先进的代码分析、智能补全、诊断以及通过标准化LSP功能在FlowHunt中进行编辑器自动化。...

2 分钟阅读
AI Code Intelligence +4
ONLYOFFICE DocSpace MCP 服务器
ONLYOFFICE DocSpace MCP 服务器

ONLYOFFICE DocSpace MCP 服务器

ONLYOFFICE DocSpace MCP 服务器为 AI 助手和工具与 ONLYOFFICE DocSpace 搭建桥梁,通过标准化的模型上下文协议(MCP),实现安全、自动化的文档管理、协作和工作流编排。...

2 分钟阅读
AI MCP Server +4