LSP MCP服务器集成

LSP MCP服务器集成

在FlowHunt中通过LSP MCP服务器解锁高级代码智能——实现AI驱动的代码导航、诊断、补全与集成开发者工作流。

“LSP” MCP服务器的作用是什么?

LSP MCP(模型上下文协议)服务器充当语言服务器协议(LSP)服务器与AI助手之间的桥梁。通过连接LSP服务器,它使LLM和其他AI客户端能够通过标准化的LSP功能与代码库交互。这让AI工具能够进行高级代码分析、获取悬停文档、接收代码补全建议、访问诊断信息,甚至可以在编辑器或开发工作流中直接应用代码操作。LSP MCP服务器通过实现代码的无缝AI驱动交互,提升开发者生产力,让代码导航、错误修复和智能补全变得更便捷和自动化。

提示词列表

仓库或文档中未列出明确的提示词模板。

资源列表

  • lsp-diagnostics://
    获取打开文件的实时诊断消息(错误、警告等),支持通过订阅进行实时更新。
  • lsp-hover://
    在特定文件位置检索悬停信息,实现上下文感知的代码解释。
  • lsp-completions://
    针对文件中的特定位置获取代码补全建议,提升编程辅助体验。

工具列表

  • get_info_on_location
    获取文件中特定位置的悬停(文档)信息。
  • get_completions
    在指定位置提供代码补全建议。
  • get_code_actions
    获取指定范围内可用的代码操作(如快速修复)。
  • open_document
    在LSP服务器中打开文件以进行分析和交互。
  • close_document
    关闭LSP服务器上下文中的已打开文件。
  • get_diagnostics
    获取当前已打开文件的诊断消息(错误和警告)。
  • start_lsp
    使用指定根目录启动底层LSP服务器。
  • restart_lsp_server
    重启LSP服务器实例而无需重启MCP服务器。
  • set_log_level
    动态更改服务器在运行时的日志详细级别。

该MCP服务器的应用场景

  • 代码库探索
    开发者和AI代理可查询悬停信息与代码补全,便于理解和导航大型代码库。
  • 自动代码审查与错误检测
    通过访问诊断和代码操作,AI工具在代码审查或持续集成期间可高亮错误并建议修复。
  • 智能代码补全
    LLM可利用真实的LSP补全,提供准确且上下文相关的建议,助力代码编写和重构。
  • 交互式学习与文档
    AI助手可按需获取悬停细节和文档,提升新开发者的学习和入职体验。
  • 编辑器与IDE集成
    服务器可集成到编辑器中,实时提供AI驱动的功能,比如代码修复建议或代码片段解释。

如何设置

Windsurf

  1. 确保已安装Node.js(v16+)和npm。
  2. 定位到你的Windsurf配置文件。
  3. mcpServers部分添加LSP MCP服务器:
    {
      "mcpServers": {
        "lsp-mcp": {
          "type": "stdio",
          "command": "npx",
          "args": [
            "tritlo/lsp-mcp",
            "<language-id>",
            "<path-to-lsp>",
            "<lsp-args>"
          ]
        }
      }
    }
    
  4. 保存配置并重启Windsurf。
  5. 通过运行测试LSP命令验证集成。

Claude

  1. 安装Node.js(v16+)和npm。
  2. 找到Claude配置文件。
  3. mcpServers部分插入LSP MCP服务器:
    {
      "mcpServers": {
        "lsp-mcp": {
          "type": "stdio",
          "command": "npx",
          "args": [
            "tritlo/lsp-mcp",
            "<language-id>",
            "<path-to-lsp>",
            "<lsp-args>"
          ]
        }
      }
    }
    
  4. 保存更改,重启Claude,并通过运行claude --mcp-debug获取日志进行验证。
  5. 确保服务器成功启动并处理LSP命令。

Cursor

  1. 确认已安装Node.js(v16+)和npm。
  2. 打开Cursor的配置文件。
  3. 添加LSP MCP服务器:
    {
      "mcpServers": {
        "lsp-mcp": {
          "type": "stdio",
          "command": "npx",
          "args": [
            "tritlo/lsp-mcp",
            "<language-id>",
            "<path-to-lsp>",
            "<lsp-args>"
          ]
        }
      }
    }
    
  4. 保存并重启Cursor。
  5. 通过打开项目并检查LSP响应进行测试。

Cline

  1. 安装Node.js(v16+)和npm。
  2. 编辑Cline配置文件。
  3. 添加如下内容:
    {
      "mcpServers": {
        "lsp-mcp": {
          "type": "stdio",
          "command": "npx",
          "args": [
            "tritlo/lsp-mcp",
            "<language-id>",
            "<path-to-lsp>",
            "<lsp-args>"
          ]
        }
      }
    }
    
  4. 保存并重启Cline。
  5. 在界面中运行与LSP相关的命令以验证设置。

API密钥安全配置

如果LSP服务器或MCP设置需要API密钥,请使用环境变量进行安全配置:

{
  "mcpServers": {
    "lsp-mcp": {
      "type": "stdio",
      "command": "npx",
      "args": [
        "tritlo/lsp-mcp",
        "<language-id>",
        "<path-to-lsp>",
        "<lsp-args>"
      ],
      "env": {
        "API_KEY": "${LSP_API_KEY}"
      },
      "inputs": {
        "api_key": "${LSP_API_KEY}"
      }
    }
  }
}

如何在流程中使用此MCP

在FlowHunt中使用MCP

要将MCP服务器集成进FlowHunt工作流,首先在你的流程中添加MCP组件,并将其连接至AI代理:

FlowHunt MCP flow

点击MCP组件以打开配置面板。在系统MCP配置部分,使用以下JSON格式填写你的MCP服务器信息:

{
  "lsp-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI代理即可将此MCP作为工具使用,访问其全部功能。请记得将“lsp-mcp”替换为你实际的MCP服务器名称,并将URL替换为你自己的MCP服务器地址。


概览

部分可用性详情/备注
概览在README.md中提供概览
提示词列表未提及提示词模板
资源列表文档涵盖诊断、悬停、补全等资源
工具列表8个工具:get_info_on_location, get_completions等
API密钥安全配置提供环境变量配置示例
采样支持(评测中较次要)未提及采样支持

我们的看法

LSP MCP服务器文档详实,提供了丰富的LSP交互工具和资源,并且有良好的设置向导。但缺乏明确的提示词模板支持,也未提及采样或roots支持。总体而言,其在代码库和LSP集成方面表现扎实,但若能补充更多高级MCP特性会更好。

综合评分:7/10

MCP评分

是否有LICENSE✅ (MIT)
至少有一个工具
Fork数量4
Star数量42

常见问题

LSP MCP服务器的作用是什么?

LSP MCP(模型上下文协议)服务器连接AI助手与语言服务器协议服务器,使AI工具能够利用标准化LSP功能与代码库交互,实现代码分析、补全、诊断和代码操作,直接在编辑器和工作流中使用。

LSP MCP服务器解锁了哪些代码智能功能?

它支持代码导航、实时诊断(错误/警告)、代码补全、悬停文档和自动代码操作,让开发流程更高效且AI驱动。

如何将LSP MCP服务器集成到FlowHunt?

在FlowHunt流程中添加MCP组件,并配置你的LSP MCP服务器详细信息。这样服务器的工具就会作为AI代理能力的一部分提供。

LSP MCP服务器是开源的吗?

是的,它采用MIT许可证,可集成到你的项目中。

它支持API密钥安全配置吗?

支持。你可以通过MCP服务器配置中的环境变量来配置API密钥等敏感信息。

用LSP MCP服务器为你的编程提速

将LSP MCP服务器集成至FlowHunt,实现AI驱动的代码探索、错误检测和智能代码补全,直接融入你的工作流。

了解更多

LLM Context MCP 服务器
LLM Context MCP 服务器

LLM Context MCP 服务器

LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...

2 分钟阅读
AI MCP Server +5
Lspace MCP 服务器
Lspace MCP 服务器

Lspace MCP 服务器

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

2 分钟阅读
MCP Server Open Source +3
any-chat-completions-mcp MCP 服务器
any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器

any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...

2 分钟阅读
AI Chatbot +5