
LLM Context MCP 服务器
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
在FlowHunt中通过LSP MCP服务器解锁高级代码智能——实现AI驱动的代码导航、诊断、补全与集成开发者工作流。
LSP MCP(模型上下文协议)服务器充当语言服务器协议(LSP)服务器与AI助手之间的桥梁。通过连接LSP服务器,它使LLM和其他AI客户端能够通过标准化的LSP功能与代码库交互。这让AI工具能够进行高级代码分析、获取悬停文档、接收代码补全建议、访问诊断信息,甚至可以在编辑器或开发工作流中直接应用代码操作。LSP MCP服务器通过实现代码的无缝AI驱动交互,提升开发者生产力,让代码导航、错误修复和智能补全变得更便捷和自动化。
仓库或文档中未列出明确的提示词模板。
lsp-diagnostics://
lsp-hover://
lsp-completions://
get_info_on_location
get_completions
get_code_actions
open_document
close_document
get_diagnostics
start_lsp
restart_lsp_server
set_log_level
mcpServers
部分添加LSP MCP服务器:{
"mcpServers": {
"lsp-mcp": {
"type": "stdio",
"command": "npx",
"args": [
"tritlo/lsp-mcp",
"<language-id>",
"<path-to-lsp>",
"<lsp-args>"
]
}
}
}
mcpServers
部分插入LSP MCP服务器:{
"mcpServers": {
"lsp-mcp": {
"type": "stdio",
"command": "npx",
"args": [
"tritlo/lsp-mcp",
"<language-id>",
"<path-to-lsp>",
"<lsp-args>"
]
}
}
}
claude --mcp-debug
获取日志进行验证。{
"mcpServers": {
"lsp-mcp": {
"type": "stdio",
"command": "npx",
"args": [
"tritlo/lsp-mcp",
"<language-id>",
"<path-to-lsp>",
"<lsp-args>"
]
}
}
}
{
"mcpServers": {
"lsp-mcp": {
"type": "stdio",
"command": "npx",
"args": [
"tritlo/lsp-mcp",
"<language-id>",
"<path-to-lsp>",
"<lsp-args>"
]
}
}
}
API密钥安全配置
如果LSP服务器或MCP设置需要API密钥,请使用环境变量进行安全配置:
{
"mcpServers": {
"lsp-mcp": {
"type": "stdio",
"command": "npx",
"args": [
"tritlo/lsp-mcp",
"<language-id>",
"<path-to-lsp>",
"<lsp-args>"
],
"env": {
"API_KEY": "${LSP_API_KEY}"
},
"inputs": {
"api_key": "${LSP_API_KEY}"
}
}
}
}
在FlowHunt中使用MCP
要将MCP服务器集成进FlowHunt工作流,首先在你的流程中添加MCP组件,并将其连接至AI代理:
点击MCP组件以打开配置面板。在系统MCP配置部分,使用以下JSON格式填写你的MCP服务器信息:
{
"lsp-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI代理即可将此MCP作为工具使用,访问其全部功能。请记得将“lsp-mcp”替换为你实际的MCP服务器名称,并将URL替换为你自己的MCP服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | 在README.md中提供概览 |
提示词列表 | ⛔ | 未提及提示词模板 |
资源列表 | ✅ | 文档涵盖诊断、悬停、补全等资源 |
工具列表 | ✅ | 8个工具:get_info_on_location, get_completions等 |
API密钥安全配置 | ✅ | 提供环境变量配置示例 |
采样支持(评测中较次要) | ⛔ | 未提及采样支持 |
LSP MCP服务器文档详实,提供了丰富的LSP交互工具和资源,并且有良好的设置向导。但缺乏明确的提示词模板支持,也未提及采样或roots支持。总体而言,其在代码库和LSP集成方面表现扎实,但若能补充更多高级MCP特性会更好。
综合评分:7/10
是否有LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork数量 | 4 |
Star数量 | 42 |
LSP MCP(模型上下文协议)服务器连接AI助手与语言服务器协议服务器,使AI工具能够利用标准化LSP功能与代码库交互,实现代码分析、补全、诊断和代码操作,直接在编辑器和工作流中使用。
它支持代码导航、实时诊断(错误/警告)、代码补全、悬停文档和自动代码操作,让开发流程更高效且AI驱动。
在FlowHunt流程中添加MCP组件,并配置你的LSP MCP服务器详细信息。这样服务器的工具就会作为AI代理能力的一部分提供。
是的,它采用MIT许可证,可集成到你的项目中。
支持。你可以通过MCP服务器配置中的环境变量来配置API密钥等敏感信息。
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...
any-chat-completions-mcp MCP 服务器将 FlowHunt 和其他工具连接到任何兼容 OpenAI SDK 的 Chat Completion API。它通过统一、简单的界面中转聊天型查询,实现了对多个 LLM 提供商(如 OpenAI、Perplexity、Groq、xAI 和 PyroPr...