LLM Context MCP 服务器

LLM Context MCP 服务器

使用 LLM Context MCP 服务器无缝连接 AI 代理与代码及文本项目——通过安全、丰富上下文和自动化协助优化开发工作流。

“LLM Context” MCP 服务器的作用是什么?

LLM Context MCP 服务器是一款旨在无缝连接 AI 助手与外部代码及文本项目的工具,通过模型上下文协议(MCP)提升开发工作流。它利用 .gitignore 规则进行智能文件选择,让开发者可以将高度相关的内容直接注入到 LLM 聊天界面,或采用便捷的剪贴板工作流。借助上下文感知的 AI 协助,可高效完成代码评审、文档生成和项目探索等任务。LLM Context 非常适用于代码仓库和文本资料集合,是项目数据与 AI 驱动工作流之间的多功能桥梁。

提示词列表

在仓库中未找到有关已定义提示词模板的信息。

资源列表

在所提供文件或文档中未明确提及任何资源。

工具列表

在仓库结构中未找到 server.py 或类似文件,未找到有关已暴露工具的信息。

该 MCP 服务器的应用场景

  • 代码评审自动化:将相关代码片段注入 LLM 界面,协助自动或辅助代码评审。
  • 文档生成:让 AI 直接从项目文件中访问和总结文档。
  • 项目探索:帮助开发者和 AI 代理快速理解大型代码库或文本项目,突出重点文件和大纲。
  • 剪贴板工作流:支持用户将内容复制到剪贴板并与 LLM 快速共享,提高聊天型工作流中的生产力。

如何配置

Windsurf

  1. 确保已安装 Node.js 和 Windsurf。
  2. 找到 Windsurf 配置文件(如 windsurf.config.json)。
  3. 使用以下 JSON 片段添加 LLM Context MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存配置并重启 Windsurf。
  2. 检查 MCP 服务器是否在 Windsurf 中出现以验证设置。

Claude

  1. 安装 Node.js 并确保 Claude 支持 MCP 集成。
  2. 编辑 Claude 的配置文件,加入 MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存文件并重启 Claude。
  2. 在 Claude 的 MCP 设置中确认服务器已可用。

Cursor

  1. 安装 Cursor 编辑器的所有前置依赖。
  2. 打开 Cursor 的 MCP 配置文件。
  3. 添加 LLM Context MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存修改并重启 Cursor。
  2. 验证 MCP 服务器是否正常运行。

Cline

  1. 安装 Node.js 和 Cline。
  2. 编辑 Cline 的配置,注册 MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存并重启 Cline。
  2. 检查 MCP 服务器是否已可访问。

API 密钥安全配置

请通过设置环境变量保护 API 密钥和机密信息。示例配置如下:

{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": [],
      "env": {
        "API_KEY": "${LLM_CONTEXT_API_KEY}"
      },
      "inputs": {
        "apiKey": "${LLM_CONTEXT_API_KEY}"
      }
    }
  }
}

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

将 MCP 服务器集成到 FlowHunt 工作流时,首先添加 MCP 组件,并将其连接到你的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,采用以下 JSON 格式填写你的 MCP 服务器信息:

{
  "llm-context": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP 并访问其所有功能。请记得将 “llm-context” 替换成你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览
提示词列表未找到信息
资源列表未找到信息
工具列表未找到信息
API 密钥安全配置提供了环境变量配置示例
采样支持(评估时不重要)未找到信息

根据以上表格,此 MCP 服务器在概览和安全最佳实践方面表现良好,但缺乏提示词、资源和工具的详细文档。因此,它最适合基础的上下文共享工作流,如需充分发挥 MCP 的高级功能还需进一步补充文档。

MCP 评分

有 LICENSE✅ (Apache-2.0)
至少有一个工具
Fork 数量18
Star 数量231

常见问题

什么是 LLM Context MCP 服务器?

LLM Context MCP 服务器将 AI 代理与外部代码和文本项目连接起来,通过 .gitignore 模式实现智能上下文选择,可在 LLM 聊天界面内直接进行代码评审、文档生成和项目探索等高级工作流。

该 MCP 服务器的主要使用场景有哪些?

主要应用包括代码评审自动化、文档生成、快速项目探索,以及基于剪贴板的内容共享,助力在聊天型工作流中提升生产力。

如何为 LLM Context MCP 服务器安全配置 API 密钥?

通过设置环境变量(如 LLM_CONTEXT_API_KEY),并在 MCP 服务器配置中引用这些变量,从而避免将密钥暴露在源代码或配置文件中。

服务器是否带有提示词模板或内置工具?

当前版本没有内置提示词或明确的工具,非常适合基础的上下文共享工作流,如需更高级功能需进一步定制。

LLM Context MCP 服务器使用什么许可证?

该服务器采用 Apache-2.0 开源许可证。

如何在 FlowHunt 中使用 LLM Context MCP 服务器?

在 FlowHunt 流程中添加 MCP 组件,在配置面板中用提供的 JSON 格式填写 MCP 服务器信息,并连接到你的 AI 代理,实现更智能的上下文自动化。

用 LLM Context MCP 提升你的 AI 工作流

将 LLM Context MCP 服务器集成到 FlowHunt,实现更智能、上下文感知的自动化编码与文档流程。

了解更多

ModelContextProtocol(MCP)服务器集成
ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...

2 分钟阅读
AI Integration +4
Lspace MCP 服务器
Lspace MCP 服务器

Lspace MCP 服务器

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

2 分钟阅读
MCP Server Open Source +3
LlamaCloud MCP 服务器
LlamaCloud MCP 服务器

LlamaCloud MCP 服务器

LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...

2 分钟阅读
AI MCP Server +5