LLM Context MCP 服务器

LLM Context MCP 服务器

AI MCP Server Development Tools Context Injection

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“LLM Context” MCP 服务器的作用是什么?

LLM Context MCP 服务器是一款旨在无缝连接 AI 助手与外部代码及文本项目的工具,通过模型上下文协议(MCP)提升开发工作流。它利用 .gitignore 规则进行智能文件选择,让开发者可以将高度相关的内容直接注入到 LLM 聊天界面,或采用便捷的剪贴板工作流。借助上下文感知的 AI 协助,可高效完成代码评审、文档生成和项目探索等任务。LLM Context 非常适用于代码仓库和文本资料集合,是项目数据与 AI 驱动工作流之间的多功能桥梁。

提示词列表

在仓库中未找到有关已定义提示词模板的信息。

资源列表

在所提供文件或文档中未明确提及任何资源。

工具列表

在仓库结构中未找到 server.py 或类似文件,未找到有关已暴露工具的信息。

该 MCP 服务器的应用场景

  • 代码评审自动化:将相关代码片段注入 LLM 界面,协助自动或辅助代码评审。
  • 文档生成:让 AI 直接从项目文件中访问和总结文档。
  • 项目探索:帮助开发者和 AI 代理快速理解大型代码库或文本项目,突出重点文件和大纲。
  • 剪贴板工作流:支持用户将内容复制到剪贴板并与 LLM 快速共享,提高聊天型工作流中的生产力。

如何配置

Windsurf

  1. 确保已安装 Node.js 和 Windsurf。
  2. 找到 Windsurf 配置文件(如 windsurf.config.json)。
  3. 使用以下 JSON 片段添加 LLM Context MCP 服务器
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存配置并重启 Windsurf。
  2. 检查 MCP 服务器是否在 Windsurf 中出现以验证设置。

Claude

  1. 安装 Node.js 并确保 Claude 支持 MCP 集成。
  2. 编辑 Claude 的配置文件,加入 MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存文件并重启 Claude。
  2. 在 Claude 的 MCP 设置中确认服务器已可用。

Cursor

  1. 安装 Cursor 编辑器的所有前置依赖。
  2. 打开 Cursor 的 MCP 配置文件。
  3. 添加 LLM Context MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存修改并重启 Cursor。
  2. 验证 MCP 服务器是否正常运行。

Cline

  1. 安装 Node.js 和 Cline。
  2. 编辑 Cline 的配置,注册 MCP 服务器:
{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": []
    }
  }
}
  1. 保存并重启 Cline。
  2. 检查 MCP 服务器是否已可访问。

API 密钥安全配置

请通过设置环境变量保护 API 密钥和机密信息。示例配置如下:

{
  "mcpServers": {
    "llm-context": {
      "command": "llm-context-mcp",
      "args": [],
      "env": {
        "API_KEY": "${LLM_CONTEXT_API_KEY}"
      },
      "inputs": {
        "apiKey": "${LLM_CONTEXT_API_KEY}"
      }
    }
  }
}

如何在流程中使用 MCP

在 FlowHunt 中集成 MCP

将 MCP 服务器集成到 FlowHunt 工作流时,首先添加 MCP 组件,并将其连接到你的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,采用以下 JSON 格式填写你的 MCP 服务器信息:

{
  "llm-context": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP 并访问其所有功能。请记得将 “llm-context” 替换成你的 MCP 服务器实际名称,并将 URL 替换为你自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览
提示词列表未找到信息
资源列表未找到信息
工具列表未找到信息
API 密钥安全配置提供了环境变量配置示例
采样支持(评估时不重要)未找到信息

根据以上表格,此 MCP 服务器在概览和安全最佳实践方面表现良好,但缺乏提示词、资源和工具的详细文档。因此,它最适合基础的上下文共享工作流,如需充分发挥 MCP 的高级功能还需进一步补充文档。

MCP 评分

有 LICENSE✅ (Apache-2.0)
至少有一个工具
Fork 数量18
Star 数量231

常见问题

什么是 LLM Context MCP 服务器?

LLM Context MCP 服务器将 AI 代理与外部代码和文本项目连接起来,通过 .gitignore 模式实现智能上下文选择,可在 LLM 聊天界面内直接进行代码评审、文档生成和项目探索等高级工作流。

该 MCP 服务器的主要使用场景有哪些?

主要应用包括代码评审自动化、文档生成、快速项目探索,以及基于剪贴板的内容共享,助力在聊天型工作流中提升生产力。

如何为 LLM Context MCP 服务器安全配置 API 密钥?

通过设置环境变量(如 LLM_CONTEXT_API_KEY),并在 MCP 服务器配置中引用这些变量,从而避免将密钥暴露在源代码或配置文件中。

服务器是否带有提示词模板或内置工具?

当前版本没有内置提示词或明确的工具,非常适合基础的上下文共享工作流,如需更高级功能需进一步定制。

LLM Context MCP 服务器使用什么许可证?

该服务器采用 Apache-2.0 开源许可证。

如何在 FlowHunt 中使用 LLM Context MCP 服务器?

在 FlowHunt 流程中添加 MCP 组件,在配置面板中用提供的 JSON 格式填写 MCP 服务器信息,并连接到你的 AI 代理,实现更智能的上下文自动化。

用 LLM Context MCP 提升你的 AI 工作流

将 LLM Context MCP 服务器集成到 FlowHunt,实现更智能、上下文感知的自动化编码与文档流程。

了解更多

ModelContextProtocol(MCP)服务器集成
ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器集成

ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。...

2 分钟阅读
AI Integration +4
Lspace MCP 服务器
Lspace MCP 服务器

Lspace MCP 服务器

Lspace MCP 服务器是一个开源后端和独立应用, 实现了模型上下文协议(MCP)。它通过捕获任意 AI 会话中的洞见并在各个工具间集成,使知识持久化、可检索,赋能开发者构建智能、富上下文的工作流。...

2 分钟阅读
MCP Server Open Source +3
LlamaCloud MCP 服务器
LlamaCloud MCP 服务器

LlamaCloud MCP 服务器

LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...

2 分钟阅读
AI MCP Server +5