Memgraph MCP 服务器集成

Memgraph MCP 服务器集成

通过 Memgraph MCP 服务器将您的 Memgraph 图数据连接到 AI 智能体和聊天机器人,在 FlowHunt 及更多场景下实现实时、具备上下文感知的数据库交互。

“Memgraph” MCP 服务器有什么作用?

Memgraph MCP 服务器是 Model Context Protocol (MCP) 的轻量级实现,旨在弥合 Memgraph 图数据库与大型语言模型(LLM)之间的鸿沟。通过将 Memgraph 的数据、模式和查询能力以 MCP 资源和工具的形式对外暴露,使 AI 助手能够实时与图数据交互。开发者可以通过该服务器执行数据库查询、提取模式信息,并便捷地构建需要访问 Memgraph 存储连接数据的 AI 驱动工作流。这一集成简化了智能体和应用的开发,让基于图的洞察能力(如查询、数据探索、模式发现)在 LLM 生态中变得更易用、更标准化。

提示模板列表

仓库中未提及任何提示模板。

资源列表

  • get_schema()
    获取 Memgraph 的模式信息。该资源使 AI 客户端能够理解 Memgraph 中数据的结构与类型,这对于生成准确的查询和响应至关重要。(要求 Memgraph 启动时加上 --schema-info-enabled=True。)

工具列表

  • run_query()
    在 Memgraph 数据库上执行 Cypher 查询。此工具允许 LLM 和 AI 智能体直接与图数据库交互,从而通过 AI 驱动的工作流实现动态数据检索、分析与操作。

本 MCP 服务器的用例

  • 与数据库对话
    用户可通过对话方式与 Memgraph 数据库交互,利用 LLM 生成、执行并解析 Cypher 查询,实现图数据的探索与分析。

  • 模式发现
    AI 智能体可自动获取并理解 Memgraph 数据库结构,简化生成有效查询和对接新数据模型或演化数据模型的过程。

  • 数据库管理
    开发者可借助 LLM 辅助管理和查询图数据,无需精通 Cypher 即可轻松完成管理和分析任务。

  • 与 AI 工作流集成
    该服务器可集成到 AI 驱动的应用或平台(如 Claude),为更大的智能工作流提供实时图数据库访问能力。

如何部署

Windsurf

暂无 Windsurf 平台的部署说明。

Claude

  1. 安装 Claude for Desktop
  2. 找到您的 Claude 配置文件:
    • MacOS/Linux: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Windows: $env:AppData\Claude\claude_desktop_config.json
  3. mcpServers 对象中添加 Memgraph MCP Server 条目:
    {
      "mcpServers": {
        "mpc-memgraph": {
          "command": "/absolute/path/to/uv",
          "args": [
            "--directory",
            "/absolute/path/to/mcp-memgraph",
            "run",
            "server.py"
          ]
        }
      }
    }
    
  4. 保存配置并重启 Claude Desktop。
  5. 验证 Claude 是否已列出 Memgraph 工具和资源。

注意: uv 可执行文件需使用绝对路径。可通过 which uv(MacOS/Linux)或 where uv(Windows)获取。

Cursor

暂无 Cursor 平台的部署说明。

Cline

暂无 Cline 平台的部署说明。

API Key 安全

文档中未提及 API key 安全或环境变量的使用。

如何在 FlowHunt 流程中使用本 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 智能体连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:

{
  "memgraph": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用该 MCP,获取其全部功能和能力。请将 “memgraph” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览
提示模板列表未找到提示模板
资源列表get_schema()
工具列表run_query()
API Key 安全未提及
采样支持(评估时不太重要)未提及

Roots 支持: 未说明
采样支持: 未说明


从现有的部署方式、清晰的工具/资源说明以及未涉及提示模板、roots 和采样机制来看,Memgraph MCP 服务器功能相对基础但实用。其在开源透明度和文档清晰度上表现较好,但缺乏高级 MCP 特性。


我们的看法

根据上述两张表,Memgraph MCP 服务器得分为 5/10。它为 Memgraph 提供了基础但文档完善的 MCP 集成,拥有可用的工具和资源,但缺乏提示模板、高级特性(roots、采样)以及更广泛的多平台部署说明。


MCP 评分

是否有 LICENSE✅ (MIT)
是否有至少一个工具
Fork 数量8
Star 数量18

常见问题

什么是 Memgraph MCP 服务器?

Memgraph MCP 服务器是 Memgraph 图数据库与大型语言模型之间的桥梁。它将 Memgraph 的数据、模式和查询能力作为 MCP 工具和资源暴露,从而实现实时 AI 驱动的数据库交互。

它提供了哪些资源和工具?

它提供 get_schema() 资源用于获取数据库模式信息,并提供 run_query() 工具可直接在 Memgraph 数据库上执行 Cypher 查询。

典型的使用场景有哪些?

使用场景包括对图数据的对话式查询、为动态 AI 智能体进行模式发现、无需深入 Cypher 知识即可进行数据库管理,以及在 AI 驱动的工作流中嵌入实时图数据访问等。

如何在 FlowHunt 集成 Memgraph MCP?

在 FlowHunt 流程中添加 MCP 组件,然后在系统 MCP 配置面板中使用提供的 JSON 格式配置 Memgraph MCP 服务器详情。根据您的部署需求替换服务器名称和 URL。

需要设置提示模板或 API Key 吗?

本 MCP 服务器无需设置提示模板或 API key,相关内容也未在文档中出现。

官方支持哪些平台?

提供了 Claude Desktop 的安装指导。其他平台如 Windsurf、Cursor 和 Cline 并未记录,但可能支持通用 MCP 集成。

在 FlowHunt 中试用 Memgraph MCP 集成

结合图数据与 AI 的强大能力,利用 FlowHunt 的 Memgraph MCP 服务器集成。为您的智能工作流启用高级查询和模式发现功能。

了解更多

MongoDB MCP 服务器
MongoDB MCP 服务器

MongoDB MCP 服务器

MongoDB MCP 服务器实现了 AI 助手与 MongoDB 数据库的无缝集成,可通过标准化的 Model Context Protocol (MCP) 实现数据库的直接管理、查询自动化和数据检索。...

2 分钟阅读
AI MCP +5
GraphQL Schema MCP 服务器
GraphQL Schema MCP 服务器

GraphQL Schema MCP 服务器

GraphQL Schema MCP 服务器使 AI 助手和开发者能够以编程方式探索、分析和文档化 GraphQL 模式。它提供了一套强大的工具,实现模式发现、类型检查、字段查找和基于模式的搜索,从而简化 API 集成与文档编写流程。...

2 分钟阅读
GraphQL API +6
Membase MCP 服务器
Membase MCP 服务器

Membase MCP 服务器

Membase MCP 服务器通过将 AI 代理连接到由 Unibase 驱动的 Membase 协议,提供轻量级、去中心化和持久的记忆服务。它使代理能够安全地存储和检索会话历史,管理多个会话,并确保防篡改、可审计的记录。...

2 分钟阅读
AI MCP Server +5