Memgraph MCP 服务器集成

Memgraph MCP 服务器集成

AI MCP Graph Database Memgraph

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Memgraph” MCP 服务器有什么作用?

Memgraph MCP 服务器是 Model Context Protocol (MCP) 的轻量级实现,旨在弥合 Memgraph 图数据库与大型语言模型(LLM)之间的鸿沟。通过将 Memgraph 的数据、模式和查询能力以 MCP 资源和工具的形式对外暴露,使 AI 助手能够实时与图数据交互。开发者可以通过该服务器执行数据库查询、提取模式信息,并便捷地构建需要访问 Memgraph 存储连接数据的 AI 驱动工作流。这一集成简化了智能体和应用的开发,让基于图的洞察能力(如查询、数据探索、模式发现)在 LLM 生态中变得更易用、更标准化。

提示模板列表

仓库中未提及任何提示模板。

资源列表

  • get_schema()
    获取 Memgraph 的模式信息。该资源使 AI 客户端能够理解 Memgraph 中数据的结构与类型,这对于生成准确的查询和响应至关重要。(要求 Memgraph 启动时加上 --schema-info-enabled=True。)

工具列表

  • run_query()
    在 Memgraph 数据库上执行 Cypher 查询。此工具允许 LLM 和 AI 智能体直接与图数据库交互,从而通过 AI 驱动的工作流实现动态数据检索、分析与操作。

本 MCP 服务器的用例

  • 与数据库对话
    用户可通过对话方式与 Memgraph 数据库交互,利用 LLM 生成、执行并解析 Cypher 查询,实现图数据的探索与分析。

  • 模式发现
    AI 智能体可自动获取并理解 Memgraph 数据库结构,简化生成有效查询和对接新数据模型或演化数据模型的过程。

  • 数据库管理
    开发者可借助 LLM 辅助管理和查询图数据,无需精通 Cypher 即可轻松完成管理和分析任务。

  • 与 AI 工作流集成
    该服务器可集成到 AI 驱动的应用或平台(如 Claude),为更大的智能工作流提供实时图数据库访问能力。

如何部署

Windsurf

暂无 Windsurf 平台的部署说明。

Claude

  1. 安装 Claude for Desktop
  2. 找到您的 Claude 配置文件:
    • MacOS/Linux: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Windows: $env:AppData\Claude\claude_desktop_config.json
  3. mcpServers 对象中添加 Memgraph MCP Server 条目:
    {
      "mcpServers": {
        "mpc-memgraph": {
          "command": "/absolute/path/to/uv",
          "args": [
            "--directory",
            "/absolute/path/to/mcp-memgraph",
            "run",
            "server.py"
          ]
        }
      }
    }
    
  4. 保存配置并重启 Claude Desktop。
  5. 验证 Claude 是否已列出 Memgraph 工具和资源。

注意: uv 可执行文件需使用绝对路径。可通过 which uv(MacOS/Linux)或 where uv(Windows)获取。

Cursor

暂无 Cursor 平台的部署说明。

Cline

暂无 Cline 平台的部署说明。

API Key 安全

文档中未提及 API key 安全或环境变量的使用。

如何在 FlowHunt 流程中使用本 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成进 FlowHunt 工作流,首先添加 MCP 组件并将其与 AI 智能体连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:

{
  "memgraph": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用该 MCP,获取其全部功能和能力。请将 “memgraph” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览
提示模板列表未找到提示模板
资源列表get_schema()
工具列表run_query()
API Key 安全未提及
采样支持(评估时不太重要)未提及

Roots 支持: 未说明
采样支持: 未说明


从现有的部署方式、清晰的工具/资源说明以及未涉及提示模板、roots 和采样机制来看,Memgraph MCP 服务器功能相对基础但实用。其在开源透明度和文档清晰度上表现较好,但缺乏高级 MCP 特性。


我们的看法

根据上述两张表,Memgraph MCP 服务器得分为 5/10。它为 Memgraph 提供了基础但文档完善的 MCP 集成,拥有可用的工具和资源,但缺乏提示模板、高级特性(roots、采样)以及更广泛的多平台部署说明。


MCP 评分

是否有 LICENSE✅ (MIT)
是否有至少一个工具
Fork 数量8
Star 数量18

常见问题

什么是 Memgraph MCP 服务器?

Memgraph MCP 服务器是 Memgraph 图数据库与大型语言模型之间的桥梁。它将 Memgraph 的数据、模式和查询能力作为 MCP 工具和资源暴露,从而实现实时 AI 驱动的数据库交互。

它提供了哪些资源和工具?

它提供 get_schema() 资源用于获取数据库模式信息,并提供 run_query() 工具可直接在 Memgraph 数据库上执行 Cypher 查询。

典型的使用场景有哪些?

使用场景包括对图数据的对话式查询、为动态 AI 智能体进行模式发现、无需深入 Cypher 知识即可进行数据库管理,以及在 AI 驱动的工作流中嵌入实时图数据访问等。

如何在 FlowHunt 集成 Memgraph MCP?

在 FlowHunt 流程中添加 MCP 组件,然后在系统 MCP 配置面板中使用提供的 JSON 格式配置 Memgraph MCP 服务器详情。根据您的部署需求替换服务器名称和 URL。

需要设置提示模板或 API Key 吗?

本 MCP 服务器无需设置提示模板或 API key,相关内容也未在文档中出现。

官方支持哪些平台?

提供了 Claude Desktop 的安装指导。其他平台如 Windsurf、Cursor 和 Cline 并未记录,但可能支持通用 MCP 集成。

在 FlowHunt 中试用 Memgraph MCP 集成

结合图数据与 AI 的强大能力,利用 FlowHunt 的 Memgraph MCP 服务器集成。为您的智能工作流启用高级查询和模式发现功能。

了解更多

MongoDB MCP 服务器
MongoDB MCP 服务器

MongoDB MCP 服务器

MongoDB MCP 服务器实现了 AI 助手与 MongoDB 数据库的无缝集成,可通过标准化的 Model Context Protocol (MCP) 实现数据库的直接管理、查询自动化和数据检索。...

2 分钟阅读
AI MCP +5
GraphQL Schema MCP 服务器
GraphQL Schema MCP 服务器

GraphQL Schema MCP 服务器

GraphQL Schema MCP 服务器使 AI 助手和开发者能够以编程方式探索、分析和文档化 GraphQL 模式。它提供了一套强大的工具,实现模式发现、类型检查、字段查找和基于模式的搜索,从而简化 API 集成与文档编写流程。...

2 分钟阅读
GraphQL API +6
Membase MCP 服务器
Membase MCP 服务器

Membase MCP 服务器

Membase MCP 服务器通过将 AI 代理连接到由 Unibase 驱动的 Membase 协议,提供轻量级、去中心化和持久的记忆服务。它使代理能够安全地存储和检索会话历史,管理多个会话,并确保防篡改、可审计的记录。...

2 分钟阅读
AI MCP Server +5