MCP 求解器 MCP 服务器

MCP 求解器 MCP 服务器

专为约束、SAT 和 SMT 求解设计的 MCP 服务器,使 LLM 和 AI 智能体能够交互式构建、编辑并求解复杂模型。

“MCP 求解器” MCP 服务器可以做什么?

MCP 求解器是一款基于模型上下文协议(MCP)的服务器,专为 AI 助理和大语言模型(LLM)提供高级约束优化与求解功能。它集成了 SAT(布尔可满足性)、SMT(可满足性模理论)及约束求解能力,使 AI 模型能够交互式地创建、编辑和求解复杂的数学模型。支持多种问题表达方式,包括用于约束模型的 MiniZinc、用于 SAT/MaxSAT 问题的 PySAT 及 SMT 公式的 Z3。这让开发者和 AI 智能体能够轻松实现自动推理、优化及模型分析,极大提升科研、工程和决策领域的工作效率。该服务器架起了高性能求解器与 AI 驱动界面之间的桥梁,便于在自动化流程和交互式 AI 系统中利用这些工具。

提示词模板列表

  • 在文档和仓库文件中未发现明确的提示词模板。
    (如果未来添加了提示词模板,将在此处列出。)

资源列表

  • 在现有文档或文件中未描述明确的 MCP 资源。
    (如后续服务器开放数据/内容资源,将在此处列出。)

工具列表

  • clear_model:清空当前模型中的所有条目。
  • add_item:在模型的指定索引处添加新条目。
  • delete_item:删除模型中指定索引的条目。
  • replace_item:替换模型中指定索引的条目。
  • get_model:获取当前模型内容,并带有条目标号。
  • solve_model:求解模型,支持超时参数设置。

典型应用场景

  • 约束模型开发:支持 AI 助理基于 MiniZinc 或 PySAT 构建、编辑数学模型,实现约束的快速原型设计与迭代优化。
  • 自动化问题求解:助力 AI 流程自动求解 SAT、SMT 或优化问题,实时给出解答或判定约束不可满足。
  • 优化任务:支持 MaxSAT 和 MiniZinc 优化,便于开发者寻找资源分配、排班或组合问题的最优解。
  • 教学工具:可嵌入教学平台或学习环境,帮助学生通过 AI 智能体交互式探索约束编程和逻辑求解。
  • 科研自动化:便于开展大规模约束模型、SAT 实例或 SMT 公式实验,通过 AI 界面自动选择求解器并分析结果。

安装与配置方法

Windsurf

  1. 前置条件:安装 Python 3.11+ 和 uv 项目管理器。
  2. 克隆并安装 MCP 求解器
    git clone https://github.com/szeider/mcp-solver.git
    cd mcp-solver
    uv venv
    source .venv/bin/activate
    uv pip install -e ".[all]"
    
  3. 定位 Windsurf 配置文件(通常为 windsurf.json 或类似文件)。
  4. 在 mcpServers 中添加 MCP 求解器
    {
      "mcpServers": {
        "mcp-solver": {
          "command": "python",
          "args": ["-m", "mcp_solver"]
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。
  6. 通过 AI 智能体测试工具访问,验证部署。

安全配置 API 密钥(如需)

{
  "mcpServers": {
    "mcp-solver": {
      "command": "python",
      "args": ["-m", "mcp_solver"],
      "env": {
        "SOLVER_API_KEY": "${SOLVER_API_KEY}"
      },
      "inputs": {
        "api_key": "${SOLVER_API_KEY}"
      }
    }
  }
}

Claude

  1. 确保已安装 Python 3.11+ 和 uv
  2. 按上述方法安装 MCP 求解器。
  3. 找到 Claude 的配置文件并打开。
  4. 添加 MCP 求解器服务器配置:
    {
      "mcpServers": {
        "mcp-solver": {
          "command": "python",
          "args": ["-m", "mcp_solver"]
        }
      }
    }
    
  5. 重启 Claude,检查 MCP 工具可用性。

Cursor

  1. 安装 Python 3.11+ 和 uv
  2. 按快速入门方式下载安装 MCP 求解器。
  3. 编辑 Cursor 的配置文件(如 cursor.json)。
  4. 添加 MCP 求解器:
    {
      "mcpServers": {
        "mcp-solver": {
          "command": "python",
          "args": ["-m", "mcp_solver"]
        }
      }
    }
    
  5. 重启 Cursor 应用配置。

Cline

  1. 配置 Python 3.11+ 与 uv
  2. 克隆并安装 MCP 求解器。
  3. 打开 Cline 的配置文件。
  4. 添加 MCP 求解器服务器条目:
    {
      "mcpServers": {
        "mcp-solver": {
          "command": "python",
          "args": ["-m", "mcp_solver"]
        }
      }
    }
    
  5. 保存、重启 Cline 并确认工具访问。

**注意:**如需配置 API 密钥或其他敏感信息,请参考 Windsurf 示例将环境变量传递给服务器。

在流程中如何使用 MCP

在 FlowHunt 中集成 MCP

要在 FlowHunt 工作流中集成 MCP 服务器,首先添加 MCP 组件,并将其连接到您的 AI 智能体:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区域,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "mcp-solver": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具访问该 MCP,使用其所有功能。请务必将 “mcp-solver” 替换为实际 MCP 服务器名称,并把 URL 换成您自己的 MCP 服务器地址。


概览

部分是否可用说明/备注
概览面向 LLM 的 SAT、SMT 与约束求解
提示词模板列表未发现提示词模板
资源列表未描述明确的 MCP 资源
工具列表clear_model、add_item、delete_item、replace_item 等
安全配置 API 密钥已给出环境变量与输入配置示例
采样支持(评测时可忽略)未提及

| Roots 支持 | ⛔ | 未提及 |


根据现有文档,MCP 求解器是专注于约束与优化问题求解的高专业性 MCP 服务器,工具定义完善,但暂不包含明确的提示词模板与资源。其安装、集成说明详尽,但未涉及 Roots 或采样等高级 MCP 功能支持。


MCP 评分

是否有 LICENSE✅ (MIT)
是否包含至少一个工具
Fork 数量11
Star 数量85

我们的评价:
MCP 求解器是一款高聚焦、学术性强的 MCP 服务器,集成了丰富的求解器与工具支持。虽未涵盖提示词模板与资源,影响其通用性,但在约束/优化类工作流中的核心功能表现出色。综合来看通用 MCP 评分为 7/10,若后续补充 prompt/resource 支持,评分还将提升。

常见问题

什么是 MCP 求解器 MCP 服务器?

MCP 求解器是一款模型上下文协议(MCP)服务器,为 AI 智能体和 LLM 提供 SAT、SMT 及约束求解功能。它通过 MiniZinc、PySAT 和 Z3 等工具支持模型构建、编辑与求解,实现高级推理与优化流程。

MCP 求解器提供哪些工具?

MCP 求解器包含模型编辑(clear_model、add_item、delete_item、replace_item)、获取当前模型(get_model)、求解模型(solve_model,支持超时设置)等工具。

MCP 求解器的典型应用场景有哪些?

包括构建和求解约束模型、自动化 SAT/SMT 问题求解、优化(如排班)、约束编程教学集成,以及自动化逻辑模型相关科研。

如何将 MCP 求解器集成到 FlowHunt?

在 FlowHunt 流程中添加 MCP 组件,并在系统 MCP 配置中填写您的 MCP 服务器信息,使用提供的 JSON 格式,更新服务器名称和 URL,您的 AI 智能体即可访问全部 MCP 求解器功能。

MCP 求解器是否需要 API 密钥?

默认不需要 API 密钥。如您的环境要求,可通过配置环境变量并参考文档设置示例将密钥传递给服务器。

在 FlowHunt 上开始使用 MCP 求解器

将高级约束与优化求解集成到您的 AI 工作流中,全面提升 AI 智能体在科研、工程及自动化领域的能力。

了解更多

计算器 MCP 服务器
计算器 MCP 服务器

计算器 MCP 服务器

计算器 MCP 服务器通过 MCP 协议为 AI 助手和大语言模型(LLM)带来快速、可编程的数学计算,实现精确的计算能力,直接在 FlowHunt 流程中使用。...

2 分钟阅读
MCP Server AI Tools +3
JupyterMCP MCP 服务器集成
JupyterMCP MCP 服务器集成

JupyterMCP MCP 服务器集成

JupyterMCP 通过模型上下文协议(MCP)实现 Jupyter Notebook(6.x)与 AI 助手的无缝集成。利用 LLM 自动执行代码、管理单元格和获取输出,简化数据科学工作流程并提升生产力。...

2 分钟阅读
MCP Jupyter +5
MCP-Server-Creator MCP 服务器
MCP-Server-Creator MCP 服务器

MCP-Server-Creator MCP 服务器

MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...

2 分钟阅读
AI MCP +5