Eunomia MCP 服务器

Eunomia MCP 服务器

Eunomia MCP 服务器为 LLM 流水线带来强大的数据策略编排(PII、访问控制),通过与 FlowHunt 的 MCP 生态无缝集成,实现安全合规的 AI 流程。

“Eunomia” MCP 服务器的作用是什么?

Eunomia MCP 服务器是 Eunomia 框架的扩展,可以将 Eunomia 仪器与模型上下文协议(MCP)服务器连接起来。其主要目的是在 LLM(大语言模型)应用中,对处理的文本流进行数据治理策略的编排,如个人身份信息(PII)检测或用户访问控制。通过与 MCP 生态系统的集成,Eunomia MCP 服务器使开发者能够在 LLM 或其他基于文本的工作流之上执行数据策略,并利用 MCP 标准编排多个服务器之间的通信。这为 AI 驱动环境的数据流治理增加了一层强有力的安全性和合规性。

提示模板列表

仓库或文档中未提及任何提示模板。

资源列表

仓库或文档中未详述任何显式 MCP 资源。

工具列表

仓库或文档中未提供清晰的 MCP 工具列表。

本 MCP 服务器的使用场景

  • LLM 流水线中的数据治理
    Eunomia MCP 服务器可在基于 LLM 的文本流水线中执行如 PII 检测与去除等数据治理策略。

  • 多服务器编排
    开发者可以编排多个外部 MCP 服务器,实现分布式系统中协调一致的策略执行。

  • 与外部工具的集成
    该服务器可与其它基于 MCP 的服务(如 web-browser-mcp-server)连接,扩展数据治理与处理能力范围。

  • 自动化策略执行
    通过定义仪器(如 PiiInstrument),组织可以确保敏感信息始终按策略自动化处理。

如何配置部署

Windsurf

  1. 确保已安装 Node.js 和 uv
  2. 克隆 Eunomia MCP Server 仓库:
    git clone https://github.com/whataboutyou-ai/eunomia-mcp-server.git
  3. 在您的 Windsurf 配置文件中,将 Eunomia MCP Server 添加到 mcpServers 列表:
  4. 在配置中添加如下 JSON:
    {
      "mcpServers": {
        "eunomia-mcp-server": {
          "command": "uv",
          "args": ["tool", "run", "orchestra_server"],
          "env": {
            "REQUEST_TIMEOUT": "30"
          }
        }
      }
    }
    
  5. 保存配置并重启 Windsurf。

Claude

  1. 安装前置条件(Node.js、uv)。
  2. 克隆仓库。
  3. 编辑 Claude 的配置以包含:
    {
      "mcpServers": {
        "eunomia-mcp-server": {
          "command": "uv",
          "args": ["tool", "run", "orchestra_server"],
          "env": {
            "REQUEST_TIMEOUT": "30"
          }
        }
      }
    }
    
  4. 保存并重启 Claude。
  5. 可通过测试查询进行验证。

Cursor

  1. 确保您拥有最新版 Cursor 及其依赖。
  2. 在配置文件中添加 Eunomia MCP Server:
    {
      "mcpServers": {
        "eunomia-mcp-server": {
          "command": "uv",
          "args": ["tool", "run", "orchestra_server"],
          "env": {
            "REQUEST_TIMEOUT": "30"
          }
        }
      }
    }
    
  3. 保存、重启 Cursor 并测试。

Cline

  1. 如未安装 Node.js 和 uv,请先安装。
  2. 克隆 Eunomia MCP Server 仓库。
  3. 按如下方式更新您的 Cline 配置文件:
    {
      "mcpServers": {
        "eunomia-mcp-server": {
          "command": "uv",
          "args": ["tool", "run", "orchestra_server"],
          "env": {
            "REQUEST_TIMEOUT": "30"
          }
        }
      }
    }
    
  4. 保存并重启 Cline 服务器。
  5. 通过运行 MCP 示例命令确认集成。

API 密钥安全:
请在配置中使用环境变量,例如:

{
  "mcpServers": {
    "eunomia-mcp-server": {
      "command": "uv",
      "args": ["tool", "run", "orchestra_server"],
      "env": {
        "API_KEY": "${EUNOMIA_API_KEY}",
        "REQUEST_TIMEOUT": "30"
      }
    }
  }
}

${EUNOMIA_API_KEY} 替换为您的环境变量。

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流,请首先在流程中添加 MCP 组件并将其连接到您的 AI agent:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式插入您的 MCP 服务器信息:

{
  "eunomia-mcp-server": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI agent 便可将此 MCP 作为工具,访问其全部功能。请记得将 “eunomia-mcp-server” 替换为您实际的 MCP 服务器名称,并将 url 替换为您的 MCP 服务器地址。


概览

模块可用性备注说明
概览
提示模板列表未提供
资源列表未提供
工具列表未提供
API 密钥安全配置示例中有说明
采样支持(评估时不重要)未提及

在上述表格内容中,该 MCP 为 LLM 应用提供了基础但重要的数据治理编排层,然而在提示、资源和工具方面缺乏详细文档。鉴于其弃用提示及显式功能有限,生产环境下评分为中等。

MCP 评分

是否有许可证✅ Apache-2.0
是否至少有一个工具
Fork 数量2
Star 数量5

常见问题

什么是 Eunomia MCP 服务器?

Eunomia MCP 服务器是用于在基于 LLM 的应用中对数据治理策略(如 PII 检测和访问控制)进行编排的扩展,通过 MCP 标准实现安全、合规和自动化的文本数据处理。

Eunomia MCP 服务器支持哪些使用场景?

它支持 LLM 流水线中的数据治理(PII 检测/去除)、多个服务器间的策略编排、与其它 MCP 工具的集成,以及敏感数据策略的自动化执行。

如何将 Eunomia MCP 服务器集成到 FlowHunt?

在您的流程系统 MCP 配置中添加 MCP 服务器信息(可参照提供的 JSON 示例),将其连接至 AI agent,即可在流程中实现策略执行。

如何为此服务器保护 API 密钥?

在 MCP 服务器配置中使用环境变量(如 API_KEY)安全地存储敏感凭证,参考提供的设置示例进行配置。

Eunomia MCP 服务器需要特定许可证吗?

是的,采用 Apache-2.0 许可证发布。

通过 Eunomia MCP 服务器执行数据治理

使用 Eunomia MCP 服务器增强您的 LLM 流程中的数据合规性并自动化策略执行,全面集成至 FlowHunt。

了解更多

EVM MCP 服务器
EVM MCP 服务器

EVM MCP 服务器

EVM MCP 服务器为 AI 和开发工作流在多个 EVM 兼容网络间提供无缝区块链集成。它支持智能合约交互、区块链查询和交易管理,所有操作均可通过统一、适合 AI 的界面完成。...

2 分钟阅读
Blockchain AI +5
Inoyu MCP Unomi 服务器集成
Inoyu MCP Unomi 服务器集成

Inoyu MCP Unomi 服务器集成

Inoyu MCP Unomi 服务器将Anthropic的模型上下文协议(MCP)与Apache Unomi连接起来,使AI代理能够交互、管理并为用户画像和会话数据提供上下文,实现高级、持久和个性化的对话。...

2 分钟阅读
AI MCP Server +4
多模型顾问 MCP 服务器
多模型顾问 MCP 服务器

多模型顾问 MCP 服务器

多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...

2 分钟阅读
AI MCP +5