
XMind MCP Server
XMind MCP Server kết nối liền mạch các trợ lý AI với tệp bản đồ tư duy XMind, cho phép truy vấn, trích xuất và phân tích bản đồ tư duy nâng cao để quản lý tri t...
Kết nối agent AI của bạn với hạ tầng MLOps của ZenML bằng ZenML MCP Server để kiểm soát pipeline theo thời gian thực, khám phá artifact và tối ưu hóa quy trình ML.
ZenML MCP Server là một triển khai của Model Context Protocol (MCP) hoạt động như cầu nối giữa trợ lý AI (như Cursor, Claude Desktop, v.v.) và các pipeline MLOps, LLMOps của bạn trên ZenML. Bằng cách cung cấp API ZenML qua chuẩn MCP, nó cho phép các client AI truy cập thông tin trực tiếp và cập nhật về người dùng, pipeline, pipeline run, step, dịch vụ,… từ máy chủ ZenML. Việc tích hợp này giúp nhà phát triển và quy trình AI có thể truy vấn metadata, kích hoạt pipeline mới, tương tác trực tiếp với tính năng điều phối của ZenML ngay trong công cụ AI hỗ trợ MCP. ZenML MCP Server đặc biệt hữu ích trong việc tăng hiệu suất làm việc bằng cách kết nối trợ lý LLM với hạ tầng MLOps mạnh mẽ, hỗ trợ các tác vụ xuyên suốt vòng đời ML.
Không tìm thấy thông tin về prompt template trong repository.
Không tìm thấy hướng dẫn cụ thể cho Windsurf; dùng cấu hình MCP chung:
uv
.{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Chú ý: Bảo mật API key bằng cách khai báo trong phần env
như ví dụ trên.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Chú ý: Luôn bảo mật API key trong biến môi trường như trên.
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Chú ý: Nên thiết lập API key qua biến môi trường trong phần env
để bảo mật.
Không tìm thấy hướng dẫn cụ thể cho Cline; dùng cấu hình MCP chung:
{
"mcpServers": {
"zenml": {
"command": "/usr/local/bin/uv",
"args": ["run", "/path/to/zenml_server.py"],
"env": {
"LOGLEVEL": "INFO",
"NO_COLOR": "1",
"PYTHONUNBUFFERED": "1",
"PYTHONIOENCODING": "UTF-8",
"ZENML_STORE_URL": "https://your-zenml-server-goes-here.com",
"ZENML_STORE_API_KEY": "your-api-key-here"
}
}
}
}
Chú ý: Bảo mật API key trong phần env
như trên.
Bảo mật API Key:
Thiết lập API key và URL máy chủ ZenML bằng biến môi trường trong phần env
của cấu hình, như các ví dụ JSON ở trên.
Sử dụng MCP trong FlowHunt
Để tích hợp MCP server vào workflow FlowHunt, bạn thêm thành phần MCP vào flow và kết nối nó với agent AI của mình:
Nhấn vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình MCP hệ thống, dán thông tin MCP server của bạn theo định dạng JSON sau:
{
"zenml": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Khi đã cấu hình, agent AI sẽ có thể sử dụng MCP này như một công cụ với toàn bộ chức năng của nó. Hãy nhớ đổi “zenml” thành tên thực tế của MCP server bạn dùng và thay URL thành địa chỉ MCP server của bạn.
Phần | Có sẵn | Chi tiết/Ghi chú |
---|---|---|
Tổng quan | ✅ | |
Danh sách Prompt | ⛔ | Không tìm thấy trong repo |
Danh sách Tài nguyên | ✅ | Bao gồm tài nguyên API ZenML cung cấp |
Danh sách Công cụ | ✅ | Kích hoạt pipeline, đọc metadata,… |
Bảo mật API Key | ✅ | Có ví dụ cấu hình |
Hỗ trợ Sampling (ít quan trọng khi đánh giá) | ⛔ | Không đề cập |
Dựa trên bảng trên, ZenML MCP server cung cấp tài liệu đầy đủ, hướng dẫn thiết lập rõ ràng và phơi bày nhiều tài nguyên, công cụ. Tuy nhiên, chưa có tài liệu về prompt template và chưa đề cập rõ về sampling hoặc roots. Repository vẫn hoạt động, có số lượng star và fork hợp lý, nhưng một số tính năng MCP nâng cao chưa hỗ trợ.
Có LICENSE | ⛔ (không thể hiện trong file có sẵn) |
---|---|
Có ít nhất 1 công cụ | ✅ |
Số Fork | 8 |
Số Star | 18 |
ZenML MCP Server là cầu nối giữa trợ lý AI và các pipeline MLOps, LLMOps của ZenML, cung cấp API ZenML qua Model Context Protocol. Điều này cho phép các công cụ AI truy vấn metadata pipeline, quản lý thực thi và tương tác trực tiếp với hạ tầng ZenML.
Nó cung cấp quyền truy cập tới người dùng, stack, pipeline, pipeline run, step, dịch vụ, thành phần stack, flavor, template chạy pipeline, lịch biểu, artifact, kết nối dịch vụ, mã step và log. Ngoài ra còn cho phép kích hoạt thực thi pipeline mới và đọc metadata từ các đối tượng máy chủ ZenML.
Hãy luôn lưu trữ API key và URL máy chủ ZenML của bạn một cách bảo mật bằng biến môi trường trong phần `env` của cấu hình MCP, như trong các ví dụ thiết lập cho từng client.
Các ứng dụng điển hình gồm giám sát và kiểm soát pipeline, kích hoạt pipeline mới, khám phá tài nguyên và artifact, xem chi tiết stack và dịch vụ, tạo báo cáo tự động qua trợ lý AI.
Tài liệu về prompt template và tính năng sampling hiện chưa có trong ZenML MCP Server integration.
Kích hoạt trợ lý AI của bạn điều phối, theo dõi và quản lý các pipeline ML ngay lập tức bằng cách kết nối FlowHunt với ZenML MCP Server.
XMind MCP Server kết nối liền mạch các trợ lý AI với tệp bản đồ tư duy XMind, cho phép truy vấn, trích xuất và phân tích bản đồ tư duy nâng cao để quản lý tri t...
Máy chủ Phoenix MCP kết nối trợ lý AI với các nguồn dữ liệu và dịch vụ bên ngoài, cho phép quy trình phát triển nâng cao và tích hợp liền mạch với API, cơ sở dữ...
JMeter MCP Server kết nối Apache JMeter với các quy trình làm việc dựa trên AI, cho phép tự động hóa kiểm thử hiệu năng, phân tích và tích hợp liền mạch vào các...