
Vega-Lite 服务器
将 FlowHunt 集成至 Vega-Lite 服务器,为您的 AI 工作流解锁高级数据可视化能力。轻松从聚合数据中生成并渲染交互式图表,助力更丰富的洞察交付与无缝 LLM 集成。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
VegaLite MCP 服务器是一种模型上下文协议(MCP)服务器实现,为大型语言模型(LLM)提供了使用 Vega-Lite 语法可视化数据的接口。通过连接该服务器,AI 助手和应用可以将保存表格数据和生成可视化(图表、图形等)等任务交由服务器处理,这些可视化内容均通过 Vega-Lite 规范进行定义。这使开发者能够实现无缝的编程式数据可视化,让 LLM 既能管理数据集,也能生成自定义的可视化输出,非常适用于数据分析、报告和研究。服务器支持返回带有数据的完整 Vega-Lite 规范(文本模式)或可视化的 base64 编码 PNG 图像(图像模式),为多种集成场景提供了灵活性。
仓库中未列出提示词模板。
仓库中未记录明确的 MCP 资源。
name (字符串):要保存的数据表名称。data (数组):表示数据表的对象数组。data_name (字符串):要可视化的数据表名称。vegalite_specification (字符串):表示 Vega-Lite 规范的 JSON 字符串。--output_type 设置为 text,则返回包含数据的完整 Vega-Lite 规范;如设置为 png,则返回 base64 编码的 PNG 图像。仓库中未列出 Windsurf 的安装说明。
claude_desktop_config.json。mcpServers 对象。{
"mcpServers": {
"datavis": {
"command": "uv",
"args": [
"--directory",
"/absolute/path/to/mcp-datavis-server",
"run",
"mcp_server_datavis",
"--output_type",
"png" // 或 "text"
]
}
}
}
仓库中未提供关于 API 密钥安全的具体说明或示例。
仓库中未列出 Cursor 的安装说明。
仓库中未列出 Cline 的安装说明。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先添加 MCP 组件到您的流程,并将其连接到您的 AI 代理:

点击 MCP 组件打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式插入您的 MCP 服务器信息:
{
"MCP-name": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问所有 MCP 功能和能力。请记得将 “MCP-name” 修改为实际 MCP 服务器的名称(如 “vegalite”、“data-vis” 等),并将 URL 替换为您自己的 MCP 服务器地址。
| 部分 | 可用性 | 详情/备注 |
|---|---|---|
| 概述 | ✅ | README 有清晰摘要 |
| 提示词模板列表 | ⛔ | 未列出提示词模板 |
| 资源列表 | ⛔ | 未列出明确资源 |
| 工具列表 | ✅ | save_data、visualize_data 有文档说明 |
| API 密钥安全 | ⛔ | 没有 API 密钥安全相关信息 |
| 采样支持(评估时次要) | ⛔ | 未提及 |
根据上述表格,VegaLite MCP 服务器在工具和概述方面聚焦且文档齐全,但缺乏提示、资源及安全设置说明,降低了其开箱即用集成评分。
MCP VegaLite 服务器界面简洁,适合通过 LLM 进行数据可视化。然而,缺少提示模板、资源和安全指导,使其在更高级或生产场景下的可用性下降。其主要价值在于数据保存和可视化的功能型工具,但整体完整性和可扩展性有限。
评分:5/10
| 是否有 LICENSE | ⛔ |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数量 | 18 |
| Star 数量 | 72 |

将 FlowHunt 集成至 Vega-Lite 服务器,为您的 AI 工作流解锁高级数据可视化能力。轻松从聚合数据中生成并渲染交互式图表,助力更丰富的洞察交付与无缝 LLM 集成。...

Vectara MCP Server 是一个开源桥梁,连接 AI 助手与 Vectara 的可信 RAG 平台,实现 FlowHunt 生成式 AI 工作流中的安全高效检索增强生成(RAG)与企业搜索。...

VeyraX MCP 服务器作为通用桥梁,使 AI 助手和开发环境(如 Claude、Cursor、Windsurf 以及通过 Cline 的 VS Code)能够通过一次认证访问所有集成的工具和服务。简化您的工作流程,并使用 VeyraX 实现编辑器与工具的无缝集中式连接。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.