
Snowflake MCP 服务器
Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。...
StarRocks MCP(模型上下文协议)服务器是 AI 助手与 StarRocks 数据库之间的智能桥梁。它为 AI 代理无缝提供 SQL 查询执行、数据库探索、结构及数据概览获取、图表数据可视化等功能——无需复杂的客户端设置。通过将 StarRocks 数据库的资源和操作以 MCP 原语暴露,服务器支持表清单列出、执行 SELECT 或 DDL/DML 命令、生成表级和库级摘要等任务。同时,智能内存缓存加速重复请求,灵活的环境变量配置便于开发者集成至工作流。这极大提升了开发 AI 驱动数据工具、分析代理或数据库管理解决方案时的生产力。
仓库中未显式提及提示词模板。
SELECT
查询并返回结果。INSERT
、UPDATE
、DELETE
、CREATE
等)进行数据库修改。uv
并获取 StarRocks MCP 服务器包。mcpServers
对象中添加 StarRocks MCP 服务器配置:{
"mcpServers": {
"mcp-server-starrocks": {
"command": "uv",
"args": ["run", "--with", "mcp-server-starrocks", "mcp-server-starrocks"],
"env": {
"STARROCKS_HOST": "localhost",
"STARROCKS_PORT": "9030",
"STARROCKS_USER": "root",
"STARROCKS_PASSWORD": "",
"STARROCKS_DB": "",
"STARROCKS_OVERVIEW_LIMIT": "20000",
"STARROCKS_MYSQL_AUTH_PLUGIN":"mysql_clear_password"
}
}
}
}
uv
。mcpServers
对象中添加如下内容:{
"mcpServers": {
"mcp-server-starrocks": {
"url": "http://localhost:8000/mcp"
}
}
}
export MCP_TRANSPORT_MODE=streamable-http
uv run mcp-server-starrocks
uv
和 StarRocks MCP 服务器。{
"mcpServers": {
"mcp-server-starrocks": {
"command": "uv",
"args": [
"--directory",
"path/to/mcp-server-starrocks",
"run",
"mcp-server-starrocks"
],
"env": {
"STARROCKS_HOST": "localhost",
"STARROCKS_PORT": "9030",
"STARROCKS_USER": "root",
"STARROCKS_PASSWORD": "",
"STARROCKS_DB": "",
"STARROCKS_OVERVIEW_LIMIT": "20000",
"STARROCKS_MYSQL_AUTH_PLUGIN":"mysql_clear_password"
}
}
}
}
uv
、StarRocks MCP 服务器)。{
"mcpServers": {
"mcp-server-starrocks": {
"url": "http://localhost:8000/mcp"
}
}
}
export MCP_TRANSPORT_MODE=streamable-http
uv run mcp-server-starrocks
在 MCP 服务器配置中使用环境变量存储数据库凭证等敏感信息。示例:
{
"mcpServers": {
"mcp-server-starrocks": {
"command": "uv",
"args": ["run", "--with", "mcp-server-starrocks", "mcp-server-starrocks"],
"env": {
"STARROCKS_HOST": "${STARROCKS_HOST}",
"STARROCKS_USER": "${STARROCKS_USER}",
"STARROCKS_PASSWORD": "${STARROCKS_PASSWORD}"
},
"inputs": {
"STARROCKS_DB": "analytics"
}
}
}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请先在流程中添加 MCP 组件并与 AI 代理连接:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写 MCP 服务器信息:
{
"starrocks": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具访问该 MCP 的全部功能。请记得将 “starrocks” 替换为您实际的 MCP 服务器名称(如 “github-mcp”、“weather-api” 等),并将 URL 替换为您的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | |
提示词模板列表 | ⛔ | 未提及显式提示词模板。 |
资源列表 | ✅ | starrocks://, proc://, 表/库概览资源 |
工具列表 | ✅ | read_query, write_query, table_overview, db_overview, query_and_plotly_chart |
API 密钥安全管理 | ✅ | 通过配置中的环境变量实现 |
采样支持(评价时非重点) | ⛔ | 未提及 |
StarRocks MCP 服务器是一款定位明确、生产级的 StarRocks 数据库 MCP 集成实现。其在数据驱动工作流下资源和工具覆盖面广,虽不包含提示词模板及采样/roots 特性,但文档详实,配置安全、易用。
是否有 LICENSE | ✅ (Apache-2.0) |
---|---|
是否有至少一个工具 | ✅ |
Fork 数量 | 27 |
Star 数量 | 82 |
StarRocks MCP 服务器搭建了 AI 助手与 StarRocks 数据库之间的桥梁,使 AI 代理能够查询、管理和可视化 StarRocks 数据,无需复杂的客户端设置。它公开数据库资源,支持 SQL 执行、结构探索和可视化绘图——安全且高效。
它提供执行 SELECT 和 DDL/DML 查询、生成表/库概览、基于查询结果创建 Plotly 图表等工具。可访问结构探索、表摘要、数据库概览及 StarRocks 内部指标等资源。
在 MCP 配置中使用环境变量安全存储主机、用户、密码等凭证,避免敏感信息硬编码,确保部署过程中的安全保护。
应用场景包括数据库管理、结构/数据探索、自动化报告和可视化、系统监控以及 AI 辅助数据分析,所有功能均可由您的 AI 代理访问。
在 FlowHunt 流程中添加 MCP 组件,并在系统 MCP 配置面板中填写 StarRocks MCP 服务器的 URL,即可让 AI 代理通过 MCP 协议访问全部 StarRocks 能力。
通过将 StarRocks MCP 服务器与 FlowHunt 集成,为您的 AI 代理解锁高级 SQL 查询、结构探索和即时数据可视化功能。
Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。...
Astra DB MCP 服务器连接大型语言模型(LLMs)与 Astra DB,实现安全、自动化的数据查询与管理。它让 AI 驱动的工作流可以直接与 Astra DB 交互,释放生产力,实现数据库自动化的无缝体验。...
DataHub MCP 服务器为 FlowHunt AI 代理与 DataHub 元数据平台之间架起桥梁,实现高级数据发现、血缘分析、自动元数据检索,以及与 AI 驱动工作流的无缝集成。...