
Kibana MCP 服务器集成
Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...
使用 Kibela MCP 服务器,将您的 AI 工作流与 Kibela 集成,实现实时知识访问、自动文档检索和增强团队协作。
Kibela MCP 服务器是 Model Context Protocol(MCP)的一个实现,用于集成 Kibela API。它作为 AI 助手与 Kibela 之间的桥梁,能够无缝访问存储在 Kibela 工作区中的外部数据、内容和服务。通过该集成,AI 代理能够查询、检索并与 Kibela 中的文档和知识库交互,助力自动化文档搜索、信息提取、协作等任务,从而提升开发工作流效率。Kibela MCP 服务器使开发者和团队能够结合最新的组织知识与大语言模型(LLM),通过标准化的 MCP 工具和资源,实现高效的代码库探索、知识管理和工作流自动化。
在现有文档或仓库文件中未提及或定义提示模板。
在现有文档或仓库文件中未列出明确的资源。
在现有文档或仓库文件(如 server.py
,该仓库为 TypeScript/Node.js 实现,无 server.py
直接映射)中未列出明确的工具。
在您的系统上确保已安装 Node.js。
找到 Windsurf 配置文件(通常为 windsurf.config.json
)。
添加 Kibela MCP Server 包:@kiwamizamurai/mcp-kibela-server@latest
在 mcpServers
对象下插入 MCP 服务器配置:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存并重启 Windsurf。
验证服务器是否出现在 MCP 服务器列表中。
若尚未安装 Node.js,请先安装。
找到并打开 Claude 的配置文件。
按如下方式添加 Kibela MCP Server:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
重启 Claude。
通过检查可用的 MCP 端点确认集成。
安装 Node.js。
编辑 cursor.config.json
或相关 MCP 配置文件。
添加如下片段:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存并重启 Cursor。
通过发起 Kibela 相关查询进行测试。
确保已安装 Node.js。
访问 Cline MCP 配置文件。
添加 Kibela 服务器配置项:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存修改并重启 Cline。
检查 Kibela MCP 服务器是否正在运行。
为保护您的 Kibela API 密钥,请使用环境变量。以下为配置示例:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"],
"env": {
"KIBELA_API_KEY": "${KIBELA_API_KEY}"
},
"inputs": {
"workspace": "your_workspace_name"
}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请首先添加 MCP 组件到您的流程,并将其与 AI 代理连接:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:
{
"kibela": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,访问其所有功能。请记得将 “kibela” 替换为实际的 MCP 服务器名称,URL 也换成您自己的 MCP 服务器地址。
部分 | 是否具备 | 说明/备注 |
---|---|---|
概览 | ✅ | |
提示词列表 | ⛔ | 未找到 |
资源列表 | ⛔ | 未找到 |
工具列表 | ⛔ | 未找到 |
API 密钥安全 | ✅ | 提供了环境变量配置示例 |
采样支持(评价时较次要) | ⛔ | 未说明 |
在这些表格之间:
Kibela MCP 服务器提供了基础文档、清晰的许可证和主流平台的部署指南。但在公共文档中缺少明确的工具、资源和提示模板列表,限制了其开箱即用的代理能力。如果补充这些内容,其价值将进一步提升。当前更适合基础 Kibela 集成场景,而非高级或高可配置的 MCP 工作流。
是否有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ⛔ |
Fork 数 | 5 |
Star 数 | 6 |
Kibela MCP 服务器作为 AI 助手与 Kibela 之间的桥梁,使您能够在 Kibela 工作区内无缝访问文档和知识库,实现高级工作流自动化。
它可以自动化文档搜索、检索、摘要、更新记录、生成报告,以及如为文档打标签或通知团队成员等 AI 协作任务。
在您的 MCP 服务器配置中使用环境变量来安全存储 API 密钥。可参考文档示例,了解如何在平台配置文件中设置。
公共文档中未列出明确的提示模板或工具。该集成主要专注于将 Kibela 知识库连接到 AI 工作流。
为 Windsurf、Claude、Cursor 和 Cline 提供了部署说明。所有平台都需要预先安装 Node.js。
Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...
Keboola MCP 服务器将您的 Keboola 项目与现代 AI 工具连接起来,使 AI 助理和客户端能够从其环境中访问存储、运行 SQL 转换、管理组件并编排作业。这一集成极大地简化了开发流程,并解锁了高级自动化场景。...
KubeSphere MCP服务器让AI助手和LLM开发工具能够无缝管理KubeSphere集群,实现如工作空间、集群、用户和扩展管理等任务自动化,加速云原生开发与DevOps工作流。...