
Kibana MCP 服务器集成
Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Kibela MCP 服务器是 Model Context Protocol(MCP)的一个实现,用于集成 Kibela API。它作为 AI 助手与 Kibela 之间的桥梁,能够无缝访问存储在 Kibela 工作区中的外部数据、内容和服务。通过该集成,AI 代理能够查询、检索并与 Kibela 中的文档和知识库交互,助力自动化文档搜索、信息提取、协作等任务,从而提升开发工作流效率。Kibela MCP 服务器使开发者和团队能够结合最新的组织知识与大语言模型(LLM),通过标准化的 MCP 工具和资源,实现高效的代码库探索、知识管理和工作流自动化。
在现有文档或仓库文件中未提及或定义提示模板。
在现有文档或仓库文件中未列出明确的资源。
在现有文档或仓库文件(如 server.py,该仓库为 TypeScript/Node.js 实现,无 server.py 直接映射)中未列出明确的工具。
在您的系统上确保已安装 Node.js。
找到 Windsurf 配置文件(通常为 windsurf.config.json)。
添加 Kibela MCP Server 包:@kiwamizamurai/mcp-kibela-server@latest
在 mcpServers 对象下插入 MCP 服务器配置:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存并重启 Windsurf。
验证服务器是否出现在 MCP 服务器列表中。
若尚未安装 Node.js,请先安装。
找到并打开 Claude 的配置文件。
按如下方式添加 Kibela MCP Server:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
重启 Claude。
通过检查可用的 MCP 端点确认集成。
安装 Node.js。
编辑 cursor.config.json 或相关 MCP 配置文件。
添加如下片段:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存并重启 Cursor。
通过发起 Kibela 相关查询进行测试。
确保已安装 Node.js。
访问 Cline MCP 配置文件。
添加 Kibela 服务器配置项:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"]
}
}
}
保存修改并重启 Cline。
检查 Kibela MCP 服务器是否正在运行。
为保护您的 Kibela API 密钥,请使用环境变量。以下为配置示例:
{
"mcpServers": {
"kibela": {
"command": "npx",
"args": ["@kiwamizamurai/mcp-kibela-server@latest"],
"env": {
"KIBELA_API_KEY": "${KIBELA_API_KEY}"
},
"inputs": {
"workspace": "your_workspace_name"
}
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请首先添加 MCP 组件到您的流程,并将其与 AI 代理连接:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:
{
"kibela": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,访问其所有功能。请记得将 “kibela” 替换为实际的 MCP 服务器名称,URL 也换成您自己的 MCP 服务器地址。
| 部分 | 是否具备 | 说明/备注 |
|---|---|---|
| 概览 | ✅ | |
| 提示词列表 | ⛔ | 未找到 |
| 资源列表 | ⛔ | 未找到 |
| 工具列表 | ⛔ | 未找到 |
| API 密钥安全 | ✅ | 提供了环境变量配置示例 |
| 采样支持(评价时较次要) | ⛔ | 未说明 |
在这些表格之间:
Kibela MCP 服务器提供了基础文档、清晰的许可证和主流平台的部署指南。但在公共文档中缺少明确的工具、资源和提示模板列表,限制了其开箱即用的代理能力。如果补充这些内容,其价值将进一步提升。当前更适合基础 Kibela 集成场景,而非高级或高可配置的 MCP 工作流。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ⛔ |
| Fork 数 | 5 |
| Star 数 | 6 |
Kibela MCP 服务器作为 AI 助手与 Kibela 之间的桥梁,使您能够在 Kibela 工作区内无缝访问文档和知识库,实现高级工作流自动化。
它可以自动化文档搜索、检索、摘要、更新记录、生成报告,以及如为文档打标签或通知团队成员等 AI 协作任务。
在您的 MCP 服务器配置中使用环境变量来安全存储 API 密钥。可参考文档示例,了解如何在平台配置文件中设置。
公共文档中未列出明确的提示模板或工具。该集成主要专注于将 Kibela 知识库连接到 AI 工作流。
为 Windsurf、Claude、Cursor 和 Cline 提供了部署说明。所有平台都需要预先安装 Node.js。
Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...
Keboola MCP 服务器将您的 Keboola 项目与现代 AI 工具连接起来,使 AI 助理和客户端能够从其环境中访问存储、运行 SQL 转换、管理组件并编排作业。这一集成极大地简化了开发流程,并解锁了高级自动化场景。...
KubeSphere MCP服务器让AI助手和LLM开发工具能够无缝管理KubeSphere集群,实现如工作空间、集群、用户和扩展管理等任务自动化,加速云原生开发与DevOps工作流。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.


