JFrog MCP 服务器集成

DevOps AI JFrog MCP Server

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“JFrog” MCP 服务器的作用是什么?

JFrog MCP(模型上下文协议)服务器作为 AI 助手与 JFrog 平台 API 之间的集成层,使开发者能够自动化并增强 DevOps 工作流。借助该 MCP 服务器,AI 客户端可执行多种操作,如仓库管理、构建跟踪、运行时监控、制品搜索、目录与策展、漏洞分析等。该服务器作为桥梁,使 AI 智能体能够执行诸如创建和管理仓库、获取构建信息、监控运行时集群、访问漏洞扫描摘要等任务。这一集成简化了开发与发布流程,让团队能够通过对话或编程式 AI 接口,高效管理软件制品与基础设施。

提示模板列表

在提供的仓库内容中未找到提示模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

在提供的仓库内容中未提及显式 MCP 资源。

工具列表

  • check_jfrog_availability
    • 检查 JFrog 平台是否可用并正常运行。返回平台就绪状态。
  • create_local_repository
    • 在 Artifactory 中创建新的本地仓库。接受 key、rclass(“local”)、packageType 及可选的 description、projectKey 和 environments 参数。
  • create_remote_repository
    • 创建新的远程仓库以代理外部包注册中心。需要 key、rclass(“remote”)、packageType、url,以及可选的凭据和配置。
  • create_virtual_repository
    • 将多个仓库聚合为一个虚拟仓库。需提供 key、rclass(“virtual”)、packageType、repositories(列表)及可选元数据。
  • list_repositories
    • 列出 Artifactory 中所有仓库,可按类型、packageType 或项目进行筛选。

此 MCP 服务器的用例

  • 仓库管理
    • 自动化本地、远程和虚拟仓库的创建与管理,提高效率,减少人工操作错误。
  • 构建跟踪
    • 轻松列出和获取构建信息,帮助团队监控 CI/CD 流程中的构建状态及历史。
  • 运行时监控
    • 查看运行时集群和正在运行的容器镜像,便于实时监控和管理基础设施组件。
  • 制品搜索
    • 执行高级 AQL 查询,搜索制品和构建,精准快速访问所需二进制文件和元数据。
  • 漏洞与策展洞察
    • 获取包信息、版本和漏洞摘要,助力团队保障软件生命周期中的安全与合规。

如何设置

Windsurf

  1. 确保已安装 Node.js,并可访问您的 MCP 服务器。
  2. 打开您的 Windsurf 配置文件(通常为 windsurf.config.json)。
  3. mcpServers 对象中添加 JFrog MCP 服务器:
{
  "mcpServers": {
    "jfrog": {
      "command": "npx",
      "args": ["@jfrog/mcp-jfrog@latest"]
    }
  }
}
  1. 保存配置文件并重启 Windsurf。
  2. 在 Windsurf 仪表盘中检查 MCP 服务器状态,以验证设置。

Claude

  1. 确保已安装并可访问 Claude。
  2. 定位到 Claude 代理配置文件。
  3. 使用以下 JSON 片段添加 JFrog MCP 服务器:
{
  "mcpServers": {
    "jfrog": {
      "command": "npx",
      "args": ["@jfrog/mcp-jfrog@latest"]
    }
  }
}
  1. 保存更改并重启 Claude。
  2. 在 Claude UI 中确认服务器连接。

Cursor

  1. 安装 Node.js 并确保 Cursor 已设置好。
  2. 打开 Cursor 配置文件。
  3. 插入 JFrog MCP 服务器条目:
{
  "mcpServers": {
    "jfrog": {
      "command": "npx",
      "args": ["@jfrog/mcp-jfrog@latest"]
    }
  }
}
  1. 保存并重启 Cursor。
  2. 在 Cursor 的 MCP 集成中检查注册是否成功。

Cline

  1. 安装 Node.js 并设置 Cline。
  2. 访问 Cline 配置文件。
  3. 添加如下 MCP 服务器配置:
{
  "mcpServers": {
    "jfrog": {
      "command": "npx",
      "args": ["@jfrog/mcp-jfrog@latest"]
    }
  }
}
  1. 保存配置并重启 Cline。
  2. 通过 Cline 的 UI 或 CLI 验证连接。

API 密钥安全

始终使用环境变量保护 API 密钥。示例配置:

{
  "mcpServers": {
    "jfrog": {
      "command": "npx",
      "args": ["@jfrog/mcp-jfrog@latest"],
      "env": {
        "JFROG_API_KEY": "${env.JFROG_API_KEY}"
      },
      "inputs": {
        "baseUrl": "https://your.jfrog.instance"
      }
    }
  }
}

请将 "JFROG_API_KEY""baseUrl" 替换为您的实际环境变量和 JFrog 实例 URL。

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先将 MCP 组件添加到流程并与您的 AI 智能体连接:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,按如下 JSON 格式填写您的 MCP 服务器信息:

{
  "jfrog": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用此 MCP,并访问其全部功能。请记得将 “jfrog” 替换为您的 MCP 服务器实际名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/备注
概览概览清晰,功能列表完整
提示模板列表未找到提示模板
资源列表未记录显式 MCP 资源
工具列表README 中有详细工具描述
API 密钥安全提供了使用环境变量的 JSON 示例
采样支持(评估中不重要)未提及采样支持

我们的看法

JFrog MCP 服务器为仓库和制品管理提供了强大的集成,工具集丰富且设置说明清晰。但文档缺乏提示模板、显式 MCP 资源和如根节点、采样等高级 MCP 特性。总体来说,它对 DevOps 自动化非常有用,但如需更广泛的 MCP 兼容性,仍需进一步完善。

MCP 评分:7/10。 实用工具、开源许可和社区采用表现良好,但在部分高级 MCP 文档和功能上有所欠缺。

MCP 评分

有 LICENSE✅ (Apache-2.0)
有至少一个工具
Fork 数15
Star 数92

常见问题

用 JFrog MCP 服务器提升 DevOps

通过将 FlowHunt 与 JFrog 强大的制品和仓库管理工具连接,简化您的软件开发生命周期。

了解更多

Cloudflare MCP 服务器集成
Cloudflare MCP 服务器集成

Cloudflare MCP 服务器集成

Cloudflare MCP 服务器连接 AI 助手与 Cloudflare 云服务,实现配置、日志、构建和文档的自然语言自动化。只需安全、稳健地集成 Cloudflare API 与可观测性到 AI 驱动的工作流中。...

2 分钟阅读
Cloudflare MCP +7
创建 Make MCP 服务器集成
创建 Make MCP 服务器集成

创建 Make MCP 服务器集成

Make MCP 服务器将 FlowHunt AI 代理与 Make 的自动化平台连接起来,使 Make 场景能够作为可调用工具无缝调用。为您的 AI 工作流赋能,实现动态自动化、结构化数据处理以及与 Make 的安全连接。...

2 分钟阅读
AI Automation +5
Figma-Context MCP 服务器
Figma-Context MCP 服务器

Figma-Context MCP 服务器

Figma-Context MCP 服务器通过模型上下文协议(MCP)将 AI 编码代理与 Figma 设计布局连接起来。它使 AI 助手能够获取、分析和理解 Figma 文件,实现无缝的设计到代码工作流、UI 实现、组件提取以及自动化文档生成。...

2 分钟阅读
AI MCP Server +4