Asgardeo MCP 服务器集成
将您的 AI 助手与 Asgardeo 集成,实现高效的身份和访问管理。Asgardeo MCP 服务器让您通过自然语言和大模型工具管理应用、配置认证流程,并自动化身份操作。
浏览 MCP Integrations 分类中的所有内容
将您的 AI 助手与 Asgardeo 集成,实现高效的身份和访问管理。Asgardeo MCP 服务器让您通过自然语言和大模型工具管理应用、配置认证流程,并自动化身份操作。
通过 Flightradar24 MCP 服务器,将实时航班追踪集成到您的 AI 工作流中。访问实时航空数据,监控航班,并在 FlowHunt 流程中提升旅行及态势感知能力。
Inoyu MCP Unomi 服务器将Anthropic的模型上下文协议(MCP)与Apache Unomi连接起来,使AI代理能够交互、管理并为用户画像和会话数据提供上下文,实现高级、持久和个性化的对话。
使用 JFrog MCP 服务器集成您的 AI 助手与 JFrog 平台 API。自动化仓库管理、构建跟踪、运行时监控、制品搜索和漏洞分析,提升 DevOps 工作流。
Kibela MCP 服务器将 AI 助手连接到 Kibela 工作区,通过为大语言模型(LLM)提供组织知识库访问,实现无缝文档搜索、知识管理和工作流自动化。
MCP-DBLP 是一个模型上下文协议(MCP)服务器,为 AI 智能体无缝接入 DBLP 计算机科学文献数据库。它支持高级学术论文检索、引文管理、作者探索、BibTeX 导出和书目信息提取,全部可集成于您的大语言模型工作流中。
FlowHunt 的 Replicate MCP Server 连接器可无缝访问 Replicate 丰富的 AI 模型中心,使开发者能够在工作流中直接搜索、探索和运行机器学习模型。轻松将模型发现、信息检索、预测和集合管理集成到自动化流程中。
通过 Rijksmuseum MCP 服务器,将你的 AI 助手和工作流与 Rijksmuseum 庞大的艺术藏品连接。支持自然语言探索、详细分析,以及对艺术品、艺术家和策展收藏的高分辨率图像访问——全部通过强大的 MCP 工具实现。
Tempo MCP 服务器使 AI 助手能够查询和分析来自 Grafana Tempo 的分布式追踪数据,从而简化可观测性、调试以及分布式应用系统性能分析。
阿里云运维 MCP 服务器实现与阿里云 API 的无缝集成,使 AI 代理能够通过标准化模型上下文协议接口自动化资源管理、监控与 DevOps 工作流。