Shortcut MCP 服务器
Shortcut MCP 服务器将 AI 助手与 Shortcut 项目管理平台连接起来,实现 Shortcut 的数据与工作流无缝自动化集成,直接嵌入到您的 AI 驱动开发环境中。
浏览 MCP Servers 分类中的所有内容
Shortcut MCP 服务器将 AI 助手与 Shortcut 项目管理平台连接起来,实现 Shortcut 的数据与工作流无缝自动化集成,直接嵌入到您的 AI 驱动开发环境中。
Simulator iOS IDB MCP 服务器连接大型语言模型与 iOS 模拟器,实现 AI 驱动的自动化、UI 测试、应用管理和工作流集成,加速 FlowHunt 内的应用开发。
SingleStore MCP 服务器通过 AI 助手,实现对 SingleStore 数据库和服务的无缝自然语言交互。通过标准化的模型上下文协议(Model Context Protocol)集成、管理和监控 SingleStore,在 FlowHunt 及其他 AI 驱动工具中实现高级运维流程。
Siri 快捷指令 MCP 服务器使 AI 助手和大语言模型(LLMs)能够与 macOS 的快捷指令应用交互,实现重复任务的自动化、增强个人助理工作流,并通过模型上下文协议(Model Context Protocol)编排复杂的 macOS 操作。
Skyvern MCP(模型上下文协议)服务器连接 AI 助手与外部系统,实现与数据库、API 和文件存储的无缝集成,助力自动化工作流并提升 FlowHunt 内 AI 能力。
Slack MCP 服务器实现了 AI 助手与 Slack 工作区的无缝集成,支持消息自动化、工作流集成与安全连接——无需管理员权限或安装机器人。
SlideSpeak MCP 服务器将 AI 助手连接到 SlideSpeak API,实现 PowerPoint 演示文稿的自动化、程序化创建,适用于商务、教育、分析等多种场景。
Smartlead MCP 服务器让 AI 助手和自动化工具无缝集成到 Smartlead 邮件营销平台。它支持通过 MCP 兼容客户端以编程方式访问活动和线索管理、分析数据获取及批量操作。
Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。
snyk-ls MCP 服务器将 AI 助手和开发工作流与 Snyk 的安全工具连接起来,通过模型上下文协议(MCP)实现代码漏洞扫描、安全发现管理,以及在开发环境中提供上下文化的安全建议。
Solr 搜索 MCP 服务器将大型语言模型(LLM)与 Apache Solr 集成,实现通过模型上下文协议(MCP)直接从 Solr 集合安全、认证且类型安全地搜索和检索文档。为您的 AI 助手赋能企业级搜索、高级筛选、排序和异步查询——全部在 FlowHunt 工作流中完成。
Splunk MCP 服务器连接 AI 助理与 Splunk,将搜索、告警、索引和宏等功能作为工具暴露,实现 AI 工作流中的无缝运维集成与自动化。
Spotify MCP 服务器将 FlowHunt AI 助手与 Spotify API 连接,实现通过标准化协议自动化控制播放、音乐搜索、歌单管理、元数据检索和队列管理。
Spring Initializr MCP 服务器让 AI 助手能够以编程方式生成和下载 Spring Boot 项目,通过自动化自定义依赖、构建工具和元数据的项目脚手架,简化后端开发流程。
ssh-mcp-server 是一款安全的模型上下文协议(MCP)服务器,使AI助手和开发工具能够在不暴露凭证的情况下,安全地在远程服务器上执行SSH命令和传输文件。非常适合远程管理、部署自动化和在FlowHunt工作流中的文件同步。
Starknet MCP 服务器将大型语言模型(LLMs)与 Starknet 区块链连接,使 AI 助手能够通过标准化的模型上下文协议(MCP)接口查询、分析和管理区块链数据及智能合约。
将 StarRocks MCP 服务器与 FlowHunt 集成,使 AI 代理能够安全高效地查询、管理和可视化 StarRocks 数据库——无需复杂的客户端设置。
Starwind UI MCP 服务器将 Starwind UI 专属开发工具与 AI 助手集成,实现自动化项目搭建、组件管理、文档检索以及包管理器检测,助力高效 UI 开发流程。
StitchAI MCP 服务器为 AI 智能体提供上下文记忆管理,帮助其高效地存储、检索和组织结构化知识。通过 StitchAI 强大的 MCP 接口,无缝连接您的 AI 助手与外部数据,提升其上下文推理能力。
Strava MCP 服务器将大型语言模型(LLM)与 Strava API 连接起来,使 AI 助手能够安全访问、分析和交互健身数据,如活动、统计、路线和赛段。非常适合希望与 Strava 实现高效智能集成的开发者和 AI 系统。
Stripe MCP 服务器将 Stripe 的支付处理与 AI 工作流集成,实现从 LLM 驱动的平台和开发环境中安全地管理支付、客户和退款。
Tavily MCP 服务器连接 AI 助手与实时互联网,提供高级实时搜索、数据提取、网站结构映射和爬取功能,大幅提升 AI 智能体的上下文感知和实时能力。
Tavily MCP 服务器通过 Tavily 的搜索 API,将强大的网页搜索、直接答案检索和新闻聚合能力集成到 FlowHunt 及其他 LLM 驱动环境中。它通过实现实时、高质量信息访问,简化了研究、自动化和上下文感知 AI 解决方案。
TeamRetro MCP 服务器将 AI 助手与 TeamRetro 平台连接,实现团队管理、回顾、健康检查和分析的自动化,通过安全的模型上下文协议(MCP)接口进行操作。将 TeamRetro 的协作工具和分析能力集成至您的 AI 工作流,提升生产力。
Telegram MCP 服务器连接 AI 助手和客户端与 Telegram,实现对 Telegram 聊天、消息、群组和用户的程序化交互。基于 Telethon 库,为开发者和 AI 工作流简化自动化、群组管理和聊天分析。
Telegram MCP 服务器通过模型上下文协议(MCP)将 Telegram API 与 AI 助手连接,实现 FlowHunt 内消息自动化、对话管理和高级通信场景。
Teradata MCP 服务器将 AI 助手与 Teradata 数据库集成,实现高级分析、无缝 SQL 查询执行以及在 FlowHunt 内直接进行实时商业智能工作流。
使用 Terraform Cloud MCP 服务器将 AI 助手与 Terraform Cloud API 集成。通过自然语言管理基础设施,自动化工作区和项目任务,并从您喜欢的 AI 平台一站式简化基础设施即代码的工作流。
Terraform MCP 服务器将 FlowHunt 和 AI 代理连接到 Terraform Registry,实现 Terraform 提供商、模块和资源的自动发现、提取与分析,助力高级基础设施即代码(IaC)工作流。
TFT MCP 服务器将 AI 助手与 Riot Games API 连接,实现对云顶之弈(TFT)玩家对局历史和详细比赛数据的编程访问,支持自动分析、玩家追踪及赛事深入解说。
TheGraph MCP 服务器将 AI 代理与来自 The Graph 协议的区块链索引数据连接,实现无缝访问、查询和分析链上信息,适用于分析、DeFi 监控和自定义数据检索。
通过 Things3 MCP Server 将 FlowHunt 和 AI 助手集成到 macOS 上的 Things3 任务管理应用。借助强大的 AppleScript 工具和智能特性,实现任务、项目、区域与标签的自动化与控制,打造无缝高效的工作流。
Think MCP 服务器为代理型 AI 工作流提供结构化推理工具,实现显式思维日志记录、策略合规、顺序决策,以及高级批判与规划。可无缝集成到 Claude、FlowHunt 或其他代理型 LLM,增强 AI 代理行为的透明度与可审计性。
thirdweb-mcp MCP 服务器通过 FlowHunt 的 Model Context Protocol 框架,将 AI 助手与区块链和 web3 资源连接,实现区块链数据自动查询、智能合约管理和去中心化资产流程自动化。
将 Ticketmaster MCP 服务器与 FlowHunt 集成,为您的 AI 助手提供实时活动发现、场馆搜索和景点探索能力,利用 Ticketmaster API 实现。无缝设置并连接您的 AI 工作流,为用户提供最新活动数据、个性化推荐和更优旅行规划体验。
将 FlowHunt 与 TickTick MCP 服务器集成,解锁强大的 AI 驱动任务管理自动化。无缝连接您的 AI 代理,实现 TickTick 任务的创建、更新和完成,从而提升工作效率,实现流程自动化。
Tinybird MCP 服务器将 AI 助手与 Tinybird 数据分析平台连接,实现从 AI 工作流中无缝查询、API 集成和数据管理。
TMDB MCP 服务器将 AI 助手与 The Movie Database (TMDB) API 连接,实现强大的电影搜索、热门数据、推荐和详细的影片信息。FlowHunt 用户可通过此强大集成,快速为聊天机器人和应用添加丰富的娱乐功能。
Todos MCP 服务器是一款开源待办事项应用,支持模型上下文协议(MCP),允许 AI 助手和聊天机器人通过标准化 API 以编程方式管理任务。它具有注重隐私的本地存储和实用工具,可在 AI 驱动的工作流中实现无缝任务自动化。
Token Minter MCP 服务器使 AI 助理和智能体能够无缝地与区块链生态系统交互,实现 ERC-20 代币在 21 条区块链上的自动部署、查询与转账。将区块链代币管理整合进你的 AI 工作流,实现快速原型开发、分析和实时部署。
Token Revoke MCP 服务器让 FlowHunt 用户和开发者能够在 50 多个 EVM 兼容区块链上监控、管理和撤销 ERC-20 代币授权——提升钱包安全、自动化风险报告,并为 AI 智能体和工作流实现无缝区块链集成。
TON 区块链 MCP 服务器为 AI 助手提供与 TON 区块链的自然语言交互。它支持通过安全、API 驱动的集成,实现实时分析、诈骗检测、交易取证、交易模式分析和趋势发现。
TOS MCP 服务器支持使用自然语言查询和高效管理字节跳动火山引擎的 TOS 存储资源。可与 FlowHunt 及其他开发者工具无缝集成,实现更智能的自动化工作流。
TouchDesigner MCP 服务器实现了与 TouchDesigner 的无缝 AI 集成,实现项目自动化控制、生成式艺术以及创意编程工作流。它弥合了 AI 代理与实时视觉开发之间的鸿沟,让艺术家和开发者能够以编程方式访问 TouchDesigner 的功能。
Trade Agent MCP 服务器赋能 AI 智能体通过自然语言指令与主流股票及加密货币券商交互。可执行交易、管理投资组合,并通过单一、兼容 MCP 的端点安全访问实时市场数据。
通过 Trello MCP 服务器将 Trello 看板与 AI 助理集成。实现项目管理任务、卡片操作和实时看板协作的自动化,直接在 FlowHunt 的 AI 驱动工作流中进行。
Tripadvisor MCP 服务器将 AI 助手与 Tripadvisor 内容 API 连接,提供标准化工具以访问丰富的旅游数据,包括地点、评论、照片等。让您的 AI 代理具备无缝的旅行发现与行程规划能力。
tsuki_mcp_filesystem_server 是一个精简的 MCP 服务器,能够安全地搜索和列出本地文件系统文件,为 AI 代理提供高效的文件发现与管理能力,通过 Model Context Protocol 暴露文件系统。
Twilio MCP 服务器将 AI 助手与 Twilio 的 API 连接起来,在 FlowHunt 及其他 AI 驱动的工作流中实现自动化短信、电话和资源管理。它简化了通信自动化流程,并支持安全、可配置的 API 暴露。
Tyk Dashboard MCP 服务器可将 OpenAPI/Swagger 规范转换为动态 MCP 服务器,使 AI 助手能够直接将 REST API 作为工具进行交互。它通过为查询、测试和自动化公开端点,简化了面向 LLM 的代理对 API 的集成。
Typesense MCP 服务器将 AI 智能体连接到 Typesense(一款开源搜索引擎),让大语言模型(LLM)能够实时搜索、检索和分析结构化数据集合。在您的 AI 工作流中直接集成强大的文档搜索、分析和模式发现工具,并安全处理 API 密钥。
UnifAI MCP 服务器将 AI 助手与外部数据源、API 和服务连接起来,实现 FlowHunt 生态系统内的高级自动化和工作流编排。尽管这一理念很有前景,但目前公开的文档和资源非常有限。
Uniswap PoolSpy MCP 服务器可实时追踪九大区块链上的新建 Uniswap 流动性池,为 DeFi 分析师、交易员和开发者提供最新的 DeFi 数据、可定制查询,并可无缝集成至 AI 与开发者工具。
Uniswap Trader MCP 服务器让 AI 代理和开发者能够自动化在 Uniswap 上的代币兑换、价格查询及多链 DeFi 交易,覆盖以太坊、Optimism、Polygon、Arbitrum 等。通过 FlowHunt 将实时去中心化交易安全集成到您的工作流中。
Unity Catalog MCP 服务器让 AI 助手和开发者能够通过模型上下文协议(MCP)以编程方式管理、发现和操作 Unity Catalog 的功能。自动化数据目录工作流,简化函数管理,并为现代数据工程和分析提供安全的基于令牌的交互。
Unity MCP 服务器桥接了 Unity 编辑器与 AI 模型客户端(如 Claude Desktop、Windsurf 和 Cursor),让游戏开发者能够在 Unity 环境中实现自动化、智能助手与高效工作流。
UnityMCPIntegration 将 AI 智能体与 Unity 游戏引擎连接,实现通过模型上下文协议 (MCP) 在 Unity 内部进行实时控制、自动化测试、程序化内容生成和 AI 驱动的游戏玩法。
Unleash MCP 服务器将 AI 助手和 LLM 应用程序连接到 Unleash 特性开关系统,实现自动化特性标志管理、项目发现和动态特性暴露,助力 AI 驱动的工作流。
UNS-MCP 服务器通过 Unstructured API 架起 AI 助理和开发工作流与外部数据源之间的桥梁,实现自动化连接器管理、工作流编排,以及无缝数据管道集成,助力构建强大 AI 应用。
Upstash MCP 服务器让 AI 助手和代理能够通过自然语言或编程 MCP 命令无缝管理 Upstash 云数据库。通过标准化的 AI 工作流,简化 Redis 配置、密钥管理、备份和分析。