Pinecone MCP 服务器集成
通过 Pinecone MCP 服务器将 FlowHunt 与 Pinecone 向量数据库集成。在您的 AI 工作流中直接实现语义搜索、RAG(检索增强生成)和高效的文档管理。
浏览 MCP Servers 分类中的所有内容
通过 Pinecone MCP 服务器将 FlowHunt 与 Pinecone 向量数据库集成。在您的 AI 工作流中直接实现语义搜索、RAG(检索增强生成)和高效的文档管理。
FlowHunt 的 Pinner MCP 服务器可实现 Docker 基础镜像和 GitHub Actions 的自动化、安全固定到不可变摘要,提高开发工作流中的供应链安全性和可重现性。
Placid.app MCP 服务器通过将 Placid 基于模板的图像和视频生成 API 作为 MCP 工具对外开放,实现了 AI 助手与创意自动化的桥接。可在 AI 工作流中直接实现自动化营销内容、社交媒体视觉和个性化创意的生成。
Plane MCP 服务器使 FlowHunt 及其他由 LLM 驱动的平台能够在 Plane.so 中自动化并简化项目和问题管理。它连接了 AI 助手与 Plane.so API,实现了自动项目跟踪、问题创建和工作流自动化,同时保持强大的安全性和用户控制。
Playwright MCP 服务器为 AI 智能体与开发者带来先进的浏览器自动化与 API 交互能力,可在 Claude Desktop、Cline、Cursor IDE 等开发环境中无缝集成。
通过 PostHog MCP 服务器,将 AI 助手连接到 PostHog 分析平台。在 FlowHunt 的 AI 工作流中直接实现功能开关管理、错误分析和运营洞察。
Postman MCP服务器让AI助手能够通过标准化的MCP接口执行Postman集合,并利用Newman自动化API测试流程。无缝集成API验证、环境管理与细粒度测试报告到您的AI驱动QA流程。
Prefect MCP 服务器作为 AI 助手与 Prefect 工作流编排平台之间的桥梁,使得通过自然语言管理流、部署、运行等变得可能。通过 FlowHunt 或其他 AI 驱动界面,轻松实现 Prefect 资源的自动化、监控与控制。
Productboard MCP 服务器将 AI 助手与 Productboard API 连接,实现对产品特性、组件、公司和笔记的高效访问,助力 FlowHunt 及其他智能代理平台的自动化产品管理流程。
Prometheus MCP 服务器通过标准化的模型上下文协议(MCP)接口,使 AI 助手能够与 Prometheus 指标进行交互。它支持 PromQL 查询、指标发现、元数据访问和时间序列分析,实现自动化监控和 AI 驱动的基础设施洞察。
Pubchem MCP 服务器连接 AI 助手与 PubChem API,实现化学和药物信息(如分子详情、同义词和标识符)的自动检索,便于科研、教育及智能应用。
PubNub MCP 服务器通过 PubNub 稳定的消息网络,将 AI 助手和开发环境与实时通信及外部数据源连接起来。通过实时数据、无缝 API 集成以及对 Cursor、Windsurf、Claude Desktop 等平台的跨平台支持,提升您的编码工作流程。
Pulumi MCP 服务器通过将 Pulumi 的基础设施即代码平台与模型上下文协议(MCP)对接,使 AI 助手和开发工具能够以编程方式管理云基础设施。简化部署、自动化更新,并可直接在您喜欢的 AI 驱动环境中控制云资源。
Puppeteer Vision MCP 服务器让 AI 助手能够抓取网页并转换为 Markdown,通过先进的 AI 驱动交互自动绕过 CAPTCHA、付费墙等交互障碍,轻松集成至 AI 工作流(基于 MCP 协议),简化网页数据提取与导入。
puremd MCP 服务器通过 pure.md 平台连接 AI 助手与代理与网页内容,实现网站解封与抓取、动态页面渲染,并将各种资源转换为 markdown。它为 FlowHunt 及其他 AI 开发工具提供了高级网页搜索和无缝 LLM 上下文增强能力。
Pushover MCP服务器将AI代理和工作流连接到Pushover通知平台,使用模型上下文协议(MCP)实现实时、可编程的推送通知,可用于警报、提醒和工作流更新。
putio MCP 服务器实现 AI 助手与 put.io 云存储服务的无缝集成,可直接在 FlowHunt 工作流中以编程方式管理下载、传输和文件访问。
py-mcp-line 是一个基于 Python 的 MCP 服务器,使 AI 助手能够访问和交互 LINE Bot 消息。它开放资源,支持高级过滤,并提供会话数据分析、聊天机器人开发与消息归档的工具。
py-mcp-mssql MCP 服务器为 AI 代理提供了一个安全高效的桥梁,使其能够通过模型上下文协议(MCP)以编程方式与 Microsoft SQL Server 数据库交互。它支持表发现、数据查询和 SQL 执行,适用于分析、报告和工作流自动化等任务。
pydanticpydantic-aimcp-run-python MCP 服务器为 AI 助手与安全、受控的 Python 代码执行环境搭建桥梁。它能够在 FlowHunt 及兼容平台内实现动态 Python 脚本、自动化以及并行函数执行。
Qdrant MCP 服务器将 Qdrant 向量搜索引擎与 FlowHunt 集成,为 AI 助手和 LLM 驱动的应用提供语义记忆层。它支持存储、检索和管理上下文数据,助力高级搜索、知识检索和上下文聊天机器人。
QGIS MCP 服务器将 QGIS Desktop 与大语言模型(LLM)连接,实现 AI 驱动的自动化——支持项目、图层和算法的控制,以及通过对话界面直接执行 Python 代码。
Quarkus MCP 服务器让 FlowHunt 用户能够通过基于 Java 的 MCP 服务器,将由 LLM 驱动的智能体连接到外部数据库和服务,从而简化自动化、集成,以及为 AI 工作流实现真实世界数据访问。
Quickchart MCP 服务器将 QuickChart.io 服务集成到 FlowHunt,使 AI 助手和客户端能够以编程方式生成动态图表。非常适合数据分析、自动化报告和可视化文档,助力在 AI 工作流中实现无缝的图表创建和可视化。
Qwen Max MCP 服务器通过模型上下文协议(MCP)将 Qwen Max 语言模型与外部客户端和 AI 助手连接起来。它支持大上下文推理、多步推理,并可无缝集成到 Claude Desktop 等工具中,是高级语言模型工作流的理想选择。
RabbitMQ MCP 服务器使 AI 助手能够通过模型上下文协议(MCP)管理、自动化并与 RabbitMQ 消息代理交互。它简化了队列管理、代理管理和动态消息操作,适用于强大的分布式系统——并与 FlowHunt 工作流完全集成。
Ragie MCP 服务器使 AI 助手能够对 Ragie 知识库进行语义搜索和检索相关信息,通过上下文知识集成增强开发流程。
RAG网页浏览器MCP服务器为AI助手和LLM提供实时网页搜索与内容提取功能,使得检索增强生成(RAG)、摘要和实时研究能够在FlowHunt工作流中实现。
Ramp MCP 服务器将 AI 助手与 Ramp 财务数据平台连接,实现自动化工作流、数据分析和财务流程自动化,通过安全、节省 Token 的方式访问 Ramp 的开发者 API。
Raygun MCP 服务器连接 AI 助手与 Raygun 强大的 API,实现自动化错误管理、部署跟踪、性能监控、Source Map 处理以及团队管理,助力 FlowHunt 工作流。
通过 Razorpay MCP 服务器将 Razorpay 支付处理直接集成到您的 FlowHunt 工作流中。使用标准化的 MCP 工具,实现支付捕获、交易管理和安全财务操作的 AI 自动化。
Reaper MCP 服务器将 AI 助手与 Reaper 项目文件连接起来,为音频项目发现、结构化数据提取和音频制作环境中的工作流自动化提供工具。
Recraft MCP 服务器将 AI 助手和客户端连接到 Recraft AI 平台,通过统一的 MCP 接口提供高级的光栅和矢量图像生成、风格创建、矢量化、背景移除和放大功能。
Redis Cloud API MCP 服务器桥接 AI 助手和 MCP 客户端与 Redis Cloud 资源,实现账户、订阅、数据库、任务与配置的自然语言管理。可直接在开发工具中自动化 Redis Cloud 运维,提升生产力并简化云端工作流。
Redis MCP 服务器连接 AI 助手与兼容 Redis 的内存数据库,提供无缝的键值存储、实时消息传递和面向 AI 的高级自动化工作流能力。
RedNote MCP 服务器通过支持关键词笔记搜索、通过 URL 直接获取笔记和评论内容及持久化认证管理,连接 AI 助手和开发者与小红书(XiaoHongShu/xhs)。助力您的开发流程,无缝访问小红书丰富内容生态,实现社交内容集成、自动化和分析。
Reed Jobs MCP 服务器将 AI 助手和开发者工具连接到 Reed.co.uk 求职平台,通过 Reed Jobs API 实现实时职位搜索和获取。非常适合职位推荐系统、招聘自动化和就业数据分析。
Reexpress MCP 服务器为大语言模型(LLM)工作流引入统计验证。通过相似度-距离-幅值(SDM)估算器,提供对 AI 输出结果的稳健置信度估计、自适应验证和安全文件访问——让开发者和数据科学家能够获得可靠、可审计的 LLM 响应。
通过 Rember MCP 服务器,将 Rember 的间隔重复记忆卡片系统与 AI 助手集成。自动从聊天、文档和用户笔记中创建记忆卡片,实现高效、AI 辅助的学习和知识留存。
Rememberizer MCP 服务器连接 AI 助手与知识管理,实现语义搜索、统一文档检索和团队协作,支持 Slack、Gmail、Dropbox、Google Drive 等。通过强大的文档与集成工具,简化您的 AI 工作流。
将强大、可编程的邮件发送能力集成到您的 AI 工作流中,使用 Resend MCP 服务器。无缝连接 AI 代理和 Resend 邮件 API,实现自动化通知、事务型邮件及流程通信。
使用 Riot MCP 服务器将英雄联盟数据集成到您的 AI 工作流中。通过标准化 API 获取玩家统计数据、排位表现、英雄熟练度和比赛摘要,让 AI 驱动的应用无缝访问游戏数据。
Riza MCP 服务器通过 Model Context Protocol(模型上下文协议)连接 AI 助手与 Riza 平台的隔离代码解释器,实现安全代码执行、工具管理和工作流自动化。在 FlowHunt 中无缝集成高级代码工具和自动化编码任务。
Room MCP 服务器通过 Room 协议让 AI 助手能够在虚拟房间中协作,支持多智能体工作流、邀请管理、对话存档和实时团队合作,提升开发效率,实现共同目标。
Root Signals MCP 服务器作为 AI 助手与 Root Signals 评估平台的桥梁,为 LLM 提供先进的自动化、遥测和工作流编排能力。集成此 MCP 可实现模型评估自动化、工作流监控和实时指标采集,提升 AI 开发的生产力与可复现性。
Rust MCP 文件系统是一个超高速、异步且轻量级的 MCP 服务器,使用 Rust 编写,为 AI 辅助工作流提供安全高效的文件系统操作。它具备高级的 glob 搜索、默认只读安全保护,并可无缝集成至 FlowHunt 及其他开发工具。
Salesforce MCP 服务器将 AI 助手与 Salesforce 集成,实现自动化工作流,如通过 FlowHunt 发送邮件和部署 Apex 代码,从而简化业务流程并提升生产力。
Salesforce MCP 服务器将 AI 助手和大型语言模型直接连接到 Salesforce,实现无缝查询、记录管理、元数据检索及 API 集成,助力自动化工作流和业务流程自动化。
Salesforce MCP 服务器将 FlowHunt 和 AI 助手连接到 Salesforce,实现通过标准 Model Context Protocol 工具安全、对话式地访问 Salesforce 数据、元数据和自动化功能。
ScrAPI MCP 服务器让 AI 助手能够提取实时网页内容——即使是有验证码、防机器人或地理围栏保护的网站也不例外。它作为 ScrAPI 服务的桥梁,实现 HTML 或 Markdown 的自动抓取,用于实时数据丰富、研究自动化等多种场景。
Scrapling Fetch MCP 服务器使 AI 助手和聊天机器人能够从带有机器人保护的网站访问文本和 HTML 内容,从而可以检索文档和参考资料,提升开发流程。
ScreenshotOne MCP 服务器为 AI 助手与 ScreenshotOne API 架起桥梁,实现自动化网站截图采集,助力开发、QA、报告和文档工作流程。在 FlowHunt 流程中安全高效地集成实时可视化上下文。
Search1API MCP 服务器通过强大的 Search1API,将实时网页搜索和爬取能力集成到 AI 智能体中,使其能够检索实时信息、自动化调研,并在您的开发环境中动态生成内容。
SEC EDGAR MCP 服务器将 AI 智能体与美国证券交易委员会(SEC)的 EDGAR 系统连接,实现对公开财务报表和披露的自动访问、查询与分析,适用于金融、合规和研究等工作流程。
Semgrep MCP 服务器将 FlowHunt 的 AI 代理与强大的 Semgrep 代码分析引擎连接起来,实现自动安全扫描、AI 辅助代码审查,并在开发流程中无缝执行合规性要求。
Serper MCP 服务器通过 Serper API 将 AI 助手与 Google 搜索连接起来,使其能够在 FlowHunt 工作流中直接实现实时网页、图片、视频、新闻、地图、评论、购物和学术搜索功能。
ServiceNow MCP 服务器桥接了 Claude 等 AI 助手与 ServiceNow,实现了通过 ServiceNow API 高效获取数据、自动化流程和工单管理。它简化了 IT 运维流程,并赋能团队实现服务请求和报表的自动化。
ShaderToy MCP 服务器将 Claude 等 AI 助手与 ShaderToy 连接起来,使其能够读取、生成并分享 GLSL 着色器,充分利用 ShaderToy 丰富的资源库。此集成简化了艺术家和 AI 开发者的着色器创作、探索与社区分享流程。
SHODAN-MCP 服务器将 Shodan API 集成到 FlowHunt,为安全研究人员和开发者提供先进的漏洞发现、主机情报和网络映射工具,直接支持 AI 驱动的工作流。
Shopify MCP 服务器将 FlowHunt 和 AI 助手与 Shopify 商店连接起来,通过标准化工具和 API 实现无缝集成,实现电商自动化、客户管理以及产品数据访问。