MCP 代理服务器
MCP 代理服务器将多个 MCP 资源服务器聚合为一个 HTTP 服务器,为 AI 助手和开发者简化连接。它实现了对多样化工具、API 和数据源的统一访问,支持实时流式传输与集中式认证。
浏览 MCP Servers 分类中的所有内容
MCP 代理服务器将多个 MCP 资源服务器聚合为一个 HTTP 服务器,为 AI 助手和开发者简化连接。它实现了对多样化工具、API 和数据源的统一访问,支持实时流式传输与集中式认证。
MCP 代码执行器 MCP 服务器使 FlowHunt 及其他由 LLM 驱动的工具能够在隔离环境中安全地执行 Python 代码,管理依赖,并动态配置代码执行上下文。非常适合自动化代码评估、可复现的数据科学工作流以及在 FlowHunt 流程中动态环境设置。
MCP 开放图书馆服务器将 AI 助手与互联网档案馆的 Open Library API 连接起来,实现对书籍、作者和媒体数据的无缝搜索与检索,适用于书目研究、编目和丰富的数字体验。
MCP 求解器是一款模型上下文协议(MCP)服务器,为 AI 助理和大语言模型(LLM)提供高级的 SAT、SMT 和约束优化能力。它支持复杂数学模型的交互式创建、修改与求解,简化科研、工程和决策流程。
MCP 数据库服务器为 AI 助手和自动化工具提供对常见数据库(如 SQLite、SQL Server、PostgreSQL 和 MySQL)的安全、可编程访问。它作为桥梁,支持上下文感知的工作流和 AI 驱动应用高效查询、管理和交互结构化数据。
mcp-google-search MCP 服务器通过 Google 自定义搜索 API 构建 AI 助手与网络之间的桥梁,实现实时搜索和内容提取。它让大语言模型能够直接从在线来源访问、验证并总结最新信息。
MCP-Grep 将 Unix 的 grep 工具作为模型上下文协议(MCP)服务器对外提供,使 AI 助手和开发者能够通过标准化 API 实现高级文本和模式搜索。非常适合日志分析、代码库探索、安全审计等场景。
mcp-hfspace MCP 服务器将 AI 助手与 HuggingFace Spaces 连接,实现外部 AI 模型、演示和 API 在开发流程中的无缝集成、自动化与管理。
mcp-ical MCP 服务器将 AI 助手与您的 macOS 日历连接,实现自然语言的日程安排、事件管理和可用性检查。支持多日历、智能提醒及 Google 日历集成,让效率更高效。
mcp-installer MCP 服务器简化并自动化其他模型上下文协议(MCP)服务器的安装,使 AI 助手和开发者能够通过最少的手动配置,从 npm 或 PyPi 快速部署新的 MCP 服务器,迅速扩展工具集。
mcp-k8s-go MCP 服务器使 AI 助手能够通过 Model Context Protocol 与 Kubernetes 集群进行编程化交互,通过标准化接口实现 DevOps 工作流的自动化与精简。
mcp-local-rag MCP 服务器实现了本地、保护隐私的检索增强生成(RAG)网页搜索,为大语言模型(LLM)提供数据检索能力。它允许 AI 助手在无需外部 API 的情况下访问、嵌入并提取网页中的最新信息,从而提升科研、内容创作和问答等工作流程。
mcp-meme-sticky 是一个模型上下文协议(MCP)服务器,使 AI 助手能够生成表情包并将其转换为 Telegram 等平台的贴纸。它连接了大语言模型和表情包生成服务,简化了自定义表情包工作流和贴纸自动化,无需外部 API。
MCP-NixOS 是 NixOS 的模型上下文协议服务器,使 AI 助手和开发者能够以编程方式访问和管理 NixOS 配置、软件包和系统状态。它简化了基础设施自动化、可重现构建和 AI 驱动的 DevOps 工作流。
MCP-PIF(模型上下文协议 - 个人智能框架)服务器将 AI 助手与外部数据、工具和服务连接起来,实现工作区管理、项目日志记录和结构化推理。为您的 FlowHunt AI 工作流无缝赋能,具备文件操作、日志记录和洞察开发能力。
mcp-proxy MCP 服务器桥接了可流式 HTTP 和 stdio MCP 传输协议,实现 AI 助手与多种模型上下文协议(MCP)服务器或客户端的无缝集成。它扩展了互操作性,简化了旧系统集成,并提升了跨平台 AI 工作流。
mcp-rag-local MCP 服务器为 AI 助手赋能语义记忆,实现基于含义而非仅仅关键词的文本片段存储与检索。它利用 Ollama 生成嵌入,采用 ChromaDB 进行向量检索,支持本地工作流中高级知识管理与上下文回忆。
mcp-rquest MCP 服务器为 AI 助手赋予先进的类浏览器 HTTP 请求能力、强大的反爬虫机制以及文档到 Markdown 的转换功能。基于 rquest 引擎驱动,实现安全、真实的网页交互和高效处理大型网页或文档响应。
mcp-searxng MCP 服务器使 FlowHunt AI 代理能够通过 SearXNG(一款开源元搜索引擎)执行实时、注重隐私的网页搜索。它为大语言模型提供了来自多源互联网的最新数据,适用于研究、事实核查和动态应用。
mcp-searxng-public MCP 服务器将 AI 助手与公共 SearXNG 元搜索实例连接,将 HTML 搜索结果解析为干净的 JSON,实现实时且注重隐私的网页搜索与信息检索。
mcp-server-commands MCP 服务器为 AI 助手与安全系统命令执行之间搭建桥梁,使 LLM 能够直接从 FlowHunt 及其它 AI 平台与 Shell 交互、自动化开发任务及文件管理。
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。
mcp-server-docker MCP 服务器使 AI 助手能够通过自然语言管理 Docker 容器。将此 MCP 集成到 FlowHunt 及其他客户端,实现容器自动编排、自省、调试和持久化数据管理。
MCP-Soccerdata 是一个开源的 MCP 服务器,可连接到 SoccerDataAPI,为 AI 工作流提供实时足球比赛洞察。它提供实时比赛列表、详细比赛事件、球队阵容、赔率和联赛元数据,适用于如 Claude Desktop、Cursor、Windsurf 和 Cline 等支持 MCP 的客户端。
mcp-stdio-to-streamable-http-adapter MCP 服务器作为兼容性桥梁,使基于 STDIO 的 MCP 客户端能够无缝连接到现代的 Streamable HTTP MCP 服务器。它简化了集成、测试和迁移,让开发者无需更新客户端即可立即使用新服务器功能。
mcp-teams-server 通过模型上下文协议(MCP)将 Microsoft Teams 功能集成到 FlowHunt,使 AI 助手能够读取、创建和回复消息、提及用户,并在 Teams 频道和聊天中自动化团队工作流程。
mcp-vision MCP 服务器将 HuggingFace 计算机视觉模型(如零样本目标检测)连接至 FlowHunt 和其他 AI 平台,为大语言模型和 AI 助手赋予高级视觉能力,如目标检测和图像分析。
mcp-writer-substack MCP 服务器让像 Claude 这样的 AI 助手能够在工作流中访问、获取和总结 Substack 新闻通讯内容。它通过将 Substack 文章直接引入 AI 驱动的环境,简化了研究、内容策划、新闻通讯监控和自动写作辅助。
mcpignore-filesystem MCP 服务器通过支持 `.mcpignore` 模式,为 AI 代理的文件访问带来安全、细粒度的控制。保护敏感数据,自动化文件任务,并通过强大且可定制的文件系统接口支持 AI 驱动的开发工作流。
MediaWiki-MCP-adapter 使 AI 助手和自动化工具能够通过简化的模型上下文协议(MCP)服务器以编程方式获取和编辑 MediaWiki 页面,非常适合维基自动化、批量编辑和知识库管理。
Meilisearch MCP 服务器实现了 AI 助手与您的 Meilisearch 实例的桥接,支持直接通过 AI 工作流或自动化工具进行数据库操作、索引管理、设置配置及 API 密钥管理。
mem0 MCP 服务器将 AI 助手与结构化存储、检索及代码片段、文档和最佳实践的语义搜索连接起来。它通过支持持久化的编码偏好存储与 AI IDE 无缝集成,提升开发工作流程。
Membase MCP 服务器通过将 AI 代理连接到由 Unibase 驱动的 Membase 协议,提供轻量级、去中心化和持久的记忆服务。它使代理能够安全地存储和检索会话历史,管理多个会话,并确保防篡改、可审计的记录。
Memgraph MCP 服务器连接 Memgraph 图数据库与大型语言模型,实现通过标准化 MCP 工具和资源进行实时图数据访问与 AI 驱动工作流。
Mesh Agent MCP 服务器将 AI 助手与外部数据源、API 和服务连接起来,为大型语言模型(LLM)与真实世界信息之间搭建桥梁,实现无缝的工作流集成。它支持在 Model Context Protocol(MCP)生态中进行数据库查询、文件管理和 API 交互等任务。
MetaTrader MCP 服务器将 AI 大型语言模型与 MetaTrader 5 连接,实现自动化交易、投资组合管理与智能市场分析,可直接在 AI 驱动的工作流中操作。
Metoro MCP 服务器连接 AI 智能体与外部数据源、API 及服务,使 FlowHunt 用户能够通过模型上下文协议 (MCP) 自动化工作流程、标准化集成并扩展 AI 智能体的能力。
Metricool MCP 服务器将 FlowHunt AI 代理与 Metricool API 连接,实现对社交媒体分析、内容定时发布和多平台广告活动管理的无缝访问,助力数据驱动的营销流程。
Microsoft 365 MCP 服务器通过 Graph API,将 AI 助手与 Microsoft 365 服务无缝连接,实现企业生产力工作流中的邮件、日历、文件、任务和联系人自动化。
Microsoft Clarity MCP 服务器桥接 AI 助手与 Microsoft Clarity 分析,实现通过模型上下文协议直接访问强大的网站指标和洞察。将分析集成到您的 AI 工作流中,实现更智能的网站监控、分段和报告。
Microsoft Docs MCP 服务器为 AI 助手、IDE 和开发工具提供实时、权威的 Microsoft 文档访问。通过来自 Microsoft Learn、Azure、Microsoft 365 等的最新、可信内容,提升工作流程。
Microsoft Fabric MCP 服务器实现了与 Microsoft Fabric 数据工程和分析生态系统的无缝 AI 驱动交互。它支持工作区管理、PySpark 笔记本开发、delta 表结构获取、SQL 执行,以及基于 LLM 的高级代码生成与优化。
Mifos X MCP 服务器连接 FlowHunt AI 代理与 Apache Fineract®,通过标准化协议实现金融数据自动化、客户开户、贷款管理和工作流 AI 集成。
MikroTik MCP 服务器将 FlowHunt AI 助手与 MikroTik RouterOS 设备连接,实现 VLAN 管理、防火墙配置等的自动化。通过 AI 驱动的工作流程简化并保障您的网络运维。
Milvus MCP服务器将AI助手和基于LLM的应用与Milvus向量数据库连接,实现先进的向量搜索、嵌入管理和上下文记忆,让智能AI流程在FlowHunt中更高效。
ModelContextProtocol(MCP)服务器作为AI代理与外部数据源、API和服务之间的桥梁,使FlowHunt用户能够构建具备上下文感知、自动化工作流的AI助手。本指南涵盖了安全集成的设置、配置与最佳实践。
Momento MCP 服务器将 AI 助手与 Momento Cache 连接起来,通过 MCP 工具实现高效的缓存操作,实现实时数据检索、缓存管理以及在 FlowHunt 工作流中的动态上下文注入。
Monday.com MCP 服务器可将 AI 助手和 MCP 客户端直接连接到 Monday.com,实现看板、项目、更新和文档的无缝自动化,助力 FlowHunt 内强大的项目管理流程。
MongoDB MCP 服务器实现了 AI 助手与 MongoDB 数据库的无缝集成,可通过标准化的 Model Context Protocol (MCP) 实现数据库的直接管理、查询自动化和数据检索。
MongoDB Mongoose MCP 服务器使 FlowHunt 及其他 AI 助手能够直接与 MongoDB 数据库交互,支持强大的数据校验、操作钩子,以及基于 schema 和无 schema 的工作流。它为查询、聚合、插入、更新和索引管理等数据库操作提供了强大的工具,实现了自然语言和 AI 驱动的数据库自动化。
Monzo MCP 服务器将 AI 助手与您的 Monzo 银行账户连接,实现对个人银行数据的安全、可编程访问,可用于自动化、报告和在 FlowHunt 及其他兼容 MCP 的工具中获取财务洞见。
Morningstar MCP 服务器将 FlowHunt 和 AI 助手与 Morningstar 值得信赖的金融数据与编辑研究相连接,实现对股票和基金指标以及专家财经洞见的实时访问。非常适合 AI 驱动的金融、投资和投资组合管理工作流。
MotherDuck MCP 服务器将 AI 助手和 IDE 与 DuckDB 及 MotherDuck 数据库连接,通过统一界面实现强大的 SQL 分析。它支持混合执行、无服务器数据探索,并可无缝集成本地和云端数据源。
MSSQL MCP 服务器将 AI 助手与 Microsoft SQL Server 数据库连接,实现从 AI 流程中直接进行高级数据操作、商业智能和工作流自动化。可无缝执行查询、管理模式并生成业务洞察。
MSSQL MCP 服务器实现了 FlowHunt 与 Microsoft SQL Server 数据库之间的安全、可审计和结构化交互。它支持表格列表、数据探索、自定义查询执行,并为合规性与开发自动化提供完整日志记录。
MySQL MCP 服务器为 AI 助手与 MySQL 数据库之间提供了一个安全的桥梁。它通过强大的模型上下文协议(MCP)接口,实现结构化数据库探索、查询和数据分析,支持安全集成到 AI 工作流中。
n8n MCP 服务器实现了 AI 助手与 n8n 自动化平台的无缝集成,让 FlowHunt 用户能够通过 AI 代理触发、监控并管理自动化工作流。
Nacos-MCP-Router 是一款强大的 MCP 服务器,能够集中发现、安装和代理其他 MCP 服务器,弥合协议差异,并为云原生和 AI 驱动的工作流编排服务交互。
NASA MCP服务器为AI模型和开发者提供了一个统一接口,访问超过20个NASA数据源。它标准化了NASA科学和影像数据的检索、处理与管理,实现了科研、教育与探索工作流的无缝集成。
使用Naver MCP服务器,将Naver的OpenAPI套件集成到您的AI工作流中。在FlowHunt或您喜欢的AI开发平台内,实时访问博客、新闻、图书、百科、图片及本地信息搜索、内容审核等服务。