NBA MCP服务器
NBA MCP服务器通过开源的nba_api,为Claude等AI助手提供实时NBA篮球比赛数据和统计检索能力。将实时比分、球员数据和高级分析无缝集成到您的AI工作流中,打造强大、具备体育感知能力的应用。
浏览 MCP Servers 分类中的所有内容
NBA MCP服务器通过开源的nba_api,为Claude等AI助手提供实时NBA篮球比赛数据和统计检索能力。将实时比分、球员数据和高级分析无缝集成到您的AI工作流中,打造强大、具备体育感知能力的应用。
Needle MCP 服务器通过 MCP 协议无缝连接 AI 助手与文档管理及语义搜索,实现自动化信息检索、知识库扩展,并简化 FlowHunt 及更多平台的文档工作流程。
Neo4j MCP 服务器为 AI 助手与 Neo4j 图数据库架起桥梁,实现安全、自然语言驱动的图操作、Cypher 查询以及自动化数据管理,可直接在 FlowHunt 等 AI 驱动环境中使用。
Neon MCP 服务器将 AI 助手与 Neon 管理 API 及 Neon 托管数据库连接起来,简化云端 Postgres 管理,并为数据库和基础设施运维实现安全、自动化工作流。
Neovim MCP 服务器桥接了 AI 助手与 Neovim,实现了从 AI 驱动工作流中直接进行高级文本编辑、文件导航和代码库管理。通过自动化、智能搜索等功能,将 LLM 能力无缝集成进你的开发过程。
通过 Netbird MCP 服务器,将 Netbird 的网络管理能力集成到您的 AI 工作流中。通过标准化的模型上下文协议(Model Context Protocol),安全地获取配置、状态和网络详情,实现自动化与监控的高效协同。
Nile MCP 服务器作为 AI 助手与 Nile 数据库平台的桥梁,在 FlowHunt 的 LLM 驱动工作流中,实现数据库操作、凭证管理、SQL 执行与区域处理的无缝自动化。
Nocodb MCP 服务器连接 AI 助手与 Nocodb 数据库,提供无缝的 CRUD 操作、模式管理,以及基于文件的表创建,全部通过模型上下文协议(MCP)实现。让您的 AI 工作流通过自动化、标准化的方式访问所有 Nocodb 数据。
Nodit MCP 服务器通过 Nodit 的 Web3 基础设施,将 AI 智能体和开发者连接到结构化的多链区块链数据。它使 LLM 和自动化工具能够无缝访问、分析和利用实时区块链上下文,支持广泛的自动化工作流。
Nomad MCP 服务器是连接 AI 助手与 HashiCorp Nomad 的桥梁,可实现实时编排、作业管理和基础设施自动化,直接来自 FlowHunt 工作流及其他 AI 工具。
Notion MCP 服务器将 FlowHunt 的 AI 代理直接连接到您的 Notion 工作区,实现高级自动化、数据库管理和内容操作。将 Notion 集成到您的工作流中,实现无缝的 AI 驱动内容创建、搜索与更新。
NS出行信息MCP服务器将AI助手与荷兰NS(Nederlandse Spoorwegen)实时铁路数据连接,实现实时列车时刻表、出行规划和中断警报,为在荷兰境内旅行提供无缝体验。
ntfy-mcp 是一个 MCP 服务器,可作为 AI 助手与 ntfy 通知服务之间的通知桥梁,实现实时任务完成提醒和精简的开发工作流。
ntfy-me-mcp MCP 服务器桥接了 AI 助手与 ntfy 通知服务器,实现通过模型上下文协议(MCP)以编程方式发送和接收通知,从而简化、安全并自动化通知流程。
Nutrient DWS MCP 服务器连接 AI 助手与 Nutrient 文档 Web 服务 (DWS) 处理器 API,实现 PDF 的高级处理,如数字签名、文档生成、OCR、水印和涂黑,可集成于 AI 驱动的工作流中。
nx-mcp MCP 服务器通过模型上下文协议(Model Context Protocol)将 Nx monorepo 构建工具与 AI 助手和大语言模型(LLM)工作流连接起来。自动化工作区管理,运行 Nx 命令,并为你的 Nx 代码库提供智能项目分析。
oatpp-mcp MCP 服务器为 Oat++ Web 框架实现了 Anthropic 的模型上下文协议(MCP),将 AI 助手与 API、文件和工具无缝连接,实现后端自动化与工作流集成。
Obsidian MCP 服务器连接 AI 助手与 Markdown 知识库,如 Obsidian vault。它让工具如 Claude Desktop 能够检索、读取和总结笔记,让个人或团队知识在开发工作流中随时可用。
Obsidian MCP 服务器可实现与 Obsidian 知识库的无缝 AI 交互,支持笔记、标签和目录的自动化管理,为 FlowHunt 中的高级知识流程提供支持。
OceanBase MCP 服务器为 OceanBase 数据库与安全 AI 交互架起桥梁,使得诸如列出数据表、读取数据和执行 SQL 查询等操作能够在受控环境下完成。它通过强大的日志记录和细粒度访问控制,提升了数据库的安全访问、分析与报表能力,助力 AI 工作流合规高效。
Octagon MCP 服务器将 AI 助手与 Octagon 市场情报 API 连接起来,实现对全面金融和市场数据的无缝访问,包括 SEC 文件、财报电话会议记录、财务指标、股票和加密货币市场数据及私营公司交易。它为金融专业人士和 AI 开发者简化了深度研究、尽职调查和市场情报流程。
OctoEverywhere MCP 服务器为 AI 智能体和聊天机器人与 3D 打印机之间搭建桥梁,实现安全的远程控制与实时监控。适用于开发者、创客及自动化工作流,支持多品牌打印机,提供实时状态、摄像头快照、AI 驱动的打印失败检测等功能。
Odoo MCP 服务器实现了 AI 工具与 Odoo ERP 系统的无缝交互,使自动化工作流能够直接通过 AI 助手管理和查询业务数据。FlowHunt 用户可利用此集成自动化 CRM、销售、库存和自定义业务逻辑任务。
Odoo MCP 服务器实现了 AI 工具与 Odoo ERP 系统的无缝交互,使得自动化工作流能够直接通过 AI 助理管理和查询业务数据。FlowHunt 用户可利用该集成自动化 CRM、销售、库存及自定义业务逻辑任务。
Office-PowerPoint MCP 服务器通过 python-pptx 库实现高级的、由 AI 驱动的 PowerPoint 演示文稿创建与操作。可与 FlowHunt 集成,实现幻灯片自动生成、内容编辑和业务、教育等场景下的工作流自动化。
Office-Word MCP 服务器连接 AI 助手与 Microsoft Word 文档,实现文档的自动创建、编辑、格式化及内容提取,推动智能化的工作流。
Offorte MCP 服务器将 AI 助手与 Offorte 提案平台连接,实现自动化提案创建、联系人管理和工作流集成,助力企业高效运营。
Okta MCP服务器连接FlowHunt与Okta的身份管理API,实现AI驱动的用户与群组管理任务自动化,如供应、入职、访问控制和事件响应——所有操作可在您的聊天机器人或工作流中完成。
onenote MCP 服务器将 AI 助手与 Microsoft OneNote 连接起来,通过标准化协议实现自动化笔记检索、整理和智能搜索。将 OneNote 的能力集成到您的 AI 工作流中,实现更智能的笔记管理和知识管理。
ONLYOFFICE DocSpace MCP 服务器为 AI 助手和工具与 ONLYOFFICE DocSpace 搭建桥梁,通过标准化的模型上下文协议(MCP),实现安全、自动化的文档管理、协作和工作流编排。
OP.GG MCP 服务器通过 FlowHunt 为 AI 代理提供无缝访问 OP.GG 游戏数据的能力,实现实时分析、玩家统计、排行榜以及为游戏开发者和集成商提供自动化报告。
通过 OpenAI WebSearch MCP 服务器,让您的 AI 助手能够访问实时的网页搜索数据。该集成可让 FlowHunt 及其他平台通过连接 OpenAI 的网页搜索能力,提供最新、富有上下文的答案。
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。
OpenAPI Schema Explorer MCP 服务器可高效、结构化地访问 OpenAPI/Swagger 规范,将其作为 MCP 资源进行管理,为 AI 助手和开发者搭建起探索、模式验证、自动化等 API 文档桥梁。
OpenAPI Schema MCP 服务器向大语言模型(LLM)公开 OpenAPI 规范,通过结构化访问端点、参数和组件,实现 API 探索、模式搜索、代码生成与安全审查。
使用 OpenCTI MCP 服务器将 FlowHunt 集成到 OpenCTI 平台。让您的 AI 助手能够通过标准化接口无缝访问、查询并自动化网络威胁情报工作流。
OpenCV MCP 服务器通过模型上下文协议(MCP)将 OpenCV 强大的图像和视频处理工具与 AI 助手及开发者平台连接起来。可在您喜爱的开发环境中,直接实现高级计算机视觉工作流,包括图像处理、目标检测和视频分析等。
OpenDota MCP 服务器通过 OpenDota API 将 AI 助手与实时 Dota 2 数据连接,支持高级分析、比赛报告、英雄版本分析和社区工具,通过标准协议提供详细的玩家、比赛和英雄信息。
OpenRPC MCP 服务器通过 OpenRPC 规范将 AI 助手与支持 JSON-RPC 的系统连接,实现与外部 API 和服务的可编程、动态集成。它使开发者和 AI 代理能够发现、调用和自动化远程过程,提升工作流、调试和服务编排能力。
OpenSearch MCP 服务器实现了 OpenSearch 与 FlowHunt 及其他 AI 代理的无缝集成,通过模型上下文协议(MCP)以编程方式访问搜索、分析和内容管理等功能。
OpenWeather MCP 服务器通过 OpenWeatherMap API 将 AI 助手连接到实时天气数据。它支持获取任意城市的当前天气和 5 天预报,可配置单位和多语言——非常适合 AI 聊天机器人、工作流自动化和智能家居集成。
Opik MCP 服务器将 Opik 平台与 IDE 和开发工具连接起来,使 AI 助手能够直接从您的工作流环境访问项目管理、提示模板、跟踪记录和指标。
ops-mcp MCP 服务器连接 AI 助手与 nanos/ops unikernel 生态系统,实现 unikernel 镜像与实例的自动化管理,适用于云原生工作流。
OpsLevel MCP 服务器连接 AI 助手与 OpsLevel 的服务目录及工程数据,实现对服务元数据的实时访问、合规自动化和通过 API 集成提升工作流。
Oura MCP 服务器使 AI 助手能够安全访问、分析并可视化 Oura Ring 的健康数据,提供睡眠、恢复、活动和 HRV 的结构化端点。通过可操作的健康洞察、自定义查询和内置数据可视化,助力您的 AI 流程。
使用 Outline MCP 服务器将您的 AI 智能体与 Outline 文档集成。实现文档搜索、内容管理、集合处理和评论流程,直接在 FlowHunt 中增强组织知识管理和开发者生产力。
Oxylabs MCP(模型上下文协议)服务器是 AI 助手与真实世界 Web 之间的桥梁,提供统一 API,可从任意网站提取、结构化并交付干净的数据。它使 AI 模型能够访问实时 Web 数据,实现自动化提取,并通过实时信息增强工作流程。
Paddle MCP 服务器连接 AI 助手与 Paddle API,实现产品目录管理、账单、订阅和财务报告的自动化,通过在 FlowHunt 及支持的 IDE 中的安全智能工作流。
Pagos MCP 服务器将 AI 助手与 Pagos API 连接起来,使其能够实时访问 BIN(银行卡识别号)数据,实现安全智能的支付工作流。在您的 AI 流程中集成 BIN 查询,助力防欺诈、合规和分析。
Pragmatic AI Labs 推出的 PAIML MCP Agent Toolkit 是一款零配置的 MCP 服务器,旨在让 AI agent 工作流更具确定性。它支持与外部数据源、API 及服务的无缝集成,助力基于 agent 的代码生成和并行工具执行。
PancakeSwap PoolSpy MCP 服务器支持对 PancakeSwap 上新创建的流动性池进行实时追踪与分析,为 Binance Smart Chain 上的分析师、交易员和开发者提供最新的 DeFi 洞察。
Pandoc MCP 服务器利用强大的 pandoc 工具,实现无缝、自动化的文档格式转换。可与 FlowHunt 或其他 AI 系统集成,在 Markdown、DOCX、HTML 等格式间转换内容,同时保留文档结构和格式。
Pandoc MCP 服务器通过 Model Context Protocol (MCP) 将 Pandoc 的通用文档转换能力暴露出来,连接 AI 助手和文档转换流程。实现格式转换自动化(如 Markdown 转 PDF/HTML),在 FlowHunt 及其他 AI 系统内简化文档工作流。
Paradex MCP 服务器作为 AI 代理与 Paradex 永续合约交易平台之间的桥梁,实现自动化交易、实时市场数据访问,并将先进交易功能无缝集成到 AI 驱动的工作流中。
Patronus MCP 服务器为开发者和研究人员简化了大语言模型(LLM)的评估与实验,提供自动化、批量处理和强大的 AI 系统基准测试环境,可集成于 FlowHunt。
Peacock MCP 服务器演示了如何在 Visual Studio Code 中通过 MCP 服务器将 AI 助手连接到外部 API,实现自动化主题切换、工作区识别和增强开发者工作流。非常适合作为学习资源或构建自定义 MCP 服务器的模板。
通过 Perplexity Ask MCP 服务器,将实时、全网研究集成到您的 AI 工作流中。该 MCP 服务器桥接了 Perplexity 的 Sonar API 与 Claude、Cursor 等工具,实现了动态信息检索、实时网页搜索和最新问答,直接在您的开发环境中使用。
Phoenix MCP 服务器将 AI 助手与外部数据源和服务连接起来,实现高级开发流程,并与 API、数据库和文件系统无缝集成。其模块化设计让开发者能够将资源和工具暴露给基于大模型的工作流,提升工程任务的自动化与灵活性。
Phone MCP 服务器是面向模型上下文协议(MCP)的插件,可通过 ADB 命令实现对 Android 设备的远程控制。它连接 AI 助手与 Android 设备,实现自动化、管理和实时交互,助力需要直接物理设备访问的工作流程。
Pinecone Assistant MCP 服务器桥接了 AI 助手与 Pinecone 向量数据库,实现了语义搜索、多结果检索以及安全的知识库查询,适用于 AI 工作流。可与 FlowHunt、Claude 及其他工具集成,实现高级信息检索与上下文感知辅助。