
mcp-google-search MCP 服务器
mcp-google-search MCP 服务器通过 Google 自定义搜索 API 构建 AI 助手与网络之间的桥梁,实现实时搜索和内容提取。它让大语言模型能够直接从在线来源访问、验证并总结最新信息。...
通过 OpenAI WebSearch MCP 服务器,将您的 AI 智能体连接到实时网络,实现为用户提供实时、准确、基于位置的响应。
OpenAI WebSearch MCP 服务器让 AI 助手可以通过 Model Context Protocol (MCP) 访问 OpenAI 的网页搜索功能。它作为 AI 模型与实时网页信息之间的桥梁,使助手能够获取训练语料库中没有的最新数据。开发者可将该服务器集成到如 Claude、Zed 等平台,让 AI 智能体在对话过程中执行实时网页搜索。这极大提升了诸如回答时事问题、用新近数据丰富上下文、以及打造更动态、更有信息量的 AI 开发工作流的场景体验。
在仓库或文档中未列出提示词模板。
在仓库或文档中未明确列出资源。
type
(string):必须为 “web_search_preview”。search_context_size
(string):上下文窗口使用建议—可为 “low”、“medium”(默认)或 “high”。user_location
(object 或 null):包含位置信息(type, city, country, region, timezone),用于定制搜索。即将上线(文档中暂未提供设置步骤)。
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
并编辑您的 Claude 设置:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
pip install openai-websearch-mcp
并更新设置如下:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
API 密钥安全存储:
请通过配置中的 env
字段存储 API 密钥。
示例:
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
即将上线(文档中暂未提供设置步骤)。
文档中未提供设置说明。
uvx
,在 Zed 的 settings.json
中添加如下内容:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
},
API 密钥安全存储:
如上所示,使用 env
字段。
在 FlowHunt 中集成 MCP
要在 FlowHunt 工作流中集成 MCP 服务器,请先在流程中添加 MCP 组件,并将其连接到您的 AI 智能体:
点击 MCP 组件打开配置面板,在系统 MCP 配置区插入您的 MCP 服务器配置,使用如下 JSON 格式:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具调用该 MCP,享受其全部功能。请将 “openai-websearch-mcp” 替换为您实际的 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
章节 | 可用性 | 详情/备注 |
---|---|---|
概览 | ✅ | 已在 README.md 中提供 |
提示词列表 | ⛔ | 未列出提示词模板 |
资源列表 | ⛔ | 未明确列出资源 |
工具列表 | ✅ | 描述了 web_search 工具 |
API 密钥安全 | ✅ | JSON 配置中详细说明了 env 字段的用法 |
采样支持(评测时不重要) | ⛔ | 未提及 |
表格之间说明:
该 MCP 服务器聚焦于其核心用途(为大模型提供网页搜索),文档详实,但缺乏如自定义提示词、资源、采样/roots 等高级 MCP 能力。整体上对于目标场景非常健壮,但在可扩展性上有限。评分:5/10
是否有 LICENSE | ✅ (MIT) |
---|---|
是否至少有一个工具 | ✅ |
Fork 数量 | 10 |
Star 数量 | 43 |
它使 AI 助手能够通过 OpenAI 网页搜索 API 执行实时网页搜索,从而访问最新信息,解答关于时事、最新事实等问题。
它可集成于 FlowHunt、Claude、Zed 及任何支持 Model Context Protocol (MCP) 的环境。
支持。所有平台均可通过配置中的环境变量方式设置 API 密钥,保证安全性。
时事问答、科研辅助、通过最新网页数据丰富 AI 上下文,并可根据用户位置定制响应。
支持。您可以在工具参数中提供用户位置信息,以获得更加相关和本地化的搜索结果。
它提供了 'web_search' 工具,允许 AI 实时查询网络,并可选择上下文大小和位置参数。
mcp-google-search MCP 服务器通过 Google 自定义搜索 API 构建 AI 助手与网络之间的桥梁,实现实时搜索和内容提取。它让大语言模型能够直接从在线来源访问、验证并总结最新信息。...
DeepNLP推出的AI智能体市场索引MCP服务器,实现了AI智能体的无缝搜索、发现与监控。将高级搜索、分类、网站流量分析和智能体列表API集成到AI助手工作流中,助力高效开发与部署。...
百度AI搜索 MCP 服务器将AI助手与百度网页搜索连接,实现实时、区域化的信息检索,助力对话和自动化工作流程。