Serveur MCP OpenAI WebSearch
Connectez vos agents IA au web en direct avec le serveur MCP OpenAI WebSearch, assurant des réponses en temps réel, précises et adaptées à la localisation de vos utilisateurs.

Que fait le serveur MCP « OpenAI WebSearch » ?
Le serveur MCP OpenAI WebSearch permet aux assistants IA d’accéder à la fonctionnalité de recherche web d’OpenAI via le Model Context Protocol (MCP). En agissant comme un pont entre les modèles d’IA et l’information web en temps réel, ce serveur permet aux assistants de récupérer des données à jour qui peuvent ne pas être présentes dans leur corpus d’entraînement. Les développeurs peuvent intégrer ce serveur à des plateformes telles que Claude ou Zed, doter leurs agents IA de la capacité d’effectuer des recherches web en direct lors des conversations. Cela améliore notablement les cas d’usage comme la réponse à des questions sur l’actualité, l’enrichissement du contexte avec des données récentes, et offre un workflow de développement IA plus dynamique et informé.
Liste des prompts
Aucun modèle de prompt n’est listé dans le dépôt ou la documentation.
Liste des ressources
Aucune ressource explicite n’est listée dans le dépôt ou la documentation.
Liste des outils
- web_search
Permet à l’IA d’appeler la recherche web d’OpenAI en tant qu’outil.- Arguments requis :
type
(chaîne) : doit être “web_search_preview”.search_context_size
(chaîne) : indique la taille de fenêtre de contexte – peut être “low”, “medium” (par défaut) ou “high”.user_location
(objet ou null) : contient les informations de localisation (type, ville, pays, région, fuseau horaire) pour personnaliser les recherches.
- Arguments requis :
Cas d’usage de ce serveur MCP
- Répondre à l’actualité :
Permet aux assistants IA de fournir des réponses à jour en recherchant sur le web des informations récentes plutôt que de s’appuyer uniquement sur des données statiques d’entraînement. - Assistance à la recherche :
Offre des capacités de recherche web en direct pour les utilisateurs cherchant des faits détaillés et en temps réel ou des synthèses sur de nombreux sujets. - Enrichissement du contexte :
Complète les réponses des LLM avec des données web fraîches, améliorant la pertinence et la précision des sorties. - Recherche géolocalisée :
Utilise les informations de localisation fournies par l’utilisateur pour adapter les résultats de recherche et rendre les réponses plus contextuelles. - Débogage et développement :
Inspectez et déboguez facilement le serveur MCP grâce à l’outil d’inspection MCP, facilitant l’intégration et le dépannage.
Comment l’installer
Windsurf
Bientôt disponible (aucune étape fournie actuellement dans la documentation).
Claude
- Obtenez votre clé API OpenAI depuis la plateforme OpenAI.
- Exécutez la commande suivante pour installer et configurer automatiquement le serveur :
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
- Sinon, installez
uvx
et éditez la configuration de Claude :"mcpServers": { "openai-websearch-mcp": { "command": "uvx", "args": ["openai-websearch-mcp"], "env": { "OPENAI_API_KEY": "votre-clé-api-ici" } } }
- Ou installez via pip :
Puis mettez à jour la configuration :pip install openai-websearch-mcp
"mcpServers": { "openai-websearch-mcp": { "command": "python", "args": ["-m", "openai_websearch_mcp"], "env": { "OPENAI_API_KEY": "votre-clé-api-ici" } } }
- Enregistrez la configuration et redémarrez Claude si nécessaire.
Sécurisation des clés API :
Stockez les clés API dans le champ env
de votre configuration.
Exemple :
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
Cursor
Bientôt disponible (aucune étape fournie actuellement dans la documentation).
Cline
Aucune instruction d’installation fournie dans la documentation.
Zed
- Obtenez votre clé API OpenAI.
- Avec
uvx
, ajoutez dans votresettings.json
de Zed :"context_servers": [ "openai-websearch-mcp": { "command": "uvx", "args": ["openai-websearch-mcp"], "env": { "OPENAI_API_KEY": "votre-clé-api-ici" } } ],
- Ou via installation pip :
"context_servers": { "openai-websearch-mcp": { "command": "python", "args": ["-m", "openai_websearch_mcp"], "env": { "OPENAI_API_KEY": "votre-clé-api-ici" } } },
- Enregistrez votre configuration et redémarrez Zed.
Sécurisation des clés API :
Utilisez le champ env
comme montré ci-dessus.
Comment utiliser ce MCP dans vos flux
Utiliser MCP dans FlowHunt
Pour intégrer des serveurs MCP à votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flux et connectez-le à votre agent IA :

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration système MCP, insérez les détails de votre serveur MCP dans ce format JSON :
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://votreserveurmcp.example/cheminverslemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “openai-websearch-mcp” par le nom réel de votre serveur MCP et de remplacer l’URL par celle de votre propre serveur MCP.
Aperçu
Section | Disponibilité | Détails/Remarques |
---|---|---|
Présentation | ✅ | Présente dans README.md |
Liste des Prompts | ⛔ | Aucun modèle de prompt listé |
Liste des Ressources | ⛔ | Aucune ressource explicite listée |
Liste des Outils | ✅ | outil web_search décrit |
Sécurisation des clés API | ✅ | Utilisation détaillée du champ env dans les configs JSON |
Support du sampling (moins important ici) | ⛔ | Non mentionné |
Entre ces tableaux :
Ce serveur MCP est ciblé et bien documenté pour son cas d’usage principal (accès à la recherche web pour LLM), mais il manque de fonctions MCP avancées telles que les prompts personnalisés, ressources explicites ou support du sampling/roots. Dans l’ensemble, il est robuste pour le scénario prévu mais reste limité en extensibilité. Note : 5/10
Score MCP
Possède une LICENCE | ✅ (MIT) |
---|---|
Au moins un outil | ✅ |
Nombre de Forks | 10 |
Nombre d’étoiles | 43 |
Questions fréquemment posées
- Que fait le serveur MCP OpenAI WebSearchxa0?
Il permet aux assistants IA d'effectuer des recherches web en direct et en temps réel en utilisant l'API de recherche web d'OpenAI, leur donnant ainsi accès à des informations actualisées et la capacité de répondre à des questions sur les événements récents, les faits actuels, etc.
- Quelles plateformes peuvent utiliser ce serveur MCPxa0?
Il peut être intégré à des plateformes telles que FlowHunt, Claude, Zed, et tout environnement compatible avec le Model Context Protocol (MCP).
- La sécurité des clés API est-elle prise en chargexa0?
Oui. Les clés API sont définies via des variables d'environnement dans votre configuration pour toutes les plateformes compatibles, ce qui les maintient sécurisées.
- Quels sont les principaux cas d'usagexa0?
Questions/réponses sur les événements actuels, assistance à la recherche, enrichissement du contexte de l'IA avec des données web fraîches, et personnalisation des réponses selon la localisation de l'utilisateur.
- Prend-il en charge la recherche géolocaliséexa0?
Oui. Vous pouvez fournir les détails de localisation de l'utilisateur dans les arguments de l'outil pour obtenir des résultats de recherche plus pertinents et localisés.
- Quels outils le serveur propose-t-ilxa0?
Il propose un outil «xa0web_searchxa0» permettant aux IA d'interroger le web en temps réel, avec des options pour la taille du contexte et la localisation.
Boostez l'IA avec la recherche web en temps réel
Offrez à vos agents IA dans FlowHunt des connaissances du monde réel grâce au serveur MCP OpenAI WebSearch. Commencez maintenant pour débloquer l'accès aux événements actuels, à l'assistance à la recherche et bien plus.