Serveur MCP OpenAI WebSearch

Connectez vos agents IA au web en direct avec le serveur MCP OpenAI WebSearch, assurant des réponses en temps réel, précises et adaptées à la localisation de vos utilisateurs.

Serveur MCP OpenAI WebSearch

Que fait le serveur MCP « OpenAI WebSearch » ?

Le serveur MCP OpenAI WebSearch permet aux assistants IA d’accéder à la fonctionnalité de recherche web d’OpenAI via le Model Context Protocol (MCP). En agissant comme un pont entre les modèles d’IA et l’information web en temps réel, ce serveur permet aux assistants de récupérer des données à jour qui peuvent ne pas être présentes dans leur corpus d’entraînement. Les développeurs peuvent intégrer ce serveur à des plateformes telles que Claude ou Zed, doter leurs agents IA de la capacité d’effectuer des recherches web en direct lors des conversations. Cela améliore notablement les cas d’usage comme la réponse à des questions sur l’actualité, l’enrichissement du contexte avec des données récentes, et offre un workflow de développement IA plus dynamique et informé.

Liste des prompts

Aucun modèle de prompt n’est listé dans le dépôt ou la documentation.

Liste des ressources

Aucune ressource explicite n’est listée dans le dépôt ou la documentation.

Liste des outils

  • web_search
    Permet à l’IA d’appeler la recherche web d’OpenAI en tant qu’outil.
    • Arguments requis :
      • type (chaîne) : doit être “web_search_preview”.
      • search_context_size (chaîne) : indique la taille de fenêtre de contexte – peut être “low”, “medium” (par défaut) ou “high”.
      • user_location (objet ou null) : contient les informations de localisation (type, ville, pays, région, fuseau horaire) pour personnaliser les recherches.

Cas d’usage de ce serveur MCP

  • Répondre à l’actualité :
    Permet aux assistants IA de fournir des réponses à jour en recherchant sur le web des informations récentes plutôt que de s’appuyer uniquement sur des données statiques d’entraînement.
  • Assistance à la recherche :
    Offre des capacités de recherche web en direct pour les utilisateurs cherchant des faits détaillés et en temps réel ou des synthèses sur de nombreux sujets.
  • Enrichissement du contexte :
    Complète les réponses des LLM avec des données web fraîches, améliorant la pertinence et la précision des sorties.
  • Recherche géolocalisée :
    Utilise les informations de localisation fournies par l’utilisateur pour adapter les résultats de recherche et rendre les réponses plus contextuelles.
  • Débogage et développement :
    Inspectez et déboguez facilement le serveur MCP grâce à l’outil d’inspection MCP, facilitant l’intégration et le dépannage.

Comment l’installer

Windsurf

Bientôt disponible (aucune étape fournie actuellement dans la documentation).

Claude

  1. Obtenez votre clé API OpenAI depuis la plateforme OpenAI.
  2. Exécutez la commande suivante pour installer et configurer automatiquement le serveur :
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Sinon, installez uvx et éditez la configuration de Claude :
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "votre-clé-api-ici"
        }
      }
    }
    
  4. Ou installez via pip :
    pip install openai-websearch-mcp
    
    Puis mettez à jour la configuration :
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "votre-clé-api-ici"
        }
      }
    }
    
  5. Enregistrez la configuration et redémarrez Claude si nécessaire.

Sécurisation des clés API :
Stockez les clés API dans le champ env de votre configuration.
Exemple :

"env": {
  "OPENAI_API_KEY": "votre-clé-api-ici"
}

Cursor

Bientôt disponible (aucune étape fournie actuellement dans la documentation).

Cline

Aucune instruction d’installation fournie dans la documentation.

Zed

  1. Obtenez votre clé API OpenAI.
  2. Avec uvx, ajoutez dans votre settings.json de Zed :
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "votre-clé-api-ici"
        }
      }
    ],
    
  3. Ou via installation pip :
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "votre-clé-api-ici"
        }
      }
    },
    
  4. Enregistrez votre configuration et redémarrez Zed.

Sécurisation des clés API :
Utilisez le champ env comme montré ci-dessus.

Comment utiliser ce MCP dans vos flux

Utiliser MCP dans FlowHunt

Pour intégrer des serveurs MCP à votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flux et connectez-le à votre agent IA :

Flux MCP FlowHunt

Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration système MCP, insérez les détails de votre serveur MCP dans ce format JSON :

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://votreserveurmcp.example/cheminverslemcp/url"
  }
}

Une fois configuré, l’agent IA pourra utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “openai-websearch-mcp” par le nom réel de votre serveur MCP et de remplacer l’URL par celle de votre propre serveur MCP.


Aperçu

SectionDisponibilitéDétails/Remarques
PrésentationPrésente dans README.md
Liste des PromptsAucun modèle de prompt listé
Liste des RessourcesAucune ressource explicite listée
Liste des Outilsoutil web_search décrit
Sécurisation des clés APIUtilisation détaillée du champ env dans les configs JSON
Support du sampling (moins important ici)Non mentionné

Entre ces tableaux :
Ce serveur MCP est ciblé et bien documenté pour son cas d’usage principal (accès à la recherche web pour LLM), mais il manque de fonctions MCP avancées telles que les prompts personnalisés, ressources explicites ou support du sampling/roots. Dans l’ensemble, il est robuste pour le scénario prévu mais reste limité en extensibilité. Note : 5/10


Score MCP

Possède une LICENCE✅ (MIT)
Au moins un outil
Nombre de Forks10
Nombre d’étoiles43

Questions fréquemment posées

Que fait le serveur MCP OpenAI WebSearchxa0?

Il permet aux assistants IA d'effectuer des recherches web en direct et en temps réel en utilisant l'API de recherche web d'OpenAI, leur donnant ainsi accès à des informations actualisées et la capacité de répondre à des questions sur les événements récents, les faits actuels, etc.

Quelles plateformes peuvent utiliser ce serveur MCPxa0?

Il peut être intégré à des plateformes telles que FlowHunt, Claude, Zed, et tout environnement compatible avec le Model Context Protocol (MCP).

La sécurité des clés API est-elle prise en chargexa0?

Oui. Les clés API sont définies via des variables d'environnement dans votre configuration pour toutes les plateformes compatibles, ce qui les maintient sécurisées.

Quels sont les principaux cas d'usagexa0?

Questions/réponses sur les événements actuels, assistance à la recherche, enrichissement du contexte de l'IA avec des données web fraîches, et personnalisation des réponses selon la localisation de l'utilisateur.

Prend-il en charge la recherche géolocaliséexa0?

Oui. Vous pouvez fournir les détails de localisation de l'utilisateur dans les arguments de l'outil pour obtenir des résultats de recherche plus pertinents et localisés.

Quels outils le serveur propose-t-ilxa0?

Il propose un outil «xa0web_searchxa0» permettant aux IA d'interroger le web en temps réel, avec des options pour la taille du contexte et la localisation.

Boostez l'IA avec la recherche web en temps réel

Offrez à vos agents IA dans FlowHunt des connaissances du monde réel grâce au serveur MCP OpenAI WebSearch. Commencez maintenant pour débloquer l'accès aux événements actuels, à l'assistance à la recherche et bien plus.

En savoir plus