
Intégration du serveur OpenSearch MCP
Le serveur OpenSearch MCP permet une intégration transparente d’OpenSearch avec FlowHunt et d’autres agents IA, offrant un accès programmatique aux fonctionnali...
Connectez vos agents IA au web en direct avec le serveur MCP OpenAI WebSearch, assurant des réponses en temps réel, précises et adaptées à la localisation de vos utilisateurs.
Le serveur MCP OpenAI WebSearch permet aux assistants IA d’accéder à la fonctionnalité de recherche web d’OpenAI via le Model Context Protocol (MCP). En agissant comme un pont entre les modèles d’IA et l’information web en temps réel, ce serveur permet aux assistants de récupérer des données à jour qui peuvent ne pas être présentes dans leur corpus d’entraînement. Les développeurs peuvent intégrer ce serveur à des plateformes telles que Claude ou Zed, doter leurs agents IA de la capacité d’effectuer des recherches web en direct lors des conversations. Cela améliore notablement les cas d’usage comme la réponse à des questions sur l’actualité, l’enrichissement du contexte avec des données récentes, et offre un workflow de développement IA plus dynamique et informé.
Aucun modèle de prompt n’est listé dans le dépôt ou la documentation.
Aucune ressource explicite n’est listée dans le dépôt ou la documentation.
type
(chaîne) : doit être “web_search_preview”.search_context_size
(chaîne) : indique la taille de fenêtre de contexte – peut être “low”, “medium” (par défaut) ou “high”.user_location
(objet ou null) : contient les informations de localisation (type, ville, pays, région, fuseau horaire) pour personnaliser les recherches.Bientôt disponible (aucune étape fournie actuellement dans la documentation).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
et éditez la configuration de Claude :"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
}
}
pip install openai-websearch-mcp
Puis mettez à jour la configuration :"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
}
}
Sécurisation des clés API :
Stockez les clés API dans le champ env
de votre configuration.
Exemple :
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
Bientôt disponible (aucune étape fournie actuellement dans la documentation).
Aucune instruction d’installation fournie dans la documentation.
uvx
, ajoutez dans votre settings.json
de Zed :"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "votre-clé-api-ici"
}
}
},
Sécurisation des clés API :
Utilisez le champ env
comme montré ci-dessus.
Utiliser MCP dans FlowHunt
Pour intégrer des serveurs MCP à votre workflow FlowHunt, commencez par ajouter le composant MCP à votre flux et connectez-le à votre agent IA :
Cliquez sur le composant MCP pour ouvrir le panneau de configuration. Dans la section de configuration système MCP, insérez les détails de votre serveur MCP dans ce format JSON :
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://votreserveurmcp.example/cheminverslemcp/url"
}
}
Une fois configuré, l’agent IA pourra utiliser ce MCP comme un outil avec accès à toutes ses fonctions et capacités. N’oubliez pas de remplacer “openai-websearch-mcp” par le nom réel de votre serveur MCP et de remplacer l’URL par celle de votre propre serveur MCP.
Section | Disponibilité | Détails/Remarques |
---|---|---|
Présentation | ✅ | Présente dans README.md |
Liste des Prompts | ⛔ | Aucun modèle de prompt listé |
Liste des Ressources | ⛔ | Aucune ressource explicite listée |
Liste des Outils | ✅ | outil web_search décrit |
Sécurisation des clés API | ✅ | Utilisation détaillée du champ env dans les configs JSON |
Support du sampling (moins important ici) | ⛔ | Non mentionné |
Entre ces tableaux :
Ce serveur MCP est ciblé et bien documenté pour son cas d’usage principal (accès à la recherche web pour LLM), mais il manque de fonctions MCP avancées telles que les prompts personnalisés, ressources explicites ou support du sampling/roots. Dans l’ensemble, il est robuste pour le scénario prévu mais reste limité en extensibilité. Note : 5/10
Possède une LICENCE | ✅ (MIT) |
---|---|
Au moins un outil | ✅ |
Nombre de Forks | 10 |
Nombre d’étoiles | 43 |
Il permet aux assistants IA d'effectuer des recherches web en direct et en temps réel en utilisant l'API de recherche web d'OpenAI, leur donnant ainsi accès à des informations actualisées et la capacité de répondre à des questions sur les événements récents, les faits actuels, etc.
Il peut être intégré à des plateformes telles que FlowHunt, Claude, Zed, et tout environnement compatible avec le Model Context Protocol (MCP).
Oui. Les clés API sont définies via des variables d'environnement dans votre configuration pour toutes les plateformes compatibles, ce qui les maintient sécurisées.
Questions/réponses sur les événements actuels, assistance à la recherche, enrichissement du contexte de l'IA avec des données web fraîches, et personnalisation des réponses selon la localisation de l'utilisateur.
Oui. Vous pouvez fournir les détails de localisation de l'utilisateur dans les arguments de l'outil pour obtenir des résultats de recherche plus pertinents et localisés.
Il propose un outil «xa0web_searchxa0» permettant aux IA d'interroger le web en temps réel, avec des options pour la taille du contexte et la localisation.
Offrez à vos agents IA dans FlowHunt des connaissances du monde réel grâce au serveur MCP OpenAI WebSearch. Commencez maintenant pour débloquer l'accès aux événements actuels, à l'assistance à la recherche et bien plus.
Le serveur OpenSearch MCP permet une intégration transparente d’OpenSearch avec FlowHunt et d’autres agents IA, offrant un accès programmatique aux fonctionnali...
Le serveur MCP mcp-google-search fait le lien entre les assistants IA et le web, permettant la recherche en temps réel et l'extraction de contenu via l'API Goog...
Le serveur Model Context Protocol (MCP) fait le lien entre les assistants IA et des sources de données externes, des API et des services, permettant une intégra...