
OpenSearch MCP Server Integration
Der OpenSearch MCP Server ermöglicht die nahtlose Integration von OpenSearch mit FlowHunt und anderen KI-Agenten und bietet programmatischen Zugriff auf Such-, ...
Verbinden Sie Ihre KI-Agenten mit dem Live-Web über den OpenAI WebSearch MCP Server und sichern Sie so Echtzeit-, präzise und ortsabhängige Antworten für Ihre Nutzer.
Der OpenAI WebSearch MCP Server ermöglicht es KI-Assistenten, auf die Websuchfunktionalität von OpenAI über das Model Context Protocol (MCP) zuzugreifen. Indem er als Brücke zwischen KI-Modellen und Echtzeit-Webinformationen fungiert, können Assistenten aktuelle Daten abrufen, die nicht Teil ihres Trainings-Korpus sind. Entwickler können diesen Server beispielsweise mit Plattformen wie Claude oder Zed integrieren und so ihren KI-Agenten die Möglichkeit geben, während Gesprächen Live-Websuchen durchzuführen. Das verbessert Anwendungsfälle wie das Beantworten von Fragen zu aktuellen Ereignissen, die Anreicherung des Kontexts mit aktuellen Daten und sorgt für einen dynamischen, informierten KI-Entwicklungs-Workflow.
Im Repository oder in der Dokumentation sind keine Prompt-Vorlagen aufgeführt.
Es sind keine expliziten Ressourcen im Repository oder in der Dokumentation gelistet.
type
(string): Muss “web_search_preview” sein.search_context_size
(string): Vorgabe für die Nutzung des Kontextfensters – kann “low”, “medium” (Standard) oder “high” sein.user_location
(object oder null): Enthält Standortinformationen (Typ, Stadt, Land, Region, Zeitzone), um Suchergebnisse anzupassen.In Kürze verfügbar (derzeit keine Schritte in der Dokumentation).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
und bearbeiten Ihre Claude-Einstellungen:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
pip install openai-websearch-mcp
Und Einstellungen aktualisieren:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
API-Schlüssel sicher aufbewahren:
Speichern Sie API-Schlüssel über das Feld env
in Ihrer Konfiguration.
Beispiel:
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
In Kürze verfügbar (derzeit keine Schritte in der Dokumentation).
In der Dokumentation sind keine Einrichtungsschritte angegeben.
uvx
ergänzen Sie Ihre Zed-settings.json
:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
},
API-Schlüssel sicher aufbewahren:
Verwenden Sie das Feld env
wie oben gezeigt.
MCP in FlowHunt nutzen
Um MCP-Server in Ihre FlowHunt-Workflows einzubinden, fügen Sie zunächst die MCP-Komponente Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:
Klicken Sie auf die MCP-Komponente, um das Konfigurationsfenster zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten in folgendem JSON-Format ein:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Ist die Konfiguration abgeschlossen, kann der KI-Agent dieses MCP als Tool mit allen Funktionen und Möglichkeiten nutzen. Achten Sie darauf, “openai-websearch-mcp” ggf. durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL entsprechend anzupassen.
Abschnitt | Verfügbarkeit | Details/Anmerkungen |
---|---|---|
Übersicht | ✅ | In README.md enthalten |
Liste der Prompts | ⛔ | Keine Prompt-Vorlagen gelistet |
Liste der Ressourcen | ⛔ | Keine expliziten Ressourcen gelistet |
Liste der Tools | ✅ | web_search Tool beschrieben |
API-Schlüssel sichern | ✅ | Ausführliche Nutzung von env -Feldern in JSON-Konfigs |
Sampling Support (weniger wichtig) | ⛔ | Nicht erwähnt |
Zwischen diesen Tabellen:
Dieser MCP Server ist fokussiert und für seinen Kernanwendungsfall (Webzugriff für LLMs) gut dokumentiert, bietet aber keine erweiterten MCP-Features wie eigene Prompts, explizite Ressourcen oder Sampling-/Roots-Unterstützung. Insgesamt robust für das vorgesehene Szenario, aber in der Erweiterbarkeit eingeschränkt. Bewertung: 5/10
Hat eine LICENSE | ✅ (MIT) |
---|---|
Mindestens ein Tool | ✅ |
Anzahl Forks | 10 |
Anzahl Sterne | 43 |
Er ermöglicht es KI-Assistenten, Live-Websuchen in Echtzeit über die Websuche-API von OpenAI durchzuführen. Dadurch können sie auf aktuelle Informationen zugreifen und Fragen zu aktuellen Ereignissen, neuen Fakten und mehr beantworten.
Er kann in Plattformen wie FlowHunt, Claude, Zed und jeder Umgebung integriert werden, die das Model Context Protocol (MCP) unterstützt.
Ja. API-Schlüssel werden über Umgebungsvariablen in Ihrer Konfiguration für alle unterstützten Plattformen gesetzt und so sicher gehalten.
Fragen zu aktuellen Ereignissen, Rechercheunterstützung, Anreicherung von KI-Kontext mit aktuellen Webdaten und Anpassung von Antworten anhand des Benutzerstandorts.
Ja. Sie können Standortdaten des Nutzers in den Tool-Argumenten angeben, um relevantere, lokalere Suchergebnisse zu erhalten.
Er stellt ein 'web_search'-Tool zur Verfügung, das KIs ermöglicht, das Web in Echtzeit abzufragen – mit Optionen für Kontextgröße und Standort.
Vermitteln Sie Ihren KI-Agenten in FlowHunt echtes Weltwissen mit dem OpenAI WebSearch MCP Server. Starten Sie jetzt, um Zugriff auf aktuelle Ereignisse, Rechercheunterstützung und mehr zu erhalten.
Der OpenSearch MCP Server ermöglicht die nahtlose Integration von OpenSearch mit FlowHunt und anderen KI-Agenten und bietet programmatischen Zugriff auf Such-, ...
Der mcp-google-search MCP-Server verbindet KI-Assistenten mit dem Web und ermöglicht Echtzeit-Suche sowie Inhaltsxadextraktion über die Google Custom Search API...
Der Model Context Protocol (MCP) Server verbindet KI-Assistenten mit externen Datenquellen, APIs und Diensten und ermöglicht so eine optimierte Integration komp...