OpenAI WebSearch MCP Server

Verbinden Sie Ihre KI-Agenten mit dem Live-Web über den OpenAI WebSearch MCP Server und sichern Sie so Echtzeit-, präzise und ortsabhängige Antworten für Ihre Nutzer.

OpenAI WebSearch MCP Server

Was macht der “OpenAI WebSearch” MCP Server?

Der OpenAI WebSearch MCP Server ermöglicht es KI-Assistenten, auf die Websuchfunktionalität von OpenAI über das Model Context Protocol (MCP) zuzugreifen. Indem er als Brücke zwischen KI-Modellen und Echtzeit-Webinformationen fungiert, können Assistenten aktuelle Daten abrufen, die nicht Teil ihres Trainings-Korpus sind. Entwickler können diesen Server beispielsweise mit Plattformen wie Claude oder Zed integrieren und so ihren KI-Agenten die Möglichkeit geben, während Gesprächen Live-Websuchen durchzuführen. Das verbessert Anwendungsfälle wie das Beantworten von Fragen zu aktuellen Ereignissen, die Anreicherung des Kontexts mit aktuellen Daten und sorgt für einen dynamischen, informierten KI-Entwicklungs-Workflow.

Liste der Prompts

Im Repository oder in der Dokumentation sind keine Prompt-Vorlagen aufgeführt.

Liste der Ressourcen

Es sind keine expliziten Ressourcen im Repository oder in der Dokumentation gelistet.

Liste der Tools

  • web_search
    Ermöglicht es der KI, OpenAIs Websuche als Tool aufzurufen.
    • Erforderliche Argumente:
      • type (string): Muss “web_search_preview” sein.
      • search_context_size (string): Vorgabe für die Nutzung des Kontextfensters – kann “low”, “medium” (Standard) oder “high” sein.
      • user_location (object oder null): Enthält Standortinformationen (Typ, Stadt, Land, Region, Zeitzone), um Suchergebnisse anzupassen.

Anwendungsfälle dieses MCP Servers

  • Antworten auf aktuelle Ereignisse:
    Ermöglicht es KI-Assistenten, aktuelle Antworten zu liefern, indem sie das Web nach neuen Informationen durchsuchen, anstatt sich nur auf statische Trainingsdaten zu verlassen.
  • Rechercheunterstützung:
    Bietet Live-Websuche für Nutzer, die detaillierte, aktuelle Fakten oder Zusammenfassungen zu verschiedensten Themen suchen.
  • Kontextanreicherung:
    Ergänzt LLM-Antworten mit frischen Webdaten, um Relevanz und Genauigkeit der Ausgaben zu erhöhen.
  • Ortsabhängige Suche:
    Nutzt vom Nutzer bereitgestellte Standortdaten, um Suchergebnisse gezielter und kontextgerechter zu gestalten.
  • Debugging und Entwicklung:
    Einfaches Prüfen und Debuggen des MCP Servers mithilfe des MCP Inspector Tools – erleichtert Integration und Fehlersuche.

Einrichtung

Windsurf

In Kürze verfügbar (derzeit keine Schritte in der Dokumentation).

Claude

  1. Besorgen Sie sich Ihren OpenAI API-Schlüssel über OpenAIs Plattform.
  2. Führen Sie folgenden Befehl aus, um den Server zu installieren und automatisch zu konfigurieren:
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Alternativ installieren Sie uvx und bearbeiten Ihre Claude-Einstellungen:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  4. Oder über pip installieren:
    pip install openai-websearch-mcp
    
    Und Einstellungen aktualisieren:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  5. Konfiguration speichern und Claude ggf. neu starten.

API-Schlüssel sicher aufbewahren:
Speichern Sie API-Schlüssel über das Feld env in Ihrer Konfiguration.
Beispiel:

"env": {
  "OPENAI_API_KEY": "your-api-key-here"
}

Cursor

In Kürze verfügbar (derzeit keine Schritte in der Dokumentation).

Cline

In der Dokumentation sind keine Einrichtungsschritte angegeben.

Zed

  1. Besorgen Sie sich Ihren OpenAI API-Schlüssel.
  2. Mit uvx ergänzen Sie Ihre Zed-settings.json:
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    ],
    
  3. Oder mit pip-Installation:
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    },
    
  4. Konfiguration speichern und Zed neu starten.

API-Schlüssel sicher aufbewahren:
Verwenden Sie das Feld env wie oben gezeigt.

Verwendung dieses MCP in Flows

MCP in FlowHunt nutzen

Um MCP-Server in Ihre FlowHunt-Workflows einzubinden, fügen Sie zunächst die MCP-Komponente Ihrem Flow hinzu und verbinden Sie sie mit Ihrem KI-Agenten:

FlowHunt MCP flow

Klicken Sie auf die MCP-Komponente, um das Konfigurationsfenster zu öffnen. Im Bereich System-MCP-Konfiguration fügen Sie Ihre MCP-Server-Daten in folgendem JSON-Format ein:

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Ist die Konfiguration abgeschlossen, kann der KI-Agent dieses MCP als Tool mit allen Funktionen und Möglichkeiten nutzen. Achten Sie darauf, “openai-websearch-mcp” ggf. durch den tatsächlichen Namen Ihres MCP-Servers zu ersetzen und die URL entsprechend anzupassen.


Übersicht

AbschnittVerfügbarkeitDetails/Anmerkungen
ÜbersichtIn README.md enthalten
Liste der PromptsKeine Prompt-Vorlagen gelistet
Liste der RessourcenKeine expliziten Ressourcen gelistet
Liste der Toolsweb_search Tool beschrieben
API-Schlüssel sichernAusführliche Nutzung von env-Feldern in JSON-Konfigs
Sampling Support (weniger wichtig)Nicht erwähnt

Zwischen diesen Tabellen:
Dieser MCP Server ist fokussiert und für seinen Kernanwendungsfall (Webzugriff für LLMs) gut dokumentiert, bietet aber keine erweiterten MCP-Features wie eigene Prompts, explizite Ressourcen oder Sampling-/Roots-Unterstützung. Insgesamt robust für das vorgesehene Szenario, aber in der Erweiterbarkeit eingeschränkt. Bewertung: 5/10


MCP Score

Hat eine LICENSE✅ (MIT)
Mindestens ein Tool
Anzahl Forks10
Anzahl Sterne43

Häufig gestellte Fragen

Was macht der OpenAI WebSearch MCP Server?

Er ermöglicht es KI-Assistenten, Live-Websuchen in Echtzeit über die Websuche-API von OpenAI durchzuführen. Dadurch können sie auf aktuelle Informationen zugreifen und Fragen zu aktuellen Ereignissen, neuen Fakten und mehr beantworten.

Welche Plattformen können diesen MCP Server nutzen?

Er kann in Plattformen wie FlowHunt, Claude, Zed und jeder Umgebung integriert werden, die das Model Context Protocol (MCP) unterstützt.

Wird die Sicherheit des API-Schlüssels unterstützt?

Ja. API-Schlüssel werden über Umgebungsvariablen in Ihrer Konfiguration für alle unterstützten Plattformen gesetzt und so sicher gehalten.

Was sind die wichtigsten Anwendungsfälle?

Fragen zu aktuellen Ereignissen, Rechercheunterstützung, Anreicherung von KI-Kontext mit aktuellen Webdaten und Anpassung von Antworten anhand des Benutzerstandorts.

Unterstützt der Server ortsabhängige Suche?

Ja. Sie können Standortdaten des Nutzers in den Tool-Argumenten angeben, um relevantere, lokalere Suchergebnisse zu erhalten.

Welche Tools stellt der Server bereit?

Er stellt ein 'web_search'-Tool zur Verfügung, das KIs ermöglicht, das Web in Echtzeit abzufragen – mit Optionen für Kontextgröße und Standort.

Stärken Sie KI mit Echtzeit-Websuche

Vermitteln Sie Ihren KI-Agenten in FlowHunt echtes Weltwissen mit dem OpenAI WebSearch MCP Server. Starten Sie jetzt, um Zugriff auf aktuelle Ereignisse, Rechercheunterstützung und mehr zu erhalten.

Mehr erfahren