OpenAI WebSearch MCP Server

OpenAI WebSearch MCP Server

Forbind dine AI-agenter til det levende web med OpenAI WebSearch MCP Server og sikr realtids, præcise og lokationsbaserede svar til dine brugere.

Hvad gør “OpenAI WebSearch” MCP Server?

OpenAI WebSearch MCP Server gør det muligt for AI-assistenter at få adgang til OpenAI’s websøgning via Model Context Protocol (MCP). Ved at fungere som bro mellem AI-modeller og realtids webinformation, tillader denne server assistenter at hente opdaterede data, der måske ikke findes i deres træningsdata. Udviklere kan integrere denne server med platforme som Claude eller Zed og give deres AI-agenter mulighed for at udføre live websøgninger under samtaler. Dette forbedrer brugsscenarier som besvarelse af spørgsmål om aktuelle begivenheder, kontekstberigelse med nylige data og giver en mere dynamisk, informeret AI-udviklingsproces.

Liste over prompts

Ingen promptskabeloner er angivet i depotet eller dokumentationen.

Liste over ressourcer

Ingen eksplicitte ressourcer er angivet i depotet eller dokumentationen.

Liste over værktøjer

  • web_search
    Giver AI mulighed for at kalde OpenAI’s websøgning som et værktøj.
    • Krævede argumenter:
      • type (string): Skal være “web_search_preview”.
      • search_context_size (string): Vejledning til kontekstvindues-brug—kan være “low”, “medium” (standard) eller “high”.
      • user_location (object eller null): Indeholder lokationsoplysninger (type, by, land, region, tidszone) til at tilpasse søgninger.

Brugsscenarier for denne MCP Server

  • Besvarelse af aktuelle begivenheder:
    Gør det muligt for AI-assistenter at give opdaterede svar ved at søge på nettet efter nylig information frem for kun at stole på statiske træningsdata.
  • Forskning og information:
    Tilbyder live websøgning for brugere, der søger detaljerede, realtidsfakta eller opsummeringer af en bred vifte af emner.
  • Kontekstberigelse:
    Supplerer LLM-svar med friske webdata og øger relevansen og præcisionen af output.
  • Lokationsbaseret søgning:
    Udnytter brugerens lokationsoplysninger til at tilpasse søgeresultater og gøre svar mere kontekstuelle.
  • Fejlfinding og udvikling:
    Inspicer og fejlfind MCP-serveren let ved hjælp af MCP-inspektørværktøjet, hvilket gør integration og fejlfinding nemmere.

Sådan opsættes det

Windsurf

Kommer snart (ingen trin er i øjeblikket angivet i dokumentationen).

Claude

  1. Få din OpenAI API-nøgle fra OpenAI’s platform.
  2. Kør følgende kommando for at installere og autokonfigurere serveren:
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Alternativt, installer uvx og rediger dine Claude-indstillinger:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  4. Eller installer via pip:
    pip install openai-websearch-mcp
    
    Og opdater indstillingerne:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  5. Gem konfigurationen og genstart Claude om nødvendigt.

Sikring af API-nøgler:
Opbevar API-nøgler ved at bruge env-feltet i din konfiguration.
Eksempel:

"env": {
  "OPENAI_API_KEY": "your-api-key-here"
}

Cursor

Kommer snart (ingen trin er i øjeblikket angivet i dokumentationen).

Cline

Ingen opsætningsvejledning angivet i dokumentationen.

Zed

  1. Få din OpenAI API-nøgle.
  2. Brug uvx og tilføj til din Zed settings.json:
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    ],
    
  3. Eller med pip-installation:
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    },
    
  4. Gem din konfiguration og genstart Zed.

Sikring af API-nøgler:
Brug env-feltet som vist ovenfor.

Sådan bruges denne MCP i flows

Brug af MCP i FlowHunt

For at integrere MCP-servere i dit FlowHunt-arbejdsflow skal du starte med at tilføje MCP-komponenten til dit flow og forbinde den til din AI-agent:

FlowHunt MCP flow

Klik på MCP-komponenten for at åbne konfigurationspanelet. I systemets MCP-konfigurationssektion skal du indsætte dine MCP-serveroplysninger med dette JSON-format:

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Når det er konfigureret, kan AI-agenten nu bruge denne MCP som et værktøj med adgang til alle dens funktioner og muligheder. Husk at ændre “openai-websearch-mcp” til det faktiske navn på din MCP-server og udskift URL’en med din egen MCP-server-URL.


Oversigt

SektionTilgængelighedDetaljer/Noter
OversigtFundet i README.md
Liste over promptsIngen promptskabeloner angivet
Liste over ressourcerIngen eksplicitte ressourcer angivet
Liste over værktøjerweb_search-værktøj beskrevet
Sikring af API-nøglerDetaljeret brug af env-felter i JSON-konfigurationer
Sampling Support (mindre vigtigt i vurdering)Ikke nævnt

Mellem disse tabeller:
Denne MCP-server er fokuseret og veldokumenteret til sin kerneanvendelse (websøgning for LLMs), men mangler avancerede MCP-funktioner som brugerdefinerede prompts, eksplicitte ressourcer eller sampling/roots support. Overordnet set er den robust til det tiltænkte scenarie, men begrænset i udvidelsesmuligheder. Vurdering: 5/10


MCP-score

Har en LICENSE✅ (MIT)
Har mindst ét værktøj
Antal forks10
Antal stjerner43

Ofte stillede spørgsmål

Hvad gør OpenAI WebSearch MCP Server?

Den gør det muligt for AI-assistenter at udføre live, realtids websøgninger ved brug af OpenAI’s websøgning API, så de kan få adgang til opdateret information og besvare spørgsmål om aktuelle begivenheder, nye fakta og mere.

Hvilke platforme kan bruge denne MCP-server?

Den kan integreres med platforme som FlowHunt, Claude, Zed og ethvert miljø, der understøtter Model Context Protocol (MCP).

Understøttes sikkerhed for API-nøgler?

Ja. API-nøgler sættes via miljøvariabler i din konfiguration for alle understøttede platforme, hvilket holder dem sikre.

Hvad er hovedanvendelserne?

Spørgsmål og svar om aktuelle begivenheder, forskningshjælp, berigelse af AI-kontekst med friske webdata og tilpasning af svar baseret på brugerens lokation.

Understøtter den lokationsbaseret søgning?

Ja. Du kan give brugerens lokationsoplysninger i værktøjsargumenterne for at få mere relevante, lokaliserede søgeresultater.

Hvilke værktøjer tilbyder serveren?

Den tilbyder et 'web_search'-værktøj, der gør det muligt for AI'er at søge på nettet i realtid med muligheder for kontekststørrelse og lokation.

Boost AI med realtids websøgning

Giv dine AI-agenter i FlowHunt viden om den virkelige verden med OpenAI WebSearch MCP Server. Start nu for at få adgang til aktuelle begivenheder, forskningshjælp og meget mere.

Lær mere

OpenSearch MCP Server-integration
OpenSearch MCP Server-integration

OpenSearch MCP Server-integration

OpenSearch MCP Server muliggør problemfri integration af OpenSearch med FlowHunt og andre AI-agenter, hvilket giver programmatisk adgang til søge-, analyse- og ...

4 min læsning
AI OpenSearch +5
AI Agent Marketplace Index MCP Server
AI Agent Marketplace Index MCP Server

AI Agent Marketplace Index MCP Server

AI Agent Marketplace Index MCP Server fra DeepNLP muliggør problemfri søgning, opdagelse og overvågning af AI-agenter. Integrer avanceret søgning, kategoriserin...

4 min læsning
AI Marketplace +4
mcp-google-search MCP Server
mcp-google-search MCP Server

mcp-google-search MCP Server

mcp-google-search MCP Server forbinder AI-assistenter med internettet og muliggør realtidssøgning og indholdsudtræk via Google Custom Search API. Den giver stor...

4 min læsning
AI Web Search +5