OpenAI WebSearch MCP Server

OpenAI WebSearch MCP Server

Koble AI-agentene dine til det levende nettet med OpenAI WebSearch MCP Server, og sørg for sanntids, nøyaktige og stedsbevisste svar for brukerne dine.

Hva gjør “OpenAI WebSearch” MCP Server?

OpenAI WebSearch MCP Server gjør det mulig for AI-assistenter å få tilgang til OpenAIs websøksfunksjonalitet via Model Context Protocol (MCP). Ved å fungere som en bro mellom AI-modeller og sanntidsinformasjon fra nettet, lar denne serveren assistentene hente oppdaterte data som kanskje ikke er en del av treningsgrunnlaget. Utviklere kan integrere denne serveren med plattformer som Claude eller Zed, og gi AI-agentene muligheten til å utføre live websøk under samtaler. Dette gir betydelige fordeler for bruksscenarier som besvarelse av spørsmål om aktuelle hendelser, beriking av kontekst med ferske data og en mer dynamisk, informert AI-utviklingsflyt.

Liste over prompt-maler

Ingen prompt-maler er oppført i depotet eller dokumentasjonen.

Liste over ressurser

Ingen eksplisitte ressurser er oppført i depotet eller dokumentasjonen.

Liste over verktøy

  • web_search
    Lar AI kalle OpenAIs websearch som et verktøy.
    • Påkrevde argumenter:
      • type (string): Må være “web_search_preview”.
      • search_context_size (string): Veiledning for bruk av kontekstvindu—kan være “low”, “medium” (standard), eller “high”.
      • user_location (object eller null): Inneholder informasjon om lokasjon (type, by, land, region, tidssone) for å tilpasse søk.

Bruksområder for denne MCP-serveren

  • Besvare aktuelle hendelser:
    Gjør det mulig for AI-assistenter å gi oppdaterte svar ved å søke etter siste informasjon på nettet, i stedet for å kun stole på statiske treningsdata.
  • Forskning og assistanse:
    Tilbyr live websøksfunksjoner for brukere som ønsker detaljerte, sanntidsfakta eller sammendrag om et bredt spekter av temaer.
  • Kontekstberikelse:
    Supplerer LLM-svar med ferske webdata, og øker relevansen og nøyaktigheten på responsene.
  • Stedsbevisst søk:
    Bruker brukerens oppgitte lokasjon for å tilpasse søkeresultater, slik at svarene blir mer kontekstuelle.
  • Feilsøking og utvikling:
    Inspeksjon og feilsøking av MCP-serveren kan gjøres enkelt med MCP-inspektørverktøyet, noe som effektiviserer integrasjon og problemløsning.

Slik setter du det opp

Windsurf

Kommer snart (ingen steg oppgitt i dokumentasjonen).

Claude

  1. Skaff din OpenAI API-nøkkel fra OpenAIs plattform.
  2. Kjør følgende kommando for å installere og autokonfigurere serveren:
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Alternativt, installer uvx og rediger Claude-innstillingene dine:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "din-api-nøkkel-her"
        }
      }
    }
    
  4. Eller installer via pip:
    pip install openai-websearch-mcp
    
    Og oppdater innstillinger:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "din-api-nøkkel-her"
        }
      }
    }
    
  5. Lagre konfigurasjonen og start Claude på nytt om nødvendig.

Sikring av API-nøkler:
Lagre API-nøkler ved å bruke env-feltet i konfigurasjonen.
Eksempel:

"env": {
  "OPENAI_API_KEY": "din-api-nøkkel-her"
}

Cursor

Kommer snart (ingen steg oppgitt i dokumentasjonen).

Cline

Ingen oppsettinstruksjoner oppgitt i dokumentasjonen.

Zed

  1. Skaff din OpenAI API-nøkkel.
  2. Bruk uvx, legg til i Zed sin settings.json:
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "din-api-nøkkel-her"
        }
      }
    ],
    
  3. Eller med pip-installasjon:
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "din-api-nøkkel-her"
        }
      }
    },
    
  4. Lagre konfigurasjonen og start Zed på nytt.

Sikring av API-nøkler:
Bruk env-feltet slik som vist over.

Slik bruker du denne MCP-en i flyter

Bruke MCP i FlowHunt

For å integrere MCP-servere i FlowHunt-arbeidsflyten din, start med å legge til MCP-komponenten i flyten og koble den til AI-agenten din:

FlowHunt MCP flow

Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon, lim inn MCP-serverdetaljene dine i dette JSON-formatet:

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://dinmcpserver.eksempel/sti-til-mcp/url"
  }
}

Når dette er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy og får tilgang til alle dens funksjoner og muligheter. Husk å endre “openai-websearch-mcp” til navnet på din MCP-server og bytt ut URL med din MCP-server URL.


Oversikt

SeksjonTilgjengeligDetaljer/Notater
OversiktFunnet i README.md
Liste over prompt-malerIngen prompt-maler oppført
Liste over ressurserIngen eksplisitte ressurser oppført
Liste over verktøyweb_search-verktøy beskrevet
Sikring av API-nøklerDetaljert bruk av env-felt i JSON-konfigurasjoner
Støtte for sampling (mindre viktig i vurdering)Ikke nevnt

Mellom disse tabellene:
Denne MCP-serveren er fokusert og veldokumentert for sin kjernebruk (websøksadgang for LLM), men mangler avanserte MCP-funksjoner som egendefinerte prompt-maler, eksplisitte ressurser eller sampling/roots-støtte. Totalt sett er den robust for sitt tiltenkte scenario, men begrenset i utvidbarhet. Vurdering: 5/10


MCP-score

Har en LISENS✅ (MIT)
Har minst ett verktøy
Antall forks10
Antall stjerner43

Vanlige spørsmål

Hva gjør OpenAI WebSearch MCP Server?

Den gjør det mulig for AI-assistenter å utføre live, sanntidssøk på nettet ved å bruke OpenAIs websøks-API, slik at de får tilgang til oppdaterte opplysninger og kan svare på spørsmål om aktuelle hendelser, ferske fakta og mer.

Hvilke plattformer kan bruke denne MCP-serveren?

Den kan integreres med plattformer som FlowHunt, Claude, Zed og alle miljøer som støtter Model Context Protocol (MCP).

Støttes API-nøkkelsikkerhet?

Ja. API-nøkler settes via miljøvariabler i konfigurasjonen for alle støttede plattformer, slik at de holdes sikre.

Hva er hovedbruksområdene?

Spørsmål og svar om aktuelle hendelser, forskningshjelp, beriking av AI-kontekst med ferske webdata og tilpasning av svar basert på brukerens lokasjon.

Støtter den stedsbevisst søk?

Ja. Du kan oppgi brukerens lokasjonsdetaljer i verktøysargumentene for å få mer relevante, lokaltilpassede søkeresultater.

Hvilke verktøy tilbyr serveren?

Den tilbyr et 'web_search'-verktøy, som lar AI-er søke på nettet i sanntid, med alternativer for kontekststørrelse og lokasjon.

Gi AI superkrefter med sanntidssøk på nettet

Gi AI-agentene dine i FlowHunt virkelig verdensforståelse med OpenAI WebSearch MCP Server. Start nå for å åpne for aktuelle hendelser, forskningshjelp og mer.

Lær mer

mcp-google-search MCP Server
mcp-google-search MCP Server

mcp-google-search MCP Server

mcp-google-search MCP Server bygger bro mellom AI-assistenter og nettet, og muliggjør sanntidssøk og innholdsekstraksjon ved bruk av Google Custom Search API. D...

4 min lesing
AI Web Search +5
OpenSearch MCP Server-integrasjon
OpenSearch MCP Server-integrasjon

OpenSearch MCP Server-integrasjon

OpenSearch MCP Server muliggjør sømløs integrasjon av OpenSearch med FlowHunt og andre KI-agenter, og gir programmatisk tilgang til søk, analyse og innholdsstyr...

4 min lesing
AI OpenSearch +5
Search1API MCP-server
Search1API MCP-server

Search1API MCP-server

Search1API MCP-server integrerer sanntidssøk og web-crawling i AI-agenter via den kraftige Search1API, og muliggjør innhenting av oppdatert informasjon, automat...

4 min lesing
AI MCP Server +5