OpenAI WebSearch MCP-server

OpenAI WebSearch MCP-server

Koppla dina AI-agenter till livewebben med OpenAI WebSearch MCP-servern, och säkerställ snabba, korrekta och platsmedvetna svar för dina användare.

Vad gör “OpenAI WebSearch” MCP-servern?

OpenAI WebSearch MCP-servern gör det möjligt för AI-assistenter att få tillgång till OpenAI:s webbsöksfunktionalitet via Model Context Protocol (MCP). Genom att agera som en bro mellan AI-modeller och realtidsinformation från webben kan assistenter hämta aktuell data som kanske inte finns i deras träningsdata. Utvecklare kan integrera denna server med plattformar som Claude eller Zed, och därmed ge sina AI-agenter möjlighet att göra live-webbsökningar under samtal. Detta förbättrar avsevärt användningsområden som att besvara frågor om aktuella händelser, berika kontext med ny data och skapa ett mer dynamiskt och informerat AI-utvecklingsflöde.

Lista över promptar

Inga promptmallar finns listade i arkivet eller dokumentationen.

Lista över resurser

Inga explicita resurser finns listade i arkivet eller dokumentationen.

Lista över verktyg

  • web_search
    Låter AI:n använda OpenAI:s webbsök som ett verktyg.
    • Obligatoriska argument:
      • type (string): Måste vara “web_search_preview”.
      • search_context_size (string): Vägledning om kontextfönstrets användning—kan vara “low”, “medium” (standard) eller “high”.
      • user_location (object eller null): Innehåller platsinformation (typ, stad, land, region, tidszon) för att skräddarsy sökningen.

Användningsområden för denna MCP-server

  • Besvara aktuella händelser:
    Möjliggör för AI-assistenter att ge aktuella svar genom att söka efter den senaste informationen istället för att bara förlita sig på statisk träningsdata.
  • Forskningshjälp:
    Erbjuder live-webbsöksmöjligheter för användare som söker detaljerade, realtida fakta eller sammanfattningar om en mängd olika ämnen.
  • Kontextberikning:
    Kompletterar LLM-svar med färsk webbinformation och ökar relevansen och noggrannheten i svaren.
  • Platsbaserad sökning:
    Utnyttjar användarens angivna platsinformation för att anpassa sökresultaten och göra svaren mer kontextuellt relevanta.
  • Felsökning och utveckling:
    Inspektera och felsök MCP-servern enkelt med MCP inspector-verktyget, vilket förenklar integration och problemlösning.

Så här sätter du upp det

Windsurf

Kommer snart (inga steg finns för närvarande i dokumentationen).

Claude

  1. Skaffa din OpenAI API-nyckel från OpenAI:s plattform.
  2. Kör följande kommando för att installera och autokonfigurera servern:
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Alternativt, installera uvx och redigera dina Claude-inställningar:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  4. Eller installera via pip:
    pip install openai-websearch-mcp
    
    Och uppdatera inställningarna:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  5. Spara konfigurationen och starta om Claude om det behövs.

Skydda API-nycklar:
Spara API-nycklar med hjälp av fältet env i din konfiguration.
Exempel:

"env": {
  "OPENAI_API_KEY": "your-api-key-here"
}

Cursor

Kommer snart (inga steg finns för närvarande i dokumentationen).

Cline

Inga installationsinstruktioner finns i dokumentationen.

Zed

  1. Skaffa din OpenAI API-nyckel.
  2. Använd uvx, lägg till i din Zed settings.json:
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    ],
    
  3. Eller med pip-installation:
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    },
    
  4. Spara din konfiguration och starta om Zed.

Skydda API-nycklar:
Använd fältet env som visas ovan.

Så använder du denna MCP i flöden

Använda MCP i FlowHunt

För att integrera MCP-servrar i ditt FlowHunt-arbetsflöde, börja med att lägga till MCP-komponenten i ditt flöde och koppla den till din AI-agent:

FlowHunt MCP flow

Klicka på MCP-komponenten för att öppna konfigurationspanelen. I systemets MCP-konfigurationssektion klistrar du in dina MCP-serveruppgifter enligt detta JSON-format:

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

När det är konfigurerat kan AI-agenten nu använda denna MCP som ett verktyg med tillgång till alla dess funktioner och möjligheter. Kom ihåg att byta ut “openai-websearch-mcp” till det faktiska namnet på din MCP-server och ersätt URL:en med din egen MCP-server-URL.


Översikt

SektionTillgänglighetDetaljer/Kommentarer
ÖversiktFinns i README.md
Lista över promptarInga promptmallar listade
Lista över resurserInga explicita resurser listade
Lista över verktygweb_search-verktyget beskrivs
Skydd av API-nycklarDetaljerad användning av env-fält i JSON-konfigurationer
Sampling-stöd (mindre viktigt vid bedömning)Ej nämnt

Mellan dessa tabeller:
Denna MCP-server är fokuserad och väl dokumenterad för sitt kärnanvändningsområde (webbsöktillgång för LLM:er), men saknar avancerade MCP-funktioner såsom anpassade promptar, explicita resurser eller sampling/roots-stöd. Överlag är den robust för sitt avsedda scenario, men begränsad i utbyggbarhet. Betyg: 5/10


MCP-poäng

Har en LICENSE✅ (MIT)
Har minst ett verktyg
Antal förgreningar10
Antal stjärnor43

Vanliga frågor

Vad gör OpenAI WebSearch MCP-servern?

Den gör det möjligt för AI-assistenter att göra live, realtidswebbsökningar via OpenAI:s webbsöks-API, så att de kan få tillgång till aktuell information och besvara frågor om nuvarande händelser, nya fakta och mycket mer.

Vilka plattformar kan använda denna MCP-server?

Den kan integreras med plattformar som FlowHunt, Claude, Zed och alla miljöer som stöder Model Context Protocol (MCP).

Stöds säkerhet för API-nycklar?

Ja. API-nycklar anges via miljövariabler i din konfiguration för alla stödda plattformar, vilket håller dem säkra.

Vilka är de huvudsakliga användningsområdena?

Frågor om aktuella händelser, forskningshjälp, berikning av AI-kontext med färsk webbinformation och anpassning av svar baserat på användarens plats.

Stöder den platsbaserad sökning?

Ja. Du kan ange användarens platsuppgifter i verktygets argument för att få mer relevanta, lokala sökresultat.

Vilka verktyg tillhandahåller servern?

Den tillhandahåller ett 'web_search'-verktyg, som låter AI:er söka på webben i realtid, med val för kontextstorlek och plats.

Superladda AI med realtidswebbsök

Ge dina AI-agenter i FlowHunt verklig världskunskap med OpenAI WebSearch MCP-servern. Kom igång nu för att låsa upp aktuella händelser, forskningshjälp och mer.

Lär dig mer

OpenSearch MCP-serverintegration
OpenSearch MCP-serverintegration

OpenSearch MCP-serverintegration

OpenSearch MCP-servern möjliggör sömlös integration av OpenSearch med FlowHunt och andra AI-agenter, vilket ger programmatisk åtkomst till sök-, analys- och inn...

4 min läsning
AI OpenSearch +5
mcp-google-search MCP Server
mcp-google-search MCP Server

mcp-google-search MCP Server

mcp-google-search MCP Server kopplar samman AI-assistenter och webben, möjliggör realtidssökning och innehållsutdrag med hjälp av Google Custom Search API. Den ...

4 min läsning
AI Web Search +5
Tavily MCP Server
Tavily MCP Server

Tavily MCP Server

Tavily MCP Server integrerar kraftfull webbsökning, direkt svarshämtning och nyhetsaggregering i FlowHunt och andra LLM-drivna miljöer med hjälp av Tavily's sök...

4 min läsning
AI MCP Server +5