
mcp-google-search MCP Server
mcp-google-search MCP Server bygger bro mellom AI-assistenter og nettet, og muliggjør sanntidssøk og innholdsekstraksjon ved bruk av Google Custom Search API. D...
Koble AI-agentene dine til det levende nettet med OpenAI WebSearch MCP Server, og sørg for sanntids, nøyaktige og stedsbevisste svar for brukerne dine.
OpenAI WebSearch MCP Server gjør det mulig for AI-assistenter å få tilgang til OpenAIs websøksfunksjonalitet via Model Context Protocol (MCP). Ved å fungere som en bro mellom AI-modeller og sanntidsinformasjon fra nettet, lar denne serveren assistentene hente oppdaterte data som kanskje ikke er en del av treningsgrunnlaget. Utviklere kan integrere denne serveren med plattformer som Claude eller Zed, og gi AI-agentene muligheten til å utføre live websøk under samtaler. Dette gir betydelige fordeler for bruksscenarier som besvarelse av spørsmål om aktuelle hendelser, beriking av kontekst med ferske data og en mer dynamisk, informert AI-utviklingsflyt.
Ingen prompt-maler er oppført i depotet eller dokumentasjonen.
Ingen eksplisitte ressurser er oppført i depotet eller dokumentasjonen.
type
(string): Må være “web_search_preview”.search_context_size
(string): Veiledning for bruk av kontekstvindu—kan være “low”, “medium” (standard), eller “high”.user_location
(object eller null): Inneholder informasjon om lokasjon (type, by, land, region, tidssone) for å tilpasse søk.Kommer snart (ingen steg oppgitt i dokumentasjonen).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
og rediger Claude-innstillingene dine:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "din-api-nøkkel-her"
}
}
}
pip install openai-websearch-mcp
Og oppdater innstillinger:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "din-api-nøkkel-her"
}
}
}
Sikring av API-nøkler:
Lagre API-nøkler ved å bruke env
-feltet i konfigurasjonen.
Eksempel:
"env": {
"OPENAI_API_KEY": "din-api-nøkkel-her"
}
Kommer snart (ingen steg oppgitt i dokumentasjonen).
Ingen oppsettinstruksjoner oppgitt i dokumentasjonen.
uvx
, legg til i Zed sin settings.json
:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "din-api-nøkkel-her"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "din-api-nøkkel-her"
}
}
},
Sikring av API-nøkler:
Bruk env
-feltet slik som vist over.
Bruke MCP i FlowHunt
For å integrere MCP-servere i FlowHunt-arbeidsflyten din, start med å legge til MCP-komponenten i flyten og koble den til AI-agenten din:
Klikk på MCP-komponenten for å åpne konfigurasjonspanelet. I systemets MCP-konfigurasjonsseksjon, lim inn MCP-serverdetaljene dine i dette JSON-formatet:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://dinmcpserver.eksempel/sti-til-mcp/url"
}
}
Når dette er konfigurert, kan AI-agenten nå bruke denne MCP-en som et verktøy og får tilgang til alle dens funksjoner og muligheter. Husk å endre “openai-websearch-mcp” til navnet på din MCP-server og bytt ut URL med din MCP-server URL.
Seksjon | Tilgjengelig | Detaljer/Notater |
---|---|---|
Oversikt | ✅ | Funnet i README.md |
Liste over prompt-maler | ⛔ | Ingen prompt-maler oppført |
Liste over ressurser | ⛔ | Ingen eksplisitte ressurser oppført |
Liste over verktøy | ✅ | web_search-verktøy beskrevet |
Sikring av API-nøkler | ✅ | Detaljert bruk av env -felt i JSON-konfigurasjoner |
Støtte for sampling (mindre viktig i vurdering) | ⛔ | Ikke nevnt |
Mellom disse tabellene:
Denne MCP-serveren er fokusert og veldokumentert for sin kjernebruk (websøksadgang for LLM), men mangler avanserte MCP-funksjoner som egendefinerte prompt-maler, eksplisitte ressurser eller sampling/roots-støtte. Totalt sett er den robust for sitt tiltenkte scenario, men begrenset i utvidbarhet. Vurdering: 5/10
Har en LISENS | ✅ (MIT) |
---|---|
Har minst ett verktøy | ✅ |
Antall forks | 10 |
Antall stjerner | 43 |
Den gjør det mulig for AI-assistenter å utføre live, sanntidssøk på nettet ved å bruke OpenAIs websøks-API, slik at de får tilgang til oppdaterte opplysninger og kan svare på spørsmål om aktuelle hendelser, ferske fakta og mer.
Den kan integreres med plattformer som FlowHunt, Claude, Zed og alle miljøer som støtter Model Context Protocol (MCP).
Ja. API-nøkler settes via miljøvariabler i konfigurasjonen for alle støttede plattformer, slik at de holdes sikre.
Spørsmål og svar om aktuelle hendelser, forskningshjelp, beriking av AI-kontekst med ferske webdata og tilpasning av svar basert på brukerens lokasjon.
Ja. Du kan oppgi brukerens lokasjonsdetaljer i verktøysargumentene for å få mer relevante, lokaltilpassede søkeresultater.
Den tilbyr et 'web_search'-verktøy, som lar AI-er søke på nettet i sanntid, med alternativer for kontekststørrelse og lokasjon.
Gi AI-agentene dine i FlowHunt virkelig verdensforståelse med OpenAI WebSearch MCP Server. Start nå for å åpne for aktuelle hendelser, forskningshjelp og mer.
mcp-google-search MCP Server bygger bro mellom AI-assistenter og nettet, og muliggjør sanntidssøk og innholdsekstraksjon ved bruk av Google Custom Search API. D...
OpenSearch MCP Server muliggjør sømløs integrasjon av OpenSearch med FlowHunt og andre KI-agenter, og gir programmatisk tilgang til søk, analyse og innholdsstyr...
Search1API MCP-server integrerer sanntidssøk og web-crawling i AI-agenter via den kraftige Search1API, og muliggjør innhenting av oppdatert informasjon, automat...