OpenAI WebSearch MCP Server
Połącz swoich agentów AI z żywym internetem dzięki OpenAI WebSearch MCP Server, zapewniając użytkownikom odpowiedzi w czasie rzeczywistym, dokładne i uwzględniające lokalizację.

Do czego służy serwer “OpenAI WebSearch” MCP?
OpenAI WebSearch MCP Server umożliwia asystentom AI dostęp do funkcjonalności wyszukiwania OpenAI przez Model Context Protocol (MCP). Działając jako most między modelami AI a informacjami z internetu w czasie rzeczywistym, serwer ten pozwala asystentom pobierać najnowsze dane, które mogą nie znajdować się w ich korpusie treningowym. Programiści mogą integrować ten serwer z platformami takimi jak Claude czy Zed, wyposażając swoich agentów AI w możliwość wykonywania żywych wyszukiwań podczas rozmów. Znacząco zwiększa to możliwości, takie jak odpowiadanie na pytania o bieżące wydarzenia, wzbogacanie kontekstu aktualnymi danymi i zapewnianie bardziej dynamicznego, świadomego workflow rozwoju AI.
Lista promptów
W repozytorium lub dokumentacji nie znajduje się żadna lista szablonów promptów.
Lista zasobów
W repozytorium lub dokumentacji nie wymieniono żadnych konkretnych zasobów.
Lista narzędzi
- web_search
Pozwala AI wywoływać wyszukiwanie w sieci OpenAI jako narzędzie.- Wymagane argumenty:
type
(string): Musi być “web_search_preview”.search_context_size
(string): Wskazówka dotycząca rozmiaru okna kontekstu — może być “low”, “medium” (domyślnie) lub “high”.user_location
(obiekt lub null): Zawiera informacje o lokalizacji (typ, miasto, kraj, region, strefa czasowa) do personalizacji wyszukiwania.
- Wymagane argumenty:
Przykładowe zastosowania tego serwera MCP
- Odpowiadanie na bieżące wydarzenia:
Umożliwia asystentom AI udzielanie aktualnych odpowiedzi poprzez wyszukiwanie najnowszych informacji w sieci, zamiast polegać tylko na danych treningowych. - Wsparcie badawcze:
Oferuje możliwości wyszukiwania na żywo dla użytkowników poszukujących szczegółowych, aktualnych faktów lub podsumowań z różnych dziedzin. - Wzbogacanie kontekstu:
Uzupełnia odpowiedzi LLM świeżymi danymi z internetu, zwiększając trafność i dokładność odpowiedzi. - Wyszukiwanie lokalizacyjne:
Wykorzystuje podane przez użytkownika dane lokalizacyjne do personalizacji wyników wyszukiwania, czyniąc odpowiedzi bardziej kontekstowymi. - Debugowanie i rozwój:
Możliwość łatwej inspekcji i debugowania serwera MCP przy użyciu narzędzia MCP inspector, co usprawnia integrację i rozwiązywanie problemów.
Jak to skonfigurować
Windsurf
Wkrótce dostępne (obecnie brak kroków w dokumentacji).
Claude
- Uzyskaj swój klucz OpenAI API z platformy OpenAI.
- Uruchom poniższe polecenie, aby zainstalować i automatycznie skonfigurować serwer:
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
- Alternatywnie, zainstaluj
uvx
i edytuj ustawienia Claude:"mcpServers": { "openai-websearch-mcp": { "command": "uvx", "args": ["openai-websearch-mcp"], "env": { "OPENAI_API_KEY": "your-api-key-here" } } }
- Lub zainstaluj przez pip:
I zaktualizuj ustawienia:pip install openai-websearch-mcp
"mcpServers": { "openai-websearch-mcp": { "command": "python", "args": ["-m", "openai_websearch_mcp"], "env": { "OPENAI_API_KEY": "your-api-key-here" } } }
- Zapisz konfigurację i zrestartuj Claude, jeśli to konieczne.
Bezpieczeństwo kluczy API:
Przechowuj klucze API za pomocą pola env
w swojej konfiguracji.
Przykład:
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
Cursor
Wkrótce dostępne (obecnie brak kroków w dokumentacji).
Cline
Brak instrukcji konfiguracji w dokumentacji.
Zed
- Zdobądź swój klucz OpenAI API.
- Korzystając z
uvx
, dodaj do plikusettings.json
Zed:"context_servers": [ "openai-websearch-mcp": { "command": "uvx", "args": ["openai-websearch-mcp"], "env": { "OPENAI_API_KEY": "your-api-key-here" } } ],
- Lub przy instalacji przez pip:
"context_servers": { "openai-websearch-mcp": { "command": "python", "args": ["-m", "openai_websearch_mcp"], "env": { "OPENAI_API_KEY": "your-api-key-here" } } },
- Zapisz konfigurację i zrestartuj Zed.
Bezpieczeństwo kluczy API:
Użyj pola env
jak pokazano powyżej.
Jak używać MCP w flow
Użycie MCP w FlowHunt
Aby zintegrować serwery MCP w swoim workflow FlowHunt, zacznij od dodania komponentu MCP do flow i połączenia go z agentem AI:

Kliknij na komponent MCP, aby otworzyć panel konfiguracji. W sekcji systemowej konfiguracji MCP wklej szczegóły serwera MCP w tym formacie JSON:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po konfiguracji agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by zmienić “openai-websearch-mcp” na faktyczną nazwę swojego serwera MCP oraz podmienić URL na adres swojego serwera MCP.
Podsumowanie
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | Zawarty w README.md |
Lista promptów | ⛔ | Brak szablonów promptów |
Lista zasobów | ⛔ | Brak jawnych zasobów |
Lista narzędzi | ✅ | Opisano narzędzie web_search |
Bezpieczeństwo kluczy API | ✅ | Szczegółowy opis użycia pól env w konfiguracjach JSON |
Obsługa sampling (mniej ważne w ocenie) | ⛔ | Nie wspomniano |
Pomiędzy tymi tabelami:
Ten serwer MCP jest skoncentrowany i dobrze udokumentowany pod kątem swojego głównego zastosowania (dostęp do wyszukiwania sieciowego dla LLM), ale brakuje mu zaawansowanych funkcji MCP, takich jak niestandardowe prompt, jawne zasoby czy wsparcie sampling/roots. Ogólnie rzecz biorąc, jest solidny dla zamierzonego scenariusza, ale ograniczony w możliwości rozbudowy. Ocena: 5/10
Ocena MCP
Posiada LICENCJĘ | ✅ (MIT) |
---|---|
Co najmniej jedno narzędzie | ✅ |
Liczba forków | 10 |
Liczba gwiazdek | 43 |
Najczęściej zadawane pytania
- Do czego służy OpenAI WebSearch MCP Server?
Umożliwia asystentom AI wykonywanie wyszukiwań w sieci na żywo, w czasie rzeczywistym, korzystając z OpenAI Web Search API, dając im dostęp do aktualnych informacji i odpowiedzi na pytania o bieżące wydarzenia, najnowsze fakty i nie tylko.
- Na jakich platformach można używać tego serwera MCP?
Można go zintegrować z platformami takimi jak FlowHunt, Claude, Zed oraz innymi środowiskami obsługującymi Model Context Protocol (MCP).
- Czy obsługiwana jest ochrona kluczy API?
Tak. Klucze API są ustawiane poprzez zmienne środowiskowe w konfiguracji dla wszystkich obsługiwanych platform, co zapewnia ich bezpieczeństwo.
- Jakie są główne zastosowania?
Pytania o bieżące wydarzenia, wsparcie badawcze, wzbogacanie kontekstu AI świeżymi danymi z sieci oraz dostosowywanie odpowiedzi w zależności od lokalizacji użytkownika.
- Czy obsługiwane jest wyszukiwanie z uwzględnieniem lokalizacji?
Tak. Można przekazać dane lokalizacyjne użytkownika w argumentach narzędzia, aby uzyskać bardziej trafne, zlokalizowane wyniki wyszukiwania.
- Jakie narzędzia udostępnia serwer?
Udostępnia narzędzie 'web_search', umożliwiające AI zapytania do internetu w czasie rzeczywistym, z opcjami wielkości kontekstu i lokalizacji.
Zwiększ możliwości AI dzięki wyszukiwaniu w sieci w czasie rzeczywistym
Daj swoim agentom AI w FlowHunt wiedzę o rzeczywistym świecie dzięki OpenAI WebSearch MCP Server. Zacznij już teraz, aby odblokować dostęp do bieżących wydarzeń, wsparcia badawczego i nie tylko.