OpenAI WebSearch MCP Server

Połącz swoich agentów AI z żywym internetem dzięki OpenAI WebSearch MCP Server, zapewniając użytkownikom odpowiedzi w czasie rzeczywistym, dokładne i uwzględniające lokalizację.

OpenAI WebSearch MCP Server

Do czego służy serwer “OpenAI WebSearch” MCP?

OpenAI WebSearch MCP Server umożliwia asystentom AI dostęp do funkcjonalności wyszukiwania OpenAI przez Model Context Protocol (MCP). Działając jako most między modelami AI a informacjami z internetu w czasie rzeczywistym, serwer ten pozwala asystentom pobierać najnowsze dane, które mogą nie znajdować się w ich korpusie treningowym. Programiści mogą integrować ten serwer z platformami takimi jak Claude czy Zed, wyposażając swoich agentów AI w możliwość wykonywania żywych wyszukiwań podczas rozmów. Znacząco zwiększa to możliwości, takie jak odpowiadanie na pytania o bieżące wydarzenia, wzbogacanie kontekstu aktualnymi danymi i zapewnianie bardziej dynamicznego, świadomego workflow rozwoju AI.

Lista promptów

W repozytorium lub dokumentacji nie znajduje się żadna lista szablonów promptów.

Lista zasobów

W repozytorium lub dokumentacji nie wymieniono żadnych konkretnych zasobów.

Lista narzędzi

  • web_search
    Pozwala AI wywoływać wyszukiwanie w sieci OpenAI jako narzędzie.
    • Wymagane argumenty:
      • type (string): Musi być “web_search_preview”.
      • search_context_size (string): Wskazówka dotycząca rozmiaru okna kontekstu — może być “low”, “medium” (domyślnie) lub “high”.
      • user_location (obiekt lub null): Zawiera informacje o lokalizacji (typ, miasto, kraj, region, strefa czasowa) do personalizacji wyszukiwania.

Przykładowe zastosowania tego serwera MCP

  • Odpowiadanie na bieżące wydarzenia:
    Umożliwia asystentom AI udzielanie aktualnych odpowiedzi poprzez wyszukiwanie najnowszych informacji w sieci, zamiast polegać tylko na danych treningowych.
  • Wsparcie badawcze:
    Oferuje możliwości wyszukiwania na żywo dla użytkowników poszukujących szczegółowych, aktualnych faktów lub podsumowań z różnych dziedzin.
  • Wzbogacanie kontekstu:
    Uzupełnia odpowiedzi LLM świeżymi danymi z internetu, zwiększając trafność i dokładność odpowiedzi.
  • Wyszukiwanie lokalizacyjne:
    Wykorzystuje podane przez użytkownika dane lokalizacyjne do personalizacji wyników wyszukiwania, czyniąc odpowiedzi bardziej kontekstowymi.
  • Debugowanie i rozwój:
    Możliwość łatwej inspekcji i debugowania serwera MCP przy użyciu narzędzia MCP inspector, co usprawnia integrację i rozwiązywanie problemów.

Jak to skonfigurować

Windsurf

Wkrótce dostępne (obecnie brak kroków w dokumentacji).

Claude

  1. Uzyskaj swój klucz OpenAI API z platformy OpenAI.
  2. Uruchom poniższe polecenie, aby zainstalować i automatycznie skonfigurować serwer:
    OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
    
  3. Alternatywnie, zainstaluj uvx i edytuj ustawienia Claude:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  4. Lub zainstaluj przez pip:
    pip install openai-websearch-mcp
    
    I zaktualizuj ustawienia:
    "mcpServers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    }
    
  5. Zapisz konfigurację i zrestartuj Claude, jeśli to konieczne.

Bezpieczeństwo kluczy API:
Przechowuj klucze API za pomocą pola env w swojej konfiguracji.
Przykład:

"env": {
  "OPENAI_API_KEY": "your-api-key-here"
}

Cursor

Wkrótce dostępne (obecnie brak kroków w dokumentacji).

Cline

Brak instrukcji konfiguracji w dokumentacji.

Zed

  1. Zdobądź swój klucz OpenAI API.
  2. Korzystając z uvx, dodaj do pliku settings.json Zed:
    "context_servers": [
      "openai-websearch-mcp": {
        "command": "uvx",
        "args": ["openai-websearch-mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    ],
    
  3. Lub przy instalacji przez pip:
    "context_servers": {
      "openai-websearch-mcp": {
        "command": "python",
        "args": ["-m", "openai_websearch_mcp"],
        "env": {
            "OPENAI_API_KEY": "your-api-key-here"
        }
      }
    },
    
  4. Zapisz konfigurację i zrestartuj Zed.

Bezpieczeństwo kluczy API:
Użyj pola env jak pokazano powyżej.

Jak używać MCP w flow

Użycie MCP w FlowHunt

Aby zintegrować serwery MCP w swoim workflow FlowHunt, zacznij od dodania komponentu MCP do flow i połączenia go z agentem AI:

FlowHunt MCP flow

Kliknij na komponent MCP, aby otworzyć panel konfiguracji. W sekcji systemowej konfiguracji MCP wklej szczegóły serwera MCP w tym formacie JSON:

{
  "openai-websearch-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Po konfiguracji agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by zmienić “openai-websearch-mcp” na faktyczną nazwę swojego serwera MCP oraz podmienić URL na adres swojego serwera MCP.


Podsumowanie

SekcjaDostępnośćSzczegóły/Uwagi
PrzeglądZawarty w README.md
Lista promptówBrak szablonów promptów
Lista zasobówBrak jawnych zasobów
Lista narzędziOpisano narzędzie web_search
Bezpieczeństwo kluczy APISzczegółowy opis użycia pól env w konfiguracjach JSON
Obsługa sampling (mniej ważne w ocenie)Nie wspomniano

Pomiędzy tymi tabelami:
Ten serwer MCP jest skoncentrowany i dobrze udokumentowany pod kątem swojego głównego zastosowania (dostęp do wyszukiwania sieciowego dla LLM), ale brakuje mu zaawansowanych funkcji MCP, takich jak niestandardowe prompt, jawne zasoby czy wsparcie sampling/roots. Ogólnie rzecz biorąc, jest solidny dla zamierzonego scenariusza, ale ograniczony w możliwości rozbudowy. Ocena: 5/10


Ocena MCP

Posiada LICENCJĘ✅ (MIT)
Co najmniej jedno narzędzie
Liczba forków10
Liczba gwiazdek43

Najczęściej zadawane pytania

Do czego służy OpenAI WebSearch MCP Server?

Umożliwia asystentom AI wykonywanie wyszukiwań w sieci na żywo, w czasie rzeczywistym, korzystając z OpenAI Web Search API, dając im dostęp do aktualnych informacji i odpowiedzi na pytania o bieżące wydarzenia, najnowsze fakty i nie tylko.

Na jakich platformach można używać tego serwera MCP?

Można go zintegrować z platformami takimi jak FlowHunt, Claude, Zed oraz innymi środowiskami obsługującymi Model Context Protocol (MCP).

Czy obsługiwana jest ochrona kluczy API?

Tak. Klucze API są ustawiane poprzez zmienne środowiskowe w konfiguracji dla wszystkich obsługiwanych platform, co zapewnia ich bezpieczeństwo.

Jakie są główne zastosowania?

Pytania o bieżące wydarzenia, wsparcie badawcze, wzbogacanie kontekstu AI świeżymi danymi z sieci oraz dostosowywanie odpowiedzi w zależności od lokalizacji użytkownika.

Czy obsługiwane jest wyszukiwanie z uwzględnieniem lokalizacji?

Tak. Można przekazać dane lokalizacyjne użytkownika w argumentach narzędzia, aby uzyskać bardziej trafne, zlokalizowane wyniki wyszukiwania.

Jakie narzędzia udostępnia serwer?

Udostępnia narzędzie 'web_search', umożliwiające AI zapytania do internetu w czasie rzeczywistym, z opcjami wielkości kontekstu i lokalizacji.

Zwiększ możliwości AI dzięki wyszukiwaniu w sieci w czasie rzeczywistym

Daj swoim agentom AI w FlowHunt wiedzę o rzeczywistym świecie dzięki OpenAI WebSearch MCP Server. Zacznij już teraz, aby odblokować dostęp do bieżących wydarzeń, wsparcia badawczego i nie tylko.

Dowiedz się więcej