
Integracja serwera OpenSearch MCP
Serwer OpenSearch MCP umożliwia bezproblemową integrację OpenSearch z FlowHunt i innymi agentami AI, pozwalając na programistyczny dostęp do funkcji wyszukiwani...
Połącz swoich agentów AI z żywym internetem dzięki OpenAI WebSearch MCP Server, zapewniając użytkownikom odpowiedzi w czasie rzeczywistym, dokładne i uwzględniające lokalizację.
OpenAI WebSearch MCP Server umożliwia asystentom AI dostęp do funkcjonalności wyszukiwania OpenAI przez Model Context Protocol (MCP). Działając jako most między modelami AI a informacjami z internetu w czasie rzeczywistym, serwer ten pozwala asystentom pobierać najnowsze dane, które mogą nie znajdować się w ich korpusie treningowym. Programiści mogą integrować ten serwer z platformami takimi jak Claude czy Zed, wyposażając swoich agentów AI w możliwość wykonywania żywych wyszukiwań podczas rozmów. Znacząco zwiększa to możliwości, takie jak odpowiadanie na pytania o bieżące wydarzenia, wzbogacanie kontekstu aktualnymi danymi i zapewnianie bardziej dynamicznego, świadomego workflow rozwoju AI.
W repozytorium lub dokumentacji nie znajduje się żadna lista szablonów promptów.
W repozytorium lub dokumentacji nie wymieniono żadnych konkretnych zasobów.
type
(string): Musi być “web_search_preview”.search_context_size
(string): Wskazówka dotycząca rozmiaru okna kontekstu — może być “low”, “medium” (domyślnie) lub “high”.user_location
(obiekt lub null): Zawiera informacje o lokalizacji (typ, miasto, kraj, region, strefa czasowa) do personalizacji wyszukiwania.Wkrótce dostępne (obecnie brak kroków w dokumentacji).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
i edytuj ustawienia Claude:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
pip install openai-websearch-mcp
I zaktualizuj ustawienia:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
Bezpieczeństwo kluczy API:
Przechowuj klucze API za pomocą pola env
w swojej konfiguracji.
Przykład:
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
Wkrótce dostępne (obecnie brak kroków w dokumentacji).
Brak instrukcji konfiguracji w dokumentacji.
uvx
, dodaj do pliku settings.json
Zed:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
},
Bezpieczeństwo kluczy API:
Użyj pola env
jak pokazano powyżej.
Użycie MCP w FlowHunt
Aby zintegrować serwery MCP w swoim workflow FlowHunt, zacznij od dodania komponentu MCP do flow i połączenia go z agentem AI:
Kliknij na komponent MCP, aby otworzyć panel konfiguracji. W sekcji systemowej konfiguracji MCP wklej szczegóły serwera MCP w tym formacie JSON:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Po konfiguracji agent AI może korzystać z tego MCP jako narzędzia ze wszystkimi jego funkcjami i możliwościami. Pamiętaj, by zmienić “openai-websearch-mcp” na faktyczną nazwę swojego serwera MCP oraz podmienić URL na adres swojego serwera MCP.
Sekcja | Dostępność | Szczegóły/Uwagi |
---|---|---|
Przegląd | ✅ | Zawarty w README.md |
Lista promptów | ⛔ | Brak szablonów promptów |
Lista zasobów | ⛔ | Brak jawnych zasobów |
Lista narzędzi | ✅ | Opisano narzędzie web_search |
Bezpieczeństwo kluczy API | ✅ | Szczegółowy opis użycia pól env w konfiguracjach JSON |
Obsługa sampling (mniej ważne w ocenie) | ⛔ | Nie wspomniano |
Pomiędzy tymi tabelami:
Ten serwer MCP jest skoncentrowany i dobrze udokumentowany pod kątem swojego głównego zastosowania (dostęp do wyszukiwania sieciowego dla LLM), ale brakuje mu zaawansowanych funkcji MCP, takich jak niestandardowe prompt, jawne zasoby czy wsparcie sampling/roots. Ogólnie rzecz biorąc, jest solidny dla zamierzonego scenariusza, ale ograniczony w możliwości rozbudowy. Ocena: 5/10
Posiada LICENCJĘ | ✅ (MIT) |
---|---|
Co najmniej jedno narzędzie | ✅ |
Liczba forków | 10 |
Liczba gwiazdek | 43 |
Umożliwia asystentom AI wykonywanie wyszukiwań w sieci na żywo, w czasie rzeczywistym, korzystając z OpenAI Web Search API, dając im dostęp do aktualnych informacji i odpowiedzi na pytania o bieżące wydarzenia, najnowsze fakty i nie tylko.
Można go zintegrować z platformami takimi jak FlowHunt, Claude, Zed oraz innymi środowiskami obsługującymi Model Context Protocol (MCP).
Tak. Klucze API są ustawiane poprzez zmienne środowiskowe w konfiguracji dla wszystkich obsługiwanych platform, co zapewnia ich bezpieczeństwo.
Pytania o bieżące wydarzenia, wsparcie badawcze, wzbogacanie kontekstu AI świeżymi danymi z sieci oraz dostosowywanie odpowiedzi w zależności od lokalizacji użytkownika.
Tak. Można przekazać dane lokalizacyjne użytkownika w argumentach narzędzia, aby uzyskać bardziej trafne, zlokalizowane wyniki wyszukiwania.
Udostępnia narzędzie 'web_search', umożliwiające AI zapytania do internetu w czasie rzeczywistym, z opcjami wielkości kontekstu i lokalizacji.
Daj swoim agentom AI w FlowHunt wiedzę o rzeczywistym świecie dzięki OpenAI WebSearch MCP Server. Zacznij już teraz, aby odblokować dostęp do bieżących wydarzeń, wsparcia badawczego i nie tylko.
Serwer OpenSearch MCP umożliwia bezproblemową integrację OpenSearch z FlowHunt i innymi agentami AI, pozwalając na programistyczny dostęp do funkcji wyszukiwani...
Search1API MCP Server integruje możliwości wyszukiwania w sieci i indeksowania stron w czasie rzeczywistym do agentów AI za pośrednictwem potężnego Search1API, ...
Serwer mcp-google-search MCP łączy asystentów AI z siecią, umożliwiając wyszukiwanie w czasie rzeczywistym oraz ekstrakcję treści przy użyciu Google Custom Sear...