
Integração do Servidor OpenSearch MCP
O Servidor OpenSearch MCP permite integração perfeita do OpenSearch com o FlowHunt e outros agentes de IA, possibilitando acesso programático a funcionalidades ...
Conecte seus agentes de IA à web ao vivo com o Servidor OpenAI WebSearch MCP, garantindo respostas em tempo real, precisas e sensíveis à localização para seus usuários.
O Servidor OpenAI WebSearch MCP permite que assistentes de IA acessem a funcionalidade de busca na web da OpenAI via Model Context Protocol (MCP). Atuando como uma ponte entre modelos de IA e informações em tempo real da web, este servidor possibilita que assistentes recuperem dados atualizados que podem não estar presentes em seu corpus de treinamento. Desenvolvedores podem integrar este servidor a plataformas como Claude ou Zed, equipando seus agentes de IA com a capacidade de realizar buscas ao vivo durante conversas. Isso amplia significativamente casos de uso como responder perguntas sobre eventos atuais, enriquecer o contexto com dados recentes e fornecer um fluxo de desenvolvimento de IA mais dinâmico e informado.
Nenhum template de prompt listado no repositório ou documentação.
Nenhum recurso explícito listado no repositório ou documentação.
type
(string): Deve ser “web_search_preview”.search_context_size
(string): Orientação para uso da janela de contexto—pode ser “low”, “medium” (padrão) ou “high”.user_location
(objeto ou nulo): Contém informações de localização (tipo, cidade, país, região, fuso horário) para personalizar buscas.Em breve (nenhum passo fornecido na documentação atualmente).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx
e edite as configurações do Claude:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "sua-chave-api-aqui"
}
}
}
pip install openai-websearch-mcp
E atualize as configurações:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "sua-chave-api-aqui"
}
}
}
Protegendo as Chaves de API:
Armazene as chaves de API utilizando o campo env
na sua configuração.
Exemplo:
"env": {
"OPENAI_API_KEY": "sua-chave-api-aqui"
}
Em breve (nenhum passo fornecido na documentação atualmente).
Nenhuma instrução de configuração fornecida na documentação.
uvx
, adicione ao seu settings.json
do Zed:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "sua-chave-api-aqui"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "sua-chave-api-aqui"
}
}
},
Protegendo as Chaves de API:
Use o campo env
como mostrado acima.
Usando MCP no FlowHunt
Para integrar servidores MCP no seu fluxo do FlowHunt, comece adicionando o componente MCP ao seu fluxo e conectando-o ao seu agente de IA:
Clique no componente MCP para abrir o painel de configuração. Na seção de configuração MCP do sistema, insira os detalhes do seu servidor MCP usando este formato JSON:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://seumcpserver.exemplo/caminhoparamcp/url"
}
}
Uma vez configurado, o agente de IA agora pode usar este MCP como ferramenta, com acesso a todas as suas funções e capacidades. Lembre-se de trocar “openai-websearch-mcp” pelo nome real do seu servidor MCP e substituir a URL pela sua própria URL MCP.
Seção | Disponível | Detalhes/Notas |
---|---|---|
Visão Geral | ✅ | Encontrado em README.md |
Lista de Prompts | ⛔ | Nenhum template de prompt listado |
Lista de Recursos | ⛔ | Nenhum recurso explícito listado |
Lista de Ferramentas | ✅ | Ferramenta web_search descrita |
Protegendo as Chaves de API | ✅ | Uso detalhado de campos env nas configurações JSON |
Suporte a Amostragem (menos relevante na avaliação) | ⛔ | Não mencionado |
Entre estas tabelas:
Este servidor MCP é focado e bem documentado para seu caso de uso principal (acesso à busca na web para LLMs), mas carece de recursos MCP avançados como prompts personalizados, recursos explícitos ou suporte a sampling/roots. No geral, é robusto para o cenário pretendido, mas limitado em extensibilidade. Avaliação: 5/10
Possui uma LICENSE | ✅ (MIT) |
---|---|
Possui ao menos uma ferramenta | ✅ |
Número de Forks | 10 |
Número de Stars | 43 |
Ele permite que assistentes de IA realizem buscas na web ao vivo e em tempo real usando a API de busca da OpenAI, possibilitando acesso a informações atuais e respostas sobre eventos recentes, fatos e muito mais.
Pode ser integrado a plataformas como FlowHunt, Claude, Zed e qualquer ambiente que suporte o Model Context Protocol (MCP).
Sim. As chaves de API são definidas por variáveis de ambiente na configuração para todas as plataformas suportadas, mantendo-as seguras.
Perguntas e respostas sobre eventos atuais, assistência à pesquisa, enriquecimento de contexto da IA com dados frescos da web e personalização de respostas com base na localização do usuário.
Sim. Você pode fornecer detalhes de localização do usuário nos argumentos da ferramenta para obter resultados de busca mais relevantes e localizados.
Ele fornece uma ferramenta 'web_search', permitindo que IAs consultem a web em tempo real, com opções para tamanho de contexto e localização.
Dê aos seus agentes de IA no FlowHunt conhecimento do mundo real com o Servidor OpenAI WebSearch MCP. Comece agora para desbloquear eventos atuais, assistência à pesquisa e muito mais.
O Servidor OpenSearch MCP permite integração perfeita do OpenSearch com o FlowHunt e outros agentes de IA, possibilitando acesso programático a funcionalidades ...
O servidor MCP mcp-google-search conecta assistentes de IA à web, permitindo buscas em tempo real e extração de conteúdo usando a Google Custom Search API. Ele ...
O Servidor Search1API MCP integra capacidades de busca web em tempo real e rastreamento à internet para agentes de IA via o potente Search1API, permitindo recup...