
mcp-google-search MCP 서버
mcp-google-search MCP 서버는 AI 어시스턴트와 웹을 연결하여, Google Custom Search API를 활용한 실시간 검색과 콘텐츠 추출을 가능하게 합니다. 대형 언어 모델이 온라인 소스에서 최신 정보를 직접 접근, 검증, 요약할 수 있도록 지원합니다....
FlowHunt는 귀하의 내부 시스템과 AI 도구 사이에 추가 보안 계층을 제공하여 MCP 서버에서 액세스할 수 있는 도구를 세밀하게 제어할 수 있습니다. 저희 인프라에서 호스팅되는 MCP 서버는 FlowHunt의 챗봇뿐만 아니라 ChatGPT, Claude 및 다양한 AI 편집기와 같은 인기 있는 AI 플랫폼과 원활하게 통합될 수 있습니다.
OpenAI 웹검색 MCP 서버는 AI 어시스턴트가 Model Context Protocol(MCP)을 통해 OpenAI의 웹검색 기능에 접근할 수 있도록 해줍니다. 이 서버는 AI 모델과 실시간 웹 정보를 연결하는 다리 역할을 하여, 어시스턴트가 학습 데이터에 없는 최신 데이터를 검색해 가져올 수 있게 해줍니다. 개발자는 Claude, Zed와 같은 플랫폼에 이 서버를 통합하여, AI 에이전트가 대화 중 실시간 웹 검색을 수행할 수 있도록 만들 수 있습니다. 이를 통해 최신 이슈 답변, 최근 데이터로 맥락 강화, 더 역동적이고 정보가 풍부한 AI 개발 워크플로우 등 다양한 활용이 가능합니다.
저장소 또는 문서에 프롬프트 템플릿이 등록되어 있지 않습니다.
저장소 또는 문서에 명시된 리소스가 없습니다.
type (string): 반드시 “web_search_preview” 여야 합니다.search_context_size (string): 맥락 창 크기 지정—“low”, “medium”(기본값), “high” 중 선택user_location (object 또는 null): 검색 맞춤을 위한 위치 정보(타입, 도시, 국가, 지역, 타임존 등) 포함 가능곧 제공 예정(현재 문서에는 단계 없음).
OPENAI_API_KEY=sk-xxxx uv run --with uv --with openai-websearch-mcp openai-websearch-mcp-install
uvx를 설치하고 Claude 설정을 아래와 같이 수정하세요:"mcpServers": {
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
pip install openai-websearch-mcp
그리고 설정을 아래와 같이 업데이트하세요:"mcpServers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
}
API 키 보안:
설정 파일의 env 필드를 사용하여 API 키를 안전하게 저장하세요.
예시:
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
곧 제공 예정(현재 문서에는 단계 없음).
문서에 별도의 설치 안내가 제공되지 않았습니다.
uvx를 사용할 경우 Zed의 settings.json에 다음을 추가:"context_servers": [
"openai-websearch-mcp": {
"command": "uvx",
"args": ["openai-websearch-mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
],
"context_servers": {
"openai-websearch-mcp": {
"command": "python",
"args": ["-m", "openai_websearch_mcp"],
"env": {
"OPENAI_API_KEY": "your-api-key-here"
}
}
},
API 키 보안:
위와 같이 env 필드를 사용하세요.
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, 플로우에 MCP 컴포넌트를 추가하고 AI 에이전트에 연결하세요:

MCP 컴포넌트를 클릭하여 설정 패널을 엽니다. 시스템 MCP 설정란에 아래와 같이 MCP 서버 정보를 JSON 포맷으로 입력하세요:
{
"openai-websearch-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
설정이 완료되면, AI 에이전트는 이 MCP를 도구로 사용하여 모든 기능 및 역량에 접근할 수 있습니다. “openai-websearch-mcp"는 실제 MCP 서버 이름으로, URL은 본인의 MCP 서버 URL로 반드시 변경하세요.
| 섹션 | 제공여부 | 상세/비고 |
|---|---|---|
| 개요 | ✅ | README.md에서 안내됨 |
| 프롬프트 목록 | ⛔ | 프롬프트 템플릿 없음 |
| 리소스 목록 | ⛔ | 명시적 리소스 없음 |
| 도구 목록 | ✅ | web_search 도구 설명됨 |
| API 키 보안 | ✅ | JSON 설정에서 env 필드 사용 방법 상세 안내 |
| 샘플링 지원(평가에 중요하지 않음) | ⛔ | 언급되지 않음 |
테이블 사이 설명:
이 MCP 서버는 LLM용 웹검색 접근이라는 핵심 용도에 집중되어 있고, 문서화가 잘 되어 있지만, 커스텀 프롬프트, 명시적 리소스, 샘플링/roots 지원 등 고급 MCP 기능은 부족합니다. 의도된 시나리오에는 견고하며, 확장성은 제한적입니다. 평가: 5/10
| 라이선스 있음 | ✅ (MIT) |
|---|---|
| 도구 1개 이상 있음 | ✅ |
| 포크 수 | 10 |
| 별점 수 | 43 |

mcp-google-search MCP 서버는 AI 어시스턴트와 웹을 연결하여, Google Custom Search API를 활용한 실시간 검색과 콘텐츠 추출을 가능하게 합니다. 대형 언어 모델이 온라인 소스에서 최신 정보를 직접 접근, 검증, 요약할 수 있도록 지원합니다....

OpenAPI MCP 서버는 AI 어시스턴트가 OpenAPI 명세를 탐색하고 이해할 수 있도록 연결하여, 개발자와 LLM에게 직접 엔드포인트 실행 없이 상세한 API 컨텍스트, 요약, 엔드포인트 정보를 제공합니다....

딥 리서치 MCP 서버는 질문 구체화, 하위 질문 생성, 웹 검색, 콘텐츠 분석, 구조화된 보고서 합성을 자동화하여 심층적인 조사를 위한 AI 기반 연구 워크플로우를 제공합니다....
쿠키 동의
당사는 귀하의 브라우징 경험을 향상시키고 트래픽을 분석하기 위해 쿠키를 사용합니다. See our privacy policy.