VertexAI Search MCP 서버

VertexAI Search MCP 서버

VertexAI Search MCP 서버로 Google Vertex AI Search를 AI 에이전트와 손쉽게 연동하여 비공개 데이터셋에서 신뢰할 수 있고 근거가 명확한 검색을 지원하세요.

“VertexAI Search” MCP 서버는 무엇을 하나요?

VertexAI Search MCP 서버는 AI 어시스턴트를 Google Vertex AI Search와 연결하여, Vertex AI Datastore에 저장된 비공개 데이터셋에서 정보를 검색하고 가져올 수 있도록 설계되었습니다. Gemini와 Vertex AI 그라운딩을 활용해 AI 응답의 품질과 정확도를 높이며, 독자적인 데이터에 기반한 검색 결과를 제공합니다. 하나 또는 여러 개의 Vertex AI 데이터 저장소와 통합할 수 있어, LLM 기반 워크플로우에 조직 맞춤형, 맥락적인 정보를 쉽게 추가할 수 있습니다. 이를 통해 개발자는 문서 검색, 지식 베이스 질의 자동화, 개발 및 운영 환경 내 기업 데이터 접근을 효율화할 수 있습니다.

프롬프트 목록

저장소에 프롬프트 템플릿이 명시되어 있지 않습니다.

리소스 목록

저장소에 별도의 리소스가 상세히 안내되어 있지 않습니다.

도구 목록

저장소나 server.py에 별도의 도구 목록이 제공되지 않습니다.

MCP 서버의 활용 사례

  • 엔터프라이즈 검색 자동화: Vertex AI Search를 워크플로우에 통합하여 비공개 데이터셋에서 문서를 쿼리하고 검색하는 과정을 자동화하여 내부 정보 접근을 간소화합니다.
  • 지식 베이스 확장: 조직 맞춤형 지식에 기반한 응답을 제공할 수 있도록 AI 어시스턴트를 강화해, 응답의 정확도를 높입니다.
  • 데이터 기반 의사결정 지원: 개발자가 애플리케이션 개발 시 Vertex AI Datastore에서 적절한 데이터를 쉽게 찾아 활용할 수 있도록 하여, 근거 기반의 결정을 지원합니다.
  • 맞춤형 AI 어시스턴트 개발: 도메인 특화 AI 에이전트를 구축해, 선별된 Vertex AI 데이터 저장소를 활용해 검색 및 맥락화된 답변을 제공합니다.

설치 방법

Windsurf

  1. 시스템에 Python과 Docker가 설치되어 있는지 확인하세요.
  2. 저장소를 클론합니다.
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. 가상 환경을 만들고 의존성을 설치합니다.
    uv venv  
    uv sync --all-extras
    
  4. Windsurf 설정 파일에 MCP 서버 설정을 아래와 같이 추가하세요:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. 저장하고 Windsurf를 재시작한 뒤 MCP 서버가 실행 중인지 확인하세요.

API 키 보안 설정 예시:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Python 환경과 의존성이 올바로 설치되어 있는지 확인하세요.
  2. 위와 같이 저장소를 클론하고 설정합니다.
  3. Claude 설정 파일에 MCP 서버를 추가하세요:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Claude를 재시작하고 서버 상태를 확인하세요.

API 키 보안 설정 예시:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. 필수 패키지를 설치하고 위와 같이 저장소를 설정하세요.
  2. Cursor 설정 파일을 업데이트하세요:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. 저장 후 Cursor를 재시작하고 동작을 확인하세요.

API 키 보안 설정 예시:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. 위와 같이 저장소 설정 단계를 따르세요.
  2. Cline 설정 파일을 수정하세요:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Cline을 재시작하고 서버가 정상 동작하는지 확인하세요.

API 키 보안 설정 예시:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

플로우에서 MCP 사용 방법

FlowHunt에서 MCP 사용하기

FlowHunt 워크플로우에 MCP 서버를 통합하려면 MCP 컴포넌트를 플로우에 추가하고, 이를 AI 에이전트와 연결하세요.

FlowHunt MCP flow

MCP 컴포넌트를 클릭해 설정 패널을 엽니다. 시스템 MCP 설정 섹션에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

설정이 완료되면, AI 에이전트는 MCP의 모든 기능과 역량을 도구로써 사용할 수 있게 됩니다. “vertexai-search"는 실제 MCP 서버의 이름으로, URL은 본인 MCP 서버의 주소로 변경해야 합니다.


개요

섹션지원 여부세부 내용
개요README.md에 포함됨
프롬프트 목록프롬프트 템플릿 없음
리소스 목록별도 리소스 안내 없음
도구 목록별도 도구 목록 없음
API 키 보안설정 예시 제공
샘플링 지원 (평가에는 중요도 낮음)언급 없음

문서화 및 기능 노출의 완성도를 기준으로 볼 때, 이 MCP 서버는 Vertex AI Search와의 통합은 충실히 제공하지만 프롬프트, 리소스, 도구에 대한 상세 문서는 부족합니다. 설치 안내와 라이선스는 명확하나, 고급 MCP 기능에 대한 언급은 없습니다. 평점: 5/10


MCP 점수

라이선스 보유✅ (Apache-2.0)
도구 보유 여부
포크 수9
별점 수18

자주 묻는 질문

VertexAI Search MCP 서버란 무엇인가요?

VertexAI Search MCP 서버는 AI 어시스턴트를 Google Vertex AI Search와 연결하여 Vertex AI Datastore의 비공개 데이터셋에서 정보를 검색하고 가져올 수 있도록 합니다. 이를 통해 조직의 데이터에 기반한 AI 응답으로 정확성과 맥락을 강화할 수 있습니다.

일반적인 사용 사례는 무엇인가요?

사용 사례로는 엔터프라이즈 문서 검색 자동화, 지식 베이스 확장, 데이터 기반 개발 지원, 독자적인 데이터셋을 활용하는 맞춤형 AI 어시스턴트 구축 등이 있습니다.

API 자격 증명을 어떻게 안전하게 설정하나요?

MCP 설정에서 GOOGLE_APPLICATION_CREDENTIALS 환경 변수를 Google Cloud 서비스 계정 자격 증명 JSON 파일 경로로 지정하세요. 각 지원 클라이언트 별로 예시 구성이 제공됩니다.

여러 개의 Vertex AI Datastore를 사용할 수 있나요?

네, 이 서버는 하나 이상의 Vertex AI Datastore와의 통합을 지원하므로, 필요에 따라 다양한 비공개 데이터셋을 쿼리할 수 있습니다.

FlowHunt에서 MCP 서버의 실제 동작을 어디서 볼 수 있나요?

플로우에 MCP 컴포넌트를 추가하고 서버 정보를 설정한 뒤 AI 에이전트에 연결하세요. 그 다음, 에이전트가 VertexAI Search MCP 서버의 모든 기능에 접근할 수 있습니다.

FlowHunt에서 VertexAI Search MCP 서버를 사용해보세요

비공개 데이터셋 검색과 근거 기반 응답으로 AI 에이전트를 업그레이드하세요. VertexAI Search MCP 서버는 몇 단계만에 손쉽게 통합할 수 있습니다.

더 알아보기

Vectorize MCP 서버 통합
Vectorize MCP 서버 통합

Vectorize MCP 서버 통합

Vectorize MCP 서버를 FlowHunt와 통합하여 고급 벡터 검색, 시맨틱 검색, 텍스트 추출 기능을 활용한 강력한 AI 기반 워크플로우를 구현하세요. AI 에이전트를 외부 벡터 데이터베이스에 손쉽게 연결해 실시간, 컨텍스트가 풍부한 상호작용과 대규모 데이터 관리를 지원합니다....

4 분 읽기
AI MCP Server +6
Verodat MCP 서버
Verodat MCP 서버

Verodat MCP 서버

Verodat MCP 서버는 AI 어시스턴트와 Verodat의 강력한 데이터 관리 기능을 연결하여 개발 환경 내에서 데이터 접근, 자동화 및 워크플로우 통합을 원활하게 지원합니다....

3 분 읽기
AI Data Management +4
Vectara MCP 서버 통합
Vectara MCP 서버 통합

Vectara MCP 서버 통합

Vectara MCP 서버는 오픈 소스 브릿지로, AI 어시스턴트와 Vectara의 Trusted RAG 플랫폼을 연결하여 FlowHunt의 생성형 AI 워크플로우에 보안성 높고 효율적인 검색 및 Retrieval-Augmented Generation(RAG)을 제공합니다....

3 분 읽기
AI RAG +5