Máy chủ MCP VertexAI Search

Máy chủ MCP VertexAI Search

Dễ dàng tích hợp Google Vertex AI Search với các tác nhân AI của bạn để kích hoạt tìm kiếm đáng tin cậy và có căn cứ trên các bộ dữ liệu riêng tư bằng Máy chủ MCP VertexAI Search.

Máy chủ MCP “VertexAI Search” làm gì?

Máy chủ MCP VertexAI Search được thiết kế để kết nối các trợ lý AI với Google Vertex AI Search, cho phép họ tìm kiếm và truy xuất thông tin từ các bộ dữ liệu riêng tư lưu trữ trong Vertex AI Datastore. Bằng cách tận dụng Gemini với grounding của Vertex AI, máy chủ này nâng cao chất lượng và độ chính xác của kết quả tìm kiếm bằng cách đặt câu trả lời AI dựa trên dữ liệu độc quyền của bạn. Nó hỗ trợ tích hợp với một hoặc nhiều kho dữ liệu Vertex AI, biến đây thành công cụ mạnh mẽ để tăng cường quy trình làm việc dựa trên LLM với thông tin phù hợp theo ngữ cảnh của tổ chức. Khả năng này giúp lập trình viên tự động hóa tìm kiếm tài liệu, truy vấn cơ sở tri thức và truy cập dữ liệu doanh nghiệp trong môi trường phát triển và vận hành.

Danh sách Prompt

Không có mẫu prompt nào được đề cập trong kho mã nguồn.

Danh sách Tài nguyên

Không có tài nguyên cụ thể nào được nêu chi tiết trong kho mã nguồn.

Danh sách Công cụ

Không có danh sách công cụ rõ ràng nào trong kho mã nguồn hoặc trong server.py.

Các trường hợp sử dụng của MCP Server này

  • Tự động hóa tìm kiếm doanh nghiệp: Tích hợp Vertex AI Search vào quy trình làm việc để tự động truy vấn và truy xuất tài liệu từ các bộ dữ liệu riêng tư, tối ưu hóa truy cập thông tin nội bộ.
  • Bổ sung cơ sở tri thức: Nâng cao trợ lý AI với khả năng trả lời câu hỏi dựa trên kiến thức đặc thù tổ chức, tăng độ chính xác phản hồi.
  • Ra quyết định dựa trên dữ liệu: Cho phép lập trình viên trích xuất dữ liệu liên quan từ Vertex AI Datastore khi phát triển ứng dụng, hỗ trợ quyết định dựa trên bằng chứng.
  • Phát triển trợ lý AI tùy chỉnh: Xây dựng tác nhân AI theo lĩnh vực có khả năng tìm kiếm và trả lời theo ngữ cảnh bằng kho dữ liệu Vertex AI được chọn lọc.

Cách thiết lập

Windsurf

  1. Đảm bảo Python và Docker đã được cài đặt trên hệ thống của bạn.
  2. Sao chép kho mã nguồn:
    git clone git@github.com:ubie-oss/mcp-vertexai-search.git
  3. Tạo môi trường ảo và cài đặt các phụ thuộc:
    uv venv  
    uv sync --all-extras
    
  4. Thêm cấu hình máy chủ MCP vào file cấu hình của Windsurf như sau:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  5. Lưu và khởi động lại Windsurf, sau đó kiểm tra máy chủ MCP đã chạy.

Ví dụ bảo mật API Keys:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Claude

  1. Đảm bảo môi trường Python và các phụ thuộc cần thiết đã được cài đặt.
  2. Sao chép và thiết lập kho mã nguồn như trên.
  3. Chỉnh sửa cấu hình Claude để thêm máy chủ MCP:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  4. Khởi động lại Claude và kiểm tra trạng thái máy chủ.

Ví dụ bảo mật API Keys:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cursor

  1. Cài đặt các yêu cầu và thiết lập kho mã nguồn như hướng dẫn trên.
  2. Cập nhật file cấu hình Cursor:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Lưu, khởi động lại Cursor và kiểm tra hoạt động.

Ví dụ bảo mật API Keys:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cline

  1. Thực hiện các bước thiết lập kho mã nguồn như trên.
  2. Chỉnh sửa cấu hình Cline:
    {
      "mcpServers": {
        "vertexai-search": {
          "command": "uv",
          "args": ["run", "mcp-vertexai-search"]
        }
      }
    }
    
  3. Khởi động lại Cline và xác nhận máy chủ đã hoạt động.

Ví dụ bảo mật API Keys:

{
  "mcpServers": {
    "vertexai-search": {
      "env": {
        "GOOGLE_APPLICATION_CREDENTIALS": "/path/to/your/credentials.json"
      },
      "inputs": {}
    }
  }
}

Cách sử dụng MCP này trong các flow

Sử dụng MCP trong FlowHunt

Để tích hợp các máy chủ MCP vào quy trình FlowHunt của bạn, bắt đầu bằng cách thêm thành phần MCP vào flow và kết nối với tác nhân AI:

FlowHunt MCP flow

Nhấn vào thành phần MCP để mở bảng cấu hình. Trong mục cấu hình MCP hệ thống, chèn chi tiết máy chủ MCP của bạn theo định dạng JSON sau:

{
  "vertexai-search": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

Sau khi cấu hình, tác nhân AI có thể sử dụng MCP này như một công cụ với đầy đủ chức năng và năng lực. Lưu ý thay “vertexai-search” bằng tên thực tế của máy chủ MCP của bạn và thay URL bằng địa chỉ máy chủ MCP riêng.


Tổng quan

MụcCó sẵnChi tiết/Ghi chú
Tổng quanCó trong README.md
Danh sách PromptKhông tìm thấy mẫu prompt
Danh sách Tài nguyênKhông có tài nguyên cụ thể
Danh sách Công cụKhông có công cụ rõ ràng
Bảo mật API KeysCó ví dụ cấu hình
Hỗ trợ sampling (không quan trọng)Không đề cập

Dựa trên độ đầy đủ của tài liệu và tính năng, máy chủ MCP này cung cấp tích hợp vững chắc cho Vertex AI Search nhưng thiếu tài liệu chi tiết về prompt, tài nguyên và công cụ. Hướng dẫn thiết lập và giấy phép rõ ràng, nhưng các tính năng MCP nâng cao chưa được đề cập. Đánh giá: 5/10


MCP Score

Có LICENSE✅ (Apache-2.0)
Có ít nhất một công cụ
Số lượng Forks9
Số lượng Stars18

Câu hỏi thường gặp

Máy chủ MCP VertexAI Search là gì?

Máy chủ MCP VertexAI Search kết nối trợ lý AI với Google Vertex AI Search, cho phép tìm kiếm và lấy thông tin từ các bộ dữ liệu riêng tư trong Vertex AI Datastore. Nó giúp câu trả lời AI dựa trên dữ liệu của tổ chức bạn để tăng độ chính xác và bối cảnh.

Các trường hợp sử dụng phổ biến là gì?

Các trường hợp sử dụng bao gồm tự động hóa tìm kiếm tài liệu doanh nghiệp, bổ sung cơ sở tri thức, hỗ trợ phát triển dựa trên dữ liệu và xây dựng trợ lý AI tùy chỉnh khai thác bộ dữ liệu độc quyền.

Tôi bảo mật thông tin xác thực API của mình như thế nào?

Đặt biến môi trường GOOGLE_APPLICATION_CREDENTIALS trong cấu hình MCP, trỏ tới file JSON thông tin tài khoản dịch vụ Google Cloud của bạn. Các ví dụ cấu hình được cung cấp cho từng client hỗ trợ.

Tôi có thể sử dụng nhiều Vertex AI Datastore không?

Có, máy chủ hỗ trợ tích hợp với một hoặc nhiều Vertex AI Datastore, cho phép bạn truy vấn nhiều bộ dữ liệu riêng tư khi cần thiết.

Tôi có thể xem máy chủ MCP hoạt động trong FlowHunt ở đâu?

Thêm thành phần MCP vào flow của bạn, cấu hình với thông tin máy chủ, và kết nối với tác nhân AI. Tác nhân có thể truy cập tất cả chức năng do Máy chủ MCP VertexAI Search cung cấp.

Thử Máy chủ MCP VertexAI Search trên FlowHunt

Tăng tốc cho các tác nhân AI của bạn với tìm kiếm bộ dữ liệu riêng và phản hồi có căn cứ. Tích hợp Máy chủ MCP VertexAI Search chỉ với vài bước.

Tìm hiểu thêm

Máy chủ Vertica MCP
Máy chủ Vertica MCP

Máy chủ Vertica MCP

Máy chủ Vertica MCP cho phép tích hợp liền mạch giữa trợ lý AI và cơ sở dữ liệu OpenText Vertica, hỗ trợ thực thi SQL an toàn, tải dữ liệu hàng loạt, kiểm tra c...

5 phút đọc
Databases MCP Servers +4
Tích Hợp Máy Chủ Vectorize MCP
Tích Hợp Máy Chủ Vectorize MCP

Tích Hợp Máy Chủ Vectorize MCP

Tích hợp Máy chủ Vectorize MCP với FlowHunt để kích hoạt truy xuất vector nâng cao, tìm kiếm ngữ nghĩa và trích xuất văn bản, mang lại quy trình AI mạnh mẽ. Kết...

6 phút đọc
AI MCP Server +6
Máy chủ MCP AlibabaCloud OpenSearch
Máy chủ MCP AlibabaCloud OpenSearch

Máy chủ MCP AlibabaCloud OpenSearch

Máy chủ MCP AlibabaCloud OpenSearch kết nối các tác nhân và trợ lý AI với OpenSearch của Alibaba Cloud, cho phép tìm kiếm nâng cao, truy vấn vector và tích hợp ...

5 phút đọc
MCP Servers AlibabaCloud +4