
LLM Context MCP Server
LLM Context MCP Server kết nối các trợ lý AI với các dự án mã nguồn và văn bản bên ngoài, cho phép quy trình làm việc có nhận thức ngữ cảnh như kiểm tra mã, tạo...
Lspace MCP Server biến các cuộc trò chuyện AI rời rạc thành cơ sở tri thức lâu dài, có thể tìm kiếm và cho phép chia sẻ ngữ cảnh liền mạch giữa các công cụ phát triển.
Lspace MCP Server là một ứng dụng backend và độc lập mã nguồn mở triển khai Giao thức Ngữ cảnh Mô hình (MCP). Nó được thiết kế để loại bỏ sự gián đoạn do chuyển đổi ngữ cảnh cho nhà phát triển bằng cách cho phép ghi lại insight từ bất kỳ phiên AI nào và luôn sẵn sàng giữa nhiều công cụ khác nhau. Bằng cách kết nối các agent AI và công cụ bên ngoài tới các kho nội dung được quản lý, Lspace biến các cuộc trò chuyện rời rạc thành tri thức lâu dài, có thể tìm kiếm. Nó hỗ trợ các quy trình như tạo cơ sở tri thức thông minh, làm giàu ngữ cảnh cho trợ lý AI, và tích hợp liền mạch với các công cụ có thể truy vấn hoặc cập nhật tri thức lưu trữ. Lspace giúp nhà phát triển tích hợp và quản lý kho tri thức, thúc đẩy quy trình phát triển và hợp tác hiệu quả hơn.
Không tìm thấy template prompt nào trong các file hoặc tài liệu cung cấp.
Không có MCP “resource” rõ ràng nào được tài liệu trong các file hoặc README có sẵn.
Không có định nghĩa công cụ rõ ràng (ví dụ: query_database, read_write_file, v.v.) nào được tài liệu hoặc liệt kê trong các file hoặc tài liệu cung cấp.
Không tìm thấy hướng dẫn cụ thể cho Windsurf trong tài liệu cung cấp.
Không tìm thấy hướng dẫn cụ thể cho Claude trong tài liệu cung cấp.
git clone https://github.com/Lspace-io/lspace-server.git
cd lspace-server
npm install
npm run build
cp .env.example .env
# Chỉnh sửa .env để thiết lập OPENAI_API_KEY và các biến khác nếu cần
cp config.example.json config.local.json
# Chỉnh sửa config.local.json để thêm GitHub PAT và các kho mã của bạn
{
"mcpServers": [
{
"command": "node",
"args": ["/actual/absolute/path/to/your/lspace-server/lspace-mcp-server.js"]
}
]
}
Lưu các API key nhạy cảm (như OPENAI_API_KEY
) trong biến môi trường. Ví dụ cấu hình:
{
"mcpServers": [
{
"command": "node",
"args": ["/path/to/lspace-mcp-server.js"],
"env": {
"OPENAI_API_KEY": "your-openai-api-key"
},
"inputs": {}
}
]
}
Không tìm thấy hướng dẫn cụ thể cho Cline trong tài liệu cung cấp.
Sử dụng MCP trong FlowHunt
Để tích hợp MCP server vào quy trình FlowHunt của bạn, hãy bắt đầu bằng cách thêm thành phần MCP vào flow và kết nối nó với agent AI của bạn:
Nhấp vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình MCP hệ thống, hãy nhập thông tin MCP server của bạn theo định dạng JSON sau:
{
"lspace-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Sau khi cấu hình, agent AI có thể sử dụng MCP này như một công cụ với toàn bộ chức năng và khả năng của nó. Hãy nhớ đổi “lspace-mcp” thành tên thực tế của MCP server và thay url bằng đường dẫn MCP server của bạn.
Mục | Có sẵn | Chi tiết/Ghi chú |
---|---|---|
Tổng quan | ✅ | |
Danh sách Prompt | ⛔ | Không tài liệu |
Danh sách Resource | ⛔ | Không tài liệu |
Danh sách Tool | ⛔ | Không tài liệu |
Bảo mật API Key | ✅ | .env/.json |
Hỗ trợ lấy mẫu (không quan trọng khi đánh giá) | ⛔ | Không đề cập |
Dựa trên mức độ tài liệu, có phần tổng quan rõ ràng, hướng dẫn cài đặt, một số trường hợp sử dụng nhưng thiếu tài liệu về công cụ, prompt, resource, roots, và sampling, tôi đánh giá MCP server này 4/10 về độ hoàn chỉnh và trải nghiệm cho nhà phát triển.
Có LICENSE | ✅ |
---|---|
Có ít nhất một tool | ⛔ |
Số fork | 0 |
Số star | 1 |
Lspace MCP Server là một ứng dụng backend mã nguồn mở triển khai Giao thức Ngữ cảnh Mô hình (MCP) để ghi lại, lưu trữ và chia sẻ insight từ các phiên AI. Nó biến các cuộc trò chuyện rời rạc thành tri thức lâu dài, có thể tìm kiếm để sử dụng giữa các công cụ và quy trình làm việc.
Bằng cách tích hợp với các agent AI và kho mã, Lspace loại bỏ sự gián đoạn do chuyển đổi ngữ cảnh, làm giàu các tương tác AI với ngữ cảnh lâu dài và giúp insight có thể sử dụng giữa nhiều công cụ, nâng cao hiệu quả và khả năng hợp tác.
Lspace lý tưởng cho việc tạo cơ sở tri thức từ các cuộc trò chuyện AI, làm giàu trợ lý AI với trí nhớ ngữ cảnh, quản lý kho mã và tài liệu làm ngữ cảnh, đồng thời cho phép tích hợp liền mạch với nhiều công cụ quy trình làm việc.
API key như OPENAI_API_KEY nên được lưu trong biến môi trường (ví dụ, trong file .env hoặc phần 'env' của cấu hình MCP server của bạn) thay vì mã hóa cứng, đảm bảo an toàn hơn cho thông tin xác thực của bạn.
Tài liệu hiện tại không bao gồm prompt template hoặc định nghĩa công cụ rõ ràng. Lspace tập trung vào lưu trữ tri thức lâu dài, quản lý ngữ cảnh và tích hợp kho mã cho quy trình làm việc AI.
Tích hợp Lspace MCP Server vào quy trình FlowHunt của bạn để lưu trữ, duy trì và chia sẻ tri thức giữa tất cả công cụ và phiên AI.
LLM Context MCP Server kết nối các trợ lý AI với các dự án mã nguồn và văn bản bên ngoài, cho phép quy trình làm việc có nhận thức ngữ cảnh như kiểm tra mã, tạo...
ONLYOFFICE DocSpace MCP Server kết nối các trợ lý AI và công cụ với ONLYOFFICE DocSpace, cho phép quản lý tài liệu tự động, an toàn, hợp tác và điều phối quy tr...
Google Workspace MCP Server kết nối các tác nhân AI và mô hình ngôn ngữ lớn với các dịch vụ Google Workspace, cho phép tự động hóa và tích hợp quy trình làm việ...