
Lspace MCP Server
Lspace MCP Server là một ứng dụng backend mã nguồn mở và độc lập triển khai Giao thức Ngữ cảnh Mô hình (MCP). Nó cho phép lưu trữ lâu dài và tìm kiếm tri thức b...
Kết nối liền mạch các tác nhân AI với dự án mã nguồn và văn bản bằng LLM Context MCP Server—tối ưu hóa quy trình phát triển với sự hỗ trợ tự động, bảo mật và giàu ngữ cảnh.
LLM Context MCP Server là một công cụ được thiết kế để kết nối liền mạch các trợ lý AI với dự án mã nguồn và văn bản bên ngoài, nâng cao quy trình phát triển thông qua Giao thức Bối cảnh Mô hình (MCP). Bằng cách tận dụng mẫu .gitignore
để chọn lọc tệp thông minh, nó cho phép lập trình viên tiêm nội dung có liên quan trực tiếp vào giao diện trò chuyện LLM hoặc sử dụng quy trình clipboard tiện lợi. Điều này giúp thực hiện các nhiệm vụ như kiểm tra mã nguồn, tạo tài liệu và khám phá dự án một cách hiệu quả với sự hỗ trợ AI nhận biết ngữ cảnh. LLM Context đặc biệt hiệu quả cho cả kho mã nguồn và bộ sưu tập tài liệu văn bản, trở thành cầu nối đa năng giữa dữ liệu dự án và quy trình làm việc AI.
Không tìm thấy thông tin về mẫu prompt định nghĩa trong kho lưu trữ.
Không có tài nguyên cụ thể nào được đề cập trong các tệp hoặc tài liệu cung cấp.
Không có tệp server.py hoặc tệp tương đương liệt kê công cụ trong cấu trúc kho lưu trữ hiện tại. Không tìm thấy thông tin về công cụ được cung cấp.
windsurf.config.json
).{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": []
}
}
}
Đặt biến môi trường để bảo vệ API key và thông tin bí mật. Ví dụ cấu hình:
{
"mcpServers": {
"llm-context": {
"command": "llm-context-mcp",
"args": [],
"env": {
"API_KEY": "${LLM_CONTEXT_API_KEY}"
},
"inputs": {
"apiKey": "${LLM_CONTEXT_API_KEY}"
}
}
}
}
Sử dụng MCP trong FlowHunt
Để tích hợp MCP server vào quy trình FlowHunt của bạn, hãy bắt đầu bằng cách thêm thành phần MCP vào flow và kết nối nó với tác nhân AI:
Nhấn vào thành phần MCP để mở bảng cấu hình. Trong phần cấu hình MCP hệ thống, chèn thông tin máy chủ MCP của bạn bằng định dạng JSON sau:
{
"llm-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
Sau khi cấu hình, tác nhân AI có thể sử dụng MCP này như một công cụ với quyền truy cập đầy đủ các chức năng. Hãy nhớ đổi “llm-context” thành tên máy chủ MCP thực tế của bạn và thay thế URL bằng URL máy chủ MCP của bạn.
Mục | Sẵn sàng | Chi tiết/Ghi chú |
---|---|---|
Tổng quan | ✅ | |
Danh sách Prompt | ⛔ | Không tìm thấy thông tin |
Danh sách Tài nguyên | ⛔ | Không tìm thấy thông tin |
Danh sách Công cụ | ⛔ | Không tìm thấy thông tin |
Bảo mật API Key | ✅ | Có ví dụ về biến môi trường |
Hỗ trợ Sampling (không quan trọng khi đánh giá) | ⛔ | Không tìm thấy thông tin |
Dựa trên hai bảng trên, MCP server này có tổng quan mạnh mẽ và tuân thủ thực hành bảo mật tốt nhưng thiếu tài liệu rõ ràng về prompt, tài nguyên và công cụ. Vì vậy, nó phù hợp nhất cho các quy trình chia sẻ ngữ cảnh cơ bản và cần bổ sung tài liệu để tận dụng tối đa các tính năng nâng cao của MCP.
Có LICENSE | ✅ (Apache-2.0) |
---|---|
Có ít nhất một công cụ | ⛔ |
Số Fork | 18 |
Số Star | 231 |
LLM Context MCP Server kết nối các tác nhân AI với dự án mã nguồn và văn bản bên ngoài, cung cấp lựa chọn ngữ cảnh thông minh qua mẫu .gitignore và cho phép thực hiện các quy trình nâng cao như kiểm tra mã nguồn, tạo tài liệu và khám phá dự án trực tiếp trong giao diện trò chuyện của LLM.
Các trường hợp sử dụng chính bao gồm tự động kiểm tra mã nguồn, tạo tài liệu, khám phá dự án nhanh chóng và chia sẻ nội dung qua clipboard với LLM nhằm tăng năng suất trong quy trình làm việc dựa trên trò chuyện.
Đặt biến môi trường với API key của bạn (ví dụ: LLM_CONTEXT_API_KEY) và tham chiếu chúng trong cấu hình máy chủ MCP để đảm bảo key không nằm trong mã nguồn hoặc file cấu hình.
Không, phiên bản hiện tại chưa có prompt định nghĩa sẵn hay công cụ rõ ràng, phù hợp cho quy trình chia sẻ ngữ cảnh cơ bản nhưng cần tùy chỉnh thêm cho các tính năng nâng cao.
Máy chủ này là mã nguồn mở theo giấy phép Apache-2.0.
Thêm thành phần MCP vào flow của bạn trên FlowHunt, nhập thông tin máy chủ MCP vào bảng cấu hình bằng định dạng JSON cung cấp và kết nối với tác nhân AI để tự động hóa nhận biết ngữ cảnh.
Tích hợp LLM Context MCP Server vào FlowHunt để tự động hóa thông minh, nhận biết ngữ cảnh trong quy trình lập trình và tạo tài liệu của bạn.
Lspace MCP Server là một ứng dụng backend mã nguồn mở và độc lập triển khai Giao thức Ngữ cảnh Mô hình (MCP). Nó cho phép lưu trữ lâu dài và tìm kiếm tri thức b...
Máy chủ git-mcp-go MCP cho phép tương tác liền mạch với các kho Git bằng Mô Hình Ngôn Ngữ Lớn (LLMs), giúp trợ lý AI tự động hóa các tác vụ quản lý mã nguồn như...
Máy chủ LSP MCP kết nối các máy chủ Language Server Protocol (LSP) với trợ lý AI, giúp kích hoạt phân tích mã nâng cao, hoàn thành thông minh, chẩn đoán và tự đ...