
mcp-local-rag MCP 서버
mcp-local-rag MCP 서버는 개인정보 보호를 중시하는 로컬 RAG(검색 증강 생성) 웹 검색을 LLM에 제공합니다. 외부 API 없이 AI 어시스턴트가 웹에서 최신 정보를 접근, 임베딩, 추출할 수 있게 하여 연구, 콘텐츠 제작, 질의응답 워크플로우를 향상시킵니다....
ChromaDB와 Ollama로 구축된 FlowHunt용 로컬 시맨틱 메모리 MCP 서버. AI 에이전트가 의미로 텍스트, 문서, PDF를 기억하고 검색할 수 있게 하며, 강력한 RAG 및 지식 워크플로우를 지원합니다.
mcp-rag-local MCP 서버는 AI 어시스턴트가 키워드에만 의존하지 않고, 텍스트의 의미(시맨틱)에 따라 텍스트 단락을 저장하고 검색할 수 있도록 설계된 메모리 서버입니다. Ollama로 텍스트 임베딩을 생성하고, ChromaDB로 벡터 저장 및 유사도 검색을 수행함으로써, 자연스러운 저장(“기억”)과 쿼리별로 관련 텍스트를 빠르게 찾을 수 있습니다. 이를 통해 지식 관리, 맥락 기억, 시맨틱 검색 등 AI 기반 워크플로우를 지원합니다. 개발자는 단일 텍스트, 여러 텍스트, 또는 PDF 파일의 내용을 서버에 저장하고, 나중에 가장 맥락에 맞는 정보를 검색할 수 있어, 앱에서 생산성과 맥락 인식이 크게 향상됩니다.
memorize_text
서버에 단일 텍스트 단락을 저장하여, 나중에 시맨틱 검색이 가능하게 합니다.
memorize_multiple_texts
여러 텍스트를 한 번에 일괄 저장할 수 있어 대량 지식 인제스트에 유용합니다.
memorize_pdf_file
PDF 파일에서 최대 20페이지씩 읽어와 내용을 청크 단위로 분할, 시맨틱 검색을 위해 기억합니다.
retrieve_similar_texts
사용자의 쿼리에 대해 의미 기반 유사도를 활용해, 가장 적합한 저장 텍스트 단락을 찾아 반환합니다.
(도구 이름은 문서 내 사용 패턴을 근거로 추정했으며, 코드 내 실제 명칭은 다를 수 있습니다.)
개인 지식베이스 구축
개발자나 사용자가 기사, 노트, 논문 등을 저장해 시맨틱 기반으로 검색할 수 있는 영속적 지식베이스를 구축할 수 있습니다.
문서 및 PDF 요약
PDF 문서를 통째로 기억시켜두고, 나중에 관련 부분이나 요약을 쿼리로 빠르게 찾아볼 수 있어 연구·검토가 효율적입니다.
챗봇 대화 메모리 강화
AI 어시스턴트나 챗봇에 장기적이고 맥락을 인식하는 기억을 부여해, 일관되고 적합한 응답을 할 수 있습니다.
시맨틱 검색 엔진
키워드가 아니라 의미로 정보를 찾는 시맨틱 검색 기능을 앱에 구현할 수 있습니다.
연구 및 데이터 탐색
기술 문서, 코드 스니펫, 과학 논문 등을 의미 기반으로 저장·검색해, 개발·탐구 과정에서 신속한 정보 접근이 가능합니다.
git clone <repository-url>
cd mcp-rag-local
docker-compose up
으로 ChromaDB와 Ollama를 실행하세요.docker exec -it ollama ollama pull all-minilm:l6-v2
mcpServers
)에 다음을 추가하세요:"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
"mcpServers": {
"mcp-rag-local": {
"command": "uv",
"args": [
"--directory",
"path\\to\\mcp-rag-local",
"run",
"main.py"
],
"env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434"
}
}
}
env
섹션에 환경 변수를 사용하세요."env": {
"CHROMADB_PORT": "8321",
"OLLAMA_PORT": "11434",
"MY_API_KEY": "${MY_API_KEY}"
}
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, 먼저 MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:
MCP 컴포넌트를 클릭하여 설정 패널을 엽니다. 시스템 MCP 설정 섹션에 아래와 같이 MCP 서버 정보를 JSON 형식으로 입력하세요:
{
"mcp-rag-local": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
설정이 완료되면, AI 에이전트가 해당 MCP의 모든 기능에 접근할 수 있습니다. “mcp-rag-local” 부분은 실제 MCP 서버 이름으로, URL은 본인의 MCP 서버 주소로 변경하세요.
섹션 | 지원 여부 | 세부 내용/비고 |
---|---|---|
개요 | ✅ | |
프롬프트 목록 | ⛔ | 문서화된 프롬프트/템플릿 없음 |
리소스 목록 | ⛔ | 문서화된 리소스 없음 |
도구 목록 | ✅ | memorize_text, memorize_multiple_texts 등 |
API 키 보안 설정 | ✅ | config의 env 로, 예시 제공 |
샘플링 지원(평가에 중요하지 않음) | ⛔ | 언급되지 않음 |
이 MCP는 시맨틱 메모리에 집중되어 있으며, 프롬프트 템플릿, 명시적 리소스, 샘플링/루트 지원과 같은 고급 기능은 부족합니다. 도구와 설치 방법은 명확합니다. 단순 RAG/로컬 지식 워크플로우에 가장 적합합니다.
라이선스 보유 | ✅ (MIT) |
---|---|
도구 보유 | ✅ |
포크 수 | 1 |
스타 수 | 5 |
AI 에이전트가 의미 기반으로 텍스트, 문서, PDF를 저장하고 검색할 수 있게 하는 로컬 MCP 서버입니다. Ollama와 ChromaDB 기반으로 지식 관리, 맥락 메모리, 시맨틱 검색을 애플리케이션에 제공합니다.
단일 또는 복수 텍스트 저장, PDF 파일 인제스트, 시맨틱 검색을 통한 유사 텍스트 검색 도구를 제공합니다. 이를 통해 개인 지식베이스 구축, 문서 요약, 챗봇 대화 메모리 등 다양한 워크플로우가 가능합니다.
uv와 Docker를 설치하고, 저장소를 클론한 뒤, Ollama와 ChromaDB를 실행하고, 클라이언트 설정 파일에서 MCP 서버와 포트를 지정하세요. 환경 변수로 보안을 강화할 수 있습니다.
시맨틱 지식베이스 구축, 문서/PDF 요약, 챗봇 메모리 강화, 시맨틱 검색, 연구 데이터 탐색 등이 대표적 사용 사례입니다.
항상 환경 변수(env 섹션)를 활용해 설정에서 민감 정보를 하드코딩하지 않고 보안과 베스트 프랙티스를 지키세요.
mcp-local-rag MCP 서버는 개인정보 보호를 중시하는 로컬 RAG(검색 증강 생성) 웹 검색을 LLM에 제공합니다. 외부 API 없이 AI 어시스턴트가 웹에서 최신 정보를 접근, 임베딩, 추출할 수 있게 하여 연구, 콘텐츠 제작, 질의응답 워크플로우를 향상시킵니다....
Rememberizer MCP 서버는 AI 어시스턴트와 지식 관리 시스템을 연결하여 의미 기반 검색, 통합 문서 검색, 팀 협업을 Slack, Gmail, Dropbox, Google Drive 등 다양한 플랫폼에서 지원합니다. 강력한 문서 및 통합 도구로 AI 워크플로우를 간소화하세요...
Raindrop.io MCP 서버를 사용하여 AI 에이전트와 LLM이 북마크를 프로그래밍 방식으로 관리, 검색, 큐레이션할 수 있습니다. FlowHunt의 MCP 컴포넌트 통합을 통해 웹 리소스를 매끄럽게 정리하고 불러오세요....