mcp-rag-local MCP 서버

mcp-rag-local MCP 서버

MCP Semantic Search RAG Knowledge Management

“mcp-rag-local” MCP 서버는 어떤 일을 하나요?

mcp-rag-local MCP 서버는 AI 어시스턴트가 키워드에만 의존하지 않고, 텍스트의 의미(시맨틱)에 따라 텍스트 단락을 저장하고 검색할 수 있도록 설계된 메모리 서버입니다. Ollama로 텍스트 임베딩을 생성하고, ChromaDB로 벡터 저장 및 유사도 검색을 수행함으로써, 자연스러운 저장(“기억”)과 쿼리별로 관련 텍스트를 빠르게 찾을 수 있습니다. 이를 통해 지식 관리, 맥락 기억, 시맨틱 검색 등 AI 기반 워크플로우를 지원합니다. 개발자는 단일 텍스트, 여러 텍스트, 또는 PDF 파일의 내용을 서버에 저장하고, 나중에 가장 맥락에 맞는 정보를 검색할 수 있어, 앱에서 생산성과 맥락 인식이 크게 향상됩니다.

프롬프트 목록

  • 저장소나 문서에 명시된 프롬프트 템플릿이 없습니다.

리소스 목록

  • 저장소나 README에 명시된 MCP 리소스가 없습니다.

도구 목록

  • memorize_text
    서버에 단일 텍스트 단락을 저장하여, 나중에 시맨틱 검색이 가능하게 합니다.

  • memorize_multiple_texts
    여러 텍스트를 한 번에 일괄 저장할 수 있어 대량 지식 인제스트에 유용합니다.

  • memorize_pdf_file
    PDF 파일에서 최대 20페이지씩 읽어와 내용을 청크 단위로 분할, 시맨틱 검색을 위해 기억합니다.

  • retrieve_similar_texts
    사용자의 쿼리에 대해 의미 기반 유사도를 활용해, 가장 적합한 저장 텍스트 단락을 찾아 반환합니다.

(도구 이름은 문서 내 사용 패턴을 근거로 추정했으며, 코드 내 실제 명칭은 다를 수 있습니다.)

MCP 서버 활용 예시

  • 개인 지식베이스 구축
    개발자나 사용자가 기사, 노트, 논문 등을 저장해 시맨틱 기반으로 검색할 수 있는 영속적 지식베이스를 구축할 수 있습니다.

  • 문서 및 PDF 요약
    PDF 문서를 통째로 기억시켜두고, 나중에 관련 부분이나 요약을 쿼리로 빠르게 찾아볼 수 있어 연구·검토가 효율적입니다.

  • 챗봇 대화 메모리 강화
    AI 어시스턴트나 챗봇에 장기적이고 맥락을 인식하는 기억을 부여해, 일관되고 적합한 응답을 할 수 있습니다.

  • 시맨틱 검색 엔진
    키워드가 아니라 의미로 정보를 찾는 시맨틱 검색 기능을 앱에 구현할 수 있습니다.

  • 연구 및 데이터 탐색
    기술 문서, 코드 스니펫, 과학 논문 등을 의미 기반으로 저장·검색해, 개발·탐구 과정에서 신속한 정보 접근이 가능합니다.

설치 방법

Windsurf

  1. 사전 준비:
    • Python 패키지 매니저 uv를 설치하세요.
    • Docker가 설치되어 실행 중인지 확인하세요.
  2. 클론 및 설치:
    • 저장소를 클론하세요:
      git clone <repository-url>
      cd mcp-rag-local
    • uv로 의존성을 설치하세요.
  3. 서비스 시작:
    • docker-compose up으로 ChromaDB와 Ollama를 실행하세요.
    • 임베딩 모델 다운로드:
      docker exec -it ollama ollama pull all-minilm:l6-v2
  4. MCP 서버 설정:
    • Windsurf MCP 서버 설정(예: mcpServers)에 다음을 추가하세요:
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
      
  5. 저장 및 재시작:
    • 설정을 저장하고 Windsurf를 재시작하세요.
  6. 설정 확인:
    • 서버가 정상 실행 중인지 확인합니다.

Claude

  1. 위 1~3단계(사전 준비, 클론/설치, 서비스 시작)를 완료하세요.
  2. Claude MCP 설정에 다음을 추가하세요:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 저장 후 Claude를 재시작하세요.
  4. 서버가 목록에 표시되고 실행 중인지 확인하세요.

Cursor

  1. 위 1~3단계(사전 준비, 클론/설치, 서비스 시작)를 완료하세요.
  2. Cursor 설정에 다음을 추가하세요:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 저장 후 Cursor를 재시작하세요.
  4. MCP 서버가 정상 동작하는지 확인하세요.

Cline

  1. 위 1~3단계(사전 준비, 클론/설치, 서비스 시작)를 완료하세요.
  2. Cline 설정에 다음을 추가하세요:
    "mcpServers": {
      "mcp-rag-local": {
        "command": "uv",
        "args": [
          "--directory",
          "path\\to\\mcp-rag-local",
          "run",
          "main.py"
        ],
        "env": {
          "CHROMADB_PORT": "8321",
          "OLLAMA_PORT": "11434"
        }
      }
    }
    
  3. 저장, Cline을 재시작 후 설정을 확인하세요.

API 키 보안 설정

  • 설정의 env 섹션에 환경 변수를 사용하세요.
  • 예시:
    "env": {
      "CHROMADB_PORT": "8321",
      "OLLAMA_PORT": "11434",
      "MY_API_KEY": "${MY_API_KEY}"
    }
    
  • 민감한 키는 하드코딩하지 말고, 반드시 환경 변수로 참조하세요.

이 MCP를 플로우에서 사용하는 방법

FlowHunt에서 MCP 사용하기

FlowHunt 워크플로우에 MCP 서버를 통합하려면, 먼저 MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:

FlowHunt MCP flow

MCP 컴포넌트를 클릭하여 설정 패널을 엽니다. 시스템 MCP 설정 섹션에 아래와 같이 MCP 서버 정보를 JSON 형식으로 입력하세요:

{
  "mcp-rag-local": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

설정이 완료되면, AI 에이전트가 해당 MCP의 모든 기능에 접근할 수 있습니다. “mcp-rag-local” 부분은 실제 MCP 서버 이름으로, URL은 본인의 MCP 서버 주소로 변경하세요.


개요

섹션지원 여부세부 내용/비고
개요
프롬프트 목록문서화된 프롬프트/템플릿 없음
리소스 목록문서화된 리소스 없음
도구 목록memorize_text, memorize_multiple_texts 등
API 키 보안 설정config의 env로, 예시 제공
샘플링 지원(평가에 중요하지 않음)언급되지 않음

총평

이 MCP는 시맨틱 메모리에 집중되어 있으며, 프롬프트 템플릿, 명시적 리소스, 샘플링/루트 지원과 같은 고급 기능은 부족합니다. 도구와 설치 방법은 명확합니다. 단순 RAG/로컬 지식 워크플로우에 가장 적합합니다.

MCP 점수

라이선스 보유✅ (MIT)
도구 보유
포크 수1
스타 수5

자주 묻는 질문

mcp-rag-local MCP 서버란 무엇인가요?

AI 에이전트가 의미 기반으로 텍스트, 문서, PDF를 저장하고 검색할 수 있게 하는 로컬 MCP 서버입니다. Ollama와 ChromaDB 기반으로 지식 관리, 맥락 메모리, 시맨틱 검색을 애플리케이션에 제공합니다.

mcp-rag-local이 제공하는 도구는 무엇인가요?

단일 또는 복수 텍스트 저장, PDF 파일 인제스트, 시맨틱 검색을 통한 유사 텍스트 검색 도구를 제공합니다. 이를 통해 개인 지식베이스 구축, 문서 요약, 챗봇 대화 메모리 등 다양한 워크플로우가 가능합니다.

mcp-rag-local은 어떻게 설정하나요?

uv와 Docker를 설치하고, 저장소를 클론한 뒤, Ollama와 ChromaDB를 실행하고, 클라이언트 설정 파일에서 MCP 서버와 포트를 지정하세요. 환경 변수로 보안을 강화할 수 있습니다.

주요 사용 사례는 무엇인가요?

시맨틱 지식베이스 구축, 문서/PDF 요약, 챗봇 메모리 강화, 시맨틱 검색, 연구 데이터 탐색 등이 대표적 사용 사례입니다.

API 키나 포트는 어떻게 안전하게 관리하나요?

항상 환경 변수(env 섹션)를 활용해 설정에서 민감 정보를 하드코딩하지 않고 보안과 베스트 프랙티스를 지키세요.

FlowHunt와 함께 mcp-rag-local을 사용해보세요

시맨틱 메모리와 로컬 문서 검색으로 AI 워크플로우를 강화하세요. mcp-rag-local을 몇 분 만에 설정하고, 에이전트가 지식을 기억하고 추론하는 방식을 혁신하세요.

더 알아보기

mcp-local-rag MCP 서버
mcp-local-rag MCP 서버

mcp-local-rag MCP 서버

mcp-local-rag MCP 서버는 개인정보 보호를 중시하는 로컬 RAG(검색 증강 생성) 웹 검색을 LLM에 제공합니다. 외부 API 없이 AI 어시스턴트가 웹에서 최신 정보를 접근, 임베딩, 추출할 수 있게 하여 연구, 콘텐츠 제작, 질의응답 워크플로우를 향상시킵니다....

3 분 읽기
MCP RAG +5
Rememberizer MCP 서버
Rememberizer MCP 서버

Rememberizer MCP 서버

Rememberizer MCP 서버는 AI 어시스턴트와 지식 관리 시스템을 연결하여 의미 기반 검색, 통합 문서 검색, 팀 협업을 Slack, Gmail, Dropbox, Google Drive 등 다양한 플랫폼에서 지원합니다. 강력한 문서 및 통합 도구로 AI 워크플로우를 간소화하세요...

4 분 읽기
AI Knowledge Management +4
Raindrop.io MCP 서버 통합
Raindrop.io MCP 서버 통합

Raindrop.io MCP 서버 통합

Raindrop.io MCP 서버를 사용하여 AI 에이전트와 LLM이 북마크를 프로그래밍 방식으로 관리, 검색, 큐레이션할 수 있습니다. FlowHunt의 MCP 컴포넌트 통합을 통해 웹 리소스를 매끄럽게 정리하고 불러오세요....

3 분 읽기
AI MCP +5