
mcp-rag-local MCP 서버
mcp-rag-local MCP 서버는 AI 어시스턴트에 의미 기반의 시맨틱 메모리를 제공하여, 키워드뿐만 아니라 텍스트의 의미에 따라 텍스트 단락을 저장하고 검색할 수 있게 합니다. Ollama를 임베딩에, ChromaDB를 벡터 검색에 활용하여, 로컬 워크플로우에서 고급 지식 관리와...

실시간 데이터 접근과 RAG를 위한 간단하고 로컬 기반의 개인정보 보호 웹 검색 MCP 서버입니다. FlowHunt 및 기타 AI 워크플로우에서 사용 가능합니다.
FlowHunt는 귀하의 내부 시스템과 AI 도구 사이에 추가 보안 계층을 제공하여 MCP 서버에서 액세스할 수 있는 도구를 세밀하게 제어할 수 있습니다. 저희 인프라에서 호스팅되는 MCP 서버는 FlowHunt의 챗봇뿐만 아니라 ChatGPT, Claude 및 다양한 AI 편집기와 같은 인기 있는 AI 플랫폼과 원활하게 통합될 수 있습니다.
mcp-local-rag MCP 서버는 외부 API 없이 로컬에서 동작하는 “원시” 형태의 검색 증강 생성(RAG) 웹 검색 Model Context Protocol(MCP) 서버입니다. 이 서버의 주요 목적은 AI 어시스턴트를 위한 데이터 소스로 웹을 연결하여, 대형 언어 모델(LLM)이 웹 검색을 실행하고, 검색 결과를 임베딩하며, 관련 콘텐츠를 추출할 수 있게 하는 것입니다. 모든 과정은 개인정보를 보호하는 로컬 환경에서 이루어집니다. 이 서버는 사용자의 쿼리를 검색 엔진(DuckDuckGo)에 제출하고, 여러 결과를 가져와 Google MediaPipe Text Embedder로 유사도 기반 랭킹을 진행한 뒤, 웹 페이지에서 관련 컨텍스트를 추출합니다. 이를 통해 개발자와 AI 클라이언트는 최신 웹 정보를 활용할 수 있어 연구, 콘텐츠 제작, 질의응답 등 다양한 워크플로우를 외부 웹 API에 의존하지 않고 강화할 수 있습니다.
저장소나 문서에 특정 프롬프트 템플릿이 언급되어 있지 않습니다.
사용 가능한 저장소 내용에 명시된 MCP “리소스"는 없습니다.
사용 가능 파일이나 문서에 직접적으로 나열된 상세 도구 정의가 없습니다.
아래는 mcp-local-rag MCP 서버를 다양한 MCP 클라이언트와 통합하기 위한 일반적인 설치 안내입니다. 각 클라이언트에 맞게 JSON 구성을 조정하세요.
mcpServers 오브젝트에 추가하세요:{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
]
}
}
}
mcp-local-rag는 외부 API 키가 필요하지 않습니다. 그러나 Docker 등에서 환경 변수를 설정해야 할 경우, 구성 내 env 오브젝트를 사용하세요:
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
],
"env": {
"EXAMPLE_ENV_VAR": "value"
},
"inputs": {}
}
}
}
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:

MCP 컴포넌트를 클릭하여 구성 패널을 엽니다. 시스템 MCP 구성 섹션에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"mcp-local-rag": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
구성을 완료하면 AI 에이전트가 해당 MCP의 모든 기능과 역량을 도구로서 사용할 수 있습니다. “mcp-local-rag” 부분은 실제 MCP 서버 이름으로, URL은 본인의 MCP 서버 주소로 변경하세요.
| 섹션 | 지원 여부 | 세부 정보/비고 |
|---|---|---|
| 개요 | ✅ | |
| 프롬프트 목록 | ⛔ | 없음 |
| 리소스 목록 | ⛔ | 없음 |
| 도구 목록 | ⛔ | 없음 |
| API 키 보안 | ✅ | env 예시 제공 |
| 샘플링 지원(평가에 덜 중요) | ⛔ | 언급 없음 |
전반적으로 mcp-local-rag는 간단하고 개인정보를 존중하는 웹 검색 MCP 서버로, 프롬프트/템플릿, 리소스, 도구 명세 문서가 다소 부족합니다. 주요 클라이언트와 손쉽게 연동 가능하며, 단순 웹 RAG 용도에 적합합니다.
| 라이선스 존재 | ✅ (MIT) |
|---|---|
| 도구 1개 이상 | ⛔ |
| 포크 수 | 12 |
| 스타 수 | 48 |
mcp-local-rag을 사용해 개인정보 보호가 강화된 실시간 웹 검색으로 AI의 역량을 높이세요. 외부 API나 키가 필요하지 않습니다.

mcp-rag-local MCP 서버는 AI 어시스턴트에 의미 기반의 시맨틱 메모리를 제공하여, 키워드뿐만 아니라 텍스트의 의미에 따라 텍스트 단락을 저장하고 검색할 수 있게 합니다. Ollama를 임베딩에, ChromaDB를 벡터 검색에 활용하여, 로컬 워크플로우에서 고급 지식 관리와...

RAG 웹 브라우저 MCP 서버는 AI 어시스턴트와 LLM에 실시간 웹 검색 및 콘텐츠 추출 기능을 제공하여, Retrieval-Augmented Generation(RAG), 요약, 실시간 연구를 FlowHunt 워크플로우 내에서 구현할 수 있게 합니다....

Ragie MCP 서버는 AI 어시스턴트가 Ragie 지식 베이스에서 시맨틱 검색을 통해 관련 정보를 검색할 수 있도록 하여, 개발 워크플로우에 맥락 기반의 지식 통합을 강화합니다....
쿠키 동의
당사는 귀하의 브라우징 경험을 향상시키고 트래픽을 분석하기 위해 쿠키를 사용합니다. See our privacy policy.