
mcp-rag-local MCP 서버
mcp-rag-local MCP 서버는 AI 어시스턴트에 의미 기반의 시맨틱 메모리를 제공하여, 키워드뿐만 아니라 텍스트의 의미에 따라 텍스트 단락을 저장하고 검색할 수 있게 합니다. Ollama를 임베딩에, ChromaDB를 벡터 검색에 활용하여, 로컬 워크플로우에서 고급 지식 관리와...
실시간 데이터 접근과 RAG를 위한 간단하고 로컬 기반의 개인정보 보호 웹 검색 MCP 서버입니다. FlowHunt 및 기타 AI 워크플로우에서 사용 가능합니다.
mcp-local-rag MCP 서버는 외부 API 없이 로컬에서 동작하는 “원시” 형태의 검색 증강 생성(RAG) 웹 검색 Model Context Protocol(MCP) 서버입니다. 이 서버의 주요 목적은 AI 어시스턴트를 위한 데이터 소스로 웹을 연결하여, 대형 언어 모델(LLM)이 웹 검색을 실행하고, 검색 결과를 임베딩하며, 관련 콘텐츠를 추출할 수 있게 하는 것입니다. 모든 과정은 개인정보를 보호하는 로컬 환경에서 이루어집니다. 이 서버는 사용자의 쿼리를 검색 엔진(DuckDuckGo)에 제출하고, 여러 결과를 가져와 Google MediaPipe Text Embedder로 유사도 기반 랭킹을 진행한 뒤, 웹 페이지에서 관련 컨텍스트를 추출합니다. 이를 통해 개발자와 AI 클라이언트는 최신 웹 정보를 활용할 수 있어 연구, 콘텐츠 제작, 질의응답 등 다양한 워크플로우를 외부 웹 API에 의존하지 않고 강화할 수 있습니다.
저장소나 문서에 특정 프롬프트 템플릿이 언급되어 있지 않습니다.
사용 가능한 저장소 내용에 명시된 MCP “리소스"는 없습니다.
사용 가능 파일이나 문서에 직접적으로 나열된 상세 도구 정의가 없습니다.
아래는 mcp-local-rag MCP 서버를 다양한 MCP 클라이언트와 통합하기 위한 일반적인 설치 안내입니다. 각 클라이언트에 맞게 JSON 구성을 조정하세요.
mcpServers
오브젝트에 추가하세요:{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "uvx",
"args": [
"--python=3.10",
"--from",
"git+https://github.com/nkapila6/mcp-local-rag",
"mcp-local-rag"
]
}
}
}
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
]
}
}
}
mcp-local-rag는 외부 API 키가 필요하지 않습니다. 그러나 Docker 등에서 환경 변수를 설정해야 할 경우, 구성 내 env
오브젝트를 사용하세요:
{
"mcpServers": {
"mcp-local-rag": {
"command": "docker",
"args": [
"run",
"--rm",
"-i",
"--init",
"-e",
"DOCKER_CONTAINER=true",
"ghcr.io/nkapila6/mcp-local-rag:latest"
],
"env": {
"EXAMPLE_ENV_VAR": "value"
},
"inputs": {}
}
}
}
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에 MCP 서버를 통합하려면, MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:
MCP 컴포넌트를 클릭하여 구성 패널을 엽니다. 시스템 MCP 구성 섹션에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"mcp-local-rag": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
구성을 완료하면 AI 에이전트가 해당 MCP의 모든 기능과 역량을 도구로서 사용할 수 있습니다. “mcp-local-rag” 부분은 실제 MCP 서버 이름으로, URL은 본인의 MCP 서버 주소로 변경하세요.
섹션 | 지원 여부 | 세부 정보/비고 |
---|---|---|
개요 | ✅ | |
프롬프트 목록 | ⛔ | 없음 |
리소스 목록 | ⛔ | 없음 |
도구 목록 | ⛔ | 없음 |
API 키 보안 | ✅ | env 예시 제공 |
샘플링 지원(평가에 덜 중요) | ⛔ | 언급 없음 |
전반적으로 mcp-local-rag는 간단하고 개인정보를 존중하는 웹 검색 MCP 서버로, 프롬프트/템플릿, 리소스, 도구 명세 문서가 다소 부족합니다. 주요 클라이언트와 손쉽게 연동 가능하며, 단순 웹 RAG 용도에 적합합니다.
라이선스 존재 | ✅ (MIT) |
---|---|
도구 1개 이상 | ⛔ |
포크 수 | 12 |
스타 수 | 48 |
이 서버는 RAG(검색 증강 생성)를 위한 로컬 개인정보 보호 웹 검색 MCP 서버입니다. LLM을 웹과 연결해 검색 결과를 가져오고 임베딩하며, 외부 API나 클라우드 없이도 관련 콘텐츠를 추출할 수 있습니다.
실시간 LLM 웹 검색, 콘텐츠 요약, 검색 증강 생성, 개발자 생산성(예: 문서 검색), 교육(최신 학습 자료 가져오기) 등에 활용할 수 있습니다.
외부 API 키가 필요하지 않습니다. 로컬에서 실행되며 검색에는 DuckDuckGo를 사용하여, 쿼리가 비공개로 유지되고 유료 API 접근도 불필요합니다.
FlowHunt 플로우에 MCP 컴포넌트를 추가하고 설정을 열어, 권장 JSON 형식으로 MCP 서버 정보를 입력하세요. 위의 설치 예시를 참고하세요.
문서상 명시적인 프롬프트 템플릿, 리소스, 도구는 정의되어 있지 않습니다. 서버는 간단한 웹 검색과 컨텍스트 추출에 초점을 맞춥니다.
mcp-local-rag을 사용해 개인정보 보호가 강화된 실시간 웹 검색으로 AI의 역량을 높이세요. 외부 API나 키가 필요하지 않습니다.
mcp-rag-local MCP 서버는 AI 어시스턴트에 의미 기반의 시맨틱 메모리를 제공하여, 키워드뿐만 아니라 텍스트의 의미에 따라 텍스트 단락을 저장하고 검색할 수 있게 합니다. Ollama를 임베딩에, ChromaDB를 벡터 검색에 활용하여, 로컬 워크플로우에서 고급 지식 관리와...
RAG 웹 브라우저 MCP 서버는 AI 어시스턴트와 LLM에 실시간 웹 검색 및 콘텐츠 추출 기능을 제공하여, Retrieval-Augmented Generation(RAG), 요약, 실시간 연구를 FlowHunt 워크플로우 내에서 구현할 수 있게 합니다....
원격 MCP(Model Context Protocol)는 AI 에이전트가 원격 서버에 호스팅된 표준화된 인터페이스를 통해 외부 도구, 데이터 소스 및 서비스에 접근할 수 있게 해주는 시스템입니다. 이를 통해 AI 모델은 학습 데이터 너머의 특화된 기능과 정보를 활용하여 보안과 유연성을 ...