
any-chat-completions-mcp MCP 서버
any-chat-completions-mcp MCP 서버는 FlowHunt 및 기타 도구를 OpenAI SDK 호환 Chat Completion API와 연결합니다. OpenAI, Perplexity, Groq, xAI, PyroPrompts 등 다양한 LLM 제공업체를 단일하고 간단한...
LlamaCloud MCP 서버는 대형 언어 모델을 안전하게 관리되는 문서 인덱스와 연결하여, 엔터프라이즈 정보 검색과 맥락 기반 AI 응답을 원활하게 제공합니다.
LlamaCloud MCP 서버는 LlamaCloud의 여러 관리형 인덱스에 AI 어시스턴트를 연결하는 TypeScript 기반 Model Context Protocol (MCP) 서버입니다. 각 LlamaCloud 인덱스를 독립된 도구로 노출하여, AI 에이전트가 SEC 공시자료나 회사별 데이터 등 구조화된 문서 집합을 MCP 인터페이스를 통해 직접 검색·탐색할 수 있습니다. 이 구조는 외부 데이터에 손쉽게 접근할 수 있도록 하여, 맥락 데이터 검색, 문서 탐색, AI 기반 지식 확장 등 개발 워크플로우를 강화합니다. 커맨드라인 인자만 설정하면 여러 인덱스를 MCP 도구로 빠르게 운영할 수 있어, LlamaCloud는 LLM과 엔터프라이즈 문서 저장소 사이의 유연한 다리 역할을 합니다.
LlamaCloud MCP 서버의 공식 문서나 코드에서는 별도의 프롬프트 템플릿이 명시되어 있지 않습니다.
LlamaCloud MCP 서버의 공식 문서나 코드에 별도의 리소스가 구체적으로 명시되어 있지 않습니다.
get_information_10k-SEC-Tesla
)가 됩니다. 각 도구는 해당 인덱스 내에서 검색할 수 있는 query
파라미터를 제공합니다.mcpServers
객체에 LlamaCloud MCP 서버를 추가하세요.env
섹션에 LlamaCloud 프로젝트 이름과 API 키를 입력하세요.{
"mcpServers": {
"llamacloud": {
"command": "npx",
"args": [
"-y",
"@llamaindex/mcp-server-llamacloud",
"--index",
"10k-SEC-Tesla",
"--description",
"10k SEC documents from 2023 for Tesla",
"--index",
"10k-SEC-Apple",
"--description",
"10k SEC documents from 2023 for Apple"
],
"env": {
"LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
"LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}
}
}
}
~/Library/Application Support/Claude/claude_desktop_config.json
%APPDATA%/Claude/claude_desktop_config.json
mcpServers
객체에 LlamaCloud MCP 서버 설정을 추가하세요 (Windsurf 예시 참조).env
섹션에 API 인증 정보를 입력하세요.mcpServers
에 LlamaCloud MCP 서버 설정을 추가하세요.설정 파일의 env
섹션을 환경 변수로 사용하세요. 예시:
"env": {
"LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
"LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}
가능한 한 평문에 비밀 정보를 노출하지 마세요.
FlowHunt에서 MCP 사용하기
FlowHunt 워크플로우에서 MCP 서버를 통합하려면, MCP 컴포넌트를 플로우에 추가하고 AI 에이전트와 연결하세요:
MCP 컴포넌트를 클릭해 설정 패널을 엽니다. 시스템 MCP 설정 섹션에 아래와 같은 JSON 형식으로 MCP 서버 정보를 입력하세요:
{
"llamacloud": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
설정이 완료되면 AI 에이전트가 해당 MCP를 도구로 활용할 수 있으며, 모든 기능과 역량에 접근할 수 있습니다. “llamacloud"는 실제 MCP 서버 이름으로, URL도 본인의 MCP 서버 주소로 변경해야 합니다.
섹션 | 제공 여부 | 비고 |
---|---|---|
개요(Overview) | ✅ | 소개 및 주요 기능 설명 제공 |
프롬프트 목록(List of Prompts) | ⛔ | 별도의 프롬프트 템플릿 없음 |
리소스 목록(List of Resources) | ⛔ | 별도의 리소스 없음 |
도구 목록(List of Tools) | ✅ | 각 인덱스별 get_information_INDEXNAME 도구 및 query 파라미터 |
API 키 보안(Securing API Keys) | ✅ | env 사용, 명확한 가이드 제공 |
샘플링 지원(Sampling Support) | ⛔ | 공식 문서에 언급 없음 |
LlamaCloud MCP 서버는 LLM과 관리형 문서 인덱스를 연결하는 데 특화되어 있으며, 설정도 간편합니다. 고급 리소스나 프롬프트 템플릿 등은 없지만, 인덱스별 도구 중심 접근 방식이 명확하고 문서화도 잘 되어 있습니다. 표 기준으로 볼 때, 견고한 문서 검색이 필요한 개발자에게는 적합하지만, 리소스/루트/샘플링 등 고급 MCP 기능이 필요한 경우에는 다소 부족합니다.
평점: 6/10
라이선스 보유 | ✅ (MIT) |
---|---|
도구 최소 1개 이상 보유 | ✅ |
포크 수 | 17 |
스타 수 | 77 |
LlamaCloud MCP 서버는 TypeScript 기반의 Model Context Protocol 서버로, AI 어시스턴트가 LlamaCloud의 여러 관리형 인덱스에 접근할 수 있도록 해줍니다. 각 인덱스는 검색 가능한 도구로 제공되어, SEC 자료나 회사 고유 데이터 등 다양한 소스의 엔터프라이즈 문서를 효율적으로 검색할 수 있습니다.
LLM 기반 에이전트가 맥락 데이터 검색, 엔터프라이즈 문서 탐색, 지식 확장, 다중 인덱스 정보 질의 등 다양한 작업을 할 수 있도록 지원하여, 연구·컴플라이언스·분석 워크플로우에 적합합니다.
MCP 설정 파일의 `env` 섹션을 활용해 프로젝트 이름 및 API 키 등 민감 정보를 저장하세요. 코드나 평문 파일에 직접 비밀 정보를 입력하지 마세요.
FlowHunt 플로우에 MCP 컴포넌트를 추가한 후, MCP 패널에 LlamaCloud MCP 설정을 입력하세요. 트랜스포트, 이름, URL을 지정하면 AI 에이전트가 서버의 모든 도구에 연결됩니다.
아니요, 현재 버전에서는 별도의 프롬프트 템플릿이나 고급 리소스 관리 기능을 제공하지 않습니다. 관리형 인덱스를 통한 견고한 도구 기반 문서 검색에 중점을 두고 있습니다.
LlamaCloud MCP 서버를 활용해 AI 워크플로우에 강력한 엔터프라이즈 문서 검색 및 지식 통합 기능을 추가하세요.
any-chat-completions-mcp MCP 서버는 FlowHunt 및 기타 도구를 OpenAI SDK 호환 Chat Completion API와 연결합니다. OpenAI, Perplexity, Groq, xAI, PyroPrompts 등 다양한 LLM 제공업체를 단일하고 간단한...
파이어프루프 MCP 서버는 AI 어시스턴트와 파이어프루프 데이터베이스를 연결하여 JSON 문서의 저장, 조회, 관리를 LLM 툴을 통해 원활하게 할 수 있도록 합니다. CRUD 작업을 간소화하고, 유연한 쿼리를 지원하며, 데이터 기반 AI 워크플로우의 프로토타입 제작을 가속화합니다....
mcp-google-search MCP 서버는 AI 어시스턴트와 웹을 연결하여, Google Custom Search API를 활용한 실시간 검색과 콘텐츠 추출을 가능하게 합니다. 대형 언어 모델이 온라인 소스에서 최신 정보를 직접 접근, 검증, 요약할 수 있도록 지원합니다....