LlamaCloud MCP 服务器

LlamaCloud MCP 服务器

LlamaCloud MCP 服务器为大型语言模型与安全托管文档索引架起桥梁,实现企业信息无缝检索与上下文 AI 响应。

“LlamaCloud” MCP 服务器的作用是什么?

LlamaCloud MCP 服务器是一个基于 TypeScript 的 Model Context Protocol(MCP)服务器,它将 AI 助手连接到 LlamaCloud 上的多个托管索引。通过将每个 LlamaCloud 索引暴露为独立工具,AI 智能体能够直接通过 MCP 接口,在各种结构化文档集(如 SEC 报告或公司专属数据)中进行搜索与检索。这种架构提升了开发效率,让外部数据接入变得简单,实现上下文数据检索、文档搜索与 AI 驱动应用的知识增强。开发者可通过可配置的命令行参数,快速搭建和管理多个索引为 MCP 工具,让 LlamaCloud 成为 LLM 与企业级文档库之间灵活的桥梁。

提示词列表

在 LlamaCloud MCP 服务器的相关文档或代码中未提及显式的提示词模板。

资源列表

在 LlamaCloud MCP 服务器的相关文档或代码中未列出或描述具体资源。

工具列表

  • get_information_index_name
    配置中定义的每个 LlamaCloud 索引都成为一个工具(如 get_information_10k-SEC-Tesla)。每个工具都暴露一个 query 参数,可在其对应的托管索引中进行搜索。

此 MCP 服务器的应用场景

  • 企业文档搜索
    开发者可为不同公司文档索引(如 Tesla 或 Apple 的 SEC 报告)配置工具,使 AI 智能体按需检索和汇总相关企业信息。
  • AI 智能体知识增强
    基于 LLM 的助手可以调用权威数据源(如 10k SEC 文档),获取更准确、有上下文的回复。
  • 多索引信息检索
    一次连接多个索引,实现跨库搜索,适用于研究或合规任务。
  • 自定义数据管道
    团队可将自有文档集接入 LlamaCloud 索引,并安全暴露给 AI 工作流,用于内部分析或报表。

如何设置

Windsurf

  1. 确保已安装 Node.js 和 npx。
  2. 打开你的 Windsurf MCP 客户端配置文件。
  3. 按如下方式在 mcpServers 对象下添加 LlamaCloud MCP 服务器。
  4. env 部分填写你的 LlamaCloud 项目名和 API 密钥。
  5. 保存配置并重启 Windsurf。
{
  "mcpServers": {
    "llamacloud": {
      "command": "npx",
      "args": [
        "-y",
        "@llamaindex/mcp-server-llamacloud",
        "--index",
        "10k-SEC-Tesla",
        "--description",
        "10k SEC documents from 2023 for Tesla",
        "--index",
        "10k-SEC-Apple",
        "--description",
        "10k SEC documents from 2023 for Apple"
      ],
      "env": {
        "LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
        "LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
      }
    }
  }
}

Claude

  1. 确保已安装 Node.js 和 npx。
  2. 找到 Claude 的 MCP 配置:
    • Mac: ~/Library/Application Support/Claude/claude_desktop_config.json
    • Windows: %APPDATA%/Claude/claude_desktop_config.json
  3. mcpServers 对象中添加 LlamaCloud MCP 服务器配置(参考上方 Windsurf 示例)。
  4. env 部分填写 API 认证信息。
  5. 保存并重启 Claude。

Cursor

  1. 如尚未安装,请安装 Node.js 和 npx。
  2. 打开 Cursor 的 MCP 客户端配置文件。
  3. 参考 Windsurf 示例插入 LlamaCloud MCP 服务器配置。
  4. 填写 API 认证信息。
  5. 保存并重启 Cursor。

Cline

  1. 确保 Node.js 和 npx 可用。
  2. 找到或新建你的 Cline MCP 客户端配置文件。
  3. mcpServers 下添加 LlamaCloud MCP 服务器配置,参考上述示例。
  4. 输入 LlamaCloud API 认证信息。
  5. 保存并重启 Cline。

API 密钥安全管理

请在配置中的 env 部分使用环境变量,例如:

"env": {
  "LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
  "LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}

尽量避免明文暴露敏感信息。

在流程中如何使用 MCP

在 FlowHunt 中使用 MCP

如需在 FlowHunt 工作流中集成 MCP 服务器,首先添加 MCP 组件到你的流程,并将其连接到 AI 智能体:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入 MCP 服务器信息:

{
  "llamacloud": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可将此 MCP 作为工具,访问其全部功能。请记得将 “llamacloud” 替换为你的实际 MCP 服务器名称,并修改 URL 为你自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览提供简介和功能概述
提示词列表未有提示词模板文档说明
资源列表未列出具体资源
工具列表每个索引成为 get_information_INDEXNAME 工具,并带有 query 参数
API 密钥安全管理配置中使用 env,有明确安全指引
采样支持(评估中较次要)文档中未提及

我们的观点

LlamaCloud MCP 服务器定位清晰,便于将 LLM 连接至托管文档索引。它不提供高级资源和提示词模板,但每个索引对应一个工具的方式简洁且文档完备。结合上述表格,这对需要稳健文档检索的开发者来说是一个扎实、直接的选择,但不适合那些追求资源、roots 或采样等高级 MCP 特性的用户。

评分:6/10

MCP 评分

有 LICENSE✅(MIT)
具备至少一个工具
Fork 数量17
Star 数量77

常见问题

什么是 LlamaCloud MCP 服务器?

LlamaCloud MCP 服务器是一个基于 TypeScript 的 Model Context Protocol 服务器,使 AI 助手可访问 LlamaCloud 上多个托管索引。每个索引都成为可检索的工具,实现对 SEC 文件或公司专有数据等来源的高效企业文档检索。

LlamaCloud MCP 服务器支持哪些类型的任务?

它使基于 LLM 的智能体能够进行上下文数据检索、企业文档搜索、知识增强以及多索引信息查询,非常适合研究、合规和分析等工作流。

如何在配置服务器时保护我的 API 密钥安全?

始终在 MCP 配置文件的 `env` 部分存储项目名称和 API 密钥等敏感信息。避免将密钥直接写入代码或明文文件。

如何将 LlamaCloud MCP 服务器与 FlowHunt 搭配使用?

在 FlowHunt 流程中添加 MCP 组件后,在 MCP 面板中插入 LlamaCloud MCP 配置,设置传输方式、名称和 URL,即可将你的 AI 智能体与服务器上的全部工具连接。

LlamaCloud MCP 服务器支持提示词模板或资源吗?

不支持,当前实现未提供显式的提示词模板或高级资源管理,主要聚焦于通过托管索引进行健壮的基于工具的文档检索。

将 FlowHunt 连接至 LlamaCloud MCP 服务器

使用 LlamaCloud MCP 服务器,为你的 AI 工作流解锁强大的企业文档搜索与知识整合能力。

了解更多

LLM Context MCP 服务器
LLM Context MCP 服务器

LLM Context MCP 服务器

LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...

2 分钟阅读
AI MCP Server +5
Elasticsearch MCP 服务器
Elasticsearch MCP 服务器

Elasticsearch MCP 服务器

Elasticsearch MCP 服务器桥接了 AI 助手与 Elasticsearch 和 OpenSearch 集群,实现了从 AI 工作流中直接进行高级搜索、索引管理和集群操作。可轻松将实时搜索与分析集成到 FlowHunt 流程中。...

2 分钟阅读
MCP Server Elasticsearch +5
多模型顾问 MCP 服务器
多模型顾问 MCP 服务器

多模型顾问 MCP 服务器

多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...

2 分钟阅读
AI MCP +5