
LLM Context MCP 服务器
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
LlamaCloud MCP 服务器为大型语言模型与安全托管文档索引架起桥梁,实现企业信息无缝检索与上下文 AI 响应。
LlamaCloud MCP 服务器是一个基于 TypeScript 的 Model Context Protocol(MCP)服务器,它将 AI 助手连接到 LlamaCloud 上的多个托管索引。通过将每个 LlamaCloud 索引暴露为独立工具,AI 智能体能够直接通过 MCP 接口,在各种结构化文档集(如 SEC 报告或公司专属数据)中进行搜索与检索。这种架构提升了开发效率,让外部数据接入变得简单,实现上下文数据检索、文档搜索与 AI 驱动应用的知识增强。开发者可通过可配置的命令行参数,快速搭建和管理多个索引为 MCP 工具,让 LlamaCloud 成为 LLM 与企业级文档库之间灵活的桥梁。
在 LlamaCloud MCP 服务器的相关文档或代码中未提及显式的提示词模板。
在 LlamaCloud MCP 服务器的相关文档或代码中未列出或描述具体资源。
get_information_10k-SEC-Tesla
)。每个工具都暴露一个 query
参数,可在其对应的托管索引中进行搜索。mcpServers
对象下添加 LlamaCloud MCP 服务器。env
部分填写你的 LlamaCloud 项目名和 API 密钥。{
"mcpServers": {
"llamacloud": {
"command": "npx",
"args": [
"-y",
"@llamaindex/mcp-server-llamacloud",
"--index",
"10k-SEC-Tesla",
"--description",
"10k SEC documents from 2023 for Tesla",
"--index",
"10k-SEC-Apple",
"--description",
"10k SEC documents from 2023 for Apple"
],
"env": {
"LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
"LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}
}
}
}
~/Library/Application Support/Claude/claude_desktop_config.json
%APPDATA%/Claude/claude_desktop_config.json
mcpServers
对象中添加 LlamaCloud MCP 服务器配置(参考上方 Windsurf 示例)。env
部分填写 API 认证信息。mcpServers
下添加 LlamaCloud MCP 服务器配置,参考上述示例。请在配置中的 env
部分使用环境变量,例如:
"env": {
"LLAMA_CLOUD_PROJECT_NAME": "<YOUR_PROJECT_NAME>",
"LLAMA_CLOUD_API_KEY": "<YOUR_API_KEY>"
}
尽量避免明文暴露敏感信息。
在 FlowHunt 中使用 MCP
如需在 FlowHunt 工作流中集成 MCP 服务器,首先添加 MCP 组件到你的流程,并将其连接到 AI 智能体:
点击 MCP 组件打开配置面板。在系统 MCP 配置区,按如下 JSON 格式插入 MCP 服务器信息:
{
"llamacloud": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可将此 MCP 作为工具,访问其全部功能。请记得将 “llamacloud” 替换为你的实际 MCP 服务器名称,并修改 URL 为你自己的 MCP 服务器地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | 提供简介和功能概述 |
提示词列表 | ⛔ | 未有提示词模板文档说明 |
资源列表 | ⛔ | 未列出具体资源 |
工具列表 | ✅ | 每个索引成为 get_information_INDEXNAME 工具,并带有 query 参数 |
API 密钥安全管理 | ✅ | 配置中使用 env ,有明确安全指引 |
采样支持(评估中较次要) | ⛔ | 文档中未提及 |
LlamaCloud MCP 服务器定位清晰,便于将 LLM 连接至托管文档索引。它不提供高级资源和提示词模板,但每个索引对应一个工具的方式简洁且文档完备。结合上述表格,这对需要稳健文档检索的开发者来说是一个扎实、直接的选择,但不适合那些追求资源、roots 或采样等高级 MCP 特性的用户。
评分:6/10
有 LICENSE | ✅(MIT) |
---|---|
具备至少一个工具 | ✅ |
Fork 数量 | 17 |
Star 数量 | 77 |
LlamaCloud MCP 服务器是一个基于 TypeScript 的 Model Context Protocol 服务器,使 AI 助手可访问 LlamaCloud 上多个托管索引。每个索引都成为可检索的工具,实现对 SEC 文件或公司专有数据等来源的高效企业文档检索。
它使基于 LLM 的智能体能够进行上下文数据检索、企业文档搜索、知识增强以及多索引信息查询,非常适合研究、合规和分析等工作流。
始终在 MCP 配置文件的 `env` 部分存储项目名称和 API 密钥等敏感信息。避免将密钥直接写入代码或明文文件。
在 FlowHunt 流程中添加 MCP 组件后,在 MCP 面板中插入 LlamaCloud MCP 配置,设置传输方式、名称和 URL,即可将你的 AI 智能体与服务器上的全部工具连接。
不支持,当前实现未提供显式的提示词模板或高级资源管理,主要聚焦于通过托管索引进行健壮的基于工具的文档检索。
使用 LlamaCloud MCP 服务器,为你的 AI 工作流解锁强大的企业文档搜索与知识整合能力。
LLM Context MCP 服务器连接 AI 助手与外部代码和文本项目,通过模型上下文协议(MCP)实现上下文感知的工作流,支持代码评审、文档生成和项目探索等功能。...
Elasticsearch MCP 服务器桥接了 AI 助手与 Elasticsearch 和 OpenSearch 集群,实现了从 AI 工作流中直接进行高级搜索、索引管理和集群操作。可轻松将实时搜索与分析集成到 FlowHunt 流程中。...
多模型顾问 MCP 服务器使 FlowHunt 能够将 AI 助手与多个本地 Ollama 模型连接,实现同时查询和综合多种 AI 视角,为用户带来更丰富、更细致的回复。...