Lark(飞书)MCP 服务器

AI Automation Lark Feishu

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Lark(飞书)”MCP 服务器能做什么?

Lark(飞书)MCP 服务器是基于模型上下文协议(MCP)实现,用于将 AI 助手与 Lark(又称飞书)这一流行协作办公套件连接。该服务器让 AI 驱动的工作流可以与 Lark 表格、消息、文档等进行交互。通过标准化接口,AI 模型可执行如向 Lark 表格写入数据等操作,实现数据录入、报告或协作任务自动化。集成后开发者可将 AI 能力与实时文档管理结合,大大简化与 Lark 生态的交互,减少手动操作。

提示词模板列表

仓库中未提及任何提示词模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

仓库中未列出任何特定资源。

工具列表

  • write_excel
    向 Lark(飞书)表格写入数据并返回链接。需要添加邮箱地址用于访问权限。

本 MCP 服务器的应用场景

  • 自动化数据录入:
    开发者可设置 AI 自动将结构化数据写入 Lark 表格,减少人工输入与差错。
  • 协作报告生成:
    服务器可以用于在 Lark 表格中生成报告,方便团队即时协作和审阅。
  • Lark 与 AI 代理集成:
    Lark 表格作为可写资源开放,开发者可构建 AI 代理,从代码或聊天界面直接记录结果、追踪指标或管理项目表。
  • 工作流自动化:
    诸如考勤表、库存清单等日常业务操作可通过 AI 借助此服务器自动完成。

如何部署

Windsurf

  1. 前置条件: 确保已安装 Node.js 和 Windsurf。

  2. 创建 Lark(飞书)应用:
    访问 Lark 开放平台 创建应用。

  3. 申请权限:
    授予应用 sheets:spreadsheet:readonly 权限。

  4. 设置环境变量:
    在环境中设置 LARK_APP_IDLARK_APP_SECRET

  5. 在 Windsurf 配置:
    编辑配置文件,添加 MCP 服务器:

    "mcpServers": {
      "mcpServerLark": {
        "description": "MCP Server For Lark(Feishu)",
        "command": "uvx",
        "args": [
          "parent_of_servers_repo/servers/src/mcp_server_lark"
        ],
        "env": {
          "LARK_APP_ID": "xxx",
          "LARK_APP_SECRET": "xxx"
        }
      }
    }
    
  6. 保存并重启:
    保存配置,重启 Windsurf 并验证连接。

Claude

  1. 前置条件: 确保 Claude 支持 MCP 服务器集成。
  2. 创建并配置 Lark 应用,如上所述。
  3. 在 Claude 设置中添加 MCP 服务器:
    将上述 JSON 片段插入 Claude 的 MCP 配置。
  4. 使用环境变量 安全存储凭证。
  5. 重启并验证集成。

Cursor

  1. 安装 Cursor 并配置 Node.js。
  2. 创建 Lark(飞书)应用,设置所需权限。
  3. 将 MCP 服务器添加到 Cursor 配置:
    使用上述同样的 JSON 配置。
  4. 设置 API 密钥环境变量。
  5. 重启 Cursor 并检查 MCP 服务器。

Cline

  1. 部署 Cline 和 Node.js。

  2. 注册并配置 Lark(飞书)应用并授权权限。

  3. 在 Cline 配置中添加如下内容:

    "mcpServers": {
      "mcpServerLark": {
        "description": "MCP Server For Lark(Feishu)",
        "command": "uvx",
        "args": [
          "parent_of_servers_repo/servers/src/mcp_server_lark"
        ],
        "env": {
          "LARK_APP_ID": "xxx",
          "LARK_APP_SECRET": "xxx"
        }
      }
    }
    
  4. 保存并重启 Cline。

  5. 测试连接确保配置生效。

API 密钥安全存储

请始终通过环境变量存储 API 密钥等敏感配置。例如:

"env": {
  "LARK_APP_ID": "your_app_id",
  "LARK_APP_SECRET": "your_app_secret"
}

如何在流程中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,请首先将 MCP 组件添加到流程,并与您的 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件,打开配置面板。在系统 MCP 配置区域,使用以下 JSON 格式填写您的服务器信息:

{
  "lark-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具,调用该 MCP 所有功能。请记得将 “lark-mcp” 替换为您的实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览提供了总体描述
提示词模板列表未发现提示词模板
资源列表未专门列出资源
工具列表仅有 write_excel
API 密钥安全存储通过配置中的环境变量
采样支持(评估时可忽略)未提及
根支持采样支持

根据当前内容,该 MCP 服务器处于非常早期阶段,仅有最基础的工具和文档,主要开放单一工具,对提示词和资源缺乏详细描述。配置说明清晰但较为基础。目前该服务器在完整性和适用于更广泛 MCP 工作流方面评分较低。


MCP 评分

是否有 LICENSE
是否有至少一个工具
Fork 数量1
Star 数量1

常见问题

使用 FlowHunt 自动化您的 Lark 表格

通过连接 FlowHunt 的 Lark MCP 服务器,让您的 Lark(飞书)文档和工作流全面提效,直连 AI。

了解更多

Slack MCP 服务器
Slack MCP 服务器

Slack MCP 服务器

Slack MCP 服务器实现了 AI 助手与 Slack 工作区的无缝集成,支持消息自动化、工作流集成与安全连接——无需管理员权限或安装机器人。...

2 分钟阅读
AI Slack +5
Snowflake MCP 服务器
Snowflake MCP 服务器

Snowflake MCP 服务器

Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。...

2 分钟阅读
AI Database +5
LlamaCloud MCP 服务器
LlamaCloud MCP 服务器

LlamaCloud MCP 服务器

LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...

2 分钟阅读
AI MCP Server +5