
Microsoft Fabric MCP 服务器
Microsoft Fabric MCP 服务器实现了与 Microsoft Fabric 数据工程和分析生态系统的无缝 AI 驱动交互。它支持工作区管理、PySpark 笔记本开发、delta 表结构获取、SQL 执行,以及基于 LLM 的高级代码生成与优化。...
将 FlowHunt AI 工作流与 Lark(飞书)集成,实现表格操作自动化,并通过 Lark MCP 服务器提升办公效率。
Lark(飞书)MCP 服务器是基于模型上下文协议(MCP)实现,用于将 AI 助手与 Lark(又称飞书)这一流行协作办公套件连接。该服务器让 AI 驱动的工作流可以与 Lark 表格、消息、文档等进行交互。通过标准化接口,AI 模型可执行如向 Lark 表格写入数据等操作,实现数据录入、报告或协作任务自动化。集成后开发者可将 AI 能力与实时文档管理结合,大大简化与 Lark 生态的交互,减少手动操作。
仓库中未提及任何提示词模板。
仓库中未列出任何特定资源。
前置条件: 确保已安装 Node.js 和 Windsurf。
创建 Lark(飞书)应用:
访问 Lark 开放平台 创建应用。
申请权限:
授予应用 sheets:spreadsheet:readonly
权限。
设置环境变量:
在环境中设置 LARK_APP_ID
和 LARK_APP_SECRET
。
在 Windsurf 配置:
编辑配置文件,添加 MCP 服务器:
"mcpServers": {
"mcpServerLark": {
"description": "MCP Server For Lark(Feishu)",
"command": "uvx",
"args": [
"parent_of_servers_repo/servers/src/mcp_server_lark"
],
"env": {
"LARK_APP_ID": "xxx",
"LARK_APP_SECRET": "xxx"
}
}
}
保存并重启:
保存配置,重启 Windsurf 并验证连接。
部署 Cline 和 Node.js。
注册并配置 Lark(飞书)应用并授权权限。
在 Cline 配置中添加如下内容:
"mcpServers": {
"mcpServerLark": {
"description": "MCP Server For Lark(Feishu)",
"command": "uvx",
"args": [
"parent_of_servers_repo/servers/src/mcp_server_lark"
],
"env": {
"LARK_APP_ID": "xxx",
"LARK_APP_SECRET": "xxx"
}
}
}
保存并重启 Cline。
测试连接确保配置生效。
请始终通过环境变量存储 API 密钥等敏感配置。例如:
"env": {
"LARK_APP_ID": "your_app_id",
"LARK_APP_SECRET": "your_app_secret"
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,请首先将 MCP 组件添加到流程,并与您的 AI 代理连接:
点击 MCP 组件,打开配置面板。在系统 MCP 配置区域,使用以下 JSON 格式填写您的服务器信息:
{
"lark-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具,调用该 MCP 所有功能。请记得将 “lark-mcp” 替换为您的实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | 提供了总体描述 |
提示词模板列表 | ⛔ | 未发现提示词模板 |
资源列表 | ⛔ | 未专门列出资源 |
工具列表 | ✅ | 仅有 write_excel |
API 密钥安全存储 | ✅ | 通过配置中的环境变量 |
采样支持(评估时可忽略) | ⛔ | 未提及 |
根支持 | 采样支持 |
---|---|
⛔ | ⛔ |
根据当前内容,该 MCP 服务器处于非常早期阶段,仅有最基础的工具和文档,主要开放单一工具,对提示词和资源缺乏详细描述。配置说明清晰但较为基础。目前该服务器在完整性和适用于更广泛 MCP 工作流方面评分较低。
是否有 LICENSE | ✅ |
---|---|
是否有至少一个工具 | ✅ |
Fork 数量 | 1 |
Star 数量 | 1 |
Lark(飞书)MCP 服务器是一种模型上下文协议实现,用于将 AI 助手与 Lark(飞书)办公套件连接。它允许 AI 工作流与 Lark 表格、消息和文档交互,通过 FlowHunt 实现自动化数据录入、报告和协作任务。
目前,该服务器开放了 “write_excel” 工具,使 AI 代理可以向 Lark 表格写入数据,并分享结果链接。需提供邮箱地址以获得访问权限。
该服务器可实现自动化数据录入、协作报告生成、AI 代理与 Lark 表格集成,以及如考勤或库存清单的工作流自动化,可直接通过 FlowHunt 或其他 AI 平台完成。
请始终使用环境变量存储如 LARK_APP_ID 和 LARK_APP_SECRET 等敏感信息,避免在代码或版本控制中暴露。
在 FlowHunt 流程中添加 MCP 组件,编辑配置,并以 JSON 格式填写您的 MCP 服务器信息,即可让 AI 代理直接在自动化工作流中使用所有 MCP 服务器工具。
通过连接 FlowHunt 的 Lark MCP 服务器,让您的 Lark(飞书)文档和工作流全面提效,直连 AI。
Microsoft Fabric MCP 服务器实现了与 Microsoft Fabric 数据工程和分析生态系统的无缝 AI 驱动交互。它支持工作区管理、PySpark 笔记本开发、delta 表结构获取、SQL 执行,以及基于 LLM 的高级代码生成与优化。...
Snowflake MCP 服务器通过模型上下文协议(MCP),为 Snowflake 数据库提供无缝的 AI 驱动交互,公开强大的工具与资源。可轻松执行 SQL 查询、管理模式、自动化洞察,并通过标准化的 MCP 接口优化数据工作流。...
Bitable MCP 服务器通过 Model Context Protocol 将 FlowHunt 及其他 AI 平台与飞书多维表格无缝连接,实现数据库自动化、结构探索和类 SQL 查询。为您的 AI 工作流提供对协作表格和数据库的直接、结构化访问。...