
Microsoft Fabric MCP 的 AI 代理
通过强大的基于 Python 的 MCP 服务器,无缝连接您的工作流与 Microsoft Fabric。解锁高级的工作区、Lakehouse、数据仓库和数据表管理,自动化 SQL 查询,并通过 AI 驱动的洞见和大语言模型集成优化您的 PySpark 笔记本。全面提升生产力,确保数据完整性,加速分析,所有操作均可在您的 IDE 或通过 HTTP 完成。

Microsoft Fabric 全方位运维
可直接通过 IDE 或 API 轻松管理工作区、Lakehouse、数据仓库和数据表。利用高级 Delta 表结构检索、SQL 查询执行、报表与语义模型管理,以及高效数据加载,全面提升您的分析环境。
- 工作区与 Lakehouse 管理.
- 轻松创建、列出并切换 Fabric 工作区与 Lakehouse。
- Delta 表与元数据.
- 获取 Delta 表结构和元数据,实现数据全透明。
- SQL 查询自动化.
- 跨数据源执行并自动化 SQL 查询,加速分析。
- 报表与语义模型操作.
- 高效管理分析流程中的报表与语义模型。

高级 PySpark 笔记本自动化
通过智能笔记本模板、智能代码生成和高级校验,加速您的 PySpark 开发。利用 AI 驱动的性能分析、Fabric 专属优化和实时执行洞见,最大化生产力。
- 智能笔记本模板.
- 利用 6 种专用模板,快速生成用于 ETL、分析、机器学习等场景的 PySpark 笔记本。
- 智能代码生成.
- 自动化生成常用操作的 PySpark 及 Fabric 代码,提升可靠性与速度。
- 全面校验.
- 通过高级语法、最佳实践及兼容性校验,保障代码质量。

AI 驱动的大模型集成
通过自然语言界面、上下文感知辅助和智能代码格式化,革新您的开发体验。每一步 PySpark 及 Fabric 工作流,皆可获得大模型驱动的优化建议与解释说明。
- 自然语言代码助手.
- 通过 LLM(如 Claude 或 GPT)以自然语言请求与数据和笔记本交互。
- 上下文感知优化.
- 为每个项目提供智能、基于上下文的优化建议与解释。
- 智能格式化与解释说明.
- 借助 AI 实现自动代码格式化与详细解释说明。
MCP 集成
可用的 Microsoft Fabric MCP 集成工具
以下工具作为 Microsoft Fabric MCP 集成的一部分提供:
- list_workspaces
列出您账户下所有可用的 Microsoft Fabric 工作区。
- set_workspace
为后续操作和查询设置当前工作区上下文。
- list_lakehouses
列出选定工作区中的所有 Lakehouse。
- create_lakehouse
在指定工作区中新建 Lakehouse,并可选填描述。
- set_lakehouse
为会话选择并设置活动 Lakehouse 上下文。
- list_warehouses
列出工作区中所有可用的数据仓库。
- create_warehouse
在选定工作区创建新数据仓库,并填写描述信息。
- set_warehouse
设置当前数据仓库上下文,便于后续交互。
- list_tables
列出指定 Lakehouse 下的所有数据表。
- get_lakehouse_table_schema
获取 Lakehouse 中某张表的结构信息。
- get_all_lakehouse_schemas
获取指定 Lakehouse 下所有表的结构。
- set_table
设置当前数据表上下文,便于处理特定数据。
- get_sql_endpoint
获取 Lakehouse 或数据仓库的 SQL 端点。
- run_query
在 Lakehouse 或数据仓库上执行 SQL 查询,获取自定义数据。
- load_data_from_url
将外部数据通过 URL 加载到 Microsoft Fabric 指定表中。
- list_reports
列出工作区内所有 Power BI 报表。
- get_report
通过 ID 获取指定报表的详细信息。
- list_semantic_models
列出所选工作区中的所有语义模型。
- get_semantic_model
通过 ID 获取指定语义模型的详细信息。
- list_notebooks
列出工作区内所有可用笔记本。
- get_notebook_content
按 ID 获取指定笔记本的全部内容。
- update_notebook_cell
更新笔记本中特定单元格的内容。
- create_pyspark_notebook
在工作区中使用选定模板创建新的 PySpark 笔记本。
- create_fabric_notebook
创建带集成或流处理模板的 Fabric 优化笔记本。
- generate_pyspark_code
为常见数据操作和转换生成 PySpark 代码片段。
- generate_fabric_code
为 Lakehouse 操作与监控生成 Fabric 专属代码。
- validate_pyspark_code
执行前对 PySpark 代码进行语法及最佳实践校验。
- validate_fabric_code
检查代码是否符合 Microsoft Fabric 兼容性与规范。
- analyze_notebook_performance
分析笔记本性能,提供优化与效率建议。
- clear_context
清除当前会话上下文,重置工作区、Lakehouse 或表选择。
体验 Microsoft Fabric MCP 实时演示
解锁强大的 AI 驱动 PySpark 开发与无缝 Microsoft Fabric 集成。预约直播演示或立即开启免费试用,见证 MCP 如何变革您的数据工作流。

什么是 ACI.dev
ACI.dev 是由 Aipolabs 开发的开源代理-计算机接口平台,使开发者能够通过统一函数调用,将 AI 代理(包括大语言模型和代理型 IDE)无缝连接到 600 多个第三方应用。凭借其统一模型上下文协议(MCP)服务器,ACI.dev 极大简化了集成流程,仅通过两个元函数——'search' 和 'execute'——即可访问庞大的预置工具库,如 Gmail、HubSpot、Notion 和 Slack。该平台具备可扩展性、安全的多租户认证及自然语言权限控制,便于授权 AI 代理、管理 OAuth 流程并安全处理用户凭据。ACI.dev 100% 开源,加速代理型开发,降低构建强大、安全、可靠 AI 应用的复杂度。
能力
我们可以用 ACI.dev 实现什么
借助 ACI.dev,您可以为 AI 代理解锁无缝且安全的工具使用,快速连接数百个 SaaS 应用,全面提升代理型工作流。其统一 MCP 服务器模型让您可在一个平台上管理认证、权限和工具发现,既适用于快速原型开发,也适合大规模生产部署。
- 统一 MCP 服务器
- 通过单一服务器端点连接 600+ 工具,简化代理访问。
- 托管代理认证
- 使用安全 OAuth 授权 AI 代理,无需手动管理令牌。
- 预置工具集成
- 快速集成 Gmail、Slack、Notion 等关键业务工具,无需额外编码。
- 安全代理密钥管理
- 通过细粒度访问控制安全存储和管理代理凭证。
- 自然语言权限控制
- 使用自然语言设置和执行 AI 代理权限,防止非预期 API 调用。
- 代理沙盒
- 在生产部署前测试和验证代理工具使用。

AI 代理如何受益于 ACI.dev
AI 代理通过 ACI.dev 的统一 MCP 服务器获得对数百个第三方工具的强大、安全、可扩展访问。开发者能够加速创新,降低集成复杂度,专注于打造更智能的代理型应用,其安全认证、权限管理和工具执行均由平台托管。