
Cursor 与 Figma 的 MCP 服务器对接
Cursor Talk To Figma MCP 服务器连接了 Cursor AI 环境与 Figma,通过标准化的模型上下文协议(MCP)端点,实现基于 AI 的自动化、分析和设计文件修改。...
连接你的 AI 代理与 Figma 设计:Figma-Context MCP 服务器为 AI 提供对 Figma 布局的实时访问,实现代码生成、UI 同步和快速原型开发。
Figma-Context MCP 服务器是一款旨在弥合 AI 编码代理与 Figma 设计布局之间鸿沟的工具。通过模型上下文协议(MCP)暴露 Figma 布局数据,它使 AI 助手(如 Cursor 等平台中的 AI)能够在开发流程中直接获取、分析并理解 Figma 文件。这使得 AI 可以在 UI 实现、代码生成、组件提取或设计转代码等场景下,利用 Figma 项目的最新布局信息进行协助。该服务器作为中间层,促进与 Figma 的安全、结构化 API 交互,并将数据以上下文形式提供给大语言模型和开发者。
仓库及其文档中未列出明确的提示模板。
仓库及其文档中未描述明确的 MCP 资源。
未找到明确的工具列表(如 server.py
或代码清单)。现有文档中也未提供工具端点或函数的详细信息。
mcpServers
部分添加 Figma-Context MCP 服务器的 JSON 片段:{
"figma-context": {
"command": "npx",
"args": ["@GLips/figma-context-mcp-server@latest"]
}
}
将 Figma API 密钥存储为环境变量,并在配置中引用:
{
"figma-context": {
"env": {
"FIGMA_API_KEY": "${FIGMA_API_KEY}"
},
"inputs": {
"figmaApiKey": "${FIGMA_API_KEY}"
}
}
}
mcpServers
数组中插入 Figma-Context MCP 服务器:{
"figma-context": {
"command": "npx",
"args": ["@GLips/figma-context-mcp-server@latest"]
}
}
mcpServers
属性中添加如下内容:{
"figma-context": {
"command": "npx",
"args": ["@GLips/figma-context-mcp-server@latest"]
}
}
{
"figma-context": {
"command": "npx",
"args": ["@GLips/figma-context-mcp-server@latest"]
}
}
注意: 始终按照 Windsurf 部分所示,使用环境变量安全存储和引用你的 Figma API 密钥。
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先需要将 MCP 组件添加到你的流程,并将其与 AI 代理连接:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"figma-context": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用此 MCP,访问其全部功能和能力。请记得将 "figma-context"
替换为你实际的 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。
部分 | 可用性 | 详情/备注 |
---|---|---|
概述 | ✅ | README 及项目描述中有概述 |
提示词列表 | ⛔ | 仓库及文档未明确给出 |
资源列表 | ⛔ | 仓库及文档未明确给出 |
工具列表 | ⛔ | 代码/文档中未发现明确工具功能 |
API 密钥安全 | ✅ | .env.example 存在,建议用环境变量 |
采样支持(评价较次要) | ⛔ | 未提及 |
Roots 支持 | ⛔ | 未提及 |
本 MCP 的实现提供了清晰的概览和安装说明,但在提示词、资源和具体工具端点等方面缺少详细文档,影响了其对自定义工作流的即用性和发现性。
是否有 LICENSE | ✅ (MIT) |
---|---|
是否至少有一个工具 | ⛔ |
Fork 数量 | 671 |
Star 数量 | 8.3k |
评分总结:
基于上述信息,我会给该 MCP 服务器打 4/10。它概览清晰、开源且广受关注(Star/Fork 很多),但关于 MCP 工具、资源和提示词的详细文档缺失,这对高级 MCP 集成和开发者采纳非常关键。
它通过模型上下文协议(MCP)开放 Figma 数据,使 AI 编码代理可以访问和分析 Figma 设计布局,从而为自动化和代码生成提供实时设计信息。
它支持 UI 实现、组件提取、设计评审自动化、根据布局生成文档以及从 Figma 文件快速原型开发等应用。
将你的 Figma API 密钥存储为环境变量,并在 MCP 服务器配置中引用,以确保其安全且不会暴露在源代码中。
仓库未明确提供提示模板或资源列表,但服务器暴露了 Figma 布局数据供你的 AI 代理使用。
综合评分为 4/10,优点是总体介绍清晰且被广泛采用,但缺少关于提示、工具和资源的详细文档。
Cursor Talk To Figma MCP 服务器连接了 Cursor AI 环境与 Figma,通过标准化的模型上下文协议(MCP)端点,实现基于 AI 的自动化、分析和设计文件修改。...
OpenAPI MCP 服务器让 AI 助手能够探索和理解 OpenAPI 规范,为开发者和大模型提供详细的 API 上下文、摘要和端点信息,无需直接执行端点。...
MCP-Server-Creator 是一个元服务器,可以快速创建和配置新的模型上下文协议(MCP)服务器。通过动态代码生成、工具构建和资源管理,它简化了自定义 AI 连接与集成服务器的开发,帮助技术团队自动化工作流程并加速部署。...