
Figma-Context MCP 服务器
Figma-Context MCP 服务器通过模型上下文协议(MCP)将 AI 编码代理与 Figma 设计布局连接起来。它使 AI 助手能够获取、分析和理解 Figma 文件,实现无缝的设计到代码工作流、UI 实现、组件提取以及自动化文档生成。...

通过 Cursor Talk To Figma MCP Server,自动化、分析并以编程方式修改 Figma 文件——让 AI 代理和开发者便捷实现设计自动化。
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Cursor Talk To Figma MCP 服务器为 Cursor AI 开发环境与 Figma 之间搭建了桥梁,实现 AI 助手与设计文件的无缝互动。通过模型上下文协议(MCP)暴露 Figma 的设计数据与操作,该服务器允许开发者和 AI 代理以编程方式读取、分析和修改 Figma 设计。此集成简化了设计师与开发者的工作流,可自动化重复性设计任务、批量内容替换、扩散组件覆盖,并直接通过 AI 工具实现其他自动化能力。该服务器通过标准化 MCP 端点让 Figma 能力触手可及,提升生产力和协作效率。
仓库或文档中未明确列出 prompt 模板。
仓库或文档中未明确提供 MCP 资源列表。
仓库或服务器文件中未明确包含 MCP 工具列表。
curl -fsSL https://bun.sh/install | bash)。bun setup 安装依赖。bun socket。{
"mcpServers": {
"cursor-talk-to-figma": {
"command": "bunx",
"args": ["cursor-talk-to-figma-mcp"]
}
}
}
API 密钥安全存储:
{
"mcpServers": {
"cursor-talk-to-figma": {
"command": "bunx",
"args": ["cursor-talk-to-figma-mcp"],
"env": {
"FIGMA_API_KEY": "${env.FIGMA_API_KEY}"
},
"inputs": {
"apiKey": "${env.FIGMA_API_KEY}"
}
}
}
}
bun setup 和 bun socket。{
"mcpServers": {
"cursor-talk-to-figma": {
"command": "bunx",
"args": ["cursor-talk-to-figma-mcp"]
}
}
}
API 密钥安全存储:(参见上例)
bun setup。bun socket。{
"mcpServers": {
"cursor-talk-to-figma": {
"command": "bunx",
"args": ["cursor-talk-to-figma-mcp"]
}
}
}
API 密钥安全存储:(参见上例)
bun setup 和 bun socket。{
"mcpServers": {
"cursor-talk-to-figma": {
"command": "bunx",
"args": ["cursor-talk-to-figma-mcp"]
}
}
}
API 密钥安全存储:(参见上例)
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成进 FlowHunt 工作流,请首先在流程中添加 MCP 组件,并将其连接到你的 AI 代理:

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"cursor-talk-to-figma": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP,获得其全部功能。请记得将 “cursor-talk-to-figma” 替换为你实际的 MCP 服务器名称,并填写你自己的 MCP 服务器 URL。
| 部分 | 可用性 | 说明/备注 |
|---|---|---|
| 概览 | ✅ | 已详述于 readme.md 和项目描述 |
| Prompt 模板列表 | ⛔ | 未发现 prompt 模板 |
| 资源列表 | ⛔ | 未明确列出 |
| 工具列表 | ⛔ | 未明确列出 |
| API 密钥保护 | ✅ | 提供了环境变量示例 |
| 采样支持(评价时非重点) | ⛔ | 未见相关说明 |
该仓库为自动化 Figma 提供了强大的 MCP 集成,但缺乏对 prompt、工具和资源的详细文档。安装指引和应用场景清晰实用,但更深入的 MCP 相关特性(如 roots、采样等)暂无文档支持。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 是否有至少一个工具 | ⛔ |
| Fork 数量 | 433 |
| Star 数量 | 4.4k |
观点与评分:
根据以上两张表,该 MCP 服务器评分为 6/10。它 star 数多,活跃度高,安装和集成指引清晰,但缺少明确的 MCP prompt、资源和工具文档,也没有根节点或采样支持的说明。
集成 Cursor Talk To Figma MCP Server,自动化设计任务,加速原型制作,通过 AI 搭建开发与设计团队的桥梁。

Figma-Context MCP 服务器通过模型上下文协议(MCP)将 AI 编码代理与 Figma 设计布局连接起来。它使 AI 助手能够获取、分析和理解 Figma 文件,实现无缝的设计到代码工作流、UI 实现、组件提取以及自动化文档生成。...

将 FlowHunt 与 Figma MCP 集成,实现设计到代码流程自动化,自动提取设计数据,赋能像 Cursor 这样的 AI 编码代理。实时访问 Figma 设计,优化开发与协作。...

PubNub MCP 服务器通过 PubNub 稳定的消息网络,将 AI 助手和开发环境与实时通信及外部数据源连接起来。通过实时数据、无缝 API 集成以及对 Cursor、Windsurf、Claude Desktop 等平台的跨平台支持,提升您的编码工作流程。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.