
Firefly MCP 服务器
Firefly MCP 服务器实现了 AI 驱动的无缝资源发现、管理和编排,适用于您的云端和 SaaS 环境。可与 Claude 和 Cursor 等工具集成,实现安全、自然语言驱动的基础设施自动化与资源管理。...
将 Fabric 模式暴露为强大且可复用的 AI 工具,用于理赔分析、摘要、洞察提取和开发工作流中的可视化。
fabric-mcp-server 是一款模型上下文协议(MCP)服务器,旨在将 Fabric 模式集成到 Cline 中,并将其作为 AI 驱动任务执行的工具进行暴露。作为桥梁,它让 AI 助手能够将结构化的 Fabric 模式作为可调用的工具使用,从而提升开发工作流。这种集成使得理赔分析、摘要和洞察提取等任务可以直接在 Cline 等支持的平台中完成。该服务器依托标准化的 MCP 接口,使这些功能易于访问,最终增强 AI 基于模式的复用型工作流对复杂信息的交互与处理能力。
仓库或文档中未提及明确的提示词模板。
fabric-mcp-server 未有专门的 MCP 资源文档或暴露。
fabric-mcp-server 将 Fabric 模式作为工具暴露。示例包括:
注意:完整工具集以 fabric/patterns
目录下的模式为准。
仓库中未提供 Windsurf 的配置说明。
仓库中未提供 Claude 的配置说明。
仓库中未提供 Cursor 的配置说明。
fabric-mcp-server
仓库克隆到本地系统。fabric-mcp-server
目录并运行 npm install
。npm run build
编译 TypeScript 代码。C:\Users\<username>\AppData\Roaming\Code\User\globalStorage\saoudrizwan.claude-dev\settings\cline_mcp_settings.json
~/Library/Application Support/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
~/.config/Code/User/globalStorage/saoudrizwan.claude-dev/settings/cline_mcp_settings.json
"fabric-mcp-server": {
"command": "node",
"args": [
"<path-to-fabric-mcp-server>/build/index.js"
],
"env": {},
"disabled": false,
"autoApprove": [],
"transportType": "stdio",
"timeout": 60
}
将 <path-to-fabric-mcp-server>
替换为实际路径。
你可以通过如下方式在配置中使用环境变量来保护 API 密钥:
"fabric-mcp-server": {
"command": "node",
"args": [
"<path-to-fabric-mcp-server>/build/index.js"
],
"env": {
"API_KEY": "${env:MY_API_KEY}"
},
"inputs": {
"api_key": "${env:MY_API_KEY}"
},
"disabled": false,
"autoApprove": [],
"transportType": "stdio",
"timeout": 60
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成进 FlowHunt 工作流,首先在流程中添加 MCP 组件并将其连接到你的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式插入你的 MCP 服务器信息:
{
"fabric-mcp-server": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可将此 MCP 作为工具,访问所有功能和能力。请记得根据实际情况将 “fabric-mcp-server” 替换为你喜欢的名称,并更新 URL。
部分 | 可用性 | 详情/备注 |
---|---|---|
总览 | ✅ | 在 README 中有功能介绍 |
提示词列表 | ⛔ | 未有明确的提示词模板文档 |
资源列表 | ⛔ | 未提及具体资源 |
工具列表 | ✅ | 已列出部分工具(模式) |
API 密钥安全配置 | ✅ | README 中有环境变量用法示例 |
采样支持(评价中不重要) | ⛔ | 未提及 |
根据现有文档,fabric-mcp-server 提供了清晰的概述、安装说明和暴露工具列表,但对提示词、资源及采样/roots 等功能缺乏详细说明。它适合 Cline 集成,但若能支持更多平台并丰富文档,将更具竞争力。
如果你希望将 Fabric 模式作为 AI 驱动工作流工具进行暴露,尤其是在 Cline 中,这个 MCP 服务器是不错的基础。但其文档和功能相比更成熟的 MCP 服务器仍有局限。基础的许可证和工具暴露要求已满足,但缺少提示词/资源示例和采样/roots 支持,导致评分未能更高。
有 LICENSE | ✅ (MIT) |
---|---|
至少有一个工具 | ✅ |
Fork 数量 | 1 |
Star 数量 | 5 |
fabric-mcp-server 是一个模型上下文协议(MCP)服务器,将 Fabric 模式作为工具暴露出来,使 AI 助手能够在 Cline 和 FlowHunt 等平台内实现理赔分析、摘要、洞察提取和图表生成等功能。
它将所有可用的 Fabric 模式作为工具暴露,包括 analyze_claims、summarize、extract_wisdom 和 create_mermaid_visualization。全部工具对应于 fabric/patterns 目录下的模式。
克隆仓库、安装依赖、构建项目,并将提供的 MCP 服务器配置添加到 Cline 设置文件中。API 密钥请使用环境变量以确保安全。
可以,您可以在 FlowHunt 中添加 MCP 组件,并配置 fabric-mcp-server 详细信息,让流程和 AI 代理使用所有暴露的工具。
典型应用场景包括科研理赔分析、长文本摘要、可操作洞察提取,以及基于结构化数据的自动图表生成。
通过将 fabric-mcp-server 连接到 FlowHunt 或 Cline,全面提升 AI 工作流。使用可复用的 Fabric 模式自动化理赔分析、摘要等任务。
Firefly MCP 服务器实现了 AI 驱动的无缝资源发现、管理和编排,适用于您的云端和 SaaS 环境。可与 Claude 和 Cursor 等工具集成,实现安全、自然语言驱动的基础设施自动化与资源管理。...
Fibery MCP 服务器通过模型上下文协议(MCP)将您的 Fibery 工作区与 AI 助手连接起来,实现对数据库、元数据和实体管理的自然语言访问,从而简化工作流程与自动化。...
Microsoft Fabric MCP 服务器实现了与 Microsoft Fabric 数据工程和分析生态系统的无缝 AI 驱动交互。它支持工作区管理、PySpark 笔记本开发、delta 表结构获取、SQL 执行,以及基于 LLM 的高级代码生成与优化。...