
VibeCheck MCP 集成
将 FlowHunt 与 VibeCheck MCP 集成,为自主 AI 代理提供元认知监督、自适应中断和高级对齐保障。通过关键路径中断、多供应商支持、持久历史和自我改进日志,提高大语言模型的可靠性与安全性。...
FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。
Vibe Check MCP 服务器是一款面向 AI 工作流的健康检查工具,在复杂开发任务中作为策略性模式中断,防止连锁错误和思维陷阱。通过与 AI 助手集成,利用专为教学和元认知优化的 “Vibe Check” 工具(基于 LearnLM 1.5 Pro,Gemini API),增强工作流策略并激励反思式解决问题。该服务器让 AI 系统能够在关键节点暂停,评估当前推理或方法,并在继续之前及时调整,从而最大限度减少错误积累风险,提升代码质量和自动化/辅助开发流程中的决策水平。
windsurf.config.json)。mcpServers 对象中添加 Vibe Check MCP 服务器:{
"mcpServers": {
"vibe-check-mcp": {
"command": "npx",
"args": ["@vibe-check/mcp-server@latest"]
}
}
}
claude_desktop_config.json)。{
"mcpServers": {
"vibe-check-mcp": {
"command": "npx",
"args": ["@vibe-check/mcp-server@latest"]
}
}
}
cursor.config.json)。{
"mcpServers": {
"vibe-check-mcp": {
"command": "npx",
"args": ["@vibe-check/mcp-server@latest"]
}
}
}
{
"mcpServers": {
"vibe-check-mcp": {
"command": "npx",
"args": ["@vibe-check/mcp-server@latest"]
}
}
}
用环境变量保护 API 密钥:
.env.example 示例,使用 .env 文件存储:GEMINI_API_KEY=your_google_gemini_api_key
{
"env": {
"GEMINI_API_KEY": "your_google_gemini_api_key"
},
"inputs": {}
}
在 FlowHunt 中集成 MCP
要将 MCP 服务器集成到 FlowHunt 工作流,请先添加 MCP 组件,并将其连接到你的 AI 智能体:

点击 MCP 组件,打开配置面板。在系统 MCP 配置区域,按如下 JSON 格式填写你的 MCP 服务器信息:
{
"vibe-check-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 智能体即可作为工具使用该 MCP,访问其全部功能和能力。请将 “vibe-check-mcp” 替换为你实际的 MCP 服务器名称,并将 URL 替换为你自己的 MCP 服务器地址。
| 部分 | 可用性 | 备注 |
|---|---|---|
| 概览 | ✅ | |
| 提示词列表 | ⛔ | 仓库/文档中未找到提示词模板 |
| 资源列表 | ⛔ | 仓库未定义明确的 MCP 资源 |
| 工具列表 | ✅ | “Vibe Check” 工具 |
| API 密钥保护 | ✅ | 使用 .env,并在 .env.example 有说明 |
| 采样支持(评估时不重要) | ⛔ | 文档或代码未提及 |
Roots 支持:未提及。
我会给这个 MCP 服务器打 5/10 分。它目标明确,开源许可(MIT),具备基础工具,但在提示词、资源及高级 MCP 特性(如 roots、采样)文档方面较为欠缺。
| 是否有 LICENSE | ✅ (MIT) |
|---|---|
| 至少有一个工具 | ✅ |
| Fork 数量 | 11 |
| Star 数量 | 70 |

将 FlowHunt 与 VibeCheck MCP 集成,为自主 AI 代理提供元认知监督、自适应中断和高级对齐保障。通过关键路径中断、多供应商支持、持久历史和自我改进日志,提高大语言模型的可靠性与安全性。...

Kubernetes MCP 服务器连接 AI 助手与 Kubernetes/OpenShift 集群,实现通过自然语言工作流进行资源管理、Pod 操作和 DevOps 自动化。...

Kibana MCP 服务器将 AI 助手与 Kibana 连接起来,实现通过标准化的模型上下文协议(Model Context Protocol)进行自动化搜索、仪表盘管理、告警监控和报表生成,助力强大且由 AI 驱动的工作流。...
Cookie 同意
我们使用 cookie 来增强您的浏览体验并分析我们的流量。 See our privacy policy.