
DeepL MCP 服务器
DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...
通过 Lara Translate MCP 服务器将您的 AI 代理连接到专业翻译,实现 FlowHunt 工作流中的安全、高质量和上下文感知语言服务。
Lara Translate MCP 服务器是一个模型上下文协议(MCP)服务器,可将 AI 助手和应用程序连接到 Lara Translate API,实现专业级的翻译能力。它作为 AI 模型与翻译服务之间的桥梁,可无缝集成语言检测、上下文感知翻译及利用翻译记忆等任务。该服务器让 AI 应用能够安全灵活地执行翻译、发现可用工具与资源,并用结构化参数处理翻译请求。这种方式提升了开发工作流,使应用能够提供高质量翻译,而无需直接管理底层 API,同时保障 API 凭证安全,并支持非英语语言的高级功能。
当前文档或仓库文件中未列出明确的提示模板。
当前文档或仓库文件中未描述明确的 MCP 资源。
windsurf.json
或等效配置文件。mcpServers
部分添加 Lara Translate MCP 服务器:{
"mcpServers": {
"lara-mcp": {
"command": "npx",
"args": ["@translated/lara-mcp@latest"]
}
}
}
API 密钥安全设置:
{
"lara-mcp": {
"env": {
"LARA_API_KEY": "your-api-key"
},
"inputs": {
"apiKey": "${LARA_API_KEY}"
}
}
}
mcpServers
配置中添加 Lara Translate MCP:{
"mcpServers": {
"lara-mcp": {
"command": "npx",
"args": ["@translated/lara-mcp@latest"]
}
}
}
API 密钥安全设置:
{
"lara-mcp": {
"env": {
"LARA_API_KEY": "your-api-key"
},
"inputs": {
"apiKey": "${LARA_API_KEY}"
}
}
}
{
"mcpServers": {
"lara-mcp": {
"command": "npx",
"args": ["@translated/lara-mcp@latest"]
}
}
}
API 密钥安全设置:
{
"lara-mcp": {
"env": {
"LARA_API_KEY": "your-api-key"
},
"inputs": {
"apiKey": "${LARA_API_KEY}"
}
}
}
mcpServers
部分添加 Lara Translate MCP:{
"mcpServers": {
"lara-mcp": {
"command": "npx",
"args": ["@translated/lara-mcp@latest"]
}
}
}
API 密钥安全设置:
{
"lara-mcp": {
"env": {
"LARA_API_KEY": "your-api-key"
},
"inputs": {
"apiKey": "${LARA_API_KEY}"
}
}
}
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到您的 FlowHunt 工作流中,请先将 MCP 组件添加到流程,并将其连接到您的 AI 代理:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:
{
"lara-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用该 MCP,获取其所有功能和能力。请记得将 “lara-mcp” 替换为您 MCP 服务器的实际名称,并将 URL 替换为您自己的 MCP 服务器地址。
部分 | 可用性 | 说明/备注 |
---|---|---|
概览 | ✅ | 提供详细介绍 |
提示词列表 | ⛔ | 未列出明确的提示模板 |
资源列表 | ⛔ | 未描述明确的 MCP 资源 |
工具列表 | ✅ | 详细介绍了翻译工具 |
API 密钥安全设置 | ✅ | 提供环境变量设置说明 |
采样支持(评估时可忽略) | ⛔ | 未提及 |
根据现有文档,Lara Translate MCP 提供了强大的翻译工具和清晰的安装指导,但缺少明确的提示模板、MCP 资源列表及采样/模板相关文档。总体而言,它是一个专注实用的翻译 MCP 服务器。
有 LICENSE | ✅ (MIT) |
---|---|
有至少一个工具 | ✅ |
Fork 数量 | 9 |
Star 数量 | 57 |
Lara Translate MCP 服务器是 AI 助手与 Lara Translate API 之间的桥梁,实现安全、具备上下文感知的翻译、语言检测以及专业级多语言内容生成,可集成于 AI 工作流。
它提供翻译工具,可结构化访问 Lara Translate 的核心翻译功能,包括文本翻译、语言检测和上下文感知的翻译处理。
请将 API 密钥作为环境变量存储在 MCP 服务器配置中。这样可保证敏感凭据安全并避免暴露于客户端代码。
可以,Lara Translate MCP 支持上下文感知翻译,并可利用翻译记忆,提高在特定领域场景下的准确性。
常见场景包括多语言内容生成、集成翻译到 AI 驱动的工作流、为 AI 代理进行语言检测,以及安全管理翻译凭证。
当前文档未提供明确的提示模板或采样支持。
DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...
LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...
Atlassian MCP 服务器作为 AI 助手与 Atlassian 工具(如 Jira 和 Confluence)之间的桥梁,实现项目管理自动化、文档检索,并在 FlowHunt 内提升软件开发工作流。...