Lara Translate MCP 服务器

Lara Translate MCP 服务器

通过 Lara Translate MCP 服务器将您的 AI 代理连接到专业翻译,实现 FlowHunt 工作流中的安全、高质量和上下文感知语言服务。

“Lara Translate” MCP 服务器能做什么?

Lara Translate MCP 服务器是一个模型上下文协议(MCP)服务器,可将 AI 助手和应用程序连接到 Lara Translate API,实现专业级的翻译能力。它作为 AI 模型与翻译服务之间的桥梁,可无缝集成语言检测、上下文感知翻译及利用翻译记忆等任务。该服务器让 AI 应用能够安全灵活地执行翻译、发现可用工具与资源,并用结构化参数处理翻译请求。这种方式提升了开发工作流,使应用能够提供高质量翻译,而无需直接管理底层 API,同时保障 API 凭证安全,并支持非英语语言的高级功能。

提示词列表

当前文档或仓库文件中未列出明确的提示模板。

资源列表

当前文档或仓库文件中未描述明确的 MCP 资源。

工具列表

  • 翻译工具:提供访问 Lara Translate 核心翻译能力的入口,允许结构化请求文本翻译、语言检测和上下文感知翻译处理。

该 MCP 服务器的使用场景

  • 多语言内容生成:自动将内容翻译为多种语言,面向全球受众,无需人工干预。
  • 上下文感知翻译:通过利用上下文和翻译记忆,提高翻译准确度,适用于需要领域专用语言的应用。
  • 无缝工作流集成:将专业翻译集成到现有 AI 驱动的工作流(如聊天机器人、文档处理系统)中,无需直接调用 API。
  • AI 代理的语言检测:为 AI 代理提供输入文本的语言检测能力,提升用户体验与分流能力。
  • 安全凭证管理:通过将 API 凭证保存在 MCP 服务器,集中管理翻译逻辑和安全,减少客户端应用暴露风险。

如何设置

Windsurf

  1. 确保已安装 Node.js。
  2. 找到您的 windsurf.json 或等效配置文件。
  3. mcpServers 部分添加 Lara Translate MCP 服务器:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存配置并重启 Windsurf。
  5. 通过检查 Windsurf 日志确认服务器正在运行。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Claude

  1. 如果尚未安装,请安装 Node.js。
  2. 打开您的 Claude 配置文件。
  3. mcpServers 配置中添加 Lara Translate MCP:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存并重启 Claude。
  5. 检查 Claude 状态面板确认集成成功。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Cursor

  1. 确保系统已安装 Node.js。
  2. 编辑 Cursor 配置文件。
  3. 如下添加 Lara Translate MCP 服务器:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存并重启 Cursor。
  5. 通过运行测试翻译确认设置。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Cline

  1. 确保 Node.js 可用。
  2. 打开 Cline 配置文件。
  3. mcpServers 部分添加 Lara Translate MCP:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存更改并重启 Cline。
  5. 通过示例翻译请求验证功能。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到您的 FlowHunt 工作流中,请先将 MCP 组件添加到流程,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "lara-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,获取其所有功能和能力。请记得将 “lara-mcp” 替换为您 MCP 服务器的实际名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览提供详细介绍
提示词列表未列出明确的提示模板
资源列表未描述明确的 MCP 资源
工具列表详细介绍了翻译工具
API 密钥安全设置提供环境变量设置说明
采样支持(评估时可忽略)未提及

根据现有文档,Lara Translate MCP 提供了强大的翻译工具和清晰的安装指导,但缺少明确的提示模板、MCP 资源列表及采样/模板相关文档。总体而言,它是一个专注实用的翻译 MCP 服务器。


MCP 评分

有 LICENSE✅ (MIT)
有至少一个工具
Fork 数量9
Star 数量57

常见问题

什么是 Lara Translate MCP 服务器?

Lara Translate MCP 服务器是 AI 助手与 Lara Translate API 之间的桥梁,实现安全、具备上下文感知的翻译、语言检测以及专业级多语言内容生成,可集成于 AI 工作流。

此 MCP 服务器提供哪些工具?

它提供翻译工具,可结构化访问 Lara Translate 的核心翻译功能,包括文本翻译、语言检测和上下文感知的翻译处理。

如何安全地提供我的 Lara Translate API 密钥?

请将 API 密钥作为环境变量存储在 MCP 服务器配置中。这样可保证敏感凭据安全并避免暴露于客户端代码。

我可以用 Lara Translate MCP 进行领域专属翻译吗?

可以,Lara Translate MCP 支持上下文感知翻译,并可利用翻译记忆,提高在特定领域场景下的准确性。

Lara Translate MCP 有哪些使用场景?

常见场景包括多语言内容生成、集成翻译到 AI 驱动的工作流、为 AI 代理进行语言检测,以及安全管理翻译凭证。

是否支持采样或提示模板?

当前文档未提供明确的提示模板或采样支持。

将 Lara Translate 集成至 FlowHunt

通过 Lara Translate MCP 服务器,为您的 AI 工作流赋能,实现无缝、安全、专业级的语言翻译。

了解更多

DeepL MCP 服务器
DeepL MCP 服务器

DeepL MCP 服务器

DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...

2 分钟阅读
AI Translation +5
LlamaCloud MCP 服务器
LlamaCloud MCP 服务器

LlamaCloud MCP 服务器

LlamaCloud MCP 服务器将 AI 助手连接至 LlamaCloud 上的多个托管索引,通过简洁、基于工具的 Model Context Protocol 接口,实现企业级文档检索、搜索与知识增强。...

2 分钟阅读
AI MCP Server +5
Atlassian MCP 服务器集成
Atlassian MCP 服务器集成

Atlassian MCP 服务器集成

Atlassian MCP 服务器作为 AI 助手与 Atlassian 工具(如 Jira 和 Confluence)之间的桥梁,实现项目管理自动化、文档检索,并在 FlowHunt 内提升软件开发工作流。...

2 分钟阅读
Atlassian Jira +5