Lara Translate MCP 服务器

MCP Server Translation AI Integration Language Tools

联系我们在FlowHunt托管您的MCP服务器

FlowHunt在您的内部系统和AI工具之间提供额外的安全层,让您能够精细控制从MCP服务器可访问哪些工具。托管在我们基础设施中的MCP服务器可以与FlowHunt的聊天机器人以及ChatGPT、Claude和各种AI编辑器等热门AI平台无缝集成。

“Lara Translate” MCP 服务器能做什么?

Lara Translate MCP 服务器是一个模型上下文协议(MCP)服务器,可将 AI 助手和应用程序连接到 Lara Translate API,实现专业级的翻译能力。它作为 AI 模型与翻译服务之间的桥梁,可无缝集成语言检测、上下文感知翻译及利用翻译记忆等任务。该服务器让 AI 应用能够安全灵活地执行翻译、发现可用工具与资源,并用结构化参数处理翻译请求。这种方式提升了开发工作流,使应用能够提供高质量翻译,而无需直接管理底层 API,同时保障 API 凭证安全,并支持非英语语言的高级功能。

提示词列表

当前文档或仓库文件中未列出明确的提示模板。

Logo

准备好发展您的业务了吗?

今天开始免费试用,几天内即可看到结果。

资源列表

当前文档或仓库文件中未描述明确的 MCP 资源。

工具列表

  • 翻译工具:提供访问 Lara Translate 核心翻译能力的入口,允许结构化请求文本翻译、语言检测和上下文感知翻译处理。

该 MCP 服务器的使用场景

  • 多语言内容生成:自动将内容翻译为多种语言,面向全球受众,无需人工干预。
  • 上下文感知翻译:通过利用上下文和翻译记忆,提高翻译准确度,适用于需要领域专用语言的应用。
  • 无缝工作流集成:将专业翻译集成到现有 AI 驱动的工作流(如聊天机器人、文档处理系统)中,无需直接调用 API。
  • AI 代理的语言检测:为 AI 代理提供输入文本的语言检测能力,提升用户体验与分流能力。
  • 安全凭证管理:通过将 API 凭证保存在 MCP 服务器,集中管理翻译逻辑和安全,减少客户端应用暴露风险。

如何设置

Windsurf

  1. 确保已安装 Node.js。
  2. 找到您的 windsurf.json 或等效配置文件。
  3. mcpServers 部分添加 Lara Translate MCP 服务器:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存配置并重启 Windsurf。
  5. 通过检查 Windsurf 日志确认服务器正在运行。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Claude

  1. 如果尚未安装,请安装 Node.js。
  2. 打开您的 Claude 配置文件。
  3. mcpServers 配置中添加 Lara Translate MCP:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存并重启 Claude。
  5. 检查 Claude 状态面板确认集成成功。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Cursor

  1. 确保系统已安装 Node.js。
  2. 编辑 Cursor 配置文件。
  3. 如下添加 Lara Translate MCP 服务器:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存并重启 Cursor。
  5. 通过运行测试翻译确认设置。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

Cline

  1. 确保 Node.js 可用。
  2. 打开 Cline 配置文件。
  3. mcpServers 部分添加 Lara Translate MCP:
    {
      "mcpServers": {
        "lara-mcp": {
          "command": "npx",
          "args": ["@translated/lara-mcp@latest"]
        }
      }
    }
    
  4. 保存更改并重启 Cline。
  5. 通过示例翻译请求验证功能。

API 密钥安全设置:

{
  "lara-mcp": {
    "env": {
      "LARA_API_KEY": "your-api-key"
    },
    "inputs": {
      "apiKey": "${LARA_API_KEY}"
    }
  }
}

如何在流程中使用该 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到您的 FlowHunt 工作流中,请先将 MCP 组件添加到流程,并将其连接到您的 AI 代理:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "lara-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,获取其所有功能和能力。请记得将 “lara-mcp” 替换为您 MCP 服务器的实际名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性说明/备注
概览提供详细介绍
提示词列表未列出明确的提示模板
资源列表未描述明确的 MCP 资源
工具列表详细介绍了翻译工具
API 密钥安全设置提供环境变量设置说明
采样支持(评估时可忽略)未提及

根据现有文档,Lara Translate MCP 提供了强大的翻译工具和清晰的安装指导,但缺少明确的提示模板、MCP 资源列表及采样/模板相关文档。总体而言,它是一个专注实用的翻译 MCP 服务器。


MCP 评分

有 LICENSE✅ (MIT)
有至少一个工具
Fork 数量9
Star 数量57

常见问题

将 Lara Translate 集成至 FlowHunt

通过 Lara Translate MCP 服务器,为您的 AI 工作流赋能,实现无缝、安全、专业级的语言翻译。

了解更多

Lara Translate MCP
Lara Translate MCP

Lara Translate MCP

将 FlowHunt 与 Lara Translate MCP 集成,在您的 AI 工作流中实现先进的、具备上下文感知能力的翻译。自动化多语言内容,利用翻译记忆库,并通过安全、可扩展的部署优化全球运营。...

1 分钟阅读
AI Translation +4
DeepL MCP 服务器
DeepL MCP 服务器

DeepL MCP 服务器

DeepL MCP 服务器通过 DeepL API 在 AI 工作流中集成了先进的翻译、改写和语言检测功能。它为 FlowHunt 及其他 AI 助手赋予实时多语言能力、自动语言识别和语气定制,实现无缝的全球交流。...

2 分钟阅读
AI Translation +5