py-mcp-line:LINE 聊天 MCP 服务器

py-mcp-line:LINE 聊天 MCP 服务器

一款强大的 Python MCP 服务器,支持 AI 驱动访问与分析 LINE Bot 对话,兼容实时与历史数据集成。

“py-mcp-line” MCP 服务器能做什么?

py-mcp-line MCP 服务器是 Model Context Protocol (MCP) 的 Python 实现,旨在为语言模型等 AI 助手提供标准化访问 LINE Bot 消息的能力。它作为 AI 客户端与 LINE 会话之间的桥梁,使大模型能够实时读取、分析和交互 LINE 数据。基于 FastAPI 构建并利用异步 Python 特性提升响应能力,py-mcp-line 可处理 webhook 事件、校验数据,并将消息以结构化 JSON 格式存储。这极大提升了需要会话分析、机器人开发,或将 LINE 消息数据集成到更广泛 AI 应用中的开发流程。它通过开放 LINE 资源、校验请求,并处理多种消息类型,助力开发者高效集成。

提示模板列表

资源列表

  • LINE 消息资源
    • 将各种消息类型作为资源,通过如 line://<message_type>/data 的 URI 暴露,客户端可访问不同类别的 LINE 消息。
  • 资源描述
    • 每个资源包含描述和 MIME 类型等元数据,帮助客户端正确理解和使用数据。
  • 消息过滤
    • 资源支持按日期、用户或内容过滤,便于有针对性地检索会话数据。

工具列表

  • list_resources
    • 列出所有可用消息类型,并为客户端提供资源 URI。
  • read_resource
    • 读取并返回指定类型的消息,支持按日期或用户等高级过滤。

该 MCP 服务器的使用场景

  • 会话数据分析
    • 开发者可获取并分析历史 LINE 聊天数据,进行情感分析、主题建模或用户行为洞察。
  • 聊天机器人开发
    • 使 AI 助手能与 LINE 消息交互并响应,助力打造高级对话机器人。
  • 消息归档
    • 自动将 LINE 消息以 JSON 格式存储与归档,满足合规或存档需求。
  • 多模态数据集成
    • 支持文本、贴纸、图片消息,可处理和分析 LINE 会话中的多样数据类型。

如何设置

Windsurf

Claude

  1. 前置条件: 确保已安装 Python 3.8+ 及 requirements.txt 中全部依赖。
  2. 定位配置文件: MacOS 下打开 ~/Library/Application Support/Claude/claude_desktop_config.json,Windows 下打开 %APPDATA%/Claude/claude_desktop_config.json
  3. 添加 MCP 服务器: 将以下 JSON 片段插入到 mcpServers 对象中:
    {
      "mcpServers": {
        "line": {
          "command": "python",
          "args": [
            "server.py"
          ],
          "env": {
            "LINE_CHANNEL_SECRET": "your_channel_secret",
            "LINE_ACCESS_TOKEN": "your_access_token",
            "SERVER_PORT": "8000",
            "MESSAGES_FILE": "data/messages.json"
          }
        }
      }
    }
    
  4. 保存并重启: 保存文件并重启 Claude Desktop 应用以应用更改。
  5. 验证配置: 请确保 MCP 服务器已运行,Claude 可正常访问。

API 密钥安全

请将敏感凭证通过如上所示的 env 键存储为环境变量,避免意外泄露。

Cursor

Cline

如何在流程中使用该 MCP

在 FlowHunt 中集成 MCP

要将 MCP 服务器集成进您的 FlowHunt 工作流,请先在流程中添加 MCP 组件,并将其与 AI 代理连接:

FlowHunt MCP flow

点击 MCP 组件打开配置面板。在系统 MCP 配置区,使用如下 JSON 格式填写您的 MCP 服务器信息:

{
  "line": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 代理即可作为工具使用该 MCP,访问其全部功能。请记得将“line”替换为您的实际 MCP 服务器名称,并将 URL 替换为您自己的 MCP 服务器地址。


概览

部分可用性详情/说明
概览在 README.md 中提供
提示模板列表仓库内未发现提示模板
资源列表通过 API 支持资源列举与读取,支持过滤
工具列表server.py 中有 list_resourcesread_resource
API 密钥安全已记录环境变量存储方式
采样支持(评价时较次要)未有采样支持相关说明

基于以上内容,py-mcp-line 是一款关注于 LINE 消息访问的合格 MCP 实现,资源与工具开放清晰,安全性依赖环境变量,并对 Claude 的落地集成有具体指导。其不含提示模板与采样/根等高级 MCP 特性,整体得分受限,但在会话分析和机器人集成领域表现实用且文档完善。


MCP 评分

是否有 LICENSE✅ (MIT)
有至少一个工具
Fork 数量6
Star 数量17

总体来说,我会给这个 MCP 实现打 6.5/10。 它覆盖了 LINE 消息集成的核心功能,适合需要会话数据访问的开发者,但在提示模板、采样和根支持等高级 MCP 特性上有所不足。

常见问题

什么是 py-mcp-line?

py-mcp-line 是 Model Context Protocol(MCP)的 Python 实现,为 AI 助手安全、结构化地访问 LINE Bot 会话提供分析、集成与归档功能。

MCP 服务器开放了哪些资源?

它将 LINE 消息类型(如文本、贴纸、图片)作为资源通过 URI 暴露,并支持按日期、用户或内容进行高级过滤。

常见的使用场景有哪些?

典型场景包括会话数据分析(情感、主题建模)、聊天机器人开发、消息归档,以及对 LINE 会话中的多模态数据处理。

如何保障我的 LINE 凭证安全?

请将诸如 channel secret 与 access token 等敏感数据存储在环境变量中,如配置示例所示,避免在代码库中硬编码。

可以在 FlowHunt 中使用此 MCP 服务器吗?

可以!只需在 FlowHunt 流程中添加 MCP 组件,并配置您的 py-mcp-line 服务器,即可让 AI 代理访问 LINE 消息和工具。

py-mcp-line 支持提示模板或采样吗?

不支持,该服务器不包含提示模板或显式的采样/根特性,主要专注于资源访问与消息处理。

将 LINE 消息集成到 AI 工作流

使用 py-mcp-line 将您的 AI 代理连接到 LINE 聊天,实现高级会话分析、机器人开发或消息归档。

了解更多

JupyterMCP MCP 服务器集成
JupyterMCP MCP 服务器集成

JupyterMCP MCP 服务器集成

JupyterMCP 通过模型上下文协议(MCP)实现 Jupyter Notebook(6.x)与 AI 助手的无缝集成。利用 LLM 自动执行代码、管理单元格和获取输出,简化数据科学工作流程并提升生产力。...

2 分钟阅读
MCP Jupyter +5
LinkedIn MCP Runner
LinkedIn MCP Runner

LinkedIn MCP Runner

LinkedIn MCP Runner 使 AI 助手能够连接您的公开 LinkedIn 数据,通过利用您真实的帖子和写作风格,助力个性化内容创作、分析和互动策略。...

2 分钟阅读
AI LinkedIn +4
mcp-proxy MCP 服务器
mcp-proxy MCP 服务器

mcp-proxy MCP 服务器

mcp-proxy MCP 服务器桥接了可流式 HTTP 和 stdio MCP 传输协议,实现 AI 助手与多种模型上下文协议(MCP)服务器或客户端的无缝集成。它扩展了互操作性,简化了旧系统集成,并提升了跨平台 AI 工作流。...

2 分钟阅读
MCP AI +4