学术型 MCP 服务器

学术型 MCP 服务器

通过 FlowHunt 的学术型 MCP 服务器,将 AI 工作流与最新学术文章检索和学术元数据连接起来。

“学术型” MCP 服务器能做什么?

学术型 MCP 服务器旨在为 AI 助手提供强大的学术文章检索能力。通过集成不同的学术数据服务商(后续还将支持更多供应商),该服务器帮助开发者增强 AI 工作流,让其能直接获取准确且最新的学术文章。它充当了 AI 智能体与外部学术数据源之间的桥梁,实现如科研论文检索、出版元数据获取、相关学术内容搜集等任务。此工具尤其适用于需要无缝获取高质量学术资源的研究助手、教育平台及以知识为核心的应用。

Prompt 模板列表

仓库中未明确提及任何 prompt 模板。

资源列表

仓库文件中未明确列出或描述任何资源。

工具列表

在现有仓库结构或文档中未发现显式的工具定义或条目(如 search_articlesget_metadata 等函数)。仓库被描述为“一台用于准确学术文章检索的服务器”,因此很可能包含学术文章搜索工具,但没有具体的工具名称或描述。

本 MCP 服务器的用例

  • 学术研究辅助
    让 AI 助手可检索学术文章,用于文献综述或支持科研问题,简化学生与学者的研究流程。
  • 教育内容丰富
    与在线教育平台集成,为学生直接提供相关的、同行评议的文章链接,用最新研究成果丰富课程内容。
  • 知识库扩展
    通过获取最新学术文章,支持动态知识库建设,使组织持续维护和扩展其信息资源。
  • 引文生成
    通过获取出版元数据,协助学术写作和参考文献任务的引文与参考文献生成。
  • 事实核查与验证
    允许 AI 智能体引用学术来源进行事实核查,提高生成内容的可靠性和可信度。

如何设置

Windsurf

  1. 确保你已安装所需的前置条件(如 Python、Docker 或 Node.js 等)。
  2. 找到你的 Windsurf 配置文件。
  3. mcpServers 部分加入以下 JSON 片段以添加学术型 MCP 服务器:
    {
      "scholarly-mcp": {
        "command": "mcp-scholarly",
        "args": []
      }
    }
    
  4. 保存配置文件并重启 Windsurf。
  5. 验证服务器是否已成功运行并可访问。

Claude

  1. 确保已安装前置条件(如 Python 或 Docker)。
  2. 打开 Claude 配置文件。
  3. mcpServers 下添加学术型 MCP 服务器:
    {
      "scholarly-mcp": {
        "command": "mcp-scholarly",
        "args": []
      }
    }
    
  4. 保存文件并重启 Claude。
  5. 确认服务器可在 Claude 内部被访问。

Cursor

  1. 安装必要的依赖(Python、Docker 等)。
  2. 编辑 Cursor 配置文件。
  3. 插入以下 MCP 服务器配置:
    {
      "scholarly-mcp": {
        "command": "mcp-scholarly",
        "args": []
      }
    }
    
  4. 保存并重启 Cursor。
  5. 验证与学术型 MCP 服务器的连接。

Cline

  1. 确认所有前置条件都已满足(Python、Node.js 等)。
  2. 访问 Cline 配置文件。
  3. 添加学术型 MCP 服务器:
    {
      "scholarly-mcp": {
        "command": "mcp-scholarly",
        "args": []
      }
    }
    
  4. 保存更改并重启 Cline。
  5. 检查服务器是否正常运行。

API 密钥安全存储

为确保 API 密钥安全,请在配置中使用环境变量。例如:

{
  "scholarly-mcp": {
    "command": "mcp-scholarly",
    "env": {
      "API_KEY": "your_api_key_here"
    },
    "inputs": {
      "api_key": "${API_KEY}"
    }
  }
}

如何在 FlowHunt 工作流中使用 MCP

在 FlowHunt 中使用 MCP

要将 MCP 服务器集成到 FlowHunt 工作流中,首先将 MCP 组件添加到流程,并将其与 AI 智能体连接:

FlowHunt MCP flow

点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式插入你的 MCP 服务器信息:

{
  "scholarly-mcp": {
    "transport": "streamable_http",
    "url": "https://yourmcpserver.example/pathtothemcp/url"
  }
}

配置完成后,AI 智能体即可作为工具使用该 MCP,并获得其全部功能和能力。请记得将 “scholarly-mcp” 替换为你实际的 MCP 服务器名称,并将 URL 更换为你自己的 MCP 服务器地址。


总览

部分是否可用说明/备注
总览
Prompt 模板列表仓库无 prompt 模板
资源列表未发现显式资源
工具列表未定义显式工具
API 密钥安全存储提供了通用示例
采样支持(评价中不重要)未提及

我们的评价

学术型 MCP 服务器目标明确,用例清晰,但文档和仓库内容在 prompt、资源及工具定义方面较为稀缺。设置说明可根据常规经验推断,但代码中细节较少。对于希望即插即用学术搜索的开发者而言,它具有一定吸引力,但更丰富的文档和接口细节会更有助益。

MCP 评分

是否有 LICENSE✅ (MIT)
是否有至少一个工具
Fork 数量20
Star 数量121

常见问题

什么是学术型 MCP 服务器?

学术型 MCP 服务器是一项服务,可将 AI 智能体连接到外部学术数据源,实现学术文章检索、出版元数据获取等功能——非常适合研究助手、教育平台和事实核查工具使用。

学术型 MCP 服务器的主要使用场景有哪些?

主要使用场景包括学术研究辅助、教育内容丰富、动态知识库扩展、引文和参考文献生成,以及通过访问学术来源进行事实核查。

如何安全存储学术型 MCP 服务器的 API 密钥?

请在配置中通过环境变量安全存储 API 密钥。例如:'env': {'API_KEY': 'your_api_key_here'},并在 'inputs' 中引用。

学术型 MCP 服务器是否包含 prompt 模板或显式工具?

仓库中没有显式 prompt 模板或工具定义,但该服务器旨在实现学术文章检索和元数据获取功能。

如何在 FlowHunt 集成学术型 MCP 服务器?

将服务器配置添加到 FlowHunt 的 MCP 组件中,指定服务器的传输方式和 URL。连接后,AI 智能体即可访问学术型 MCP 服务器的全部功能。

用学术搜索增强 AI

将学术型 MCP 服务器集成到您的 FlowHunt 项目中,轻松访问学术文章、元数据和引文生成。

了解更多

深度研究 MCP 服务器
深度研究 MCP 服务器

深度研究 MCP 服务器

深度研究 MCP 服务器通过自动化问题扩展、子问题生成、网页搜索、内容分析和结构化报告合成,助力全面且由 AI 驱动的研究流程,用于深入调查。...

2 分钟阅读
AI Research Automation +5
mcp-google-search MCP 服务器
mcp-google-search MCP 服务器

mcp-google-search MCP 服务器

mcp-google-search MCP 服务器通过 Google 自定义搜索 API 构建 AI 助手与网络之间的桥梁,实现实时搜索和内容提取。它让大语言模型能够直接从在线来源访问、验证并总结最新信息。...

2 分钟阅读
AI Web Search +5
Perplexity Ask MCP 服务器
Perplexity Ask MCP 服务器

Perplexity Ask MCP 服务器

通过 Perplexity Ask MCP 服务器,将实时、全网研究集成到您的 AI 工作流中。该 MCP 服务器桥接了 Perplexity 的 Sonar API 与 Claude、Cursor 等工具,实现了动态信息检索、实时网页搜索和最新问答,直接在您的开发环境中使用。...

2 分钟阅读
AI MCP +4