
模型上下文协议 (MCP) 服务器
模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...
在你的工作流中展示好消息:Goodnews MCP 抓取并排名积极故事,帮助 AI 代理和仪表盘通过精选的振奋内容提升用户心情。
Goodnews MCP 服务器是 Model Context Protocol (MCP) 的一种简单实现,旨在推送精选、正面和振奋人心的新闻故事。它作为 AI 助手与外部新闻数据源之间的中间层,专门从 NewsAPI 抓取新闻,并利用 Cohere 大语言模型(LLM)对其进行正面情感排名。这让 AI 驱动的代理和工作流能够呈现好消息内容,提升用户互动体验,并实时访问经过情感过滤的新闻。Goodnews MCP 服务器展示了 MCP 基础设施如何简化与第三方 API 及 LLM 的集成,帮助开发者开发更加愉快和具备上下文感知的应用。
仓库中未提供有关提示模板的信息。
在所提供的仓库文件或文档中未找到明确的资源定义。
仓库结构或文档中未提供详细的工具描述或 server.py
文件,因此无法基于现有信息进行工具列表归纳。
所提供的仓库或文档中未包含设置说明或平台配置指南。
在 FlowHunt 中使用 MCP
要将 MCP 服务器集成到 FlowHunt 工作流中,首先添加 MCP 组件,并将其与 AI 代理连接:
点击 MCP 组件以打开配置面板。在系统 MCP 配置部分,使用如下 JSON 格式填写你的 MCP 服务器信息:
{
"goodnews-mcp": {
"transport": "streamable_http",
"url": "https://yourmcpserver.example/pathtothemcp/url"
}
}
配置完成后,AI 代理即可作为工具使用此 MCP,访问其全部功能。请记得将 “goodnews-mcp” 改为你实际的 MCP 服务器名称(如 “github-mcp”、“weather-api” 等),并替换成你自己的 MCP 服务器 URL。
部分 | 可用性 | 备注说明 |
---|---|---|
概览 | ✅ | README.md 中已提供概览 |
提示模板列表 | ⛔ | 未记录提示模板 |
资源列表 | ⛔ | 未记录 MCP 资源 |
工具列表 | ⛔ | 未提供工具清单或 server.py |
API 密钥安全 | ⛔ | 文档未提及 |
采样支持(评估时不重要) | ⛔ | 没有采样支持相关内容 |
根据现有文档,MCP Goodnews 服务器目标清晰、用例有趣,但缺乏完善的实现与集成细节。
此 MCP 得分中等,具备明确用途和宽松许可,但缺乏技术文档、工具定义和设置指导。对于希望开箱即用的开发者来说,若能有更详尽的集成说明将更为理想。
是否有 LICENSE | ✅ (Apache-2.0) |
---|---|
至少有一个工具 | ⛔ |
Fork 数量 | 5 |
Star 数量 | 39 |
Goodnews MCP 服务器是一种 Model Context Protocol 实现,旨在获取和推送精选的正面新闻故事。它以 NewsAPI 作为数据源,并利用 Cohere LLM 对文章进行正面情感排名,使 AI 代理和仪表盘能够展示积极振奋的内容。
它会查询 NewsAPI 的最新文章,然后使用大语言模型根据正面情感对这些故事进行评估和排名,最后通过 MCP 接口返回。
典型场景包括为聊天机器人提供好消息回复、在仪表盘中嵌入积极内容、支持企业健康以及过滤新闻流只显示正面故事等。
是的,它以 Apache-2.0 许可协议发布,你可以自由使用和修改于你的项目中。
现有文档中未提供提示模板或明确的工具/资源定义。服务器的主要功能是获取并按正面情感排名新闻内容。
将 MCP 组件添加到你的 FlowHunt 流程中,并用 JSON 格式配置 Goodnews MCP 服务器信息。配置完成后,AI 代理即可访问服务器获取并推送正面新闻。
现有文档未包含具体的设置说明和 API 密钥管理。你需要参考 NewsAPI 和 Cohere 的官方文档来处理 API 密钥相关事项。
模型上下文协议(MCP)服务器将 AI 助手与外部数据源、API 和服务连接起来,实现复杂工作流的无缝集成,并在 FlowHunt 中安全管理开发任务。...
将 FlowHunt 集成至 MCP Goodnews,可为您的用户实时推送振奋人心、积极向上的新闻。借助 NewsAPI 实时抓取文章,并利用 Cohere LLM 进行情感分析,确保只有最阳光的头条推送至您的应用或聊天平台。...
lingo.dev MCP 服务器为 AI 助手与外部数据源、API 和服务之间搭建桥梁,实现结构化资源访问、提示模板和工具执行,助力高级 LLM 工作流。...