用Claude搭了一个自动收集AI资讯的工作流,分享给你

做AI博客的人都有一个痛点:AI资讯更新太快,要追所有重要动态,每天要花大量时间刷各种渠道。老达最近用Claude搭了一个半自动的AI资讯收集工作流,大幅减少了信息收集的时间。今天分享给大家。

工作流的目标

每天早上起来,能看到一份整理好的AI资讯摘要,包含:昨天最重要的AI新闻、值得深入写的选题、相关链接。这样老达只需要判断写不写,而不是找在哪。

信息源选择

老达选了以下几个核心信息源:英文方面有AI Twitter(X)、Hacker News、Reddit r/MachineLearning、各大模型公司官博;中文方面有36氪AI频道、量子位、机器之心、少数派AI标签;还有RSS订阅的几个高质量AI Newsletter。

收集工具

Feedly统一订阅RSS源,每天自动聚合文章。Twitter/X的内容用Readwise Reader做高亮保存(手动挑选重要推文)。

Claude处理环节:核心步骤

把当天Feedly里标记的文章链接和Readwise保存的内容,统一整理成一个文本,然后用以下prompt让Claude处理:

你是一个AI资讯编辑,帮我分析以下今天收集到的AI相关内容。请:1. 提取3-5条最重要的新闻,每条用2-3句话概括要点;2. 基于这些新闻,推荐2-3个适合我博客的文章选题(我的博客面向普通中文用户,风格通俗易懂);3. 标注哪些内容有时效性、需要尽快写。内容如下:[粘贴今天收集的内容]

Claude会给出一份结构化的资讯摘要和选题建议,整个过程5分钟以内。

效果怎么样?

用了一个月,信息收集的时间从每天约1小时压缩到20分钟左右。更重要的是,选题质量提升了——因为Claude帮老达做了第一层筛选,把有意思但没价值的资讯过滤掉,只留有话说、读者也关心的内容。

可以进一步自动化吗?

完全自动化(定时运行、自动发邮件给自己)理论上可以做,用Zapier或者Make.com可以串联各个工具。老达目前还是保持半手动,因为筛选资讯的过程本身也是保持对行业感知的方式,完全交给机器反而会失去这部分价值。你有没有类似的信息管理工作流?欢迎评论区分享。

« 上一篇 我用AI写博客写了3个月,流量数据告诉我什么? 下一篇 » MCP是什么?一文搞懂Model Context Protocol

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注