做AI博客的人都有一个痛点:AI资讯更新太快,要追所有重要动态,每天要花大量时间刷各种渠道。老达最近用Claude搭了一个半自动的AI资讯收集工作流,大幅减少了信息收集的时间。今天分享给大家。
工作流的目标
每天早上起来,能看到一份整理好的AI资讯摘要,包含:昨天最重要的AI新闻、值得深入写的选题、相关链接。这样老达只需要判断写不写,而不是找在哪。
信息源选择
老达选了以下几个核心信息源:英文方面有AI Twitter(X)、Hacker News、Reddit r/MachineLearning、各大模型公司官博;中文方面有36氪AI频道、量子位、机器之心、少数派AI标签;还有RSS订阅的几个高质量AI Newsletter。
收集工具
用Feedly统一订阅RSS源,每天自动聚合文章。Twitter/X的内容用Readwise Reader做高亮保存(手动挑选重要推文)。
Claude处理环节:核心步骤
把当天Feedly里标记的文章链接和Readwise保存的内容,统一整理成一个文本,然后用以下prompt让Claude处理:
你是一个AI资讯编辑,帮我分析以下今天收集到的AI相关内容。请:1. 提取3-5条最重要的新闻,每条用2-3句话概括要点;2. 基于这些新闻,推荐2-3个适合我博客的文章选题(我的博客面向普通中文用户,风格通俗易懂);3. 标注哪些内容有时效性、需要尽快写。内容如下:[粘贴今天收集的内容]
Claude会给出一份结构化的资讯摘要和选题建议,整个过程5分钟以内。
效果怎么样?
用了一个月,信息收集的时间从每天约1小时压缩到20分钟左右。更重要的是,选题质量提升了——因为Claude帮老达做了第一层筛选,把有意思但没价值的资讯过滤掉,只留有话说、读者也关心的内容。
可以进一步自动化吗?
完全自动化(定时运行、自动发邮件给自己)理论上可以做,用Zapier或者Make.com可以串联各个工具。老达目前还是保持半手动,因为筛选资讯的过程本身也是保持对行业感知的方式,完全交给机器反而会失去这部分价值。你有没有类似的信息管理工作流?欢迎评论区分享。
相关阅读
延伸阅读
2026更新:AI Agent 的价值在于能接入真实流程
AI Agent 不是换个名字的聊天机器人。真正有价值的 Agent,要能理解任务、调用工具、读写数据、执行步骤,并且让结果可验证。对个人站长和内容创作者来说,最值得优先尝试的是资讯收集、内容整理、自动发布前检查和站点维护。
适合谁看
- 想用 AI 自动化处理重复工作的内容创作者
- 想把 Dify、n8n、MCP、OpenClaw、Claude 等工具串起来的用户
- 希望建立个人工作流,而不是只和 AI 聊天的人
延伸阅读
常见问题
AI Agent 和普通 AI 聊天有什么区别? 普通聊天主要给建议,Agent 更强调按流程执行任务并调用工具。
普通人有必要学 Agent 吗? 有必要了解基本思路,尤其是做内容、运营、客服、数据整理和网站维护的人。
0 条评论