超强组合!ChatGPT + RSS阅读器:利用AI和自动化工具成为阅读大师 | 回到Axton

本文信息与演示基于截至 2025 年 5 月的认知与工具版本。

Hey,你好,欢迎回到 Axton 的频道!我知道,在这个信息爆炸的时代,尤其是 2025 年的今天,我们每天都被海量的 AI 新闻和各种资讯轰炸得眼花缭乱。如果你也曾面对 RSS 阅读器里上千条未读文章,最终无奈按下”全部标记为已读”来寻求片刻宁静,那么今天的内容你绝对不能错过。我将分享一个结合了 ChatGPT + RSS阅读器 的自动化方法,它不仅能帮你高效筛选资讯,更能让你把宝贵的时间投入到更有意义的事情上。

RSS:老树开新花,信息源头活水来

RSS,这个看似古老的技术,在信息爆炸的今天依然是我主动获取高质量信息的重要基石。 可能很多新朋友对 RSS (Really Simple Syndication) 还不熟悉,简单来说,它就像一个信息聚合器。想象一下,你关注了十个不同的网站,以往你需要分别访问它们才能看到最新文章,非常耗时。有了 RSS 服务,你可以把这些网站的更新集中到一个地方管理,任何网站发布新内容,你都能即时收到通知,无需再逐个巡查。

目前,市面上比较老牌且常用的 RSS 服务有 Feedly 和 Inoreader。选择哪个主要看个人喜好,不过,如果想配合我接下来要介绍的自动化工具 Make 使用,Feedly 需要 Pro 版本,而 Inoreader 的免费版就足够了。今天,我主要以 Feedly 为例进行演示。相较于算法推送给你的碎片化信息和短视频,RSS 订阅代表了你主动选择的信息源,这本身已经是第一道筛选,确保了内容的基础质量。

我的自动化秘籍:ChatGPT + RSS阅读器 与 Make、Notion 的协同作战

我的解决方案核心在于一套自动化流程,它巧妙地结合了 Feedly、Make、ChatGPT 和 Notion,将繁琐的筛选工作交给了 AI。 大家可以看到,我在 Feedly 中虽然已经很克制地选择订阅源,但每周依然会累积数百篇文章,全部读完几乎是不可能的。这时,我的 AI 自动化”三件套”——ChatGPT、Notion 以及 Make 就派上用场了。

这个流程会首先通过 Make 将 Feedly 中的文章抓取回来,然后交给 ChatGPT 进行评估。我会预设我关心的领域,比如 AI 内容生成等,ChatGPT 则会根据这些偏好,筛选出它认为最值得阅读的 Top 30% 的文章。接着,它会用中文对这些精选文章进行总结,并最终保存到我的 Notion 笔记中。这样一来,我读到的就是名副其实的”精华中的精华”了。这个过程,我称之为 ChatGPT + RSS阅读器 的高效整合。

完整视频请点击观看:

优化筛选逻辑:从 Twitter 实战到 RSS 应用的进化

在构建 RSS 筛选流程时,我借鉴了先前处理 Twitter 信息流的经验,并进行了关键优化,特别是针对 RSS 文章内容较长的特性。 在我上一期关于 Twitter 筛选的视频中,最初的方法是从 Twitter List 获取推文,比如 100 条,然后一条一条地交给 ChatGPT 评估其阅读价值,并进行总结翻译。这样做存在两个问题:一是浪费 token,因为每评估一条推文都要重复传递一次 prompt,评估 100 条就意味着 prompt 要传递 100 次;二是缺乏对比,AI 单独评估时效果会受影响,俗话说”没有对比就没有伤害”。

因此,我改进了方法,将一批推文打包后一次性交给 ChatGPT 进行评级,让它从中选出比如最值得阅读的 10%。这种批处理的方式不仅节省了 token,也提升了评估的准确性。这个思路同样适用于 ChatGPT + RSS阅读器 的场景,但 RSS 文章通常篇幅很长,直接打包给 AI 评估并不现实。

所以,针对 RSS 文章,我们需要进行预处理。我的 Make 自动化流程会先从 Feedly 的某个订阅组(比如我创建的名为 “AI general” 的文件夹,里面聚合了 AI 相关的网站源)一次性取出约 20 篇文章。由于 RSS 文章原文是 HTML 格式,包含许多对 AI 无用的字符,第一步是将其转换为纯文本。紧接着,关键的一步来了:我会让 ChatGPT 先对每一篇长文进行总结,将其缩短。完成这一步后,再将这 20 篇已经简化的文章摘要打包,交给下一个 ChatGPT 模块进行统一评级,选出例如 30% 或 20% 的精华内容。最后,这些被选中的文章及其 AI 生成的摘要、标题、URL 和原文关键词等信息,会被存入 Notion。如果一天需要处理 100 篇文章,只需运行这个工作流 5 次即可。

实践中的考量与更广阔的应用前景

虽然这套自动化流程威力强大,但在实际应用中,我们仍需关注一些关键点,并思考其更广泛的应用潜力。 首先,你可能会担心 ChatGPT 是否会错失重要文章。这确实可能发生,所以初期你需要观察 AI 的筛选结果,不断调整 prompt,使其更符合你的兴趣。其次,漏掉就漏掉吧。对于 RSS 内容,所有抓取的文章本身都保留在 RSS 服务中,不像推文那样刷过难寻,所以不必过于纠结是否要保留被 AI 标记为不值得读的内容。我之前的课程中,曾保留过被标记为 false 的推文,但后来发现大家基本没时间回顾,RSS 就更没必要了。

关于长文处理,有人会问,将长文缩短会不会影响评级?或者文章过长超出 ChatGPT token 限制怎么办?其实很简单,超长的文章可以截断。我曾问过 ChatGPT,它表示仅凭 50 到 60 字的总结就能对文章整体质量做出评估。如果一篇文章写了 3000 字还没切入重点,那它本身可能就不太值得投入时间阅读了。

最重要的一点是,由于 RSS 文章内容较长,这个流程对 token 的消耗相对较快,也就是对你的”钱包”消耗较快。在使用时,务必根据自己的实际情况留意这一点。尽管我分享的流程基于我的内容创作和信息收集工作流,但同样的思路完全可以举一反三,应用到不同行业。比如,我的一些学员朋友,有的在币圈,面对海量项目信息和大佬观点,就用 ChatGPT 进行总结分类;有的做电商,则利用类似流程收集和处理客户评论,对差评进行安抚,对好评表示感谢,这些都是自动化灵活应用的典范。

全局性核心要点总结

回顾我的这套信息筛选方法,有几个核心观点值得大家深入理解。首先,主动构建高质量信息源(如 RSS 订阅)是前提,它确保了进入 AI 筛选漏斗的内容具有基础价值。其次,自动化工具(如 Make)的运用是提升效率的关键,它将我们从重复劳动中解放出来。再者,AI(如 ChatGPT)在信息处理中的角色是智能助手,通过精心设计的 prompt 和迭代优化,它可以实现高效的个性化筛选与总结。此外,针对不同类型的内容(如短推文与长篇 RSS),需要采取差异化的预处理和评估策略,例如对长文先摘要再批量评估。最后,这套方法的理念和框架具有普适性,稍加改造即可应用于各种需要信息处理与决策支持的场景。

独特深度洞见

我认为,这套结合了 ChatGPT + RSS阅读器 的自动化信息处理流程,其深层价值并不仅仅在于节省时间或过滤噪音。更重要的是,它促使我们从被动的信息消费者转变为主动的知识构建者。通过对 AI 的引导和训练,我们实际上是在塑造一个个性化的信息筛选和学习引擎。这不仅提升了我们获取高价值信息的效率,更在潜移默化中培养了我们对信息质量的辨别能力和对知识体系的主动构建意识,这在 AI 技术日益普及的未来,将是一项至关重要的核心竞争力。

今天的分享就到这里。我是 Axton,如果你喜欢我的内容,请帮我点赞、评论、订阅我的频道,并打开小铃铛,这样你就不会错过今后更多 AI 方面的实用内容了。咱们下期再见!

掌握系统化思维,构建你的AI智能体

工具思维跨越到智能体思维,掌握系统化的方法论与AI智能体构建能力,构建可迁移的AI自动化技能,随时适应新需求!

7 阶实战体系,一步步带你从零基础到高阶自动化

◆ 立即节省2小时以上的重复劳动,效率提升10倍!

◆ 现在订阅,限时享受独家优惠,解锁你的AI竞争优势!



立即开启AI智能体进化之旅 →

Axton二维码

扫码关注获取更多资源

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部