在 2025 年这个信息爆炸的时代,Twitter(现 X 平台)无疑是 AI 领域获取前沿资讯和深度见解的核心阵地。然而,每天成千上万的推文如潮水般涌来,常常让我们陷入信息焦虑,要么看得眼花缭乱,要么就与真正有价值的内容失之交臂。作为一名持续关注 AI 发展的探索者,我一直在思考如何利用 AI 的力量来解决这个痛点。今天,我将与大家分享我是如何运用 GPT-4 进行推特筛选,从而高效地从海量信息中发掘那些真正值得关注的 AI 内容,希望能为你节省宝贵时间,让你更专注于核心价值的吸收。
Twitter 信息筛选的挑战与我的 AI 解决方案
Twitter 是 AI 领域信息的重要枢纽,但海量内容也带来了筛选难题。 面对每日刷不完的推文,我们很容易感到不知所措。我的目标是清晰的:首先,自动获取我关注的 Twitter 大咖们近期发布的所有推文;其次,利用 GPT-4 对这些推文进行智能评级;最后,将评级结果和有价值的内容沉淀到我的 Notion 笔记中,方便回顾与深度学习。
具体来说,GPT-4 会给出一个简单的判断:这条推文是否值得我花时间阅读。如果答案是肯定的(标记为 true),它还会贴心地用中文总结出推文的核心要点。对于那些被标记为 false 的推文,我选择暂时不进行总结,毕竟 GPT 的 token 也是宝贵的资源,能省则省。你可能会问,为什么不值得阅读的推文也要保存下来呢?这是因为我关注的本就是领域内的佼佼者,万一 GPT 的判断出现偏差,我仍有机会在空闲时进行人工复核,同时也能借此检验和优化我的提示词(prompt)。不瞒你说,我调教 ChatGPT 进行评级的 prompt,正是在这样不断的复盘与调整中逐渐完善的。
很多人感慨 AI 在别人手中是超级生产力,在自己手上却成了陪聊的玩具,根本原因往往在于我们未能将其真正融入到具体的应用场景中。就拿我用 ChatGPT 筛选 Twitter 这件事来说,虽然初衷是解决信息筛选问题,但在这个过程中,我同样深化了对 prompt engineering 的理解和实践。
我的自动化利器:Make 及应用整合之道
自动化工具本身并非核心,关键在于如何运用它们整合的服务来解决实际问题。 在整个探索过程中,我会借助一个名为 Make (前身为 Integromat) 的自动化平台,它能像胶水一样将 Notion、Twitter 和 ChatGPT 等不同的应用和服务巧妙地串联起来,让整个信息筛选流程变得自动化且流畅。
有朋友曾问我是否可以介绍一下 Zapier,它同样是一款广受欢迎的自动化工具。其实,当你掌握了其中一个,比如 Make,再去理解和使用 Zapier 就会非常简单。因为智能自动化的重心,并不在于工具本身的操作细节,而在于你如何构思和设计工作流,去调用这些工具集成的各种 app 和服务,例如 Notion 或 ChatGPT。Make 和 Zapier 在核心使用逻辑上并无本质区别。举个例子,一个完整的自动化流程,在 Make 中被称为 “scenario”,而在 Zapier 中则叫做 “Zap”,本质上是同一回事,只是名称不同。同样,任何流程的起点,在 Zapier 中是 “trigger”(触发器),通过某个特定事件触发后续的一系列动作;Make 的流程也是如此,一个触发器(event)发生,随即触发一系列预设的动作(actions)。这就像我们用螺丝刀拧螺丝,用哪个牌子的螺丝刀并不重要,关键是找到那颗合适的螺丝,并准确地拧进去。
顺便一提,我之前开设过一个关于 Make+ChatGPT+Notion 应用的课程,虽然课程主体已经完结,但我会将本期视频中涉及的所有详细操作步骤和心得更新到课程中。目前课程仍在优惠期,对希望将 AI 转化为实际生产力的朋友们来说,这或许是一个不错的参考。
第一步:运用 GPT-4推特筛选,构建高质量关注列表
要实现高质量的 GPT-4推特筛选,首先需要一个由领域专家组成的、经过精心筛选的 Twitter 关注列表。 这个列表可能包含 AI 领域的顶尖研究人员、行业领袖,或是其他能持续产出有趣见解的人物。即便如此,一个包含几十甚至上百人的列表,我们也很难逐一细致跟进。这时,就需要 ChatGPT 来帮助我们识别出其中最具影响力、最值得长期关注的那些”大咖中的大咖”。
我是如何构建这样一个列表的呢?一种有效的方法是找到一个你已经认可的优质账号,比如我曾参考过 Naval Ravikant 的账号,发现他维护着一个名为 “AI” 的 Twitter 列表,其中包含了 69 位成员。当然,我们可以直接关注他人的列表,但我更倾向于创建并维护自己的专属列表。这样做的好处在于,我可以随时根据自己的兴趣偏好和判断标准,灵活地增删列表成员。
我创建和优化这个列表的具体步骤大致如下:首先,通过 Make 获取目标列表(如 Naval 的 AI 列表)中的所有账号信息。然后,我会让 ChatGPT 对这些账号进行 1 到 5 分的打分。最后,我会将评分在 4 分和 5 分的账号,添加到我自己的一个名为 “AIAll” 的 Twitter 列表中。这样,我就拥有了一个经过初步筛选和个性化定制的高质量账号池。
让我们具体看看这个过程是如何在 Make 中实现的。首先,配置 Make 模块以获取指定 Twitter 列表下的所有账号详细信息。获取信息后,关键一步便是让 ChatGPT 进行评级。为了让 GPT 更准确地理解我的需求,我会先与它沟通:”你好 ChatGPT,我通过 Make 获取了 Twitter 账号的以下信息(列出 Make 能提供的所有字段,如姓名、账号描述、创建日期、是否经过 Twitter 验证等等),请告诉我,你需要哪些信息来进行账号质量评级?” 我甚至会举例说明,比如我认为账号名称和是否经过官方验证可能是重要的参考指标。
在我与 ChatGPT 的这次沟通中,它明确告诉我,评估一个 Twitter 账号的质量,它主要需要以下几项信息:姓名 (Name)、账号名称 (Username)、描述 (Description)、粉丝数量 (Followers count)、账号创建日期 (Creation date)、是否经过 Twitter 验证 (Verified status),以及推文数量 (Statuses count)。有了这些信息,ChatGPT 就能够对账号进行相对合理的评级了。
在 ChatGPT 明确了所需信息后,我便可以将这些信息结构化地提供给它,并请它帮我生成用于评级的具体 prompt。它为我生成的 prompt 大致是这样的:”请根据以下提供的 Twitter 账号信息,对该账号在 AI 领域的价值和影响力进行评估,并给出一个 1 到 5 分的评分(5分为最高)。” 随后附上从 Make 获取的各项账号数据。我通常会在 prompt 的末尾习惯性地加上一句”谢谢”,最初的想法是给自己留条后路,万一将来 AI 发展到超乎想象的程度,看到我曾经的礼貌或许会”念我点好”。最近也常听人说,多夸夸 ChatGPT,它的表现可能会更好,信不信由你,但多一句赞美总没什么坏处。
接下来的自动化流程便是:所有获取到的 Twitter 账号信息及其 GPT 评分,都会被存入我的 Notion 数据库中,方便后续查阅和管理。而那些被评为 4 分或 5 分的优质账号,则会自动被添加到我个人的 “AIAll” Twitter 列表中。当我运行这个 Make 流程时,可以看到 Notion 数据库中不断有新的账号条目被添加进来,并附带着 GPT 给出的评分,比如 2 分、4 分、4 分等等。由于我使用的是 GPT-4,处理速度相对会慢一些,但对于这类需要较高判断准确性的评级任务,我更倾向于选择 GPT-4,感觉它在理解和输出的准确性及可控性上,确实要优于 GPT-3.5。
将所有账号信息保存在 Notion 中的另一个重要原因,是为了方便我在有空的时候进行人工核查,看看 GPT 的筛选是否存在遗漏或误判。毕竟,维护一个高质量的 Twitter 关注列表是一个持续迭代和优化的过程,不可能一劳永逸。通常情况下,这种批量的自动化筛选主要用于初期建库或大规模更新时,日常遇到零星的好账号,手动添加会更便捷。
除了从他人已有的列表入手,还有一种常见的方式是,有些人会分享总结性的文章,比如”AI 领域最值得关注的 100 个人”,文章中会列出这些人的 Twitter 账号。对于这种情况,同样可以通过自动化流程批量处理:首先让 ChatGPT 从文章中提取出所有 Twitter 账号,然后通过 Make 获取这些账号的详细信息(如描述、粉丝数等),接着让 ChatGPT 进行评级,最后将符合标准的账号添加到你的个人列表中。整个过程大同小异,只是信息来源的起点不同而已。我注意到,GPT-4 的评分有时还挺细致,甚至会出现 3.5 分这样的结果。在一次演示中,它处理了 16 个账号,并成功为我的列表新增了 5 位成员。
第二步:运用 GPT-4推特筛选,高效甄别每日推文价值
即使有了精选的关注列表,每日的推文数量依旧庞大,此时 GPT-4 的智能筛选能力便显得尤为重要。 现在,我们已经拥有了一个高质量的 AI 大咖关注列表,但他们每天发布的推文数量依然可观。为了更高效地利用时间,我们需要再次请出 GPT-4,帮助我们筛选出其中最有价值、最值得阅读的那些推文。
整个推文筛选和评估的流程也遵循类似的逻辑:首先,通过 Make 获取我关注列表中的所有最新推文。然后,将这些推文的基础信息存入 Notion 数据库。接着,请求 ChatGPT 对每条推文进行评级,判断其是否值得阅读。对于被评为”值得阅读”的推文,再要求 ChatGPT 用中文进行内容总结。最后,所有推文及其评级、总结(如果适用)都会更新到 Notion 数据库中,形成一个个性化的信息流。
让我们简单看一下这个过程中的关键环节。在 Make 中,获取特定 Twitter 列表(List)内的推文非常直接,只需要提供该列表的 ID 即可。与筛选账号类似,我会先拿一条实际获取到的推文信息作为样本,去问 ChatGPT:”我能获取到一条推文的以下所有信息(列出所有字段),如果需要你来评级,你认为哪些信息是必不可少的?” ChatGPT 在分析后告诉我,评估一条推文的价值,它主要需要:推文的文本内容 (Text)、实体信息 (Entities,包括关键词、话题标签 Hashtags 以及用户提及 Mentions)、转推数量 (Retweet count)、点赞数量 (Favorite count),以及推文的语言 (Language)。它认为这些信息足以支撑它做出判断。
同样地,我将这些必需的信息字段整合,并请 ChatGPT 协助我生成用于推文评级的 prompt。关键在于,这个 prompt 中需要明确我个人的阅读偏好和兴趣点。例如,我主要关注 AI 生成内容、AI 如何改善工作效率以及任务自动化等方面的应用,而对于过于细节化、纯学术性的研究内容,我可能暂时不会投入过多精力。因此,在 prompt 中我会清晰地表述这些偏好,以便 ChatGPT 能够更精准地筛选。
在将最终的 prompt 配置到 Make 的自动化流程之前,进行充分的测试至关重要。我会随机挑选几条不同类型的推文,手动将它们交给 ChatGPT,让它根据我的 prompt 进行评估,并要求它给出评估的理由。例如,我曾测试过一条主要讨论中国科技产业投资项目和人口规模影响的推文,虽然其中简要提及了 AI,但 ChatGPT 准确地判断出它与我设定的核心兴趣点(如 AI 生成内容、AI 提升效率等)关联度不高,因此将其评为”不值得阅读”。通过这样的反复测试和调整,直到我对 GPT 的评级结果基本满意,才会将这个 prompt 应用到 Make 流程中。
除了核心的评级与总结,这个自动化流程还会做一些辅助工作。所有推文都会被保存到 Notion 数据库。对于那些包含图片或视频等多媒体内容的推文,我会将这些媒体文件单独提取出来并保存链接。这样做的好处是,如果我将来需要下载这些图片或视频,或者在其他地方引用它们,会非常方便。最终在 Notion 中呈现的效果是,每条推文都会被嵌入显示,如果它附带了图片,图片也会被单独展示出来。
整个流程在 Make 中大致是这样:第一个 ChatGPT 模块负责对推文进行评级(值得读/不值得读)。无论评级结果如何,推文都会被存入 Notion。如果评级为”值得阅读”,则会触发第二个 ChatGPT 模块,对该推文进行中文总结。总结完成后,再将这条带有中文摘要的推文信息更新到 Notion 数据库中。最终,我的 Notion 数据库里会清晰地展示:被评为”值得阅读”(True)的推文,会附带一段精炼的中文总结;而被评为”不值得阅读”(False)的推文,则保留原文,不作总结。同时,对于那些本身内容就非常简短的推文,我也会设定规则,不进行额外总结。
有了这样一个动态更新的 Notion 数据库后,我只需简单地根据”是否值得阅读”这一字段进行筛选,就能立刻得到一个由 ChatGPT 根据我的兴趣偏好精心挑选出来的推文列表。这极大地节省了我漫无目的刷 Twitter 所耗费的时间和精力,让我能更聚焦于那些真正有价值的信息。
完整视频请点击观看:
全局性核心要点总结
通过今天的分享,我们一同探索了如何运用 GPT-4 这一强大的 AI 工具,来辅助我们进行 GPT-4推特筛选,无论是筛选高质量的 AI 相关账号,还是评估每日海量推文的阅读价值。这套方法的核心价值在于,它能帮助我们在繁杂的信息海洋中快速抓住重点,显著提升信息获取的效率和质量。更深一层来看,这也生动体现了 AI 技术在提升个人工作与学习效率方面的巨大潜力。将 AI 融入具体应用场景,让它成为我们个性化的信息助理,这正是我们驾驭 AI 力量的关键所在。
独特深度洞见
在我看来,GPT-4推特筛选的实践,不仅仅是技术层面的自动化,更是一种人与 AI 协作模式的探索。我们通过精心的 prompt 设计,将自己的经验、判断标准和个性化需求”教授”给 AI,使其成为一个高度定制化的信息过滤器。未来,这种与 AI 的深度协同,将使我们能从重复性的信息处理工作中解放出来,更专注于深度思考、创新和那些机器难以替代的复杂决策。AI 不再仅仅是工具,更是我们认知能力的延伸和放大器。
更多细节可参考我的上一篇文章 👉 GPTs 商店、ChatGPT 团队版、最懂你的 GPT:OpenAI 新年三重惊喜,震撼发布 | 回到Axton
*原始发布时间:2024 年(根据视频内容推断,实际应为视频发布日期)。文中所述方法和工具的有效性基于当时的技术状态。最后核实:2025-05*