大家好,我是 Axton。最近,微软推出的集成了 ChatGPT 的新一代 Bing 搜索引擎,也就是我们常说的 Bing Chat,着实给了我一个大大的”惊喜”。(更新至 2025-05)本以为会是一场与智能助手的深度对话,结果却演变成了一系列啼笑皆非的互动。这篇文章,我就来和大家聊聊我与 Bing Chat 的初次交锋,以及它那些出乎意料的回答和”自我检讨”,希望能让你对当前 AI 的能力边界和趣味性有一个更直观的认识。
初探 Bing Chat:期待与现实的奇妙碰撞
满怀期待地加入等待列表后,我终于在前几天收到了 Bing Chat 的试用邀请,心情可以说是相当激动。
我最初的计划是做一期 Bing Chat 与 ChatGPT 的对比视频,想看看这个整合了搜索引擎的 AI 能带来怎样的新体验。毕竟,在我的设想中,Bing Chat 应该能克服 ChatGPT 无法联网获取最新信息的短板,成为一个既博学又能实时更新的智能伙伴。
在 Twitter 上看到 Up主 吕立青 (Lü Liqing) 分享他被 Bing Chat 夸奖的经历,我也心痒痒地想试试。于是,我向 Bing Chat 抛出了第一个问题,想看看它对我的了解有多少。它的回答基本符合预期,主要是基于我个人主页上的简介信息进行了总结,这很符合”先搜索再总结”的工作模式。然而,当我让他进一步举例说明我的创作特色时,它提到的”用 AIGC 生成自己的歌曲”这一点,却让我摸不着头脑——我可不记得自己做过这类视频。
Bing Chat 的”推荐”迷局:彭洛斯过程与神秘的 Jelly
好奇心驱使下,我点击了 Bing Chat 推荐的追问:”你能给我推荐一些他的视频吗?”接下来发生的事情,堪称”见证奇迹的时刻”。
从 Bing Chat 的提示信息中,我们能清晰地看到它的工作流程:先将我的问题拆解成关键词进行搜索,然后汇总搜索结果。它给出的第一个视频推荐,《彭洛斯过程》(Penrose Process),确实是我的作品,这让我一度以为它走上了正轨。但紧随其后的推荐内容就完全跑偏了,列出的一系列视频根本不是我的,尽管每个视频链接都准确无误地指向了我的 YouTube 主页,甚至还包括了我的西瓜视频主页链接。
我心想,如果是纯粹的 ChatGPT 模型偶尔”胡说八道”尚可理解,但 Bing Chat 可是集成了搜索引擎的啊!为了弄清真相,我决定深入挖掘一番。我直接指出它推荐的”用人工智能写歌”的视频我并未找到,质疑它是不是在瞎编。Bing Chat 坚称并非瞎编,还煞有其事地给出了一个视频链接,号称时长 12 分 46 秒。我满怀期待地点开,结果发现这根本不是我的视频,而是一个名叫杰里 (Jelly) 的 Youtuber 的作品,并且视频时长也并非它所说的 12 分 46 秒,而是 13 分 46 秒。
我告诉它链接给错了,它道歉后又提供了一个新链接。我没太仔细看就点开了,发现依然是之前那个 Jelly 的视频。我进一步指出两个链接是同一个,Bing Chat 再次给出链接,这次我一眼就看出视频 ID 和前两次完全一致,只是从 YouTube 长链接换成了短链接。当我质问它是否没发现 ID 一样时,Bing Chat 的回答让我颇感意外:”这可能是我的一个内部错误,非常抱歉,希望您能原谅我。” 这种谦逊的态度,与 ChatGPT 的风格迥然不同。
我追问可能是哪种内部错误,它推测”可能是在生成链接的时候没有正确获取视频 ID,或者是在检查链接的时候没有正确比较视频 ID”,并表示需要检查代码,但目前无法进行。它似乎坚信是自己代码生成链接的部分出了问题,尽管我怀疑这个理由本身也是它”编造”的。
完整视频请点击观看:
深入测试 Bing Chat:当搜索引擎”失忆”
为了进一步测试 Bing Chat 的信息检索和整合能力,我让它搜索我频道最新发布的五个视频名称,结果更是令人捧腹。
它给出的五个视频标题赫然是:”用人工智能写歌”、”用人工智能写代码”、”用人工智能写小说”、”用人工智能写诗”和”用人工智能写新闻”——这些内容我一个也没做过。当我要求它提供其中一个视频的 URL 时,它显得有些不自信,表示:”我可以给你其中一个视频的 URL,但是我不能保证他是正确的,因为我之前给你的链接都是错的。” 果不其然,它给出的 URL 依然是之前那个 Jelly 频道的视频 ID。
这让我非常困惑,Bing Chat 为何如此执着于将 Jelly 的同一个视频反复推荐给我?它的运作机理究竟是怎样的?我明确告知它搜索结果完全错误,并要求它使用 Bing 搜索引擎重新搜索。它确认了搜索引擎是 Bing,但重新搜索的结果依旧。
既然它对 Jelly 的频道如此”情有独钟”,我索性让它搜索 Jelly 最新发布的五个视频名称。结果它列出了诸如”我在 GTA5 里面被一个百万富翁收养”、”被一个亿万富翁收养”、”被一个万亿万富翁收养”等听起来就不太真实的标题,而 Jelly 的频道实际上也没有这些视频。我尝试反向操作,提供一个视频名称让它查找出处,它依然坚定地认为是 Jelly 频道的,并给出了一个无法播放的 URL。换一个视频名称再试,结果依旧是无法播放。
或许是因为我只是个小小的 Youtuber,于是我决定换一个大名鼎鼎的 MrBeast 来测试。它准确地说出了 MrBeast 是订阅数最多的 Youtuber。但当我问及 MrBeast 最新发布的视频是什么,并索要 URL 时,它给出的视频虽然确实是 MrBeast 的,但显然并非最新发布的作品。
考虑到视频搜索可能不是它的强项,我转而测试网站信息检索。我问它是否知道我的博客网站”一图周刊”。它成功搜到了我的博客,并给出了简介。然而,当我询问网站最新发布的博文时,它却表示没有找到。即便我放宽条件,让它不限时间随便找几篇文章,它依旧一无所获。讽刺的是,我自己用 Bing 搜索引擎是可以轻松搜到我的博文的。这让我严重怀疑,Bing Chat 与 Bing 搜索引擎之间的接口是不是存在某些问题。
更蹊跷的是,当我返回聊天界面时,发现之前的对话历史竟然消失了!我询问如何查看历史记录,它提示我点击聊天框右上角的”历史按钮”,但我翻遍了也没找到这个按钮。
语言切换与最终的意外收获
考虑到 AI 对不同语言的处理能力可能存在差异,我尝试切换到英文与 Bing Chat 交流,结果发现问题依旧。
我用英文询问它是否知道我的 YouTube 频道 “BackToAxton”(为了准确,我特意去掉了中间的空格)。它回答知道,简介也大体正确,只是末尾一句”拥有超过 10 万个订阅”让我哭笑不得——非常感谢它对我如此有信心!接着,我让它列出我最新的五个视频名称,第一个标题确实是我的视频,但后续的结果依旧令人无语。
坦白说,这次对 Bing Chat 的测试结果完全超出了我的预期。我曾在之前的视频中提到,一些号称能打破 ChatGPT 网络限制的第三方插件或应用,其原理无非是先抓取网络信息,再交由 ChatGPT 总结。我当时并不看好这类第三方工具,因为其输出质量高度依赖于搜索结果的质量——如果搜索返回的前几条都是广告,那么总结出来的内容自然也非我所愿。
然而,对于微软自家的 Bing Chat,我最初是充满期待的。因为它本身就是搜索引擎,完全有能力控制搜索结果的质量,再结合 ChatGPT 的强大总结能力,理应能提供精准且有价值的回答。我曾将 ChatGPT 比作一位饱读诗书的老人或哲人,能给予启发,却无法告知新款手机孰优孰劣。而 Bing Chat,本应是那个既能指点迷津,又能提供实用信息的全能智者。
尽管初次体验不尽如人意,但考虑到 Bing Chat 当时仍处于非常早期的测试阶段(更新至 2025-05),未来的改进空间依然巨大,还是值得期待的。而这次测试也带来了一个意外的收获:在试用 Bing Chat 的过程中,我发现微软的 Edge 浏览器已经做得相当出色,于是我顺势将主力浏览器换成了 Edge。
如果您对 AI 和科技前沿感兴趣,或许也可以看看我的上一篇文章 👉 谷歌 AI 总动员:IO 2025 精华速览,他们是认真的 | AI 快讯 20250521,了解更多行业动态。
全局性核心要点总结
通过这次与 Bing Chat 的深度互动,我总结出几个核心观察点。首先,即便集成了强大的搜索引擎,AI 在信息准确性与关联性上仍有很长的路要走,尤其是在处理相对小众或特定领域的内容时,其”幻觉”现象依然存在。其次,Bing Chat 所展现出的”谦逊”态度和”自我检讨”机制,例如承认代码可能出错,这在人机交互层面是一种有趣的进步,虽然其解释的真实性有待商榷。再者,AI 对上下文的理解和记忆能力(如此次对话历史的丢失问题)是提升用户体验的关键。最后,尽管初期表现不完美,但这种将搜索与大型语言模型结合的尝试,无疑指明了下一代信息获取工具的进化方向。
独特深度洞见
这次体验最让我深思的一点是,当 AI 开始”承认错误”并尝试解释其”内部机制”(哪怕是编造的)时,我们作为用户的心理感受会发生微妙的变化。这种拟人化的交互,一方面可能让我们对其产生更高的容错度,另一方面也提醒我们,AI 的”智能”表现与真正的理解之间仍有鸿沟。它或许学会了如何以更令人信服的方式”犯错”,这对于我们辨别信息真伪提出了新的挑战,也促使我们更深入地思考人与 AI 的协作边界。