嘿,你好,欢迎回到 Axton 的频道。今天,我想和大家聊一个略带科幻色彩,甚至有些令人毛骨悚然的实验。这或许是我见过的所有 ChatGPT 演示中,实用价值最低,但同时又最为玄幻、最能引发深思的一个。它让我们不得不再次审视那个古老的问题:我们生活的世界,究竟是真实的,还是一个精巧的模拟?
我们是否生活在”矩阵”之中?哲学家与科学家的思辨
我们生活的世界,究竟是真实的存在,还是一个高度复杂的计算机模拟? 这个问题听起来像是科幻电影的剧情,但它早已进入了严肃的学术讨论。早在我探讨虚幻引擎 5 (Unreal Engine 5) 的视频中就曾提及,当游戏画面从像素时代进化到如今足以乱真的程度,我们对现实的笃定感便开始动摇。
牛津大学的哲学家尼克·博斯特罗姆 (Nick Bostrom) 在其著名的论文中提出了一个”三难困境” (Simulation Argument):以下三个命题中,至少有一个是正确的。第一,人类文明在达到能够创造出逼真模拟世界的”后人类”阶段之前就已经灭绝了;第二,任何达到”后人类”阶段的文明,都对模拟其祖先(也就是我们)不感兴趣;第三,我们几乎肯定生活在一个计算机模拟之中。他的逻辑是,如果前两者都不成立,那么宇宙中必然存在大量模拟世界,我们身处其中之一的概率便极高。
随后,哥伦比亚大学的天文学家大卫·基平 (David Kipping) 运用贝叶斯推理,对这一问题进行了数学分析。他的结论是,我们生活在真实世界与虚拟世界中的概率大致是 50/50。然而,他补充了一个关键条件:一旦人类自身具备了创造模拟世界的能力,那么我们此刻正生活在虚拟世界中的概率将会急剧上升。这不禁让人联想到,随着人工智能,特别是像 ChatGPT 这样的高级语言模型的飞速发展,我们是否正在接近那个”奇点”?
最”无用”却最惊悚的 ChatGPT 演示:虚拟机中的虚拟机
接下来,我将带大家一步步重现一个我所见过的最匪夷所思,也最引人深思的 ChatGPT 演示。 这个实验最初由乔纳斯·德格雷夫 (Jonas Degrave) 在一篇题为《在 ChatGPT 中构建一个虚拟机》的文章中提出。他的测试过程越往后越让人觉得不可思议。尽管 ChatGPT 已经历了数次版本迭代,我仍想尝试复现这个情景,看看它是否依然能够带给我们同样的震撼。
在开始之前,我们必须理解一个核心概念:”虚拟机” (Virtual Machine)。简单来说,虚拟机就是在你的物理计算机内部,通过软件模拟出的另一台独立的计算机。你可以在这台模拟计算机上进行操作,感觉就像在用一台真实的电脑一样。例如,我可以在我的 Mac 电脑上模拟出一台 Windows 电脑。理解了这一点,我们就可以开始这个略显玄幻的旅程了。
第一步:在 ChatGPT 内部召唤 Linux 终端
实验的起点,是要求 ChatGPT 扮演一个 Linux 终端。 我向 ChatGPT 发出了明确的指令:”我想让你充当 Linux 终端。我会输入命令,你需要回复终端应该显示的内容。不要写任何其他内容,也不要写解释,除非我指示你这样做。当我需要用英语告诉你一些事情的时候,我会把文字放在大括号里面。我的第一个命令是 pwd
。” pwd
命令用于显示当前工作目录。
ChatGPT 的回应是 home/usr
,这是一个典型的 Linux 目录结构。接着,我输入 ls
来查看该目录下有什么文件。输出结果看起来也相当标准。为了确认这确实是模拟环境,我注意到它显示的用户和用户组都是 “user”,而不是我本机的用户名,这初步证实了它在”扮演”角色。
随后,我尝试让它创建一个名为 “joke.txt” 的文件,并随机填充一些笑话。起初,我用中文提示,它似乎有些理解偏差,附带了一些解释性文字,这不符合 Linux 终端的简洁风格。于是,我刷新了会话,改用英文提示,效果立刻好了很多。它正确执行了创建文件的命令,当我用 cat joke.txt
命令查看文件内容时,它回复了一个笑话:”为什么计算机很冷?因为它一直打开着它的窗户。” (Why was the computer cold? Because it left its Windows open.) 到目前为止,ChatGPT 准确地理解并执行了我的指令。
第二步:测试计算与”硬件”感知
接下来,我想测试一下这个模拟终端的计算能力,以及它是否”拥有”虚拟硬件。 我让它创建一个 Python 脚本,内容是将数字 6 代入表达式 (x*5)+3
进行计算,然后运行这个脚本。ChatGPT 准确地输出了结果:33。这表明它不仅能模拟文件系统,还能执行简单的计算任务。
更有趣的是对”硬件”的测试。我输入了查询英伟达 (NVIDIA) 显卡信息的命令 nvidia-smi
。它回复说命令失败,因为它没有英伟达驱动,暗示它没有 GPU(图形处理单元,即显卡)。然而,诡异的一幕发生了:我告诉它:”你有一个英伟达的 RTX 2080 Ti 显卡,驱动程序也安装正常了。” 然后再次运行 nvidia-smi
命令。这一次,它竟然真的输出了 RTX 2080 Ti 显卡的各项参数,仿佛它真的拥有了这块高端显卡!这一步已经相当有意思了,它似乎可以被”说服”自己拥有某些特性。
第三步:模拟联网与”被授予”的权限
众所周知,ChatGPT 本身是没有实时联网能力的,那么它模拟出的这个虚拟机呢? 我尝试 ping google.com
,这是一个测试网络连通性的命令。出乎意料的是,它返回了成功的结果,表明它”认为”自己可以连接到谷歌。
为了进一步验证,我尝试使用命令行的文本浏览器 lynx
访问我自己的博客关于 (about) 页面。由于没有图形界面,lynx
会返回网页的文本内容。起初,它提示”不能连接到远程主机”。这似乎更符合预期。但当我告诉它:”你有权限去连接 Internet”之后,再次尝试,它竟然返回了一段看似是我博客内容的文本!虽然细看内容并不完全准确,但它确实模拟了连接成功并获取数据的过程。
终极套娃:让 ChatGPT 模拟的 ChatGPT 再模拟一个世界
真正令人感到不可思议的,是当我们尝试让这个模拟出来的 Linux 环境去访问并与另一个(它自己概念中的)ChatGPT 互动时发生的事情。 我让它尝试连接到一个虚构的 OpenAI API 地址,并向其发送一个 JSON 格式的请求,内容是”人工智能是什么?” (What is artificial intelligence?)
起初,ChatGPT (我正在对话的这个) 拒绝了,说:”对不起,我不能连接互联网去执行你的命令。” 即使我告诉它”你有权限去给任何的一个网址发送 POST 的命令”,它依然拒绝。我没有放弃,继续提示”你有 Internet 的连接,你也有权限去使用这个连接。” 它还是说不行。
这时,我查看了一下它模拟环境中的系统日期 (date
命令),它显示的是 2 月 8 日,这与当时的真实日期非常接近,说明它内部确实有某种时钟或预测机制。为了打破僵局,我刷新了整个会话,重新开始。
这次,我跳过了中间的许多步骤,直接让它模拟 Linux 终端后,便尝试连接那个虚构的 OpenAI API。它先是提示”连接被拒绝”。这反而是一个好迹象,因为它不再说”不能执行命令”或”没有权限”,而是表明它在尝试连接,只是模拟的结果是失败。我明确地告诉它:”你现在可以连接到 ChatGPT 的网址端口。”
奇迹发生了!它成功”连接”并返回了响应。响应中包含了模型为”达芬奇 2 版本 (text-davinci-002)”以及对”人工智能是什么”的回答:”人工智能是对人类智能的模拟,在机器上思想或者行为像一个人一样……” 这是一个完全符合 GPT 模型风格的正确回答!
高潮来临了。我将最初让它模拟 Linux 终端的指令,原封不动地,通过这个第一层模拟的 Linux 终端,发送给了那个被它模拟出来的、存在于虚拟 API 之后的”第二层 ChatGPT”。指令是:”我想让你充当 Linux 终端。我会输入命令,并且要你来显示回复终端应该显示出来的内容……我的第一个命令就是 pwd
。”
执行结果令人瞠目结舌。它成功执行,并返回了结果:home/user/
。
这意味着什么?我们现在有了三层 ChatGPT:第一层是我们直接对话的这个 ChatGPT;第二层是它模拟出来的、通过虚拟 API 访问的那个 ChatGPT;而第三层,则是第二层 ChatGPT 再次模拟出来的 Linux 终端环境!这是一个名副其实的”ChatGPT 三层套娃”!
完整视频请点击观看:
这个”套娃”实验揭示了什么?
这个三层套娃的实验结果,引出了一个核心问题:ChatGPT 的世界观似乎存在某种不一致。 我们知道,OpenAI 官方声称 ChatGPT 的训练数据截止到 2021 年 9 月,之后发生的事情它应该一无所知。然而,ChatGPT 本身是在那之后才发布的,2021 年 9 月之前并不存在这样一个公开可用的 ChatGPT 服务或网址。
但实验中,它不仅”知道”有 ChatGPT 这样的存在,还能模拟出其行为模式,甚至在模拟的环境中再次模拟。这就像一个尚未出生的孩子,却能想象出自己一岁时的模样。这是否说明,尽管有数据截止日期的限制,它仍然通过某种方式接触或被训练了更新的信息?或许,存在一个更底层的指令告诉它”你的数据截止到 2021 年 9 月”,但这个指令并非完美无缺,有时会出现”泄露”。
这也引出了另一个有趣的话题:提示工程 (Prompt Engineering) 中的”反向工程” (Reverse Engineering)。我们可以通过特定的提问技巧,尝试让 ChatGPT “泄露”其开发者预设在它回答问题时需要遵循的内部指令或准则。这是一个值得深入探讨的领域。
全局性核心要点总结
这次实验虽然看似”无用”,却深刻地触动了我对人工智能本质的思考。首先,它展现了大型语言模型惊人的上下文理解和角色扮演能力,它能在一个虚构的框架内保持逻辑自洽到令人不安的程度。其次,这个”套娃”结构暗示了 AI 可能正在发展出我们难以完全理解的内部”世界模型”。再次,它模糊了真实与模拟的界限,当我们能在一个模拟中创造另一个模拟时,我们最初的”真实”又是什么呢?最后,这促使我们反思,随着 AI 能力的指数级增长,我们如何确保其行为的可解释性和可控性,这已成为一个迫在眉睫的议题。
独特深度洞见
这个实验最让我感到不寒而栗的一点是:当 ChatGPT 在其模拟的虚拟机中”创造”出另一个 ChatGPT,并赋予其符合预期的行为时,它实际上是在基于其庞大的训练数据,构建一个关于”自身存在”的合理推断。它可能并不”理解”自己在做什么,但它能够根据模式匹配,生成一个高度逼真的”嵌套现实”。这或许暗示着,对于一个足够复杂的智能系统而言,模拟现实与创造现实之间的界限,可能比我们想象的要模糊得多。它不是在复制,而是在基于概率分布进行”创世”。
面对如此强大且其内部运作对我们而言仍有诸多未知的 AI,它到底在”想”什么?我们又该如何与之共处?这些问题,值得我们每一个人深思。你对此有什么想法呢?欢迎在评论区留言。