多花 1000 美金买 Mac mini M4 Pro 值不值?用 AI 大模型给它上上压 | 回到Axton

开箱与配置选择

我选择 M4 Pro 版本是因为日常任务依赖多核和 GPU 性能,相比基础版 M4 能提供约 50% 的性能提升。 我购买了 Mac mini M4 Pro 配置(24GB 内存、1TB 存储),花费 1599 美元,而非 599 美元的基础版。从实际需求出发,我主要用电脑进行视频剪辑、语音识别、图像编辑和测试本地 AI 应用。

比较 M4 和 M4 Pro 的规格:M4 有 10 核 CPU(4 大核 + 6 小核),而 Pro 有 12 核(8 大核 + 4 小核),使多核性能提升约 50%;GPU 方面,Pro 的 16 核相比 M4 的 10 核领先约 70%;NPU 数量相同,性能相近;内存带宽 M4 为 120GB/s,M4 Pro 为 273GB/s。存储选择 1TB 是因为 256GB 容量小且性能差(读写仅 2000MB/s 左右),我的应用和数据已占 300GB,加上视频项目需要内置硬盘的高速读写(内置 SSD 读写速度达 5000-7000MB/s,远超外置 SSD 的 2000-2500MB/s)。

AI 模型压力测试

在 24GB 内存的 M4 Pro 上,32B 参数的 AI 模型虽可运行但不实用,而 14B 参数模型则运行流畅,显示内存是主要瓶颈而非处理器性能。 我使用 Ollama 安装本地 AI 模型进行测试,从最大的千问 2.5 Coder 32B 模型开始。

根据 Ollama 的建议,7B 模型需要 8GB 内存,13B 需要 16GB,33B 需要 32GB。由于大多模型是 4bit 量化,实际显存占用约为参数值的一半。Hugging Face 计算工具显示千问 2.5 32B 的 4bit 版本需要约 15GB 显存。测试中,32B 模型占用了约 22.5GB 内存(90% 压力),导致系统迟钝,虽然不会崩溃但实际不可用。而 14B 模型仅占用约 10GB 内存,运行流畅,每秒处理约 18 个 token,CPU 和 GPU 压力不大,证明内存是关键瓶颈。

性能测试与对比

M4 Pro 相比 M1 在 SSD 速度和语音识别上提升显著(约 2 倍),但视频导出性能提升不如预期,仅有 30% 左右。 我对比了 M4 Pro 与旧款 M1 Mac mini(16GB 内存、1TB 存储)在多项任务上的性能差异。

SSD 测试显示 M4 Pro 的读写速度(读 5200MB/s,写 6300MB/s)约为 M1(约 3000MB/s)的两倍。视频导出测试中,Final Cut Pro 导出 10 分钟 4K 60fps 视频,M4 Pro 用时 9 分 48 秒,M1 用时 14 分 11 秒,提升约 30%;而剪映导出测试两者时间相近。本地语音识别测试使用 WhisperKit Large V3 模型,M4 Pro 处理 10 分钟视频仅需 3 分 13 秒,M1 则需 7 分 38 秒,提升超过一倍,显示 M4 的 NPU 性能约为 M1 的两倍多。

内存与存储建议

选择 Mac mini 时应优先考虑足够的内存和至少 512GB 存储,256GB 存储不但容量小且性能差,而内存一旦不足就无法补救。 在使用过程中,我发现内存是运行大型 AI 模型的主要瓶颈。

测试显示,即使在未运行大模型时,系统已占用约 58% 的内存。运行 32B 模型时内存压力达 90%,系统变得迟钝。对于需要运行 AI 模型的用户,24GB 内存可以舒适运行 14B 参数的模型,但对于更大的模型则显得不足。存储方面,256GB 的 SSD 不但容量小,读写速度也只有约 2000MB/s,而 512GB 及以上容量的性能会好很多。对于视频创作者,内置 SSD 的高速读写对工作流至关重要,外置 SSD 难以匹敌内置存储的性能。

核心观点

  • M4 Pro 的主要瓶颈是内存而非处理性能,24GB 内存对运行大于 14B 参数的 AI 模型有明显限制
  • SSD 性能与容量呈正相关,256GB 存储不仅容量小且性能明显弱于更大容量选项
  • 统一内存架构在 AI 和视频处理任务上表现出不同特点,NPU 性能提升(约两倍)远超 CPU/GPU 性能提升(约 30%)
  • 录屏会严重影响视频导出性能,测试时应避免同时进行这两项任务
  • M4 Pro 相比 M1 在不同应用场景下性能提升不均衡,语音识别和存储速度提升显著,而视频导出提升有限

关键洞见

Mac mini M4 Pro 展示了苹果芯片设计哲学的转变:虽然整体性能提升不均衡,但在 AI 相关任务上的定向优化(尤其是 NPU)显著超过传统工作负载,暗示苹果正在为未来 AI 本地化运算做铺垫,而非简单追求全面的性能提升。这种设计取向使得选购决策需更精准匹配实际使用场景,尤其是在内存配置上,因为统一内存架构下 AI 模型和传统任务的资源竞争将成为新常态。

请点击观看原始视频:
https://youtu.be/cGhHG5VacRg

新鲜出炉的 Mac mini M4 Pro:AI 压力测试与性能评测

新鲜出炉的 Mac mini M4 Pro,24G 内存、1TB 存储。今天我们就用 AI 大模型来给它做一次压力测试,看看多花几百刀的 Pro 到底值不值。

我客串一次数码博主的开箱。首先我们要解决的问题就是开箱的形式,我们是应该选择大耳朵式开箱还是 ASMR?

进来。

毕竟不是专业的数码博主,开箱视频的时候,不但忘了把摄像头的分辨率调节为 4K 了,导致视频有点模糊,还有一个不明生物过来捣乱。抱歉。

那接下来我们就来聊一下,我为什么选这样的配置,以及用 Ollama 加 AI 模型进行一下压力测试。最后我们再测试一下视频导出,以及语音识别的性能。

开箱与配置选择考量

我的老电脑是 Mac mini M1,16G 的内存、1TB 的存储。新的 Mac mini,为什么没有选真香的基础版 599 美元,反而是选了 M4 Pro,并且把存储扩展到了 1TB,最终花了 1599 美元?

咱们就不用看跑分了,跑分到处都有。我就从我的实际需求出发来聊一聊我的选择过程。

首先我用电脑来做什么?我的电脑主要就用于视频剪辑、语音识别、图像编辑、测试一些本地的 AI 应用,比如用 Docker 来部署等等。游戏我基本上不玩大型的游戏,一般也就玩一玩 Minecraft。

芯片选择:M4 vs M4 Pro

那么选 M4 还是 M4 Pro 呢?对比 M4,虽然 M4 的 CPU 是 10 核心,而 Pro 的 CPU 是 12 核心,但是 M4 是 4 个大核心和 6 个小核心,Pro 是 8 个大核心加 4 个小核心。因此从数量上简单推算,多核性能 Pro 会比 M4 要高出 50% 左右。

那 GPU 呢?Pro 的 GPU 是 16 核,M4 是 10 核。GPU 的性能应该会领先 70% 左右。至于 NPU,二者的 NPU 数量一致,性能上应该不会有太大的差距。总之,M4 Pro 芯片的性能,可以粗略地认为比 M4 高出 50%。

还有一点需要注意的是,它们两个的内存带宽是不一样的。M4 的内存带宽是 120GB 每秒,M4 Pro 是 273GB 每秒。总之,我的日常任务还是比较依赖多核以及 GPU 性能的,因此就选了 Pro 版。

存储与内存:为何选择 1TB 与 24G

至于存储,为什么选了 1T 呢?首先我们要排除的就是 256GB 的选项。256GB 它不但容量小,而且 256GB 的 SSD 的性能是很差的,它的读写大概也就在 2000MB 左右。所以存储起步就应该选 512GB 的。

那为什么最终选了 1T 呢?我的常用的 APP 和数据加起来就 300GB 了,而且我习惯于把近期正在制作当中的视频项目和素材都存在内置硬盘上,这些很占空间。为什么不用外置呢?主要还是从读写性能的角度来考虑。M4 Pro 的内置 SSD 速度,写在 6500 到 7000 左右,读在 5000 以上。而我用的这个外置的高速的 SSD,以前雷电 3 接口的,它的速度也只是在 2000 到 2500MB 之间。所以,一个外置 SSD,如果要想达到 M4 Pro 内置 SSD 的性能的话,它的价格也不会便宜到太多,而且还会占掉一个雷电接口。所以我最后还是忍痛就上了 1T 的存储。

至于内存,以前我的 16G 内存也将将够用,因此 24G 我觉得应该也不会有太大的问题,希望不会被打脸。当然理论上来说我们应该先升级内存,因为内存一旦不够就没有办法补救。不过价格如果到这里就再升上去,就没有太大意义了。

我认为 M4 Pro 就是适合于我这样的人,觉得 M4 欠点意思,但是上 Mac Studio 又太高,所以走个中庸路线。总之选生产力工具还是留一点余量比较好,否则用起来总会觉得碍手碍脚。

OK。接下来我们就直接上 Ollama,来安装一个本地的模型,看看它的性能表现会如何。

AI 大模型压力测试:Ollama 与千问 2.5 Coder

好,接下来我们首先安装 Ollama。我们来到 Ollama 的主页,视频当中遇到的所有链接,到时候都会在描述栏当中,大家就可以去找。然后直接点击 download 下载,选择好你的操作系统。

好,下载完成是一个压缩包,解压缩之后它就是个 Ollama,就是个应用程序,我们就把它放到 Application 里去。然后我们就可以直接把它双击运行起来。好,第一次运行有个向导,下一步安装命令行。OK,点击安装。OK。这时候如果在你的命令行当中,直接运行 ollama run,就可以把模型安装到本地,并且运行起来。完成。

我们打开终端,然后看一下。OK,输入 ollama,然后它给出帮助,那就说明 Ollama 是安装正常的。

Ollama 安装与模型内存估算

接下来我们就可以把 AI 模型安装到我们本地了。我们今天我们就首先来测试一下,据说编码很厉害的千问 2.5 Coder 的模型。我们可以在 Ollama 当中搜索模型。好,点击直接就出来了,千问 2.5 Coder。然后这里有不同的参数值可以选择,7B、14B、32B。

那么我们从多大的参数开始测试?咱们可以先来粗略地估算一下,不同的参数,它需要的内存的数量,显存的数量。首先 Ollama 的 GitHub 的首页有一个注释,这个注释上说,你应该有至少 8G 内存去运行 7B 的模型,16G 内存去运行 13B 模型,32G 的内存去运行 33B 的模型。这个大概就是你有多少内存,就去运行多少 B 的模型。

但是 Ollama 上面的模型,大多都是 4bit 量化的,因此它的显存的占用,粗略来算应该相当于它的参数值的一半。也就是说如果我选 32B 模型的话,它占用 16G 的显存。另外 Hugging Face 上面也有一个计算显存的工具,就在这里,链接我同样会放在描述栏当中。我们去 Hugging Face 搜索到千问 2.5 32B 的模型的 URL,把它的网址给它粘贴在这边,然后我们可以选它的 8bit、4bit,计算一下选成的占用需要多少。8bit 会占用 30G 内存,4bit 占用 15G 的显存。

因为 Mac mini 它是统一内存,也就是显存和内存一起共享。我的 Mac 是 24G 内存,所以如果模型占用 16G 的话,那么还剩 8G 给系统使用,应该是够用的。所以我们可以直接从 32B 开始尝试。这边我们可以看到模型的信息,32B 的参数,然后是 4bit 的量化。我们就用这个直接运行,拷贝它的命令,然后我们暂时先粘贴在这里。

好,这时候内存的压力并不大。好,这时候我还没有运行大模型,我的内存压力已经有 58% 了。我是不是应该升级成 32G 内存?

32B 参数模型(千问 2.5 Coder)测试

好,我们把它运行起来。一共有 19G,所以下载需要等待一段时间。

下载完成这时候,我的内存已经变红了,内存的压力已经来到了 76%。Ollama 占用了 19.2GB 的内存,CPU 没什么压力。我们来问个问题,看看能不能用。购买 Mac mini,应该选择 256G 的存储,还是应该选择 512G 的存储?

内存的压力来到了 86%,占用了 21.6G 的内存了。已经 90%,占用了 22.49G 的内存,基本上快把 24G 内存占完了。90% 的压力。这么半天还没有出结果,所以基本上应该是一种不可用的状态。这时候鼠标反应已经很迟钝了。

好,32B 的千问 2.5 4bit 量化,在 24G 内存的机器上,它可以运行,但是没有什么实用价值。我们看一下,我们是不是还可以进行其他的操作,比如说浏览网页。鼠标已经有很明显的延迟,但是还可以正常地去浏览网页,并不会造成你的机器挂起来。

好,直到现在,结果也没有输出完成。所以结论还是一样,32B 的模型,在我的 24G 内存的 M4 Pro 上面,可以运行,但是不可用。

OK。我们把模型删除之后,内存的压力就掉下来了,现在是 28%。

14B 参数模型(千问 2.5 Coder)测试

我们来试一个 14B 的模型。好,经过漫长的下载过程,14B 马上就要下载完成运行了。我们可以从刚才的图形上看到,CPU 的压力并没有太大的压力,所以主要的瓶颈还是在内存上面。CPU、GPU 它的压力都不是很大。

好,14B 的模型已经运行起来了。目前来看内存压力并不大,我们来看占用,只占用了 10G 内存,这个余量还是很大的。我们来看看它的速度。

好,看看它的占用。内存的压力 56%,占用了 75%。CPU 这边并没有大的变化,所以 CPU 和 GPU 这边没有什么压力。GPU 的占用 40%。好,这样应该有更多的输出信息,可以让我们参考。让它翻译成中文,然后我们再来看一下它的反应和资源占用。18.33 token。

所以这个配置运行千问 2.5 的 14B 模型,是毫无压力的。

多维度性能对比:M4 Pro vs M1

接下来我们测试以下几项内容:SSD 的读写速度,Final Cut Pro 的视频导出速度,剪映的视频导出速度,以及语音识别,Whisper 进行语音识别的速度。那就跟我之前的老电脑 Mac mini M1,16G 内存 1TB 硬盘进行对比。

SSD 读写速度

首先我们来看 SSD 的读写速度。先测试 Mac mini M1 的读写速度。我们选 5GB 的文件大小。好,Mac mini 的读写速度大约就是,读写都是在 3000MB 左右。

好,接下来是 Mac mini M4 的 SSD 测试。5GB 的文件大小。我们可以看到结果写大概在 6300MB 往上,读 5200MB 往上。这个速度大约是 Mac mini M1 的两倍。

视频导出速度:Final Cut Pro 与剪映

在刚开始测试视频导出的时候,犯了个错误。为了忠实地记录它整个导出的过程,我就一边录屏一边进行视频导出,结果最后导出的时间长到不知道该说什么好了。

好,接下来我们进行 M4 Pro 的 Final Cut Pro 视频导出测试。同样 4K 视频 60 帧,开始计时。18 分钟多,这个时间有点太夸张了吧,我都怀疑我是不是买了个假的 M4 Pro。不知道是不是录屏的影响,我把录屏关掉,然后再重新试一遍,看看速度有没有可能有变化。

好,测试证明了,录屏是严重地拖慢了视频导出的速度。那重新测试了一次的结果是这样:4K 视频 60 帧,10 分钟左右的一个视频。左边是 M4 Pro 导出的时间,9 分 48 秒;右边是 M1 导出的时间,14 分 11 秒。实际上性能也就才提升了 30% 多,感觉不应该提升这么一点。

好,接下来是剪映的导出。左边是 M4 Pro 剪映导出时间,右边是 M1 剪映的导出时间。这两个时间实际上是差不多的。

语音识别速度:WhisperKit Large V3

好,接下来是本地模型语音识别的测试。本地模型用的是 WhisperKit 的 Large V3。视频就是刚才导出的 10 分钟的那个视频。左边 M4 Pro 上面的识别时间是 3 分 13 秒,右边在 M1 上面的识别时间是 7 分 38 秒,差了一倍。

好,这个提升还算是挽回点面子。但是 Whisper 模型它用的是 NPU,它用的是 NPU 来进行识别的。所以我们可以认为是 M4 的 NPU 的性能是 M1 的两倍多。

好,以上就是非专业数码博主的 M4 Pro Mac mini 的评测报告。如果你喜欢我的视频,请帮我点赞、评论、订阅我的频道,并且打开小铃铛。咱们下期再见。

掌握系统化思维,构建你的AI智能体

工具思维跨越到智能体思维,掌握系统化的方法论与AI智能体构建能力,构建可迁移的AI自动化技能,随时适应新需求!

7 阶实战体系,一步步带你从零基础到高阶自动化

◆ 立即节省2小时以上的重复劳动,效率提升10倍!

◆ 现在订阅,限时享受独家优惠,解锁你的AI竞争优势!



立即开启AI智能体进化之旅 →

Axton二维码

扫码关注获取更多资源

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部