AI 时代,为什么是 macOS
从 CLI 讲起
Mac 一直以来都是程序员友好的产品:类 Unix 系统、bash 原生、包管理器成熟,这些方面一直完爆 Windows。而在 LLM 时代,这种 CLI 友好性突然有了新的意义——基于 LLM 构建的工具天然就是 CLI 形态的。Claude Code的成功 和 二、从 Claude Code 说起 讲过这件事:大模型最自然的交互方式是文本流,不是 GUI。
所以在使用体验上,Claude Code、OpenClaw 这类工具在 Mac 上远好于 Windows,不是因为 Mac 做了什么特别的适配,而是它的底层形态恰好就是 LLM 工具最舒适的运行环境。macOS 在 AI 时代有先发优势,即使这种工程上的领先并不是坚不可摧的。
此为一胜
本地模型与统一内存
先说清楚为什么我们需要本地模型。现在的大模型越来越强,能做的事情已经从”写个 hello world”进化到分析代码架构、处理私人文档、甚至理解你整个工作流。能力越强,意味着你喂给它的数据越敏感。调 API 就等于把这些数据交给第三方——不管你信不信云厂商,数据离开了你的设备,风险就不再是零。本地模型把这个口子彻底堵上:数据不出本机,延迟归零,费用归零。
但本地模型有一个硬约束:内存。大模型的参数要全部加载到内存里才能推理,而模型越大,能力越强,需要的内存就越多。70B 参数的模型,光权重就占 40GB+,这还没算推理时的 KV cache 和系统开销。传统架构里,CPU 内存和 GPU 显存是分开的——模型要么塞进有限的 VRAM(消费级上限 24GB),要么在 CPU 内存里龟速推理。
统一内存架构解决了这个矛盾。Apple 从 M1 开始把 CPU 和 GPU 的内存合为一块,带宽共享、数据零搬运。到了 M4 Max,统一内存最高 128GB,内存带宽达到 546GB/s;最新的 M5 Max 更进一步,带宽突破 600GB/s——作为参考,RTX 4090 的显存带宽是 1008GB/s,但 VRAM 只有 24GB。Apple 在带宽上追到了专业卡的一半,可用内存却是它的五倍。这意味着一台笔记本就能跑量化后的 70B 模型,不需要 NVLink,不需要额外供电,不需要机房。
对比其他试图做统一内存的方案:AMD 的 Strix Halo 也做 128GB 统一内存,但内存带宽只有 256GB/s,不到 M4 Max 的一半;Intel 的方案还在纸面上。Apple 能走到这一步,根源是 2020 年那场从 x86 到 ARM 的架构豪赌——当时所有人都觉得 ARM 只是移动端的玩具,不可能在桌面端挑战 Intel。Apple 直接把整个 Mac 产品线从 Intel 切到自研芯片,断了自己的退路。正是因为掌握了芯片定义权,才能每一代把内存带宽和容量精准地推到 AI 推理需要的位置,而不是等 Intel 和 AMD 慢慢挤牙膏。这种从架构层面开始的五年连贯布局,就是战略定力。
此为二胜
内存涨价与价格控制
当然,Apple 的内存不是免费的。从 16GB 升到 128GB,加价幅度离谱,被社区戏称为”黄金内存”。但要放在更大的背景下看:2024-2025 年全球 DRAM 价格因为 AI 需求暴涨,DDR5 涨幅超过 50%,HBM 更是一卡难求。整个行业都在为 AI 的内存需求买单——不只是 Apple 用户,所有人都在经历内存涨价。
关键区别在于:别人的涨价你得不到任何额外价值,而 Apple 的内存溢价至少买到了统一内存架构本身。一张 80GB 的 A100 要几万块,一台 128GB 统一内存的 Mac Studio 不到三万。Apple 用消费级产品的价格提供接近专业计算设备的模型推理能力——它的内存溢价是跟自己比贵,跟整个 AI 硬件市场比,反而是最便宜的入场券。
此为三胜
程序员生态与惯性
macOS 在开发者群体中的渗透率已经很高,尤其在 AI/ML 领域。这不是因为 Windows 做不到同样的事,而是生态的惯性:工具链、dotfiles、工作习惯,一旦迁移就是巨大的切换成本。
当一个平台同时拥有”开发者已经在用”和”AI 工具跑得更好”这两个属性时,正反馈就形成了:开发者越多,工具适配越好;工具越好,越多人选择这个平台。这个飞轮一旦转起来,后来者很难追。
此为四胜