如果你在网络上搜索“Mac”、“AI”、“大模型”等关键词,会发现不少网友正在用自己的Mac,搭建属于自己的AI环境。从经济实惠的Mac mini,到面向专业人士的Mac Studio,不同需求的用户,都能在Mac上部署一个专属于自己的AI大模型,提升工作效率。
能够在一台小设备上部署AI大模型,离不开Mac的“统一内存架构”。得益于这项架构,CPU和GPU可以共享同一个高速内存池。这意味着,一台16GB的基础款Mac mini,就等同于拥有了一块16GB“显存”的计算卡,而一台顶配的Mac Studio,更是相当于拥有了512GB的超大显存。在运行AI工具时,所有显存都能被有效利用,这也让Mac在AI时代找到了属于自己的新赛道。
那么,Mac能不能像AI计算卡一样,通过叠加的方式来部署更复杂的模型,从而实现更多专业级的工作?
用“搭积木”的方式 实现性能增长
传统意义上讲,想要实现AI运算能力提升的方法非常简单,那就是竭尽所能地增加显存。然而得益于统一内存架构,“增加显存”在Mac上变得非常简单,只需要增加内存容量即可。几个月前,来自英国的创业公司Exo Labs就使用了四台搭载M4 Pro芯片的Mac mini搭建集群,成功部署了236b的DeepSeek-Coder-V2混合专家模型,随后他们又利用了两台Mac Studio搭建集群,并成功部署了671b的DeepSeek-V3模型。
借助高速的Thunderbolt 5串联
这种利用类似“搭积木”的方式实现AI性能提升,也让Exo Labs看到了更多可能性。这次,我有幸见到了Exo Labs使用四台顶配版Mac Studio,并借助高速的Thunderbolt 5串联,打造了一台价格超越普通家用汽车的AI怪兽。当然,这套昂贵的AI设备,也拥有令人惊讶的能量,它能够同时流畅运行两个参数量高达671B的DeepSeek大语言模型,这也让我们看到在AI浪潮席卷全球的今天,Mac也凭借其独特的架构,找到了一个专属于自己的全新定位。
Exo V2
为了充分利用好它的性能,Exo Labs还开发了一个调度工具Exo V2,它会根据用户部署的模型,自动分配需要的内存。例如部署一个8bit量化的DeepSeek V3模型,大概需要700G的统一内存,而调度工具此时会将其平均分配到两台Mac Studio设备上并完成加载,在实际使用上,它的token生成速度基本上与云端大模型无异,足以满足用户的使用需求。
另外,Exo V2还能够实现同步运行多个大模型。例如在运行DeepSeek V3模型的同时,还能再运行一个DeepSeek R1,实现两个大模型并行工作。
用更强大的工具 为中小企业提供帮助
对于广大个人用户而言,简单易用的云端AI工具足以满足日常需求,但对于数据隐私有较高需求的企业或专业人士,本地部署AI工具,也能避免将包含商业机密、客户信息或敏感研究数据的资料上传到云端。
Mac Studio集群提供的本地化方案,可以说完美地解决了中小企业的顾虑。我更愿意将云端模型和本地模型看作是“通用工具”与“专业工具”的区别。云端大模型是强大的通用工具,知识渊博,但无法保证数据的绝对私密。而基于Mac Studio搭建的本地模型,则更像是一套为你量身定制的专业工具。
想象一下,一家律师事务所可以将海量的过往案例、法律文书输入本地模型进行训练,打造一个专属于自己的、精通本所业务的AI法律顾问。或者是一家研发企业,将自己所有过往的参考文档、项目资料喂给电脑,训练出一个专属于企业自己的知识库。这些数据全部保存在本地,彻底杜绝了隐私泄露的风险,这为高价值知识型企业的AI化转型提供了一条更安全、更可控的路径。
值得一提的是,通过Mac来搭建AI工具,也是一项成本极低的选择。虽说四台Mac Studio的价值甚至超越了一台汽车,但如果利用英伟达的计算卡来实现相同的AI能力,可能需要部署多大20张A100显卡,其成本甚至高达数百万。
四台Mac Studio组成的AI集群
而且别忘了,这些庞然大物对电量的消耗同样巨大,甚至还需要独立的散热空间才能确保稳定工作。相比之下,四台Mac Studio的满载功耗只有不到400W以内,而且大小也只有一个行李箱那么大。