文 | 硬唠intalk
2026年4月2日凌晨,Arena AI 的开源模型排行榜在沉寂数周后突然刷新。
这一天没有硅谷惯有的盛大发布会,Google DeepMind 首席执行官 Demis Hassabis 仅在 X 上发布了一条简短的消息。随后,一个名为 Gemma 4 31B Dense 的中量级模型,以惊人的斜率杀入全球开源前三。
在它上方的,是参数量数倍于它的庞然大物;在它下方的,是过去一年统治社区的几支老牌主力。
在开发者社区,31B 这个数字显得极不寻常。它既不追求超大规模的混合专家架构(MoE),也未试图在参数量上追赶闭源旗舰。它像是一个精准的切片,切开了开源 AI 长期以来“大即是美”的共识。
没人预料到,这家曾在开源竞赛中动作迟缓的巨头,会选择在清晨以一种近乎“冷启动”的方式,宣告对开源高地的重夺。
更令人意外的是,Gemma 4 E2B 和 E4B 虽然总参数量分别为 5.1B 和 8B,但它们采用了逐层嵌入(PLE)实际激活的“有效参数”仅为 2.3B 和 4.5B,极大降低了手机和笔记本电脑的内存和运行门槛。
在带有原生多模态能力的端侧极小尺寸区间,业界认为 Llama 4 和 Qwen 3.5 目前都没有能与 Gemma 4 E2B/E4B 直接对标的产品。对于纯端侧或边缘部署,Gemma 4 目前被认为是最强的选择。
维度
Gemma 4 (E2B / E4B)
Qwen 3 (1.7B / 4B)
核心差异结论
实际激活参数
2.3B / 4.5B
1.7B / 4B
Gemma同等性能下显存占用极低。
最大上下文
128K
32K
Gemma 4 碾压。
支持模态
文本、图像、视频、原生音频
文本、图像、视频
Gemma 4 独占原生音频。
推理Token消耗
极低 (~1.1K Tokens)
极高 (~9K Tokens)
Gemma 4 效率碾压。
极限视觉并发
较弱
极强 (~280张图)
Qwen 3/3.5 碾压。
最低内存门槛
4GB / 5.5-6GB (4-bit 量化)
3GB / 4GB (4-bit 量化)
Qwen 的物理体积下限更低。
根据社区总结,Gemma 4 E2B/E4B除了在图像批量处理时弱于Qwen1.7B / 4B外,在上下文,原声语音处理,推理能力上均实现了大幅度领先。
第一章:每参数智能
在 Google 的战略里,这场战争的关键词不是“规模”,而是“每参数智能”(Intelligence-per-parameter)。
长期以来,开源社区被分为两派:一派是以 Meta 为代表的堆料竞赛,试图用千亿参数换取逻辑能力;另一派是以 DeepSeek 为代表的成本学派,通过 MoE 架构降低推理开销。
Google DeepMind 此次推出的 Gemma 4 系列——包括 E2B、E4B、26B MoE 和 31B Dense——试图开辟第三条路径:在有限的“权重”内压榨出极限的智能。 这种“反向进化”的核心支撑是 TurboQuant 压缩算法。
根据 Google Research 在 3 月底披露的技术细节,这项技术能将 KV 缓存压缩至 3 比特,在 H100 GPU 上实现 8 倍的注意力计算加速,且在 MMLU Pro 等核心指标上实现“零精度损失”。
数据的跳跃是直观的。Gemma 4 31B 的 MMLU Pro 得分达到 85.2%,而在代表数学巅峰能力的 AIME 2026测试中,它跑出了 89.2% 的高分。相比之下,前代 27B 模型的这一数字仅为 20.8%。
Google 此次不仅交出了权重,还交出了控制权。Gemma 4 全系采用了商业友好的 Apache 2.0 协议,彻底终结了此前版本在商用授权上的扭捏。
在端侧,Google 展现了更为激进的收割姿态。通过 AICore 开发者预览版,Gemma 4 E2B 和 E4B 被直接集成进 Android 系统级接口。在 Pixel 手机和 Raspberry Pi上,新模型的推理速度提升了 4 倍,电池消耗则降低了 60%。
对于 Google 而言,这不再仅仅是一场关于排行榜位次的争夺,而是一场关于谁能定义“有用”的生存战:如果模型不能装进用户的口袋,那它对 Google 的移动生态便毫无意义。
第二章:中式合围
当 Google 试图用 31B 重新定义“每参数智能”时,它的对手们正驻守在另一条壕沟里。 在中国大模型厂商的战略坐标中,智能的衡量标准不是参数的瘦身,而是复杂问题的“暴力破解”与工程场景的“绝对占有”。
DeepSeek 在 2026 年初再次加固了它的逻辑护城河。根据行业披露,DeepSeek-V4 采用了一种极端的 1T 总参数 MoE 架构,尽管每次推理仅激活 37B 参数,但其引入的 Engram 条件内存技术,让模型在 1M 上下文内展现出了极强的记忆稳定性。
更具杀伤力的是其 V3.2 系列引入的“思考模式”(Thinking mode)。在针对 STEM 领域、逻辑纠错 and 复杂代码生成的测试中,这一模式允许模型在给出答案前进行大规模的“自我博弈”。
BentoML 的技术分析指出,DeepSeek 的这种思路在于:如果端侧模型暂时无法在短时间内追上闭源旗舰的直觉,那就通过“多想几步”来补齐。这直接切中了金融和科研开发者对“逻辑确定性”的需求。
而在生产力工具层面,阿里巴巴的通义千问 Qwen 3.5 系列则展现了近乎残酷的工程压制力。 在 2026 年 3 月底的 LM Studio 测评中,Qwen 3.5 的 32B 模型在 HumanEval 编程测试中报出了 88.0 分的惊人数据。
这意味着,在处理具体、细碎且容错率极低的工业级编程任务时,Qwen 的表现甚至优于部分体量大它三倍的国际模型。
这种竞争格局形成了一个微妙的“中式合围”:DeepSeek 占据了“深思熟虑”的智力高地,Qwen 占据了“开箱即用”的工程低地。
对于开发者而言,选择不再单一。如果你需要一个能够深入理解 Android 底层系统并进行离线多模态交互的伙伴,Gemma 4 是首选。但如果你是在寻找一个能够处理 100 万字技术文档、或者在云端以最低成本生成百万行代码的“劳动力”,DeepSeek 和 Qwen 依然拥有难以逾越的迁移壁垒。
这场战争的下半场,正从“谁的分数高”转向“谁的护城河更难被跨越”。Google 拿出了手术刀般精准的参数效率,而它的中国对手们,则在逻辑与工程的堡垒里,筑起了更厚的墙。
第三章:最后一百米
在大模型的世界里,算力的账本往往比排行榜的得分更具决定性。
如果说 DeepSeek 依靠超大规模 MoE 架构在云端实现了推理成本的极限压缩,那么 Google DeepMind 的 Gemma 4 则试图在硬件的“最后一百米”——也就是用户的手机与开发者的工作站里,建立一套全新的结算体系。
2026 年 4 月,Google 宣布将 Gemma 4 全系迁移至 Apache 2.0 协议。这不仅仅是一个版权声明的变更,而是一个明确的信号:Google 正在放弃对模型的直接“控制税”,转而追求“覆盖率”。
WaveSpeed AI 的分析指出,此前的许可协议中存在的 MAU限制和用途审查,一直是企业级开发者站队的阻碍。而现在,随着协议的彻底放开,Gemma 4 31B 模型能够以“无锁”状态直接进入医疗、国防等对数字主权极度敏感的领域。
相比之下,DeepSeek 等厂商虽然开源,但在跨国商业授权上的透明度仍是不少跨国企业观望的原因。 更深层的壁垒被建立在操作系统内部。 在 Android AICore 的开发者预览版中,Gemma 4 获得了系统级的“特权插槽”。
这意味着,当开发者调用 E2B 或 E4B 模型进行实时语音识别或离线视频处理时,其效率是未经优化的第三方模型的 4 倍,且电池损耗仅为后者的 40%。这种“软硬一体”的垂直整合,是目前任何中国模型厂商都难以逾越的系统级护城河。
算力的经济账同样在倒向“中量级”模型。根据 Spheron 的测算数据,Gemma 4 31B Dense 的权重能够完整塞入单张 80GB 的 NVIDIA H100 GPU 显存中,实现 FP8 精度的满速推理。
这是一个极其微妙的平衡点。DeepSeek V3.2 为了维持其顶尖的逻辑能力,至少需要 8 张 H100 组成的集群才能高效运转。对于绝大多数中小型初创企业而言,这意味着每小时推理成本从 2.40 美元到 19.20 美元的跨越。
“Google 并不是在制造一个最聪明的模型,”Constellation Research 分析师 Holger Mueller 评价道,“它是在制造一个能让开发者在不更换硬件的前提下,所能买到的、性价比最高的智能。”
在这场最后一百米的终刺冲刺中,Google 选择了绕开昂贵的云端军备竞赛,直接降落在全球数十亿部 Android 设备与数百万个工作站的显存里。
当竞争对手还在争论谁的逻辑更接近人类时,Google 已经在思考,如何让 AI 像电力一样,低廉且隐形地流经每一块电路板。
第四章:未知胜负与未解之局
在这场关于“效率”与“主权”的突袭战中,计分板上的数字正在发生微妙的漂移。 根据 Design News 在 2026 年 3 月底发布的行业分析,AI 技术的突破正在以超乎预期的速度削减部署成本。
这种削减不仅发生在云端机房,更发生在离散的、边缘的每一个节点。 目前的竞争格局已经清晰:
Google 通过 Gemma 4确立了在端侧生态位上的统治力。当一个开发者在没有网络连接的情况下,依然能利用手机端的 E4B 模型进行复杂的图像语义理解,且电池消耗仅仅下降了几个百分点时,Google 就已经在“装机权”上赢下一局。
这种“软硬一体”的先发优势,正在让 Android 系统变成一个巨大的、由开源模型驱动的神经系统。 然而,中国厂商并没有在算力的账本前退缩。
DeepSeek-V4 与 Qwen 3.5 的存在,证明了即便是在参数效率极高的时代,对于“重型逻辑”和“工业级精度”的需求依然旺盛。只要企业还需要处理百万行代码,只要科研还需要在公理丛林中寻找路径,中国模型在逻辑护城河内的统治力便难以动摇。
真正的变数在于 Apache 2.0 协议。 当 Google 彻底推倒许可权的高墙,原本在各阵营间摇摆的企业级用户,开始意识到“数字主权”的价值。在未来的 24 个月里,竞争的重点将 from “谁的模型更聪明”,转向“谁的模型更不容易被收割”。
这场关于 31B 与超大参数规模的对撞,本质上是一次关于 AI 本质的重新定义。它不再是实验室里的贵重摆设,也不再是只有巨头才能负担的昂贵博弈。
2026年4月3日,距离 Gemma 4 发布不到 48 小时。
在旧金山的一间共享办公空间里,一名独立开发者正试着在断网状态下,通过一部 Pixel 手机运行实时语音翻译。屏幕上的文字跳动得飞快,推理速度比上一代提升了整整 4 倍。 而在地球的另一端,杭州的一家物流初创企业,正利用 Qwen 3.5 自动生成的代码重新部署其核心调度系统。
这两幕场景背后,是两套截然不同的计算哲学:一个是极致的口袋化,一个是极致的生产力。 当智能像电力一样,以近乎零成本的姿态流经每一块单片机和显存时,谁是排行榜上的第一已经不再重要。
重要的是,在这场算力与逻辑的战争中,昂贵的智能正在变成一种廉价的公共资源。 这一年,端侧 AI 的全球渗透率预测将首次突破 35%。大模型的上半场在云端云雾缭绕,而下半场,正悄无声息地落进每一个人的口袋里。