上周Google DeepMind发布了 Gemma 4模型。这一次不是小幅迭代,而是在架构、能力和授权三个维度同时跃进的里程碑版本。
Gemma 4 基于首次以 Apache 2.0 许可证开源发布,彻底扫除了企业商业部署的法律障碍。
四款型号,全谱覆盖
Gemma 4 家族共推出四个尺寸,分别针对从移动端到专业工作站的不同硬件场景:
Gemma 4 E2B(端侧 · 移动优先) 约 2.3B 有效参数,专为智能手机、树莓派、NVIDIA Jetson Orin Nano 设计。支持文本、图像、视频与音频输入,128K 上下文。离线零延迟推理。显存需求:7.2GB(4-bit 量化)。
Gemma 4 E4B(端侧 · 笔记本友好) 约 4.5B 有效参数,面向现代笔记本电脑与消费级 GPU。同样支持完整多模态能力,推理质量显著高于 E2B,128K 上下文。显存需求:9.6GB(4-bit)/ 16GB(BF16)。
Gemma 4 26B A4B(MoE · 效率旗舰) 混合专家架构(MoE),总参数 26B,推理时仅激活 3.8B。以接近 4B 模型的速度与显存,提供接近 13B 模型的质量。256K 上下文。显存需求:18GB(4-bit)/ 52GB(BF16)。
Gemma 4 31B Dense(Dense · 质量旗舰) 密集架构,31B 参数,最强推理能力。适合精调(Fine-tuning)与高质量推理场景。一张 80GB H100 可运行未量化版本。256K 上下文。显存需求:20GB(4-bit)/ 62GB(BF16)。
架构创新
Gemma 4 采用混合注意力机制,交替使用局部滑动窗口注意力与全局注意力,最后一层始终为全局注意力。这一设计在保留轻量模型速度与低内存占用的同时,确保了处理长上下文任务所需的深度感知能力。全局层使用统一的 Keys/Values,并应用比例位置编码(p-RoPE)优化长上下文性能。
E2B 与 E4B 中的"E"代表"Effective(有效参数)",这两款端侧模型引入了逐层嵌入(Per-Layer Embeddings,PLE)技术,为每个 token 在每一解码层生成专属的低维向量,使 E2B 在受支持的移动设备上内存占用低至 1.5GB。
核心能力
这一代Gemma的更新主要体现在:推理与 Thinking 模式、原生函数调用、多模态:文本/图像/视频、音频(E2B/E4B)、256K 超长上下文、140+ 语言 、结构化 JSON 输出,以及Apache 2.0 商用免费。
Gemma 4 首次在 Gemma 家族中引入原生 system role 支持,配置推理(Thinking)模式只需在系统提示开头加入 <|think|>标记,无需任何额外工程。
基准测试成绩
Gemma 4 相比上一代 Gemma 3 27B 的提升不是渐进式的,而是跨级别的。
基准测试 |
Gemma 3 27B |
Gemma 4 31B |
Gemma 4 26B MoE |
|---|---|---|---|
MMLU Pro (多学科问答) |
— |
85.2% |
82.6% |
AIME 2026 (数学竞赛) |
20.8% |
89.2% |
88.3% |
LiveCodeBench v6 (代码竞赛) |
29.1% |
80.0% |
77.1% |
GPQA Diamond (研究生科学) |
42.4% |
84.3% |
82.3% |
τ²-bench (智能体工具调用) |
6.6% |
86.4% |
85.5% |
在 Arena AI 全球开放模型排行榜上,Gemma 4 31B(ELO ≈ 1452)位列第 3,26B MoE(ELO ≈ 1441)位列第 6。τ²-bench 的跃升:从 6.6% 到 86.4%,或许是最能说明实际价值的数字。这意味着 Gemma 4 终于具备了可靠的多步工具调用与智能体工作流能力。
硬件需求
ollama(4bit) |
huggingface(16bit) |
|
E2B |
7.2GB | 10.3GB |
E4B |
9.6GB | 16GB |
26B MoE |
18GB | 51.6 GB |
31B Dense |
20GB | 62.6GB |
Gemma 4的三种使用方式
Gemma 4 首日即获得主流推理框架的完整支持,包括 Ollama、vLLM、llama.cpp、MLX、Hugging Face Transformers、NVIDIA NIM、SGLang、LM Studio 等。以下重点介绍最常用的两种本地部署方式。
方式一:Ollama(推荐入门)
Ollama 在 Gemma 4 发布后 24 小时内即推出 v0.20.0 支持版本,是目前社区最广泛推荐的本地推理工具。它自动处理模型权重下载、量化格式选择和运行时配置,用户无需了解底层细节。
步骤:
从 ollama.com 下载对应系统的安装包,完成安装后确认 CLI 可用
拉取模型(以 E4B 为例,适合 8GB+ VRAM 的笔记本/台式机)
启动对话,也可通过 REST API 集成到应用中
Ollama 默认上下文窗口仅为 4096,如果想发挥 Gemma 4 的长上下文优势,建议手动扩大:
Ollama同时暴露本地REST API(默认端口 11434),兼容OpenAI接口格式,便于对接Open WebUI、Claude Code CLI等上层工具:
方式二:vLLM(生产级高吞吐)
vLLM 适合需要高并发、批量推理的服务端部署。Gemma 4 首日即获支持。不过,vLLM 目前存在一个已知 bug,在部分 RTX 4090 等硬件上会将 Gemma 4 的推理速度限制在约 9 tokens/s(正常应为 40–60 tokens/s),遇到这种情况建议切换 Ollama。
方式三:Hugging Face Transformers(精调/研究)
可执行测试案例
如果你想测试新版Gemma 4的新能力,可以从下面两个测试入手:分别验证 Gemma 4 的推理能力与代码生成能力。建议使用 Ollama + gemma4:e4b或更大型号运行。
测试 1:Thinking 模式下的逻辑推理
这个测试旨在验证模型在开启逐步推理(Chain-of-Thought)时对复杂逻辑问题的处理能力。将以下内容作为 system prompt 使用,并观察 <|channel>thought块内的思考过程。
预期结果:模型应在 thought 块中逐步推理出"先打开开关 A 等待数分钟,再关掉,打开 B,进入房间后:亮着的是 B,热但不亮是 A,冷且不亮是 C"的经典解法。
测试 2:代码生成与函数调用
这个测试目的是验证 Gemma 4 的原生 Function Calling 能力,这是 Gemma 3 时代的薄弱环节,也是 Gemma 4 重点强化的方向。
预期结果:该测试应返回格式类似 {"city": "北京", "unit": "celsius"}的结构化 JSON 参数,而非自由文本回答。若模型输出正确,即表明 Gemma 4 的函数调用能力可用于实际 Agent 开发。
综合评价社区和专家反应都不错:
"这不是对 Gemma 3 的渐进式改进,而是完全不同量级的模型。AIME 分数从 20.8% 跳到 89.2%,我最初不相信这个数字,直到自己拉下来测试了 40 分钟。" —— Medium 技术博主(Data Science Collective,2026年4月)
"Gemma 4 的成功与否将完全取决于易用性,而不是 benchmark 分数的 5-10% 差距。它已经足够强、足够小、有正确的许可证,来自美国,很多公司会直接把它放进去。" —— interconnects.ai 分析文章,2026年4月
"以前 Gemma 的自定义许可证让法务团队头疼,很多企业直接跳过选了 Mistral 或 Qwen。Apache 2.0 是行业标准的'真正免费使用'信号,这次终于补上了。" —— MindStudio 技术博客,2026年4月
在 Reddit r/LocalLLaMA 社区,26B A4B MoE 版本获得了 16GB 显存用户的高度评价,被认为是该显存区间内性价比最优的选择。用户分享了针对推理和代码任务的最优参数组合:
客观评估
Arena AI 排名(31B Dense):,全球开放模型榜,ELO ≈ 1452
Arena AI 排名(26B MoE):,仅 3.8B 激活参数达成
GPQA Diamond 独立测试:85.7%,40B 以下开放模型第 2 名
Codeforces ELO:2150(Gemma 3 仅为 110)
Gemma 4 最突出的价值在于三点叠加:Apache 2.0 商业免费、端侧到工作站的全硬件覆盖、以及在同参数量级别内的顶级 benchmark 成绩。26B MoE 型号尤为特殊——它以约 4B 的推理成本,提供了接近 13B 模型的输出质量,是显存受限场景下的"隐藏王牌"。
但 Gemma 4 并非没有局限。它的定位是端侧小模型,所以在最顶级的推理能力维度,它落后于 Qwen 3.5 397B、GLM-5 Reasoning 等中国超大型开放模型,以及 DeepSeek V3.2 在 IMO/IOI/ICPC 2026 竞赛中展示的极致数学能力。对于必须使用最强开源推理模型、且不计算资源成本的场景,这些竞争对手仍是更优选择。
此外,vLLM 目前存在已知的速度 bug(在部分 GPU 上被节流至 9 tok/s),社区建议在官方修复前优先使用 Ollama 作为替代。Gemma 历代版本在精调易用性上也曾受到批评,Gemma 4 能否在这一环节改善,仍有待社区精调实践的检验。
至顶AI实验室洞见
Gemma 4 是 Google 在开放模型赛道上交出的最有说服力的答卷。Apache 2.0 授权扫清了商业部署的法律障碍,端侧型号将真正可用的多模态 AI 带入了手机和树莓派,31B Dense 在单张 H100 上达到了与闭源 API 媲美的推理水准。对于希望在自有硬件上部署可靠、高性能开源模型的开发者和企业,Gemma 4 是目前最值得认真考虑的选项之一。
上一篇:上汽AI+系列活动之四 | 智效共生:大乘用车研发部与清陶动力以AI应用擘画效率变革新图景
下一篇:没有了