最强开源端侧小模型?Google Gemma 4首次允许商用
创始人
2026-04-09 23:41:37

上周Google DeepMind发布了 Gemma 4模型。这一次不是小幅迭代,而是在架构、能力和授权三个维度同时跃进的里程碑版本。

Gemma 4 基于首次以 Apache 2.0 许可证开源发布,彻底扫除了企业商业部署的法律障碍。

四款型号,全谱覆盖

Gemma 4 家族共推出四个尺寸,分别针对从移动端到专业工作站的不同硬件场景:

Gemma 4 E2B(端侧 · 移动优先) 约 2.3B 有效参数,专为智能手机、树莓派、NVIDIA Jetson Orin Nano 设计。支持文本、图像、视频与音频输入,128K 上下文。离线零延迟推理。显存需求:7.2GB(4-bit 量化)。

Gemma 4 E4B(端侧 · 笔记本友好) 约 4.5B 有效参数,面向现代笔记本电脑与消费级 GPU。同样支持完整多模态能力,推理质量显著高于 E2B,128K 上下文。显存需求:9.6GB(4-bit)/ 16GB(BF16)。

Gemma 4 26B A4B(MoE · 效率旗舰) 混合专家架构(MoE),总参数 26B,推理时仅激活 3.8B。以接近 4B 模型的速度与显存,提供接近 13B 模型的质量。256K 上下文。显存需求:18GB(4-bit)/ 52GB(BF16)。

Gemma 4 31B Dense(Dense · 质量旗舰) 密集架构,31B 参数,最强推理能力。适合精调(Fine-tuning)与高质量推理场景。一张 80GB H100 可运行未量化版本。256K 上下文。显存需求:20GB(4-bit)/ 62GB(BF16)。

架构创新

Gemma 4 采用混合注意力机制,交替使用局部滑动窗口注意力与全局注意力,最后一层始终为全局注意力。这一设计在保留轻量模型速度与低内存占用的同时,确保了处理长上下文任务所需的深度感知能力。全局层使用统一的 Keys/Values,并应用比例位置编码(p-RoPE)优化长上下文性能。

E2B 与 E4B 中的"E"代表"Effective(有效参数)",这两款端侧模型引入了逐层嵌入(Per-Layer Embeddings,PLE)技术,为每个 token 在每一解码层生成专属的低维向量,使 E2B 在受支持的移动设备上内存占用低至 1.5GB。

核心能力

这一代Gemma的更新主要体现在:推理与 Thinking 模式、原生函数调用、多模态:文本/图像/视频、音频(E2B/E4B)、256K 超长上下文、140+ 语言 、结构化 JSON 输出,以及Apache 2.0 商用免费。

Gemma 4 首次在 Gemma 家族中引入原生 system role 支持,配置推理(Thinking)模式只需在系统提示开头加入 <|think|>标记,无需任何额外工程。

基准测试成绩

Gemma 4 相比上一代 Gemma 3 27B 的提升不是渐进式的,而是跨级别的。

基准测试

Gemma 3 27B

Gemma 4 31B

Gemma 4 26B MoE

MMLU Pro

(多学科问答)

85.2%

82.6%

AIME 2026

(数学竞赛)

20.8%

89.2%

88.3%

LiveCodeBench v6

(代码竞赛)

29.1%

80.0%

77.1%

GPQA Diamond

(研究生科学)

42.4%

84.3%

82.3%

τ²-bench

(智能体工具调用)

6.6%

86.4%

85.5%

在 Arena AI 全球开放模型排行榜上,Gemma 4 31B(ELO ≈ 1452)位列第 3,26B MoE(ELO ≈ 1441)位列第 6。τ²-bench 的跃升:从 6.6% 到 86.4%,或许是最能说明实际价值的数字。这意味着 Gemma 4 终于具备了可靠的多步工具调用与智能体工作流能力。

硬件需求

ollama(4bit)

huggingface(16bit)

E2B

7.2GB

10.3GB

E4B

9.6GB

16GB

26B MoE

18GB

51.6 GB

31B Dense

20GB

62.6GB

    Gemma 4的三种使用方式

    Gemma 4 首日即获得主流推理框架的完整支持,包括 Ollama、vLLM、llama.cpp、MLX、Hugging Face Transformers、NVIDIA NIM、SGLang、LM Studio 等。以下重点介绍最常用的两种本地部署方式。

    方式一:Ollama(推荐入门)

    Ollama 在 Gemma 4 发布后 24 小时内即推出 v0.20.0 支持版本,是目前社区最广泛推荐的本地推理工具。它自动处理模型权重下载、量化格式选择和运行时配置,用户无需了解底层细节。

    步骤:

    1. 从 ollama.com 下载对应系统的安装包,完成安装后确认 CLI 可用

    2. 拉取模型(以 E4B 为例,适合 8GB+ VRAM 的笔记本/台式机)

    3. 启动对话,也可通过 REST API 集成到应用中

    #版本确认,需要是v0.20.0 ollama version#拉取模型 ollama pull gemma4:e4b#直接对话 ollama run gemma4:e4b#其他尺寸: #ollama pull gemma4:e2b # 手机/树莓派#ollama pull gemma4:27b # 26B MoE(需要 18GB+)#ollama pull gemma4:31b # 最强版本(需要 20GB+)

    Ollama 默认上下文窗口仅为 4096,如果想发挥 Gemma 4 的长上下文优势,建议手动扩大:

    # 进入模型后,在提示符中执行:/set parameter num_ctx 32768/save gemma4:e4b-32k/bye# 此后以新名称启动即可使用 32K 上下文ollama run gemma4:e4b-32k

    Ollama同时暴露本地REST API(默认端口 11434),兼容OpenAI接口格式,便于对接Open WebUI、Claude Code CLI等上层工具:

    # REST API 调用示例curl http: //localhost:11434/api/generate \-d '{"model": "gemma4:e4b", "prompt": "用 Python 实现快速排序", "stream": false}'# 或使用 OpenAI 兼容接口curl http: //localhost:11434/v1/chat/completions \-H "Content-Type: application/json" \-d '{"model": "gemma4:e4b", "messages": [{ "role": "user", "content": "解释 MoE 架构"}] }'

    方式二:vLLM(生产级高吞吐)

    vLLM 适合需要高并发、批量推理的服务端部署。Gemma 4 首日即获支持。不过,vLLM 目前存在一个已知 bug,在部分 RTX 4090 等硬件上会将 Gemma 4 的推理速度限制在约 9 tokens/s(正常应为 40–60 tokens/s),遇到这种情况建议切换 Ollama。

    # 安装 vLLM(需要 Python 3.10+)pip install vllm# 以 OpenAI 兼容服务方式启动 31B 模型vllm serve google/gemma-4-31b-it \--dtype bfloat16 \--max-model-len 32768 \--tensor-parallel-size 1# 调用(与 OpenAI SDK 完全兼容)python -c "from openai import OpenAIclient = OpenAI(base_url='http://localhost:8000/v1', api_key='na')resp = client.chat.completions.create(model='google/gemma-4-31b-it',messages=[{'role': 'user', 'content': '分析以下代码的时间复杂度'}])print(resp.choices[0].message.content)"

    方式三:Hugging Face Transformers(精调/研究)

    # 安装依赖pipinstall transformers torch accelerate # Python 调用(开启 Thinking 模式)python -c "from transformers import pipelinepipe = pipeline('text-generation',model='google/gemma-4-e4b-it',device_map='auto')# 系统提示开头加 <|think|> 即启用推理模式messages = [{'role': 'system', 'content': '<|think|> 你是一个数学助手。'},{'role': 'user', 'content': '证明:无穷多个质数存在'}]result = pipe(messages, max_new_tokens=512)print(result[0]['generated_text'][-1]['content'])"

    可执行测试案例

    如果你想测试新版Gemma 4的新能力,可以从下面两个测试入手:分别验证 Gemma 4 的推理能力与代码生成能力。建议使用 Ollama + gemma4:e4b或更大型号运行。

    测试 1:Thinking 模式下的逻辑推理

    这个测试旨在验证模型在开启逐步推理(Chain-of-Thought)时对复杂逻辑问题的处理能力。将以下内容作为 system prompt 使用,并观察 <|channel>thought块内的思考过程。

    # Ollama REST API 测试脚本(保存为 test_thinking.sh)curl http: //localhost:11434/api/chat -d '{"model": "gemma4:e4b", "messages": [ {"role": "system", "content": "<|think|> 你是一个严谨的逻辑推理助手,请逐步思考后给出答案。"},{"role": "user", "content": "一个房间里有 3 盏灯,房间外有 3 个开关,每个开关对应一盏灯。你在房间外,看不到里面的灯。你只能进入房间一次。请描述如何通过操作开关,在进入房间一次后确定每个开关对应哪盏灯。"}],"stream": false} ' | python3 -m json.tool

    预期结果:模型应在 thought 块中逐步推理出"先打开开关 A 等待数分钟,再关掉,打开 B,进入房间后:亮着的是 B,热但不亮是 A,冷且不亮是 C"的经典解法。

    测试 2:代码生成与函数调用

    这个测试目的是验证 Gemma 4 的原生 Function Calling 能力,这是 Gemma 3 时代的薄弱环节,也是 Gemma 4 重点强化的方向。

    # Python 函数调用测试(test_tool_use.py)importjson, requests tools = [{"type": "function", "function": { "name": "get_weather", "deion": "获取指定城市的天气信息", "parameters": { "type": "object", "properties": { "city": { "type": "string", "deion": "城市名称"}, "unit": { "type": "string", "enum": [ "celsius", "fahrenheit"]} },"required": [ "city"] }}}]payload = {"model": "gemma4:e4b", "messages": [ { "role": "user", "content": "北京今天的天气怎么样?用摄氏度表示。"} ],"tools": tools, "stream": False}resp = requests.post( "http://localhost:11434/v1/chat/completions", json=payload).json# 检查模型是否正确生成了 tool_callmsg = resp[ "choices"][ 0][ "message"] ifmsg.get( "tool_calls"): tc = msg[ "tool_calls"][ 0] print( f"✓ 工具名: {tc['function']['name']}") print( f"✓ 参数: {tc['function']['arguments']}") else: print( "✗ 未生成 tool_call,检查模型版本或提示词")

    预期结果:该测试应返回格式类似 {"city": "北京", "unit": "celsius"}的结构化 JSON 参数,而非自由文本回答。若模型输出正确,即表明 Gemma 4 的函数调用能力可用于实际 Agent 开发。

    综合评价社区和专家反应都不错:

    "这不是对 Gemma 3 的渐进式改进,而是完全不同量级的模型。AIME 分数从 20.8% 跳到 89.2%,我最初不相信这个数字,直到自己拉下来测试了 40 分钟。" —— Medium 技术博主(Data Science Collective,2026年4月)

    "Gemma 4 的成功与否将完全取决于易用性,而不是 benchmark 分数的 5-10% 差距。它已经足够强、足够小、有正确的许可证,来自美国,很多公司会直接把它放进去。" —— interconnects.ai 分析文章,2026年4月

    "以前 Gemma 的自定义许可证让法务团队头疼,很多企业直接跳过选了 Mistral 或 Qwen。Apache 2.0 是行业标准的'真正免费使用'信号,这次终于补上了。" —— MindStudio 技术博客,2026年4月

    在 Reddit r/LocalLLaMA 社区,26B A4B MoE 版本获得了 16GB 显存用户的高度评价,被认为是该显存区间内性价比最优的选择。用户分享了针对推理和代码任务的最优参数组合:

    --temp0.3--top-p0.9--min-p0.1--top-k20

    客观评估

    • Arena AI 排名(31B Dense):,全球开放模型榜,ELO ≈ 1452

    • Arena AI 排名(26B MoE):,仅 3.8B 激活参数达成

    • GPQA Diamond 独立测试:85.7%,40B 以下开放模型第 2 名

    • Codeforces ELO:2150(Gemma 3 仅为 110)

    优势与局限

    Gemma 4 最突出的价值在于三点叠加:Apache 2.0 商业免费、端侧到工作站的全硬件覆盖、以及在同参数量级别内的顶级 benchmark 成绩。26B MoE 型号尤为特殊——它以约 4B 的推理成本,提供了接近 13B 模型的输出质量,是显存受限场景下的"隐藏王牌"。

    但 Gemma 4 并非没有局限。它的定位是端侧小模型,所以在最顶级的推理能力维度,它落后于 Qwen 3.5 397B、GLM-5 Reasoning 等中国超大型开放模型,以及 DeepSeek V3.2 在 IMO/IOI/ICPC 2026 竞赛中展示的极致数学能力。对于必须使用最强开源推理模型、且不计算资源成本的场景,这些竞争对手仍是更优选择。

    此外,vLLM 目前存在已知的速度 bug(在部分 GPU 上被节流至 9 tok/s),社区建议在官方修复前优先使用 Ollama 作为替代。Gemma 历代版本在精调易用性上也曾受到批评,Gemma 4 能否在这一环节改善,仍有待社区精调实践的检验。

    至顶AI实验室洞见

    Gemma 4 是 Google 在开放模型赛道上交出的最有说服力的答卷。Apache 2.0 授权扫清了商业部署的法律障碍,端侧型号将真正可用的多模态 AI 带入了手机和树莓派,31B Dense 在单张 H100 上达到了与闭源 API 媲美的推理水准。对于希望在自有硬件上部署可靠、高性能开源模型的开发者和企业,Gemma 4 是目前最值得认真考虑的选项之一。

    相关内容

    热门资讯

    齐翔腾达A股股东户数增加478... 4月10日消息,数据显示,截至2026年3月31日,齐翔腾达A股股东总户数为6.07万户,较上期(2...
    描写兄弟情的诗句引随兄弟共团圆... 描写兄弟情的诗句 引随兄弟团圆、怡怡兄弟情,亹亹仆驭力。岂为诧游观,肝肠孝思激。 、遥知兄弟登高处,...
    最伤感的诗句杨柳青青江水平 杨... 最伤感的诗句 杨柳青青江水平别鹤声声远,离愁处处同. 别后悠悠君莫问,无限事,不言中. 别情滋味...
    古人描写爱情的诗句心似双丝网 ... 古人描写爱情的诗句 心似双丝网天不老,情难绝。心似双丝网,中有千千结。 万里云帆何时到?送孤魂,目断...
    赞颂美好品质的诗句岁月不待人 ... 赞颂美好品质的诗句 岁月不待人、予独爱莲之出淤泥而不染,濯清涟而不妖,中通外直,不蔓不枝,香远益清,...