先用一句话概括Gemma 4这款模型:简单来说,它不是那种参数越大越显得厉害的开放模型,而是那种终于开始认真回答现实问题的开放模型。
Gemma 4 是 Google 在 2026 年 4 月 2 日正式发布的新一代开放权重模型,分成 E2B、E4B、26B A4B MoE、31B Dense 四档,提供最多 256K 上下文、图像输入全系支持,小模型还支持音频输入,许可证是 Apache 2.0。官方给它的定位很直接:advanced reasoning、coding、agentic workflows、本地和边缘部署。
那么很显然,2026年新的开源模型一出现,对于普通AI玩家来说就会面临很现实的三个问题:到底能不能在消费级硬件上把它跑得像个工具,而不是像个实验;与今年年初同样很猛的 Qwen3.5 比,到底是谁更适合本地部署和 agent 工作流;以及在今天这个人人都开始算 token、算延迟、算显存的时代,到底能不能给自己一点真正意义上的“token 自由”。
先看媒体测评,这一次所有媒体的口径几乎一致:这一代的Gemma不是只把参数表又刷了一遍,而是把开放模型应该怎么被开发者真正应用到生产中这件事想得比前几代清楚。Google 自己最强调的是 intelligence-per-parameter,翻译成人话就是“别老盯着总参数,看看单位硬件预算能换来多少脑子”。这个口径不只是宣传词,因为 26B A4B 这档的核心设计确实很像冲着现实部署来的:总参数 25.2B,但推理时只激活 3.8B,官方明确说它跑起来几乎像一个 4B 模型那么快,同时又尽量贴近 31B Dense 的质量。这个设计一拿出来,媒体自然会盯着它,因为它正好打在本地部署最痛的地方:不是能不能跑,而是能不能一边跑一边还像个正经工具。
官方 benchmark 也确实给 Gemma 4 撑住了场子。31B 在官方 model card 里,MMLU-Pro 85.2、AIME 2026 no tools 89.2、LiveCodeBench v6 80.0、GPQA Diamond 84.3、Codeforces Elo 2150;26B A4B 也不虚,MMLU-Pro 82.6、AIME 88.3、LiveCodeBench 77.1、GPQA Diamond 82.3。这个分数的意义不是它无敌了,而是它至少证明了一件事:Gemma 4 不是靠聊天风格和包装取胜的,它在推理、代码、科学问答这些比较难装的项目上是真补过课的。Google 还在发布文里强调,31B 在 Arena AI 文本榜是当时全球第 3 的开放模型,26B 是第 6。这个排名当然多少带点宣传,不过至少说明它不是一代只适合写博客标题的模型。
第三方媒体和平台的反馈也基本偏正面。Hugging Face 在首发文章里对 Gemma 4 的判断很高,重点夸的不是单点跑分,而是 Apache 2.0、多模态、部署面广、社区接入快,而且他们明确说预发布 checkpoint 已经强到“不太容易找到必须专门微调的例子”。VentureBeat 的关注点则更偏产业现实:Gemma 4 之所以值得认真看,不只是因为 benchmark 高,而是因为它把许可证、上下文、推理、函数调用、多模态和硬件覆盖一起做成了一个完整产品方案。而玩家和社区的反馈这一次也非常偏正面:大方向上非常认可(毕竟人人都想实现token自由),在Hacker News、LocalLLaMA 以及相关论坛的早期反馈来看,玩家们对 26B A4B 的兴趣明显高于对 31B Dense 的兴趣。原因也非常朴素:31B 很强,但 26B A4B 更像是能真的拿来日常折腾 agent、本地代码助手和长上下文工作流的型号。Hacker News 里有人直接说自己更想看到基于 26B、但推理只用 3.8B active parameters 的这条路线继续做下去,因为这对 locally-hosted 的生产力意义更大。LocalLLaMA 的对比帖里也已经有人开始盯着 reasoning token 的开销差异看,甚至直接比较 Gemma 4 和 Qwen3.5 在同类问题下“到底谁更费 token”。这就很能说明问题:社区已经不是在讨论强不强,而是在讨论谁更省、谁更稳、谁更适合拿来循环调用。这才是真正的本地模型评测语境。
然后是与 Qwen3.5 的对比:从发布的型号上来看,Qwen3.5 官方在 2026年2月中旬首发 397B-A17B,随后又在2月24日放出 122B-A10B、35B-A3B、27B,在3月2日补了 9B、4B、2B、0.8B。就会发现Qwen3.5其实生态铺得很开,型号多,场景铺得非常积极。而这一次的 Gemma 4 则更像刀法收得更紧的产品线。它只有四档,但每一档的角色都更明确:E2B/E4B 是设备端和低延迟入口,26B A4B 是最有现实意义的高阶主力,31B Dense 负责把上限撑住。对比下来,Qwen3.5 像一个型号树很完整的生态家族,Gemma 4 更像一个更克制、但更强调 adoption path 的产品方案。前者是我什么都给你铺好了你自己挑;后者是我把最关键的几档做实,你直接选就完事儿了。
如果只看中高端这一层,最值得对比的其实不是 Gemma 4 31B 对 Qwen3.5 397B,那样比没意思,差了几个宇宙;真正值得比的是 Gemma 4 26B A4B 和 Qwen3.5-35B-A3B,再往上是 Gemma 4 31B 和 Qwen3.5-27B/35B-A3B 这两个区间。因为这几个型号都在瞄准我不是服务器里的旗舰怪兽,但我也不是玩具模型的现实档位。Qwen3.5-35B-A3B 的 hosted 版本被官方称作 Qwen3.5-Flash,默认 1M context,还带官方内置工具;Qwen README 也明确把它和 27B 一起放进主力开源档。Gemma 4 26B A4B 则主打 256K context、3.8B active parameters 和 fast inference。两边说的其实都是同一件事:我要给你一个既能做 reasoning/coding/agent,又不至于把显存和吞吐拖死的模型。只是 Qwen3.5 更像从服务化和生态角度讲这个故事,Gemma 4 更像从本地部署和参数效率角度讲这个故事。
从公开 benchmark 的相对位置看,这两家的中高端型号大体处在一个档位里,不存在那种一方把另一方按在地上摩擦的局面。Gemma 4 31B 官方给出的 MMLU-Pro、GPQA Diamond、LiveCodeBench 都很高;Qwen3.5 官方仓库和相关模型页也把 27B、35B-A3B 放在高性能开源主力档里,而且外部整理资料显示它们在 MMLU-Pro、GPQA Diamond、LiveCodeBench 这些项目上和 Gemma 4 31B/26B A4B 的差距非常小,更多是不同任务上互有胜负。这个时候再讨论谁 benchmark 多 1.2 分意义已经不大了。真正该问的是:你更在乎什么?如果你更在乎一个中高端型号能不能在本地 agent 循环里少烧 token、少拖延迟,Gemma 4 26B A4B 会很诱人;如果你更在乎生态成熟度、型号丰富度,以及围绕工具调用和多场景接入的一整套现成路径,Qwen3.5 的吸引力会更大。
这里还真有一个很现实的横向点:token 焦虑。今天很多人说“我想本地跑模型”,其实不是为了浪漫,不是为了隐私口号,而是因为 agent 一旦开始真的做事,token 烧起来是没有诗意的。你让一个模型看代码仓库、反复调用工具、做多轮检索、跑几轮修复和验证,它不是聊天,它是在持续烧预算。Gemma 4 26B A4B 之所以一下子让人上心,就是因为它把 总参数看起来不小 和 推理时真正付出的代价 拆开了。Google 官方就直说了:26B A4B 几乎像一个 4B 模型那么快。这个表述当然不是严格等号,但它已经清楚告诉你,这个型号存在的意义就是替你省 token 成本背后的另一层成本:显存、吞吐、延迟和 agent loop 的时间账。Qwen3.5-35B-A3B 走的是类似方向,也是用稀疏 MoE 去换效率,只不过 Qwen 更早把它往 hosted 和大生态上推,Gemma 4 则更像把它打磨成本地高阶实用款。
所以对比总结下来,我个人认为:Gemma 4 更像把单位硬件预算压榨得更漂亮的那种模型家族,Qwen3.5 更像把能力、生态和入口都铺得更完整的那种家族。Gemma 4 的气质是:我想让你在有限预算下也能体面地玩 reasoning、coding 和 agent。Qwen3.5 的气质是:我不仅想让你玩,还想给你一整套从本地到云、从 chat 到 tool use 的通路。
最后,说一下普通消费级显卡到底该上什么,分别能达到什么期望,Gemma 4 到底能不能让人接近 token 自由。先把结论放前面:所谓 token 自由,不是我再也不用算 token 了,而是我可以开始把模型当工具长期挂着,而不是每次调用都像在烧香。Gemma 4 能不能给你这种感觉,取决于你在哪个显存档位。8GB 显存,别想太多,E2B 才是正经答案。E4B 不是不能碰,但你要真拿 8GB 去幻想长上下文代码库分析、带视觉、多轮 agent,还想要顺滑,那基本属于把 README 当许愿池。8GB 档位能期待的是:本地摘要、轻量问答、简单代码解释、有限上下文的单步任务。你可以有一点本地自由,但不要把它想成桌面 Claude 替代品。
12GB 到 16GB 显存,这里开始进入 Gemma 4 真正有意思的区间。E4B 在这个档位很可能会成为非常实用的日常主力。官方给 E4B 的 effective parameters 是 4.5B,128K context,支持 text/audio/vision/video;Google 和 NVIDIA 都在把它往 on-device、mobile、low-latency 方向推。对普通开发者来说,这个档位最有可能实现的是有限但真实的 token 自由:你可以本地挂个助手,做知识库问答,跑轻量代码讲解,做基础 agent loop,甚至搞一些简单视觉任务,而且不会每一次调用都把机器拖成电热毯。它不是那种会让你感觉自己终于拥有贾维斯的模型,但很可能是你最愿意一直开着的模型。很多本地部署最后真正的主力,不是最强那个,而是那个你不会在十分钟后嫌它烦的。
24GB 显存才是 Gemma 4 这代最值得认真讨论的档位,因为这时候 26B A4B 开始有现实意义了。注意,我说的是有现实意义,不是闭眼无脑上。26B A4B 最有价值的地方,不是它名义上 26B,而是它推理时只激活 3.8B 参数,同时保留 256K context,目标就是让你在更复杂的推理、代码和 agent 场景里,别一下子被推理吞吐和上下文成本拖死。对于 24GB 用户来说,这可能是 Gemma 4 家族里最像高阶日用款的型号。你可以把它理解成一个终于敢正面回答本地 agent 到底能不能成的模型:它不保证你绝对自由,但它至少让多轮工具调用 + 中长上下文 + 代码任务从信仰变成了有点工程可能性的事情。和 Qwen3.5-35B-A3B 的比较也主要发生在这里。两者都是这个级别里最值得玩的稀疏路线,但 Gemma 4 26B A4B 更像是为本地推理经济学这个问题量身定做的。
31B Dense 怎么看?很强,这一点没什么可质疑的。官方 benchmark 就摆在那里,Google 和 NVIDIA 也都把它放在 high-performing reasoning / local and data center environments 的位置上。问题不在于它能不能跑,而在于你要不要把能跑误会成适合长期常驻。如果你是 48GB 以上的工作站用户,31B Dense 当然值得认真玩,它代表的是 Gemma 4 的质量上限;但如果你是普通消费级显卡用户,尤其是还想开 IDE、浏览器、数据库、再顺手让 agent 去看个仓库,那 31B 更多还是一种可以体验的旗舰,而不是我建议你把它当长期生产伙伴的那种模型。很多本地部署讨论里最大的问题,就是总把一次跑起来的截图,当成长期使用的证据。它俩差得比很多人想象的大。
其实如果把token 自由这件事儿拆得更细一点,其实它有三个层次。第一层叫“我不想每次都调用云 API”,8GB 到 16GB 的 E2B/E4B 已经能给一部分自由。第二层叫“我希望 agent 可以多走几步,不至于刚动起来就开始让我肉疼”,这时候你需要的已经不是小模型本身,而是 24GB 档位下类似 26B A4B 这种会认真替你节省推理成本的中高端模型。第三层叫“我想把长上下文代码工作流、本地工具调用、复杂多轮推理都挂在桌面上,当成常驻生产力”,这事今天还远没有全民自由,哪怕 Gemma 4 已经往前推了一大步,它也更接近高配用户开始有体感,而不是普通消费级显卡全面解放。Gemma 4 这代真正的进步,不是让所有人都自由了,而是让自由终于开始按预算分层,而不是只属于服务器和云账单。
所以回到最开始那三个问题,我的总结大概是这样的。
第一,Gemma 4 的媒体评价和玩家评价总体都不错,而且不是那种纯情绪上的新模型滤镜,它确实在参数效率、部署路径和中高端实用性上拿出了很能打的东西;但与此同时,生态仍在首发磨合,不能装作它已经成熟得像用了半年。
第二,Gemma 4 和 Qwen3.5 的比较,不是非要分个绝对胜负,而是谁更适合你那条技术路线。Qwen3.5 胜在家族更全、生态更广、场景入口更丰富;Gemma 4 胜在型号更克制,尤其 26B A4B 这一档,对本地部署和 token 焦虑有很强的现实解释力。
第三,消费级显卡当然可以玩 Gemma 4,但要分档位谈期望:8GB 是求生,12–16GB 是实用,24GB 才真正开始接近本地 agent 和代码工作流能体面展开”的阶段,31B Dense 仍然更像工作站选项,而不是大众常驻选项。