Google 今天发布了 Gemma 4,这是他们迄今最强的开源模型家族,脱胎于 Gemini 3 的同一套研究成果。
最大的变化是许可证。之前的 Gemma 用的是 Google 自家的许可协议,限制不少。这次 Gemma 4 全系列换成了 Apache 2.0 开源协议,商用、修改、分发都没障碍。对企业和独立开发者来说,这意味着可以放心把模型嵌入自己的产品,不用再反复研究条款里的灰色地带。
Gemma 4 提供四个尺寸:31B Dense、26B MoE(混合专家架构)、E4B 和 E2B。其中 31B 在 Arena AI 开源模型文本排行榜上排第三,26B 排第六,Google 称它们的表现超过了体量大 20 倍的模型。大模型支持 256K 上下文窗口,可以一次性喂入长文档或整个代码仓库。
有意思的是端侧能力。E2B 和 E4B 两个小模型是 Google 和 Pixel 团队、高通、联发科联合开发的,能跑在手机、树莓派、Jetson Nano 上,延迟接近零。小模型还额外支持音频输入和语音理解。想在手机上跑一个能看图、听话、还能离线写代码的本地 AI 智能体,现在有了一个不错的开箱即用选项。
31B 模型不做量化的情况下,可以装进单张 80GB 的 H100 显卡。全系列原生支持函数调用和结构化 JSON 输出,直接面向 AI Agent 开发场景。目前已经可以在 Google AI Studio、Hugging Face、Kaggle、Ollama 等平台获取模型权重。
Gemma 系列自发布以来累计下载量已超过 4 亿次,社区创建了超过 10 万个变体。Google 显然想用开源生态绑住开发者。不过在 Arena AI 开源排行榜上,目前前列位置大量被中国开源模型占据,Gemma 4 的 31B 排第三,能守住多久是个问号。