当地时间4月2日,谷歌正式推出Gemma 4大模型,包括四种规格的Gemma 4通用模型:高效20亿参数版(E2B)、高效40亿参数版(E4B)、260亿混合专家模型(MoE)与310亿稠密模型(31B)。
在本地机器上跑了下。
Gemma 4 模型系列包含三种不同的架构,这些架构专为满足特定的硬件要求而设计:
- 小型: 2B 和 4B 有效参数模型,专为超移动设备、边缘设备和浏览器部署(例如 Pixel、Chrome)而打造。
- 密集型: 一种强大的 31B 参数密集型模型,可弥合服务器级性能与本地执行之间的差距。
- Mixture-of-Experts:: 一种高效的 26B MoE 模型,专为高吞吐量、高级推理而设计。
机器上装的是小型 4B 的模型。


