Skip to content
On this page

Gemma 4 - Google 开源模型本地部署

是什么

Gemma 4 是 Google 推出的开源轻量级模型系列,可通过 Ollama 在本地运行,无需联网,完全免费,支持 2B 到 31B 多种规格。

  • 特点: 开源、免费、本地运行、隐私优先
  • 通过 Ollama 运行,支持 Mac / Windows / Linux

解决啥

  • 隐私顾虑:代码/文档不想上传到云端 API
  • 网络限制:没有稳定的外网访问,离线环境也要用
  • 成本控制:API 调用按 token 收费,本地运行零成本
  • 快速验证:本地跑通流程,再上云端大模型

怎么跑

Step 1:安装 Ollama

bash
# Mac/Linux
curl -fsSL https://ollama.com/install.sh | sh

# Mac via Homebrew
brew install --cask ollama

# Windows:官网下载安装包

Step 2:拉取模型

bash
ollama pull gemma4          # 默认版本
ollama pull gemma4:e2b      # 最小规格,显存 ≤6GB
ollama pull gemma4:e4b      # 均衡版,显存 8-12GB
ollama pull gemma4:26b      # 高质量版,显存 ≥12GB
ollama pull gemma4:31b      # 最高质量,显存 ≥16GB

Step 3:验证运行

bash
ollama list                 # 确认模型已下载
ollama run gemma4 "roses are red"  # 测试运行

Step 4:API 调用

bash
curl http://localhost:11434/api/generate \
  -d '{"model":"gemma4","prompt":"Summarize why local AI matters.","stream":false}'

好在哪

维度说明
🆓 完全免费无 API 费用,无使用限制
🔒 隐私优先数据不出本机,适合处理敏感代码/文档
🌍 离线可用无网络也能跑
⚙️ 多规格2B 到 31B,按机器配置选择
📦 简单易用Ollama 一条命令安装和运行

版本选择参考:

机器配置推荐版本
CPU / 显存 ≤ 6GBgemma4:e2b
显存 8-12GB / Mac 16GB+gemma4:e4b(性价比最优)
显存 ≥ 12GBgemma4:26b
显存 ≥ 16GBgemma4:31b

怎么用

场景 1:本地代码辅助

本地跑起 gemma4,在本地跑轻量辅助任务(润色代码、解释逻辑),敏感代码不外传。

场景 2:快速原型验证

本地用 gemma4 验证 prompt 和流程,效果满意了再切到云端大模型。

场景 3:离线开发

飞机上、高铁上、服务器房……没有网络,照常跑 AI 辅助。


📚 更多资源:Ollama 官网 | Gemma 4 系列指南