Appearance
Gemma 4 - Google 开源模型本地部署
是什么
Gemma 4 是 Google 推出的开源轻量级模型系列,可通过 Ollama 在本地运行,无需联网,完全免费,支持 2B 到 31B 多种规格。
- 特点: 开源、免费、本地运行、隐私优先
- 通过 Ollama 运行,支持 Mac / Windows / Linux
解决啥
- 隐私顾虑:代码/文档不想上传到云端 API
- 网络限制:没有稳定的外网访问,离线环境也要用
- 成本控制:API 调用按 token 收费,本地运行零成本
- 快速验证:本地跑通流程,再上云端大模型
怎么跑
Step 1:安装 Ollama
bash
# Mac/Linux
curl -fsSL https://ollama.com/install.sh | sh
# Mac via Homebrew
brew install --cask ollama
# Windows:官网下载安装包
Step 2:拉取模型
bash
ollama pull gemma4 # 默认版本
ollama pull gemma4:e2b # 最小规格,显存 ≤6GB
ollama pull gemma4:e4b # 均衡版,显存 8-12GB
ollama pull gemma4:26b # 高质量版,显存 ≥12GB
ollama pull gemma4:31b # 最高质量,显存 ≥16GB
Step 3:验证运行
bash
ollama list # 确认模型已下载
ollama run gemma4 "roses are red" # 测试运行
Step 4:API 调用
bash
curl http://localhost:11434/api/generate \
-d '{"model":"gemma4","prompt":"Summarize why local AI matters.","stream":false}'
好在哪
| 维度 | 说明 |
|---|---|
| 🆓 完全免费 | 无 API 费用,无使用限制 |
| 🔒 隐私优先 | 数据不出本机,适合处理敏感代码/文档 |
| 🌍 离线可用 | 无网络也能跑 |
| ⚙️ 多规格 | 2B 到 31B,按机器配置选择 |
| 📦 简单易用 | Ollama 一条命令安装和运行 |
版本选择参考:
| 机器配置 | 推荐版本 |
|---|---|
| CPU / 显存 ≤ 6GB | gemma4:e2b |
| 显存 8-12GB / Mac 16GB+ | gemma4:e4b(性价比最优) |
| 显存 ≥ 12GB | gemma4:26b |
| 显存 ≥ 16GB | gemma4:31b |
怎么用
场景 1:本地代码辅助
本地跑起 gemma4,在本地跑轻量辅助任务(润色代码、解释逻辑),敏感代码不外传。
场景 2:快速原型验证
本地用 gemma4 验证 prompt 和流程,效果满意了再切到云端大模型。
场景 3:离线开发
飞机上、高铁上、服务器房……没有网络,照常跑 AI 辅助。
📚 更多资源:Ollama 官网 | Gemma 4 系列指南