Gemma 4 教程
Gemma 4 本地部署指南:用龙虾搭建零成本私人AI助手
Google 最新发布的 Gemma 4 是目前最强的开源大模型之一。本文教你用龙虾(OpenClaw)在本地运行 Gemma 4,并部署到 Telegram、微信、Discord 等 12+ 聊天平台,实现零 token 费用、数据完全私有的 AI 助手。
为什么选 Gemma 4?
Gemma 4 是 Google 最新发布的开源大模型系列,包含 2B、9B、27B 等多个参数规模版本。相比前代 Gemma 3,Gemma 4 在推理能力、多语言支持(包括中文)和上下文长度上都有显著提升。
Gemma 4 的核心优势:
- 完全开源:模型权重可商用,无需付费授权
- 本地运行:不需要联网,不需要向 OpenAI 或 Anthropic 支付 token 费用
- 数据私有:对话内容永远不会离开你的电脑
- 中文能力优秀:Gemma 4 对中文的理解和生成能力接近 GPT-4o
- 硬件友好:2B 版本可在 MacBook Air 上流畅运行,9B 版本需要 12GB 显存
如果你关心数据隐私、或者每月 AI 使用量很大、或者需要离线环境下可用的 AI 助手,Gemma 4 都是非常合适的选择。
Gemma 4 硬件需求
不同版本的 Gemma 4 对硬件的要求不同:
- Gemma 4 2B:8GB 内存即可,MacBook Air 或入门 PC 都能跑。适合日常聊天、翻译等轻量任务。
- Gemma 4 9B:需要 12GB 显存或 16GB 统一内存(M2 Pro/M3)。性价比最高,质量接近 GPT-3.5。
- Gemma 4 27B:需要 24GB 以上显存(RTX 3090/4090/M3 Max)。质量接近 Claude Sonnet。
如果你用 M 系列 Mac,建议直接选 9B 或 27B 版本,Apple Silicon 的统一内存架构非常适合跑大模型。
第一步:用 Ollama 运行 Gemma 4
Ollama 是目前最简单的本地模型运行工具,支持一键下载和启动 Gemma 4。
安装步骤:
- 访问 ollama.com 下载安装包(支持 macOS、Windows、Linux)
- 安装完成后,打开终端运行:
ollama pull gemma4:9b - Ollama 会自动下载模型(约 6GB),下载完成后运行:
ollama serve - Ollama 会在
http://localhost:11434启动一个 OpenAI 兼容的 API 服务
第二步:连接龙虾(OpenClaw)
龙虾(OpenClaw Launch)是一个 AI 助手托管平台,支持连接任何 OpenAI 兼容的 API 作为模型后端。也就是说,我们可以让龙虾把 Gemma 4 当作"自定义模型"来使用。
配置步骤:
- 访问 openclawlaunch.com 注册账号
- 在配置页面,添加一个自定义模型提供商:
- 名称:
local-gemma - Base URL:
http://host.docker.internal:11434/v1(Docker 容器访问宿主机) - API Key:任意字符串(本地服务不校验)
- 模型 ID:
gemma4:9b
- 名称:
- 选择
local-gemma作为默认模型 - 连接 Telegram、微信或其他聊天平台
- 点击"部署",30 秒内你的 Gemma 4 机器人就上线了
第三步:测试效果
部署完成后,直接在 Telegram 或微信里给你的机器人发消息。所有对话都由本地的 Gemma 4 模型处理,完全不经过任何第三方服务。
推荐的测试问题:
- 中文写作:"帮我写一封辞职信"
- 逻辑推理:"小明有 3 个苹果,吃了 1 个,又买了 5 个,现在有几个?"
- 代码生成:"用 Python 写一个冒泡排序"
- 翻译:"把这段英文翻译成中文..."
Gemma 4 vs 其他开源模型
2026 年最值得关注的几个开源大模型对比:
| 模型 | 参数规模 | 中文能力 | 硬件需求 | 推荐指数 |
|---|---|---|---|---|
| Gemma 4 9B | 9B | 优秀 | 12GB 显存 | ★★★★★ |
| DeepSeek R1 Distill | 7B-70B | 极佳 | 8GB-48GB | ★★★★★ |
| Qwen 3 | 7B-72B | 极佳 | 8GB-48GB | ★★★★ |
| Llama 3.3 | 8B-70B | 良好 | 10GB-48GB | ★★★★ |
如果你的主要任务是中文,Qwen 3 和 DeepSeek R1 仍然是最佳选择。但 Gemma 4 的优势在于它更均衡 — 中文、英文、代码、推理各方面表现都很稳定,而且 Google 的生态支持(包括与 Vertex AI 的无缝迁移)在中长期是一个加分项。
常见问题
Gemma 4 可以商用吗?
可以。Gemma 4 使用 Gemma 许可证,允许个人和商业使用,但有一些限制(例如不能用于恶意用途)。具体请阅读 Google 的许可条款。
Gemma 4 和 Gemini 是什么关系?
Gemini 是 Google 的闭源商业模型,性能更强但需要付费调用 API。Gemma 4 是 Google 开源的"小号"模型,共享部分技术但可以免费本地运行。简单来说:Gemini 是云端 API,Gemma 4 是本地部署。
响应速度怎么样?
在 M2 Pro 笔记本上,Gemma 4 9B 的推理速度约 20-30 tokens/秒,日常对话非常流畅。27B 版本大约 8-15 tokens/秒,仍然可用。
可以同时使用 Gemma 4 和云端模型吗?
可以。龙虾支持配置多个模型,你可以让默认对话用 Gemma 4(免费),复杂任务切换到 GPT-4 或 Claude Sonnet(云端付费)。
开始使用 Gemma 4 + 龙虾
Gemma 4 + 龙虾是目前搭建零成本、私有化 AI 助手最好的组合。模型本地运行,数据完全不外泄,同时拥有龙虾带来的 12+ 聊天平台、技能系统和 MCP 工具集成。
访问龙虾(OpenClaw Launch) — 2 分钟部署,连接你本地的 Gemma 4 模型,立刻拥有一个私人 AI 助手。Lite 方案首月仅 $3。