← 首页

Gemma 4 教程

Gemma 4 本地部署指南:用龙虾搭建零成本私人AI助手

Google 最新发布的 Gemma 4 是目前最强的开源大模型之一。本文教你用龙虾(OpenClaw)在本地运行 Gemma 4,并部署到 Telegram、微信、Discord 等 12+ 聊天平台,实现零 token 费用、数据完全私有的 AI 助手。

为什么选 Gemma 4?

Gemma 4 是 Google 最新发布的开源大模型系列,包含 2B、9B、27B 等多个参数规模版本。相比前代 Gemma 3,Gemma 4 在推理能力、多语言支持(包括中文)和上下文长度上都有显著提升。

Gemma 4 的核心优势:

  • 完全开源:模型权重可商用,无需付费授权
  • 本地运行:不需要联网,不需要向 OpenAI 或 Anthropic 支付 token 费用
  • 数据私有:对话内容永远不会离开你的电脑
  • 中文能力优秀:Gemma 4 对中文的理解和生成能力接近 GPT-4o
  • 硬件友好:2B 版本可在 MacBook Air 上流畅运行,9B 版本需要 12GB 显存

如果你关心数据隐私、或者每月 AI 使用量很大、或者需要离线环境下可用的 AI 助手,Gemma 4 都是非常合适的选择。

Gemma 4 硬件需求

不同版本的 Gemma 4 对硬件的要求不同:

  • Gemma 4 2B:8GB 内存即可,MacBook Air 或入门 PC 都能跑。适合日常聊天、翻译等轻量任务。
  • Gemma 4 9B:需要 12GB 显存或 16GB 统一内存(M2 Pro/M3)。性价比最高,质量接近 GPT-3.5。
  • Gemma 4 27B:需要 24GB 以上显存(RTX 3090/4090/M3 Max)。质量接近 Claude Sonnet。

如果你用 M 系列 Mac,建议直接选 9B 或 27B 版本,Apple Silicon 的统一内存架构非常适合跑大模型。

第一步:用 Ollama 运行 Gemma 4

Ollama 是目前最简单的本地模型运行工具,支持一键下载和启动 Gemma 4。

安装步骤:

  1. 访问 ollama.com 下载安装包(支持 macOS、Windows、Linux)
  2. 安装完成后,打开终端运行:ollama pull gemma4:9b
  3. Ollama 会自动下载模型(约 6GB),下载完成后运行:ollama serve
  4. Ollama 会在 http://localhost:11434 启动一个 OpenAI 兼容的 API 服务

第二步:连接龙虾(OpenClaw)

龙虾(OpenClaw Launch)是一个 AI 助手托管平台,支持连接任何 OpenAI 兼容的 API 作为模型后端。也就是说,我们可以让龙虾把 Gemma 4 当作"自定义模型"来使用。

配置步骤:

  1. 访问 openclawlaunch.com 注册账号
  2. 在配置页面,添加一个自定义模型提供商:
    • 名称:local-gemma
    • Base URL:http://host.docker.internal:11434/v1(Docker 容器访问宿主机)
    • API Key:任意字符串(本地服务不校验)
    • 模型 ID:gemma4:9b
  3. 选择 local-gemma 作为默认模型
  4. 连接 Telegram、微信或其他聊天平台
  5. 点击"部署",30 秒内你的 Gemma 4 机器人就上线了

第三步:测试效果

部署完成后,直接在 Telegram 或微信里给你的机器人发消息。所有对话都由本地的 Gemma 4 模型处理,完全不经过任何第三方服务。

推荐的测试问题:

  • 中文写作:"帮我写一封辞职信"
  • 逻辑推理:"小明有 3 个苹果,吃了 1 个,又买了 5 个,现在有几个?"
  • 代码生成:"用 Python 写一个冒泡排序"
  • 翻译:"把这段英文翻译成中文..."

Gemma 4 vs 其他开源模型

2026 年最值得关注的几个开源大模型对比:

模型参数规模中文能力硬件需求推荐指数
Gemma 4 9B9B优秀12GB 显存★★★★★
DeepSeek R1 Distill7B-70B极佳8GB-48GB★★★★★
Qwen 37B-72B极佳8GB-48GB★★★★
Llama 3.38B-70B良好10GB-48GB★★★★

如果你的主要任务是中文,Qwen 3 和 DeepSeek R1 仍然是最佳选择。但 Gemma 4 的优势在于它更均衡 — 中文、英文、代码、推理各方面表现都很稳定,而且 Google 的生态支持(包括与 Vertex AI 的无缝迁移)在中长期是一个加分项。

常见问题

Gemma 4 可以商用吗?

可以。Gemma 4 使用 Gemma 许可证,允许个人和商业使用,但有一些限制(例如不能用于恶意用途)。具体请阅读 Google 的许可条款。

Gemma 4 和 Gemini 是什么关系?

Gemini 是 Google 的闭源商业模型,性能更强但需要付费调用 API。Gemma 4 是 Google 开源的"小号"模型,共享部分技术但可以免费本地运行。简单来说:Gemini 是云端 API,Gemma 4 是本地部署。

响应速度怎么样?

在 M2 Pro 笔记本上,Gemma 4 9B 的推理速度约 20-30 tokens/秒,日常对话非常流畅。27B 版本大约 8-15 tokens/秒,仍然可用。

可以同时使用 Gemma 4 和云端模型吗?

可以。龙虾支持配置多个模型,你可以让默认对话用 Gemma 4(免费),复杂任务切换到 GPT-4 或 Claude Sonnet(云端付费)。

开始使用 Gemma 4 + 龙虾

Gemma 4 + 龙虾是目前搭建零成本、私有化 AI 助手最好的组合。模型本地运行,数据完全不外泄,同时拥有龙虾带来的 12+ 聊天平台、技能系统和 MCP 工具集成。

访问龙虾(OpenClaw Launch) — 2 分钟部署,连接你本地的 Gemma 4 模型,立刻拥有一个私人 AI 助手。Lite 方案首月仅 $3。