网络配置
OpenClaw 代理配置指南 — 国内用户必读
国内用户如何配置网络代理访问海外AI API,以及无需代理的替代方案。
为什么需要代理?
在中国大陆,由于网络限制,用户无法直接访问部分海外AI服务的API。如果你自建部署 OpenClaw 并想使用 OpenAI (GPT)、Anthropic (Claude)、Google (Gemini) 等模型,你的服务器需要能够访问这些API端点。
如果你的服务器在国内(阿里云、腾讯云、华为云等),就需要配置代理或选择其他方案。如果你的服务器本身在海外(AWS、GCP、Hetzner 等),则无需任何代理配置。
哪些服务需要代理?
以下是常见AI模型API的访问情况:
| 服务 | 是否需要代理 | 说明 |
|---|---|---|
| OpenAI API (GPT) | 需要 | api.openai.com 被墙,国内无法直连 |
| Anthropic API (Claude) | 需要 | api.anthropic.com 被墙 |
| Google AI (Gemini) | 需要 | generativelanguage.googleapis.com 被墙 |
| DeepSeek API | 不需要 | 国内服务,api.deepseek.com 直连 |
| Kimi / Moonshot API | 不需要 | 月之暗面,国内服务 |
| 阿里通义千问 API | 不需要 | 阿里云 DashScope,国内直连 |
| Ollama 本地部署 | 不需要 | 本地运行,无需任何网络 |
代理配置方法
如果你自建 OpenClaw 并需要访问海外API,以下是几种常用的代理配置方式。OpenClaw 通常以 Docker 容器方式运行,因此重点介绍 Docker 环境下的代理设置。
方法1:docker run 添加环境变量(推荐)
在启动容器时直接通过 -e 参数设置代理环境变量,最简单直接:
docker run -d \
-e HTTP_PROXY=http://你的代理地址:端口 \
-e HTTPS_PROXY=http://你的代理地址:端口 \
-e NO_PROXY=localhost,127.0.0.1 \
-v ~/.openclaw:/home/node/.openclaw \
-p 18789:18789 \
ghcr.io/openclaw/openclaw:latest \
node openclaw.mjs gateway --allow-unconfigured其中 HTTP_PROXY 和 HTTPS_PROXY 指向你的代理服务器地址。常用代理协议包括 HTTP、SOCKS5 等。NO_PROXY 设置不走代理的地址,避免本地通信也经过代理。
方法2:Docker daemon 全局代理
如果你希望所有 Docker 容器都自动使用代理,可以配置 Docker daemon 的全局代理。编辑或创建 /etc/docker/daemon.json:
{
"proxies": {
"http-proxy": "http://你的代理地址:端口",
"https-proxy": "http://你的代理地址:端口",
"no-proxy": "localhost,127.0.0.1"
}
}修改后需要重启 Docker 服务:sudo systemctl restart docker。注意这会影响所有容器。
方法3:docker-compose 代理配置
如果你使用 docker-compose 管理 OpenClaw,在 docker-compose.yml 中添加环境变量:
version: '3'
services:
openclaw:
image: ghcr.io/openclaw/openclaw:latest
environment:
- HTTP_PROXY=http://你的代理地址:端口
- HTTPS_PROXY=http://你的代理地址:端口
- NO_PROXY=localhost,127.0.0.1
volumes:
- ./openclaw-data:/home/node/.openclaw
ports:
- "18789:18789"
command: node openclaw.mjs gateway --allow-unconfigured方法4:容器内 SOCKS5 代理
部分场景下,你可能需要使用 SOCKS5 代理。Node.js 环境通常不原生支持 SOCKS5 的HTTP_PROXY 变量,但可以通过 ALL_PROXY 配合相关工具实现:
docker run -d \
-e ALL_PROXY=socks5://你的代理地址:端口 \
-e HTTP_PROXY=socks5://你的代理地址:端口 \
-e HTTPS_PROXY=socks5://你的代理地址:端口 \
...OpenRouter 作为替代方案
OpenRouter 是一个统一的AI模型API网关,可以作为代理的替代方案:
- 一个API Key访问所有模型 — OpenAI、Anthropic、Google、Meta 等主流模型都可以通过 OpenRouter 的统一接口调用
- 部分节点对国内友好 — OpenRouter 的部分服务节点国内可以直接访问,无需额外代理配置
- OpenClaw 原生支持 — OpenClaw 内置 OpenRouter 作为模型提供商,配置 API Key 即可使用
- 按量计费 — 无月费,用多少付多少,适合个人用户
在 OpenClaw 配置中,将模型提供商设置为 OpenRouter,填入你的 API Key,即可绕过直连海外API的限制。这是自建部署用户最方便的解决方案之一。
国内可直接使用的模型(无需代理)
如果你不想折腾代理,也可以选择国内的AI模型,这些服务在国内可以直接访问:
DeepSeek — 国内最佳开源模型
DeepSeek 是国内最强的开源大模型之一,API直连,速度快,价格低。DeepSeek-V3 和 DeepSeek-R1 在多项基准测试中表现优异,是国内用户的首选。OpenClaw 支持直接配置 DeepSeek API。
Kimi(月之暗面)— 超长上下文
月之暗面推出的 Kimi 模型支持超长上下文窗口(200万tokens),特别适合需要处理长文档的场景。API通过 Moonshot 平台提供。
通义千问(阿里)— 阿里云生态
阿里的通义千问系列模型通过阿里云 DashScope 平台提供 API。与阿里云生态深度集成,适合已有阿里云账号的用户。Qwen 系列模型开源版本也可以本地部署。
智谱 GLM — 清华系
清华大学团队研发的 GLM 系列模型,通过智谱AI平台提供 API。GLM-4 性能优秀,支持多模态输入。
硅基流动 — 模型聚合平台
硅基流动(SiliconFlow)类似国内版 OpenRouter,聚合了多个开源模型的推理服务。一个 API Key 可以访问 DeepSeek、Qwen、GLM 等多种模型,部分模型免费使用。
百度文心 — 百度系
百度的文心一言系列模型,通过百度智能云千帆平台提供 API。与百度搜索、百度云生态集成。
火山引擎(字节)— 豆包模型
字节跳动旗下火山引擎提供的豆包(Doubao)大模型 API。价格有竞争力,适合高并发场景。
OpenClaw Launch — 免代理方案(推荐)
如果你不想自建服务器、不想配置代理,OpenClaw Launch 是最简单的方案:
- 服务器在海外 — 我们的服务器部署在美国,直连所有海外AI API(OpenAI、Anthropic、Google 等),无需任何代理配置
- 一键部署 — 在网页上选择模型、配置参数,点击部署即可,10秒上线
- 无需运维 — 无需管理服务器、Docker、代理,我们负责一切基础设施
- 支持 Telegram / Discord / 网页聊天 — 部署后立即可用
- $3/月起 — 首月仅 $3,之后 $6/月(Lite套餐)
- 国内可正常访问 — openclawlaunch.com 使用 Cloudflare CDN,国内用户可以正常打开网站和管理面板
对于不想折腾代理和服务器的用户,OpenClaw Launch 是最省心的选择。你只需要一个 Telegram 账号,剩下的交给我们。
常见代理问题
DNS 泄露
即使配置了 HTTP/HTTPS 代理,DNS 解析请求可能仍然走默认路线,导致被污染的 DNS 结果让代理失效。解决方案:在代理配置中启用远程 DNS 解析,或使用可靠的 DNS 服务器(如 8.8.8.8、1.1.1.1)。
代理不稳定
免费代理或低质量代理经常断连,导致 OpenClaw 发送API请求时超时。建议使用稳定的付费代理服务,或直接使用 OpenClaw Launch 免去代理烦恼。
Docker 内代理不生效
Docker 容器有自己独立的网络命名空间。宿主机的代理不会自动传递到容器内。你需要通过上述方法明确设置容器的代理环境变量。另外注意:如果你的代理运行在宿主机上(如 127.0.0.1:7890),在容器内要使用 host.docker.internal:7890(macOS/Windows)或宿主机的局域网IP(Linux)。
HTTPS 证书问题
部分代理会对 HTTPS 流量进行中间人解密(MITM),导致证书验证失败。如果遇到 UNABLE_TO_VERIFY_LEAF_SIGNATURE 或类似错误,检查代理是否替换了证书。可以通过设置 NODE_TLS_REJECT_UNAUTHORIZED=0 临时绕过(不推荐用于生产环境),或导入代理的CA证书。
常见问题 (FAQ)
使用 OpenClaw 必须用代理吗?
不一定。如果你使用国内模型(DeepSeek、通义千问等)或本地模型(Ollama),完全不需要代理。只有当你想使用 OpenAI、Anthropic、Google 等海外API,且服务器在国内时,才需要代理。或者你可以使用 OpenClaw Launch,服务器在海外,免代理。
DeepSeek 够用吗?
对于大部分场景,DeepSeek-V3 和 DeepSeek-R1 的表现已经非常优秀,接近 GPT-4 水平。如果你的主要需求是中文对话、文本生成、代码编写,DeepSeek 完全够用且性价比极高。如果你需要使用特定模型(如 Claude、GPT-4o)或需要最新的模型能力,则需要海外API访问。
OpenClaw Launch 在国内能访问吗?
可以。openclawlaunch.com 使用 Cloudflare CDN 加速,国内大部分地区可以正常访问网站和管理面板。部署的 Telegram / Discord 机器人也正常工作(Telegram 本身在国内需要代理访问,但机器人的API通信由我们的海外服务器处理)。
OpenRouter 在国内能直接用吗?
OpenRouter 的部分节点国内可以直连,但稳定性取决于你的网络环境。建议先测试 curl https://openrouter.ai/api/v1/models 看是否能正常访问。如果不行,OpenRouter 本身也需要代理。
Ollama 本地部署需要代理吗?
Ollama 运行完全在本地,推理不需要任何网络。但下载模型时需要访问 ollama.com,该站点在部分地区可能需要代理。模型下载完成后,运行完全离线。