← 首页

网络配置

OpenClaw 代理配置指南 — 国内用户必读

国内用户如何配置网络代理访问海外AI API,以及无需代理的替代方案。

为什么需要代理?

在中国大陆,由于网络限制,用户无法直接访问部分海外AI服务的API。如果你自建部署 OpenClaw 并想使用 OpenAI (GPT)、Anthropic (Claude)、Google (Gemini) 等模型,你的服务器需要能够访问这些API端点。

如果你的服务器在国内(阿里云、腾讯云、华为云等),就需要配置代理或选择其他方案。如果你的服务器本身在海外(AWS、GCP、Hetzner 等),则无需任何代理配置。

哪些服务需要代理?

以下是常见AI模型API的访问情况:

服务是否需要代理说明
OpenAI API (GPT)需要api.openai.com 被墙,国内无法直连
Anthropic API (Claude)需要api.anthropic.com 被墙
Google AI (Gemini)需要generativelanguage.googleapis.com 被墙
DeepSeek API不需要国内服务,api.deepseek.com 直连
Kimi / Moonshot API不需要月之暗面,国内服务
阿里通义千问 API不需要阿里云 DashScope,国内直连
Ollama 本地部署不需要本地运行,无需任何网络

代理配置方法

如果你自建 OpenClaw 并需要访问海外API,以下是几种常用的代理配置方式。OpenClaw 通常以 Docker 容器方式运行,因此重点介绍 Docker 环境下的代理设置。

方法1:docker run 添加环境变量(推荐)

在启动容器时直接通过 -e 参数设置代理环境变量,最简单直接:

docker run -d \
  -e HTTP_PROXY=http://你的代理地址:端口 \
  -e HTTPS_PROXY=http://你的代理地址:端口 \
  -e NO_PROXY=localhost,127.0.0.1 \
  -v ~/.openclaw:/home/node/.openclaw \
  -p 18789:18789 \
  ghcr.io/openclaw/openclaw:latest \
  node openclaw.mjs gateway --allow-unconfigured

其中 HTTP_PROXYHTTPS_PROXY 指向你的代理服务器地址。常用代理协议包括 HTTP、SOCKS5 等。NO_PROXY 设置不走代理的地址,避免本地通信也经过代理。

方法2:Docker daemon 全局代理

如果你希望所有 Docker 容器都自动使用代理,可以配置 Docker daemon 的全局代理。编辑或创建 /etc/docker/daemon.json

{
  "proxies": {
    "http-proxy": "http://你的代理地址:端口",
    "https-proxy": "http://你的代理地址:端口",
    "no-proxy": "localhost,127.0.0.1"
  }
}

修改后需要重启 Docker 服务:sudo systemctl restart docker。注意这会影响所有容器。

方法3:docker-compose 代理配置

如果你使用 docker-compose 管理 OpenClaw,在 docker-compose.yml 中添加环境变量:

version: '3'
services:
  openclaw:
    image: ghcr.io/openclaw/openclaw:latest
    environment:
      - HTTP_PROXY=http://你的代理地址:端口
      - HTTPS_PROXY=http://你的代理地址:端口
      - NO_PROXY=localhost,127.0.0.1
    volumes:
      - ./openclaw-data:/home/node/.openclaw
    ports:
      - "18789:18789"
    command: node openclaw.mjs gateway --allow-unconfigured

方法4:容器内 SOCKS5 代理

部分场景下,你可能需要使用 SOCKS5 代理。Node.js 环境通常不原生支持 SOCKS5 的HTTP_PROXY 变量,但可以通过 ALL_PROXY 配合相关工具实现:

docker run -d \
  -e ALL_PROXY=socks5://你的代理地址:端口 \
  -e HTTP_PROXY=socks5://你的代理地址:端口 \
  -e HTTPS_PROXY=socks5://你的代理地址:端口 \
  ...

OpenRouter 作为替代方案

OpenRouter 是一个统一的AI模型API网关,可以作为代理的替代方案:

  • 一个API Key访问所有模型 — OpenAI、Anthropic、Google、Meta 等主流模型都可以通过 OpenRouter 的统一接口调用
  • 部分节点对国内友好 — OpenRouter 的部分服务节点国内可以直接访问,无需额外代理配置
  • OpenClaw 原生支持 — OpenClaw 内置 OpenRouter 作为模型提供商,配置 API Key 即可使用
  • 按量计费 — 无月费,用多少付多少,适合个人用户

在 OpenClaw 配置中,将模型提供商设置为 OpenRouter,填入你的 API Key,即可绕过直连海外API的限制。这是自建部署用户最方便的解决方案之一。

国内可直接使用的模型(无需代理)

如果你不想折腾代理,也可以选择国内的AI模型,这些服务在国内可以直接访问:

DeepSeek — 国内最佳开源模型

DeepSeek 是国内最强的开源大模型之一,API直连,速度快,价格低。DeepSeek-V3 和 DeepSeek-R1 在多项基准测试中表现优异,是国内用户的首选。OpenClaw 支持直接配置 DeepSeek API。

Kimi(月之暗面)— 超长上下文

月之暗面推出的 Kimi 模型支持超长上下文窗口(200万tokens),特别适合需要处理长文档的场景。API通过 Moonshot 平台提供。

通义千问(阿里)— 阿里云生态

阿里的通义千问系列模型通过阿里云 DashScope 平台提供 API。与阿里云生态深度集成,适合已有阿里云账号的用户。Qwen 系列模型开源版本也可以本地部署。

智谱 GLM — 清华系

清华大学团队研发的 GLM 系列模型,通过智谱AI平台提供 API。GLM-4 性能优秀,支持多模态输入。

硅基流动 — 模型聚合平台

硅基流动(SiliconFlow)类似国内版 OpenRouter,聚合了多个开源模型的推理服务。一个 API Key 可以访问 DeepSeek、Qwen、GLM 等多种模型,部分模型免费使用。

百度文心 — 百度系

百度的文心一言系列模型,通过百度智能云千帆平台提供 API。与百度搜索、百度云生态集成。

火山引擎(字节)— 豆包模型

字节跳动旗下火山引擎提供的豆包(Doubao)大模型 API。价格有竞争力,适合高并发场景。

OpenClaw Launch — 免代理方案(推荐)

如果你不想自建服务器、不想配置代理,OpenClaw Launch 是最简单的方案:

  • 服务器在海外 — 我们的服务器部署在美国,直连所有海外AI API(OpenAI、Anthropic、Google 等),无需任何代理配置
  • 一键部署 — 在网页上选择模型、配置参数,点击部署即可,10秒上线
  • 无需运维 — 无需管理服务器、Docker、代理,我们负责一切基础设施
  • 支持 Telegram / Discord / 网页聊天 — 部署后立即可用
  • $3/月起 — 首月仅 $3,之后 $6/月(Lite套餐)
  • 国内可正常访问 — openclawlaunch.com 使用 Cloudflare CDN,国内用户可以正常打开网站和管理面板

对于不想折腾代理和服务器的用户,OpenClaw Launch 是最省心的选择。你只需要一个 Telegram 账号,剩下的交给我们。

常见代理问题

DNS 泄露

即使配置了 HTTP/HTTPS 代理,DNS 解析请求可能仍然走默认路线,导致被污染的 DNS 结果让代理失效。解决方案:在代理配置中启用远程 DNS 解析,或使用可靠的 DNS 服务器(如 8.8.8.8、1.1.1.1)。

代理不稳定

免费代理或低质量代理经常断连,导致 OpenClaw 发送API请求时超时。建议使用稳定的付费代理服务,或直接使用 OpenClaw Launch 免去代理烦恼。

Docker 内代理不生效

Docker 容器有自己独立的网络命名空间。宿主机的代理不会自动传递到容器内。你需要通过上述方法明确设置容器的代理环境变量。另外注意:如果你的代理运行在宿主机上(如 127.0.0.1:7890),在容器内要使用 host.docker.internal:7890(macOS/Windows)或宿主机的局域网IP(Linux)。

HTTPS 证书问题

部分代理会对 HTTPS 流量进行中间人解密(MITM),导致证书验证失败。如果遇到 UNABLE_TO_VERIFY_LEAF_SIGNATURE 或类似错误,检查代理是否替换了证书。可以通过设置 NODE_TLS_REJECT_UNAUTHORIZED=0 临时绕过(不推荐用于生产环境),或导入代理的CA证书。

常见问题 (FAQ)

使用 OpenClaw 必须用代理吗?

不一定。如果你使用国内模型(DeepSeek、通义千问等)或本地模型(Ollama),完全不需要代理。只有当你想使用 OpenAI、Anthropic、Google 等海外API,且服务器在国内时,才需要代理。或者你可以使用 OpenClaw Launch,服务器在海外,免代理。

DeepSeek 够用吗?

对于大部分场景,DeepSeek-V3 和 DeepSeek-R1 的表现已经非常优秀,接近 GPT-4 水平。如果你的主要需求是中文对话、文本生成、代码编写,DeepSeek 完全够用且性价比极高。如果你需要使用特定模型(如 Claude、GPT-4o)或需要最新的模型能力,则需要海外API访问。

OpenClaw Launch 在国内能访问吗?

可以。openclawlaunch.com 使用 Cloudflare CDN 加速,国内大部分地区可以正常访问网站和管理面板。部署的 Telegram / Discord 机器人也正常工作(Telegram 本身在国内需要代理访问,但机器人的API通信由我们的海外服务器处理)。

OpenRouter 在国内能直接用吗?

OpenRouter 的部分节点国内可以直连,但稳定性取决于你的网络环境。建议先测试 curl https://openrouter.ai/api/v1/models 看是否能正常访问。如果不行,OpenRouter 本身也需要代理。

Ollama 本地部署需要代理吗?

Ollama 运行完全在本地,推理不需要任何网络。但下载模型时需要访问 ollama.com,该站点在部分地区可能需要代理。模型下载完成后,运行完全离线。

免代理部署 AI 机器人

无需配置代理,10秒在 Telegram 上线你的AI智能体。服务器在海外,直连所有AI API。

开始部署