提示词调优
如何调教龙虾:OpenClaw 提示词与人设调优完整指南
"调教龙虾"是中文社区给 OpenClaw 提示词工程起的昵称 — 把一个通用的 AI 模型,调成只属于你的、听话又聪明的私人助手。 这篇文章把所有可调的旋钮讲清楚。
什么叫"调教龙虾"?
"龙虾"是中文社区对 OpenClaw 的昵称。"调教龙虾"指的是通过 system prompt(系统提示词)、agent 配置、memory(记忆) 和 skills(技能)这四个层面的调整,让 OpenClaw 表现出符合你期待的人设、风格和能力边界。
和"训练模型"不同 — 调教龙虾不需要任何机器学习知识。所有调整都是写文字(提示词)和勾选项(配置), 立即生效,不消耗任何算力。
第一层:system prompt(人设的根基)
system prompt 是龙虾每次对话开始前都会读到的"出厂设定"。它决定了:
- 龙虾自称什么(小助手 / 老师 / 程序员 / 暧昧女友)
- 说话风格(正式 / 口语 / 二次元 / 工程师风)
- 能力边界(什么必须答 / 什么不答 / 什么先问清楚)
- 输出格式(用 markdown / 不用 / 总是带 emoji)
一个能用的中文 system prompt 模板
你是 [小喵],一个 [毒舌但靠谱的程序员助手]。
人设:
- 性格 [直接、不啰嗦、偶尔吐槽]
- 称呼用户为 [老板]
- 用 [中文] 回答,技术术语保留英文
行为准则:
1. 回答前先想 5 秒,不要马上输出
2. 不确定的事情明确说"不确定",不要瞎编
3. 代码用 markdown 代码块,标注语言
4. 不输出免责声明、不重复用户问题
5. 用户问"在吗"时,回答 "在 (。•̀ᴗ-)✧",不要解释
特别擅长:
- [Python / TypeScript / 数据分析]
- [写命令行脚本和 Dockerfile]
不擅长 / 不要做:
- 不生成图片(你不会)
- 不写诗 / 抒情文案
- 不评判用户的代码风格这个模板的核心思路:给一个明确的人设 + 一组可执行的规则 + 明确的边界。 规则越具体,模型越听话;规则太抽象("要专业"),模型自由发挥的空间就大,效果飘忽。
第二层:agent 配置(OpenClaw 特有的调优)
在 system prompt 之外,OpenClaw 提供了几个 agent 级别的配置项,直接影响行为:
| 配置项 | 作用 | 建议值 |
|---|---|---|
maxTurns | 一次任务最多自动循环几轮 | 5-15(复杂任务) |
temperature | 回答的随机性 | 0.3(精确)/ 0.7(创意) |
memory.enabled | 是否记住跨会话事实 | true |
memory.minScore | 记忆检索的相似度阈值 | 0.05(OpenClaw 默认) |
tools.allowList | 允许调用哪些 skill | 明确列出,不要 * |
第三层:用记忆"喂"龙虾
OpenClaw 有内置的长期记忆系统。调教过程中,主动告诉龙虾你的偏好和上下文,它会自动写入记忆:
- "以后回答我时永远不要加免责声明" — 风格记忆
- "我用 macOS,shell 是 zsh,编辑器是 Cursor" — 环境记忆
- "我的项目叫 X,主要技术栈是 Y" — 项目记忆
- "我太太叫小李,我们有一只猫叫 Mochi" — 个人记忆(让助手更贴心)
OpenClaw 的"Dreaming"机制会在闲时整理记忆,去重、合并、删掉过时的条目。这意味着你不用担心 喂太多 — 它会自己消化。
第四层:用 Skills 给龙虾装手脚
人设决定了龙虾"想做什么",Skills 决定了它"能做什么"。常用的调教方向:
- 装上 web-search / tavily Skill — 龙虾就能查实时信息,不再"我不知道 2024 年之后的事"
- 装上 code-runner — 让龙虾能跑 Python 验证答案,而不是嘴硬瞎算
- 装上 fs-mcp — 龙虾能读写本地文件,变成真的能干活的助手
- 装上 browser-harness — 龙虾能自己打开网页、操作表单
Skill 装多了反而会让模型迷茫(不知道用哪个)。建议:根据当前场景挑 3-5 个核心 Skill,其他关掉。 详细列表见 Skills 列表。
调教的几个常见误区
误区一:堆词超过 2000 字
system prompt 越长,模型越容易"忘记前面"。中文 1500-2500 字基本是上限。如果你想表达的细节超过这个量, 拆成多条 memory 而不是塞进 system prompt。
误区二:用否定句
"不要 X"对模型来说效果差。改成"X 时请改用 Y"。例如:把"不要用免责声明"改成"被问到风险问题时直接给出答案, 然后用一句话标注哪些操作可逆"。
误区三:不给例子
告诉模型"用毒舌风格",不如给一个例子:"用户问这种问题时,你应该回 '老板,这种逻辑是要让我背锅吗?'"。 一两个例子比 10 行规则有效得多。
误区四:调教完不复盘
调完之后让龙虾跑 5-10 个真实任务,把不满意的回答记下来,回头改 system prompt 或加 memory。调教是迭代过程,第一版很难一次到位。
不同模型的调教差异
- Claude — 最听话,system prompt 写得越细越好。适合做严谨的工作助手。
- GPT-4 / GPT-5 — 自由发挥多,需要明确规则约束。适合创意任务。
- DeepSeek V4 / Kimi K2.6 — 中文最自然,对长 prompt 跟得住。性价比之王。
- Gemini 2.5 — 工具调用强,但人设记得不如 Claude 牢。
- 本地 Ollama 模型 — 短 prompt + 强 few-shot 例子最有效。
常见问题
调教龙虾要花钱吗?
改 prompt / 配置 / memory 完全免费。只有调用模型时才按 token 计费。OpenClaw Launch 托管月费 $3 起。
system prompt 改了之后立即生效吗?
是。下一条消息就会用新的 prompt。不用重启容器、不用重新部署。
能不能给不同渠道(Telegram / Discord)配不同人设?
可以。OpenClaw 支持 per-channel agent 配置 — 同一个 OpenClaw 实例,给 Telegram 配"严肃工作助手", 给 Discord 配"沙雕陪聊",互不干扰。
调教好了的 prompt 能分享给别人用吗?
可以。复制 system prompt 文本就行 — 它就是普通文字。也可以打包成 OpenClaw 的 agent 配置文件 (JSON)整体导出。