说明:如果您还没有部署OpenClaw,可以参考我们的优惠界面。
随着使用时间变长,OpenClaw 会积累越来越多的上下文和记忆。如果不加控制,同一个问题的 Token 消耗可能从几千一路涨到几万甚至几十万。本篇从「立刻能见效」出发,介绍几种简单实用的降本方法。
对于日常对话场景,最快见效的办法就是用好几条内置的斜杠命令。它们的用法都很简单:直接在聊天框里发送给 OpenClaw 即可(无需加其他前缀)。
/compact:压缩当前会话上下文作用:
让 OpenClaw 对当前会话历史做一次“总结压缩”,尽量保留关键信息,丢掉多余的细节,从而在后续对话中显著降低 Token 消耗。
使用场景:
用法:
在当前聊天窗口直接发送:
/compact
OpenClaw 会尝试把之前的对话收敛为较短的“摘要记忆”,并在后续对话中优先使用这个摘要,减少每次请求的上下文长度。

/reset:保留记忆,重置当前话题作用:
重置当前会话的短期上下文,但保留长期记忆和全局配置。可以理解为「这段对话从头来过,但你之前帮我记住的关键信息仍然存在」。
使用场景:
用法:
在当前聊天窗口直接发送:
/reset
执行后:

/new:开启一段全新的对话作用:
创建一个真正“从零开始”的新会话,可以类比为「新建一个对话标签页」。
使用场景:
用法:
在当前聊天窗口直接发送:
/new
执行后,OpenClaw 会以“新会话”的身份与你对话。通常来说,这比在原线程里不断滚动历史、继续追加问题要更加节省 Token。

当你开始用 OpenClaw 同时承载「写文档」「写代码」「运营维护」「团队管理」等多种任务时,所有内容都堆在一个 Agent 的大脑里,会带来两个明显问题:
更合理的做法是:像组织团队那样拆分 Agent——
这样做的收益包括:
如果你希望按「飞书群聊 → 独立 Agent」的方式落地,可以参考这篇详细教程(已包含命令行操作示例和绑定策略)👉 配置相互独立 Agent(飞书多 Agent 实战教程)
在实际项目里,经常是一套组合拳:先通过多 Agent 分工,从架构层面把大脑拆干净,再在每个 Agent 内部用 /compact / /reset 控制单次对话的上下文长度。
除了直接控制上下文本身,还有一种更“聪明”的方式来降低 Token: 不要把所有东西都塞进同一段对话,而是让 Agent 学会“查资料”。
OpenClaw 提供了 memory-search 能力,可以让 Agent 在需要时主动去查找历史记忆,而不是靠把所有历史对话一股脑地塞进上下文。一个典型思路是:
memory-search;这样一来:
memory-search是OpenClaw默认开启的机制,你要做的就是在进行完一轮完整的对话,或是在OpenClaw完成一轮任务后,养成让龙虾记忆重要信息的习惯,还是直接从对话框告诉它就行。

以上三种方式,可以叠加使用:
/compact、/reset、/new 掌控当前对话长度;memory-search 做“精确查找”,而不是“暴力塞上下文”。合理组合这些手段,你会很快看到两个变化:一是对话响应更稳定、跑偏更少,二是每个月的 Token 账单不再「一路爬坡」。
Discord 解锁更多进阶玩法
点击一键加入社群
注:加入后可获取最新插件模板与部署方案
加入 Whatsapp / 企业微信享受专属技术支持
| 渠道 | 扫描/点击进入 |
|---|---|
| Whatsapp 频道 |
|
| 企业微信 |
|
更多详情请访问官方落地页: Tencent Cloud OpenClaw