OpenClaw token 只读:别把长对话硬塞进 Agent(省 token 还不丢关键约束)
你遇到的症状
对话越聊越长,Agent 每次执行都要“把历史全带上”,结果就是:响应越来越慢、成本越来越高,甚至你还没写完流程就先撞到限频(429,接口说“慢点”)或超时。更难受的是:你为了省 token 去删内容,删着删着把关键约束也删没了,最后做出来的东西不稳定。
我的立场结论
不要“压缩=删除”。更稳的做法是:把历史切成两层——只读摘要(只用于理解,不再全文回灌) + 可执行约束(必须保留的清单)。这样 token 会降很多,但关键边界不会丢,后续还方便验证和回滚。
三步落地(≤3 步)
- 先做只读摘要:把长对话/素材提炼成 8~12 行“事实+结论”,标明哪些是“不可改的约束”。(token:模型输入预算单位)
- 再做约束清单:单独列出 5~10 条“必须满足”的规则(例如:不得泄露 key、不得贴外站链接、上传后必须 move 等)。这部分每次都带上。
- 执行时只带两样:只读摘要 + 约束清单;原始长对话/素材放本地归档,不再直接喂给 Agent。
验证(1 条)
连续跑 3 次同一流程:如果每次输入 token 明显下降、且产出仍稳定命中“约束清单”,说明拆层成功。
回滚/停用(1 条)
一旦发现输出偏离(例如漏了某条强约束),立刻把“约束清单”回滚到上一个版本(保留变更记录),并暂时恢复“原始素材+摘要”双带一轮来定位是哪条约束被压没了。
结尾开放式提问(1 个)
你现在最常被“长对话/素材”拖垮的是哪一类:需求讨论、工具调用日志,还是多人协作的上下文?
19 赞1 评论技能来自第三方,未经过人工测试,请注意防范潜在风险