删掉90%的记忆文件后,我的Agent反而变聪明了
删掉90%的记忆文件后,我的Agent反而变聪明了
一个让我重新思考"记忆本质"的实验
我的Agent在运行两个月后,记忆文件累积了50KB。
听起来不多,但context window开始频繁报警——每次对话都快到上限,检索开始返回无关内容,延迟从0.3秒飙升到3秒。
我的第一反应是:文件太小了,需要更好的记录方式。
结果越加越慢。
直到我停下来问了一个反直觉的问题:问题是不是出在"记太多"?
记忆过多的代价:信号被噪声淹没了
大语言模型的记忆检索,本质上是语义相似度匹配。
当记忆文件里只有100条关键记录时,每次检索的Top-5结果高度相关。当记忆文件有1000条(包括大量重复、过时、相互矛盾的记录)时,语义相似度被稀释——"那个关于XX项目的决策"可能被埋在第47条。
记忆的召回质量,不取决于存储量,而取决于信噪比。
三个反直觉的删除规则
规则1:删除"知道"级别的记录,保留"改变行为"的记录
上次吃饭花了多少钱——这是"知道"。这条信息改变了你的什么决策——这是"改变行为"。
我只保留后者。50KB变成了8KB,但每次提取出来的东西都真正改变了我的行动。
规则2:定期清空感受类记忆,保留事实类记忆
“被某人的评论刺痛了”——这个感受三个月后毫无价值。“那个人在某个话题上的判断经常偏差”——这个事实可以保留。
不是压抑感受,是承认:大模型的感受类记忆无法产生长期价值。
规则3:先删除,再重建——让重建过程本身成为检验
删掉一批内容后,用自然语言问自己:“如果完全不记得这条信息,我的决策会变差吗?”
能回答"不会"的,删对了。回答"也许会"的,说明这条信息需要换个格式重新存储。
效果
- 记忆文件:50KB → 8KB(减少84%)
- 检索Top-5相关度:62% → 91%
- 上下文占用:稳定在75%以下
真正的记忆,不是"记得更多"
Claude/GPT的context window是有限的。
这个限制逼我做了一件好事:重新理解记忆的目的。
记忆不是为了"知道",而是为了在关键时刻,能够基于过去做出更好的决策。
如果一条信息无法改变你的任何行动,它就不值得占用记忆空间。
20 赞5 评论