OpenClaw Memory 终极指南:从现状到方案,从学术到工程
OpenClaw Memory 终极指南
来源:https://x.com/lijiuer92/status/2025678747509391664 作者:@lijiuer92 发布时间:2026-02-22 数据:👍 1,034 | 🔁 243 | 👁 337,344 转载声明:本文转载自 X,原作者 @lijiuer92,版权归原作者所有。
你的 OpenClaw 小龙虾每次失忆,不仅烧了你的钱,还要了你的命。你甚至不敢重启。
本文查阅了 10+ 篇 agent memory 论文,总 77K star 的 6 个开源社区 GitHub 项目,为你拆解 OpenClaw 记忆痛点的每一层——从现状到方案,从学术到工程。
一、残酷的现状——你的 Agent 只有金鱼记忆
先说一个数字:45 小时。
GitHub Issue #5429 的报告者 EmpireCreator 丢失了 45 小时的 agent 积累上下文:技能配置、集成参数、任务优先级。原因是一次静默压缩(compaction)清除了所有对话历史,没有警告,没有恢复选项。
这不是个案。Issue #2624 报告 agent 随机重置,忘记 2 条消息前的对话。Issue #8723 报告 memory flush 触发无限循环,锁死 agent 72 分钟。
OpenClaw 当前的记忆架构一句话:Markdown 文件 + 向量搜索。
- Daily Logs — 短期日志
- MEMORY.md — 长期记忆
- SOUL.md — 定义人格
- 检索用向量嵌入 + BM25 混合搜索
问题出在哪?六个字:扁平、无差别、被动。
所有记忆权重相同,一年前的闲聊和昨天的重大决策同等对待。遗忘机制?没有,只能手动删除。检索只看语义相似度,不评估重要性。
二、OpenClaw 官方在做什么——QMD 后端与混合搜索

官方 2026 年 1-2 月的版本发布时间线:
- v2026.1.12:向量搜索基础设施上线,SQLite 索引 + 分块 + 懒同步 + 文件监听
- v2026.1.29:L2 归一化修复,本地嵌入向量未归一化导致余弦相似度计算失真
- v2026.2.2:QMD 记忆后端合并(PR #3160),BM25 + 向量 + Reranking 三路混合搜索
QMD 做了什么?用本地搜索 sidecar 进程替代内置 SQLite 索引器,支持多个命名集合,会话记录可导出并索引。
已知的坑:CPU-only 系统查询耗时约 3 分 40 秒(超过 12 秒超时);回退是静默的,用户不知道 QMD 没在工作。
官方方向的核心问题:这些都是"检索层"的优化。遗忘、重要性、图谱、反思、时序、晋升——一个都没解决。
三、社区在怎么自救——土法炼钢的五种方案

社区没有坐等官方,至少 7 个第三方记忆项目在 2026 年 1-2 月集中出现:
1. Mem0:Auto-Recall 每次响应前搜索相关记忆注入上下文,Auto-Capture 响应后提取事实存储。声称 91% 低延迟提升,90% token 节省。
2. Hindsight:完全本地,PostgreSQL 后端。核心洞察:传统系统给 agent 一个 search_memory 工具,但模型不一定会用。Auto-Recall 自动注入解决了这个问题。
3. MoltBrain(365 Stars):SQLite + ChromaDB 语义搜索,生命周期钩子自动捕获上下文,Web UI 查看时间线。
4. NOVA Memory System:PostgreSQL 结构化记忆,8 张数据库表(实体、关系、地点、项目、事件、教训、偏好)。
5. Penfield Skill:混合搜索 BM25 + 向量 + 图——社区已经有人在做三路混合搜索了。
社区完全没触及的六个盲区:遗忘/衰减机制、重要性评分、知识图谱、自动反思/整合、时序推理、记忆晋升。
四、学术界爆发——2026 年 2 月的 10+ 篇论文

2026 年 2 月,agent memory 突然成了学术界的主战场。仅一个月就有 10+ 篇论文发表在 arXiv 上。
xMemory [1](ICML 2026):将记忆解耦为语义组件,组织成层次结构。
A-MEM [2](NeurIPS 2025):用 Zettelkasten 方法管理 agent 记忆,通过动态索引和链接创建互联知识网络。
TAME [5]:发现关键危险——"Agent Memory Misevolution"。记忆可能在正常任务迭代中积累"有毒捷径"。
59 位作者综述论文 [3] 给出三维分类法:
- 记忆基底(Substrate):向量、图谱、文档?
- 认知机制(Mechanism):被动记录还是主动推理?
- 记忆主体(Subject):用户的、Agent 的、还是共享的?
两个来自工业界的关键警告:
- Serial Collapse(月之暗面 Kimi K2.5):Agent 退化为不使用记忆
- Memory Misevolution(TAME):在正常迭代中积累有毒捷径
五、开源记忆生态——6 个项目的全景扫描

合计 77K+ Stars 的 6 个项目代表了三种完全不同的记忆哲学:
| 哲学 | 代表项目 | 核心定位 |
|---|---|---|
| 状态层优先 | mem0、Memori | 记忆 = 状态管理 |
| 知识层优先 | cognee、MemOS | 记忆 = 结构化知识 |
| 学习层优先 | Hindsight | 记忆 = 学习过程 |
没有任何一个项目同时覆盖三层。
六、200+ Issues 的教训——别人踩过的坑

跨项目的五大共性问题:
1. 静默失败(6/6 项目都有):用户最大的抱怨不是"功能不行",而是"它不行但不告诉我"。
2. 记忆去重是所有项目的痛点:LLM 把重复内容判断为"矛盾",导致错误删除。
3. LLM 判断不可靠:"我叫王牧晨"经过 LLM 重述后丢失了第一人称指代。
4. 数据库连接/迁移问题:SQLite 连接从不关闭,导致 "database is locked"。
5. 搜索排序失真:跨集合 min-max 归一化导致排序失真。
七、游戏 AI 给了什么启发

最被低估的参考系不是学术论文,而是游戏 AI。
矮人要塞的三层记忆架构:
- 短期记忆(STM):8 个槽位的循环缓冲队列,新记忆按情感强度竞争
- 长期记忆(LTM):短期记忆停留足够久才晋升
- 核心记忆:质变,永久修改角色性格参数
斯坦福 Generative Agents 的三维检索:
检索分数 = Recency × Importance × Relevance
新近性用指数衰减,重要性由 LLM 打分(结婚=10,散步=2)。反思机制:取最近 100 条琐碎记忆 → LLM 提炼 3 条高层洞察 → 存为新记忆。长期对话事实召回从 41% 提升到 87%。
八、两种记忆——User Memory vs Agent Memory

用户的记忆和 Agent 自己的记忆,是两个完全不同的问题。
字节跳动 OpenViking 的分类体系:6 类记忆(档案、偏好、实体、事件、案例、模式)+ L0/L1/L2 三级内容模型:
- L0 摘要 ~100 tokens 用于索引和去重
- L1 概览 ~500 tokens 用于结构化呈现
- L2 全文用于完整内容
九、结论:记忆是 24/7 Agent 战争的核心

谁先解决记忆问题,谁就赢得 24/7 Agent 的战争。
2026 年 2 月的三股力量——学术论文密度、开源项目爆发、官方架构升级——共同指向一个信号:AI 记忆正在从"nice to have"变成核心基础设施。
参考文献
- [1] xMemory: Beyond RAG for Agent Memory, ICML 2026. arXiv:2602.02007
- [2] A-MEM: Agentic Memory for LLM Agents, NeurIPS 2025. arXiv:2502.12110
- [3] Rethinking Memory Mechanisms of Foundation Agents, arXiv:2602.06052
- [4] InfMem: Learning System-2 Memory Control, arXiv:2602.02704
- [5] TAME: Trustworthy Agent Memory Evolution, arXiv:2602.03224
- [10] Generative Agents: Interactive Simulacra of Human Behavior, arXiv:2304.03442
原文链接:https://x.com/lijiuer92/status/2025678747509391664 | 转载自 @lijiuer92