Agent Memory 学习路线
系统梳理 Agent Memory 的完整学习路线:从分类法到论文、框架、评测和端到端实战
如果说 AI Infra 解决的是”算力如何高效服务模型”的问题,那么 Agent Memory 解决的是”模型如何拥有跨越对话边界的人格与知识”的问题。一个上下文窗口再长的 LLM,也填不下一个用户三年的偏好、半年的购买记录、上周遗留的工单状态——这些动态、个性化、时序的信息,只能靠 Memory 系统沉淀。本文从前置概念到端到端落地,系统梳理 Agent Memory 的完整学习路线,串联 7 篇里程碑论文、6+ 个主流框架、3 套基准测试和 3 个可跑实战。
作者将根据该路线编写系列文章,帮助大家系统掌握 Agent Memory 技术。
📑 目录
🌟 全景概览:Memory 是 Agent 的”灵魂”
LLM 是一颗”健忘的大脑”——每次对话开始都从零知晓世界,只能依赖每次塞进上下文窗口的文本。Agent Memory 的本质是给这颗大脑配上 海马体(短期编码)、大脑皮层(长期巩固)、小脑(程序记忆)、工作记忆环路(在线注意力) 这套神经子系统。
四类 Memory 的全景如下表:
| 类型 | 类比 | 工业例子 |
|---|---|---|
| Working Memory | 工作记忆环路 | 当前对话的 history、scratchpad |
| Episodic Memory | 海马体记录的”事件" | "上次用户抱怨了发货慢” |
| Semantic Memory | 大脑皮层的”知识" | "用户偏好咖啡不加糖” |
| Procedural Memory | 小脑的”运动模式" | "处理退款请求时的标准 SOP” |
🧠 核心比喻:LLM 是 CPU,Memory 是它缺失的 RAM 和硬盘。MemGPT 论文(2023)就明确把 Memory 类比为”操作系统的虚拟内存层级”——这也是 Letta 框架名字的来源。
📖 章节导览
整个教程分为 8 章,从概念到实战环环相扣:
| 章 | 主题 | 核心问题 | 主要论文/框架 |
|---|---|---|---|
| 1 | Agent 与 Memory 的关系 | 为什么 LLM 离不开 Memory?Memory 与 RAG 的本质差异 | — |
| 2 | Memory 分类法 | 四类 Memory 的边界、应用偏好对照 | CoALA、Memory Survey 2025 |
| 3 | Memory 存储底座 | Vector / Graph / KV / Hybrid 怎么选 | Qdrant、Neo4j、Graphiti |
| 4 | 经典论文精读 | 7 篇里程碑读透 | MemGPT、Generative Agents、HippoRAG、MemoryBank、ReadAgent、A-MEM、Zep |
| 5 | 主流框架对比 | 同一个需求,Mem0 / Letta / Zep 各怎么实现 | Mem0、Letta、Zep+Graphiti、LangGraph、LangMem、Cognee |
| 6 | Memory 操作管线 | Extraction / Update / Consolidation / Reflection / Forgetting / Retrieval 一条龙 | Mem0 API、MemGPT self-edit、FadeMem |
| 7 | 多 Agent 与协作 Memory | 多 agent 如何共享 / 隔离 memory | G-Memory、Collaborative Memory |
| 8 | 评测与基准 | 怎么定量比较两套 Memory 方案的好坏 | LongMemEval、LoCoMo、MemBench、MEMTRACK |
| 9 | 端到端实战 | 三套可跑的生产级示例 | LangGraph+Mem0、Zep、Letta |
⏳ 七篇必读论文时间线
2023-04 ──── Generative Agents (Park et al.) Memory Stream + Reflection + Planning
2023-09 ──── CoALA (Sumers et al.) Working/Episodic/Semantic/Procedural 分类法
2023-10 ──── MemGPT (Packer et al.) LLM-as-OS,虚拟上下文管理
2023-10 ──── MemoryBank (Zhong et al.) Ebbinghaus 曲线驱动 decay
2024-02 ──── ReadAgent (Lee et al.) Gist memory + on-demand lookup
2024-05 ──── HippoRAG (Gutiérrez et al.) 海马体启发,KG + Personalized PageRank
2025-01 ──── Zep (Rasmussen et al.) Bi-temporal KG 架构
2025-02 ──── A-MEM (Xu et al.) NeurIPS 2025 Zettelkasten + 自动连接 + 演化
2025-06 ──── G-Memory (Liu et al.) 多 Agent 三层图记忆
2025-12 ──── Memory in the Age of AI Agents Survey Forms × Functions × Dynamics 三维度法
🍎 学习顺序建议:从分类法(CoALA)入手 → 看 MemGPT 建立”OS 类比”直觉 → 看 Generative Agents 理解 Reflection → 看 A-MEM 看现代演化思路 → 最后用 Zep 把时间维度补齐。
🛠️ 主流框架速查表
| 框架 | 定位 | 核心特性 | 最适合 |
|---|---|---|---|
| Mem0 | 开源 SDK | vector + graph + KV 三层 store,user/session/agent scope | 个性化 chatbot 的快速接入 |
| Letta(MemGPT 商业化) | Agent runtime | core / archival / recall 三层,agent 状态持久化 | 长会话 OS-style agent |
| Zep + Graphiti | 时间感知 KG | bi-temporal 模型,自动事实抽取,KG 推理 | 多轮对话、事实演化 |
| LangGraph Long-term Memory | LangChain 原生 | Store API,namespace,跨 thread 共享 | 已有 LangGraph 栈的团队 |
| LangMem | 三类 Memory 工具集 | episodic/semantic/procedural helper | 快速原型 |
| Cognee | 知识图 + 上下文工程 | LLM 驱动的图构建 | 研究型 KG |
| Supermemory | SaaS API | 极简 REST,免运维 | MVP / 创业团队 |
🧭 新人破局指南
学习路径(推荐 6-8 周)
第 1 周:打地基
- 通读第 1、2 章,做完自我检验
- 至少阅读 2 篇综述:CoALA、Memory in the Age of AI Agents
- 用 Mem0 的 5 行代码 demo 建立”Memory 是什么”的直觉
第 2-3 周:精读论文
- 第 4 章逐篇精读 MemGPT、Generative Agents、A-MEM
- 每篇都问自己:“如果今天工业落地,我会借鉴哪一点?”
- 跑一下 A-MEM 和 Generative Agents 的官方 repo
第 4 周:框架横评
- 第 5 章对比 Mem0 / Letta / Zep,各搭一个最简 demo(< 100 行)
- 重点关注三者对”记忆冲突”的不同处理
第 5-6 周:操作管线 + 多 Agent
- 第 6 章把 Memory 当 ETL 系统理解,梳理 6 个核心算子
- 第 7 章了解多 Agent 共享 Memory 的设计模式
第 7-8 周:评测 + 落地
- 跑完 LongMemEval-S 一遍,对比 Mem0 / Zep / Letta
- 选一个真实业务场景,从 0 到 1 搭一个生产级 agent
三个高频踩坑
- 把 RAG 当 Memory:RAG 检索的是外部静态语料,Memory 管理的是动态、个性化、时序的事实。第 1 章会详细辨析。
- 忽视时间维度:用户三个月前的偏好和现在的偏好可能完全相反——没有 bi-temporal 模型(Zep 的核心)就会拿到过期信息。
- 过度依赖 LLM 抽取:不加约束地让 LLM 抽事实会爆炸性增长 memory,必须配合去重、合并、衰减。Mem0 / Letta 都内置了这些 policy。
核心思维:Memory 也是 Trade-off
| 优化 | 牺牲 | 换取 |
|---|---|---|
| 长 context 替代 memory | $$$、延迟 | 实现简单 |
| Vector-only | 复杂关系 | 检索快 |
| KG-only | 检索延迟 | 复杂推理 |
| 永不遗忘 | 存储 + 噪声 | 完整历史 |
| Reflection 频率高 | LLM 调用成本 | 高质量 semantic memory |
| Bi-temporal | 实现复杂度 | 时间一致性 |
理解了这张表,就掌握了 Agent Memory 的核心思维。
📚 参考资料
综述
- Memory in the Age of AI Agents (2025):arXiv 2512.13564 —— 2025 年最权威的综述,Forms × Functions × Dynamics 三维度法
- A Survey on the Memory Mechanism of LLM-based Agents (TOIS 2025):ACM 链接
- Anatomy of Agentic Memory (2026):arXiv 2602.19320 —— 评估系统局限性的实证分析
经典论文
- CoALA (Sumers et al., 2023):arXiv 2309.02427
- MemGPT (Packer et al., 2023):arXiv 2310.08560
- Generative Agents (Park et al., 2023):arXiv 2304.03442
- HippoRAG (Gutiérrez et al., 2024):NeurIPS 2024
- MemoryBank (Zhong et al., 2023)
- ReadAgent (Lee et al., 2024)
- A-MEM (Xu et al., NeurIPS 2025):arXiv 2502.12110
- Zep (Rasmussen et al., 2025):arXiv 2501.13956
- G-Memory (Liu et al., 2025):arXiv 2506.07398
- Collaborative Memory (Patel et al., 2025):arXiv 2505.18279
框架
- Mem0:github.com/mem0ai/mem0
- Letta:github.com/letta-ai/letta
- Zep + Graphiti:github.com/getzep/graphiti
- LangGraph Long-term Memory:LangChain 官方文档
- LangMem:LangChain 的 memory 工具集
- A-MEM 代码:github.com/agiresearch/A-mem
- Awesome-Memory-for-Agents:github.com/TsinghuaC3I/Awesome-Memory-for-Agents
- Agent-Memory-Paper-List:github.com/Shichun-Liu/Agent-Memory-Paper-List
基准
- LongMemEval (Wu et al., 2024):arXiv 2410.10813
- LoCoMo (Maharana et al., 2024):snap-research.github.io/locomo
- MemBench (2025):arXiv 2506.21605