跳到主要内容
AIInfra学习路线

Agent Memory 学习路线

系统梳理 Agent Memory 的完整学习路线:从分类法到论文、框架、评测和端到端实战

Agent Memory 学习路线 MemGPT A-MEM Mem0 Letta Zep LangGraph

如果说 AI Infra 解决的是”算力如何高效服务模型”的问题,那么 Agent Memory 解决的是”模型如何拥有跨越对话边界的人格与知识”的问题。一个上下文窗口再长的 LLM,也填不下一个用户三年的偏好、半年的购买记录、上周遗留的工单状态——这些动态、个性化、时序的信息,只能靠 Memory 系统沉淀。本文从前置概念到端到端落地,系统梳理 Agent Memory 的完整学习路线,串联 7 篇里程碑论文、6+ 个主流框架、3 套基准测试和 3 个可跑实战。

作者将根据该路线编写系列文章,帮助大家系统掌握 Agent Memory 技术。

📑 目录


🌟 全景概览:Memory 是 Agent 的”灵魂”

LLM 是一颗”健忘的大脑”——每次对话开始都从零知晓世界,只能依赖每次塞进上下文窗口的文本。Agent Memory 的本质是给这颗大脑配上 海马体(短期编码)、大脑皮层(长期巩固)、小脑(程序记忆)、工作记忆环路(在线注意力) 这套神经子系统。

四类 Memory 的全景如下表:

类型类比工业例子
Working Memory工作记忆环路当前对话的 history、scratchpad
Episodic Memory海马体记录的”事件""上次用户抱怨了发货慢”
Semantic Memory大脑皮层的”知识""用户偏好咖啡不加糖”
Procedural Memory小脑的”运动模式""处理退款请求时的标准 SOP”

🧠 核心比喻:LLM 是 CPU,Memory 是它缺失的 RAM 和硬盘。MemGPT 论文(2023)就明确把 Memory 类比为”操作系统的虚拟内存层级”——这也是 Letta 框架名字的来源。


📖 章节导览

整个教程分为 8 章,从概念到实战环环相扣:

主题核心问题主要论文/框架
1Agent 与 Memory 的关系为什么 LLM 离不开 Memory?Memory 与 RAG 的本质差异
2Memory 分类法四类 Memory 的边界、应用偏好对照CoALA、Memory Survey 2025
3Memory 存储底座Vector / Graph / KV / Hybrid 怎么选Qdrant、Neo4j、Graphiti
4经典论文精读7 篇里程碑读透MemGPT、Generative Agents、HippoRAG、MemoryBank、ReadAgent、A-MEM、Zep
5主流框架对比同一个需求,Mem0 / Letta / Zep 各怎么实现Mem0、Letta、Zep+Graphiti、LangGraph、LangMem、Cognee
6Memory 操作管线Extraction / Update / Consolidation / Reflection / Forgetting / Retrieval 一条龙Mem0 API、MemGPT self-edit、FadeMem
7多 Agent 与协作 Memory多 agent 如何共享 / 隔离 memoryG-Memory、Collaborative Memory
8评测与基准怎么定量比较两套 Memory 方案的好坏LongMemEval、LoCoMo、MemBench、MEMTRACK
9端到端实战三套可跑的生产级示例LangGraph+Mem0、Zep、Letta

⏳ 七篇必读论文时间线

2023-04 ──── Generative Agents (Park et al.)         Memory Stream + Reflection + Planning
2023-09 ──── CoALA (Sumers et al.)                   Working/Episodic/Semantic/Procedural 分类法
2023-10 ──── MemGPT (Packer et al.)                  LLM-as-OS,虚拟上下文管理
2023-10 ──── MemoryBank (Zhong et al.)               Ebbinghaus 曲线驱动 decay
2024-02 ──── ReadAgent (Lee et al.)                  Gist memory + on-demand lookup
2024-05 ──── HippoRAG (Gutiérrez et al.)             海马体启发,KG + Personalized PageRank
2025-01 ──── Zep (Rasmussen et al.)                  Bi-temporal KG 架构
2025-02 ──── A-MEM (Xu et al.) NeurIPS 2025          Zettelkasten + 自动连接 + 演化
2025-06 ──── G-Memory (Liu et al.)                   多 Agent 三层图记忆
2025-12 ──── Memory in the Age of AI Agents Survey   Forms × Functions × Dynamics 三维度法

🍎 学习顺序建议:从分类法(CoALA)入手 → 看 MemGPT 建立”OS 类比”直觉 → 看 Generative Agents 理解 Reflection → 看 A-MEM 看现代演化思路 → 最后用 Zep 把时间维度补齐。


🛠️ 主流框架速查表

框架定位核心特性最适合
Mem0开源 SDKvector + graph + KV 三层 store,user/session/agent scope个性化 chatbot 的快速接入
Letta(MemGPT 商业化)Agent runtimecore / archival / recall 三层,agent 状态持久化长会话 OS-style agent
Zep + Graphiti时间感知 KGbi-temporal 模型,自动事实抽取,KG 推理多轮对话、事实演化
LangGraph Long-term MemoryLangChain 原生Store API,namespace,跨 thread 共享已有 LangGraph 栈的团队
LangMem三类 Memory 工具集episodic/semantic/procedural helper快速原型
Cognee知识图 + 上下文工程LLM 驱动的图构建研究型 KG
SupermemorySaaS API极简 REST,免运维MVP / 创业团队

🧭 新人破局指南

学习路径(推荐 6-8 周)

第 1 周:打地基

  • 通读第 1、2 章,做完自我检验
  • 至少阅读 2 篇综述:CoALA、Memory in the Age of AI Agents
  • 用 Mem0 的 5 行代码 demo 建立”Memory 是什么”的直觉

第 2-3 周:精读论文

  • 第 4 章逐篇精读 MemGPT、Generative Agents、A-MEM
  • 每篇都问自己:“如果今天工业落地,我会借鉴哪一点?”
  • 跑一下 A-MEM 和 Generative Agents 的官方 repo

第 4 周:框架横评

  • 第 5 章对比 Mem0 / Letta / Zep,各搭一个最简 demo(< 100 行)
  • 重点关注三者对”记忆冲突”的不同处理

第 5-6 周:操作管线 + 多 Agent

  • 第 6 章把 Memory 当 ETL 系统理解,梳理 6 个核心算子
  • 第 7 章了解多 Agent 共享 Memory 的设计模式

第 7-8 周:评测 + 落地

  • 跑完 LongMemEval-S 一遍,对比 Mem0 / Zep / Letta
  • 选一个真实业务场景,从 0 到 1 搭一个生产级 agent

三个高频踩坑

  1. 把 RAG 当 Memory:RAG 检索的是外部静态语料,Memory 管理的是动态、个性化、时序的事实。第 1 章会详细辨析。
  2. 忽视时间维度:用户三个月前的偏好和现在的偏好可能完全相反——没有 bi-temporal 模型(Zep 的核心)就会拿到过期信息。
  3. 过度依赖 LLM 抽取:不加约束地让 LLM 抽事实会爆炸性增长 memory,必须配合去重、合并、衰减。Mem0 / Letta 都内置了这些 policy。

核心思维:Memory 也是 Trade-off

优化牺牲换取
长 context 替代 memory$$$、延迟实现简单
Vector-only复杂关系检索快
KG-only检索延迟复杂推理
永不遗忘存储 + 噪声完整历史
Reflection 频率高LLM 调用成本高质量 semantic memory
Bi-temporal实现复杂度时间一致性

理解了这张表,就掌握了 Agent Memory 的核心思维。


📚 参考资料

综述

  • Memory in the Age of AI Agents (2025):arXiv 2512.13564 —— 2025 年最权威的综述,Forms × Functions × Dynamics 三维度法
  • A Survey on the Memory Mechanism of LLM-based Agents (TOIS 2025):ACM 链接
  • Anatomy of Agentic Memory (2026):arXiv 2602.19320 —— 评估系统局限性的实证分析

经典论文

框架

基准