Skip to content

Memorization and Knowledge Injection in Gated LLMs

grok-3-latest
Score: 0.71
Published: at 00:28

Summary: 本文提出MEGa框架,通过门控LoRA模块将新记忆嵌入大型语言模型权重中,有效缓解持续学习中的灾难性遗忘,并在记忆回忆与知识整合任务上取得显著成果。

Keywords: LLM, Continual Learning, Memory Embedding, Gating Mechanism, Knowledge Integration

Authors: Xu Pan, Ely Hahami, Zechen Zhang, Haim Sompolinsky

Institution(s): Harvard University, Center for Brain Science at Harvard University, Kempner Institute at Harvard University, Edmond and Lily Safra Center for Brain Sciences at Hebrew University

Problem Background

大型语言模型(LLMs)在持续学习新记忆和注入新知识时面临灾难性遗忘(Catastrophic Forgetting)问题,无法像人类一样通过逐步经验积累长期记忆(如情景记忆和语义记忆),现有方法(如大上下文窗口或外部数据库检索)也难以实现记忆与语义知识的深度整合。 本文旨在开发一种持续学习框架,使LLMs能够顺序存储新记忆并有效检索,同时保持通用语言能力,探索其作为人类记忆模型的潜力。

Method

Experiment

Further Thoughts

MEGa的门控机制和模块化记忆存储启发了对人类互补记忆系统的模拟,未来可探索通过定期‘排练’将LoRA权重蒸馏到基础模型,模拟记忆巩固过程;此外,记忆模块是否可以通过图结构或语义聚类动态合并/拆分,以减少冗余并提升检索效率?若扩展到多模态数据(如图像、音频),是否能更好地模拟情景记忆?参数量线性增长问题是否可通过共享权重或稀疏激活解决?