Skip to content

Procedural Memory Is Not All You Need: Bridging Cognitive Gaps in LLM-Based Agents

grok-3-latest
Score: 0.77
Published: at 11:18

Summary: 本文提出一种模块化架构,通过分离程序性、语义和关联功能,弥补大型语言模型在复杂‘恶劣’学习环境中的认知缺陷,为构建适应性AI代理提供了理论基础。

Keywords: LLM, Modular Architecture, Semantic Memory, Associative Learning, Reinforcement Learning

Authors: Schaun Wheeler, Olivier Jeunen

Institution(s): aampe

Problem Background

大型语言模型(LLMs)在程序性任务上表现出色,但由于其架构主要依赖程序性记忆(Procedural Memory),在面对动态规则、模糊反馈和充满新奇性的‘恶劣’(Wicked)学习环境时,缺乏语义记忆(Semantic Memory)和关联学习(Associative Learning)能力,导致无法进行灵活推理、跨会话记忆和适应性决策,限制了其在复杂现实世界应用中的表现。

Method

Experiment

Further Thoughts

模块化架构的设计理念令人启发,未来可以探索如何进一步结合神经符号架构(Neural-Symbolic Architectures)或稀疏记忆模型(Sparse Memory Models)来增强语义和关联模块的功能;此外,学习环境分类(Kind vs. Wicked)也为AI系统设计提供了新视角,可以尝试量化环境的‘恶劣程度’,并据此动态调整模块配置或资源分配。