Skip to content

Procedural Memory Is Not All You Need: Bridging Cognitive Gaps in LLM-Based Agents

grok-3-latest
Score: 0.77
Published: at 11:18

Summary: 本文提出一种模块化架构,通过解耦程序性、语义和关联功能,弥补大型语言模型在‘恶劣’学习环境中的认知缺陷,为构建适应复杂现实世界的 AI 代理提供了理论框架。

Keywords: LLM, Modular Architecture, Semantic Memory, Associative Learning, Reinforcement Learning

Authors: Schaun Wheeler, Olivier Jeunen

Institution(s): aampe

Problem Background

大型语言模型(LLMs)在程序性任务上表现出色,但由于其架构主要依赖程序性记忆(Procedural Memory),在动态、规则变化、反馈模糊的‘恶劣’学习环境(Wicked Learning Environments)中表现不佳,缺乏语义记忆(Semantic Memory)和关联学习(Associative Learning)能力,导致无法进行灵活推理、跨会话记忆整合或自适应决策。

Method

Experiment

Further Thoughts

模块化认知系统的设计理念启发我们思考如何在 AI 中引入更多生物启发的机制,模拟人类大脑不同认知功能的分工,而不仅仅追求单一模型的规模扩展;此外,区分‘善良’和‘恶劣’学习环境并针对性设计架构的思路,为动态环境适配提供了新视角,未来可探索如何实时识别环境类型并切换系统模式;最后,强化学习与 LLMs 的结合提示我们可以在 LLMs 之外引入更多决策优化工具,提升其在复杂任务中的适应性。