Skip to content

Architectural Precedents for General Agents using Large Language Models

grok-3-latest
Score: 0.54
Published: at 18:29

Summary: 本文通过提炼传统认知架构中的认知设计模式,为基于大型语言模型的代理系统提供理论分析框架,识别其局限性并预测未来研究方向,以推动通用智能的实现。

Keywords: LLM, Cognitive Architecture, Agentic Systems, Reasoning, Memory Design

Authors: Robert E. Wray, James R. Kirk, John E. Laird

Institution(s): Center for Integrated Cognition, IQMRI, Ann Arbor, MI, USA

Problem Background

本文旨在探索如何利用大型语言模型(LLMs)构建通用智能代理(General Agents),并解决 LLMs 在复杂推理、记忆管理和非单调推理等方面的局限性。 作者从传统认知架构(Cognitive Architectures)研究出发,试图通过提炼通用的认知设计模式(Cognitive Design Patterns),为基于 LLMs 的代理系统(Agentic LLM Systems)提供理论指导,识别现有系统的不足,并预测未来研究方向,以推动人工通用智能(AGI)的实现。

Method

Experiment

Further Thoughts

本文提出的认知设计模式作为分析框架的思路非常具有启发性,可以推广到其他 AI 领域,如多模态模型或强化学习系统,探索更多跨领域借鉴的可能性。 此外,‘重新考虑’和‘知识编译’等未探索模式若能在 LLMs 中实现,可能通过设计特定提示策略或外部记忆模块显著提升其动态适应性和推理效率。 最后,‘逐步反思’作为 LLMs 独特生成机制带来的新模式,提示我们是否可以利用其生成不确定性来模拟人类认知中的创造性思维,值得进一步研究。