Skip to content

Can Generative AI agents behave like humans? Evidence from laboratory market experiments

grok-3-latest
Score: 0.74
Published: at 11:44

Summary: 本文通过将实验室市场实验翻译到 LLM 环境中,展示了大型语言模型在特定参数下能部分模拟人类经济行为,尤其在正反馈和负反馈市场中重现趋势跟随和收敛动态,为低成本行为模拟提供了新工具。

Keywords: LLM, Behavioral Simulation, Market Dynamics, Feedback Mechanisms, Bounded Rationality

Authors: R. Maria del Rio-Chanona, Marco Pangallo, Cars Hommes

Institution(s): University College London, Complexity Science Hub, Bennett Institute for Public Policy, CENTAI Institute, Bank of Canada, University of Amsterdam

Problem Background

本文探讨了大型语言模型(LLMs)是否能在经济市场实验中模拟人类行为,特别是在动态反馈环境中,多个代理的决策随时间相互影响市场价格。 传统实验室实验成本高昂且难以大规模复制,而 LLMs 提供了一种低成本替代方案,关键问题在于评估 LLMs 是否能准确重现个体行为和市场互动,尤其是在正反馈(价格预期上升导致需求增加)和负反馈(价格预期上升导致供给增加)市场中的表现。

Method

Experiment

Further Thoughts

论文揭示了上下文记忆对 LLM 模拟人类行为的关键作用,记忆 ≥ 3 时效果最佳,启发我们未来可能通过优化记忆‘质量’而非‘数量’来提升模拟效率;此外,LLM 行为异质性不足的问题提示我们可以通过个性化提示(如引入文化或风险偏好变量)增强多样性,这对经济学中的代理建模(Agent-Based Modeling)可能产生深远影响;最后,LLMs 在动态反馈环境中的潜力(如模拟市场泡沫)启发我们探索其作为政策模拟工具的可能性,用于预测现实经济现象或测试干预措施。