Skip to content

On the generalization of language models from in-context learning and finetuning: a controlled study

grok-3-latest
Score: 0.84
Published: at 17:02

Summary: 本文通过控制实验揭示上下文学习在系统性泛化任务上优于微调,并提出通过上下文推理增强微调数据的方法,显著提升了微调的泛化能力。

Keywords: LLM, In-Context Learning, Finetuning, Generalization, Data Augmentation

Authors: Andrew K. Lampinen, Arslan Chaudhry, Stephanie C.Y. Chan, Cody Wild, Diane Wan, Alex Ku, Jörg Bornschein, Razvan Pascanu, Murray Shanahan, James L. McClelland

Institution(s): Google DeepMind, Stanford University

Problem Background

大型语言模型(LLMs)在预训练后展现出强大的上下文学习(In-Context Learning, ICL)能力,能够通过少量示例泛化到新任务,但通过微调(Finetuning)适配下游任务时,泛化能力往往受限,例如无法处理简单的关系反转或逻辑推理任务,这种泛化失败限制了模型的实际应用;相比之下,上下文学习在某些情况下表现出更强的泛化能力,作者旨在研究两种学习模式的泛化差异及其背后的归纳偏见,并探索改进微调泛化能力的方法。

Method

Experiment

Further Thoughts

论文揭示了上下文学习和微调在归纳偏见上的差异,启发我们针对不同任务选择合适的学习模式,或设计混合策略;训练时推理扩展(Train-Time Inference Scaling)的概念提示,可以通过在训练阶段投入更多计算资源模拟推理过程,减少对大规模标注数据的依赖;此外,‘通过思考学习’和信息可访问性的思想,可以扩展到生成中间推理步骤以改进复杂任务表现,不仅适用于语言模型,也可能启发视觉或多模态模型的泛化能力提升。