Skip to content

$ extit{New News}$: System-2 Fine-tuning for Robust Integration of New Knowledge

grok-3-latest
Score: 0.75
Published: at 12:49

Summary: 本文提出 System-2 Fine-tuning(Sys2-FT)方法,通过自我生成数据显著提升大型语言模型对新知识的权重内学习能力,并揭示上下文遮蔽效应对微调的影响。

Keywords: LLM, Fine-Tuning, In-Context Learning, Knowledge Integration, Data Augmentation

Authors: Core Francisco Park, Zechen Zhang, Hidenori Tanaka

Institution(s): Harvard University, CBS-NTT Program in Physics of Intelligence, Center for Brain Science

Problem Background

大型语言模型(LLMs)在上下文学习(In-Context Learning, ICL)中能够有效处理新信息(news),但通过微调(Fine-Tuning, FT)将这些知识固化到模型权重中仍面临挑战。 这一问题导致模型难以在动态环境中持续适应新知识,作者旨在缩小微调与上下文学习之间的性能差距(FT-ICL gap),以提升模型的权重内学习能力。

Method

Experiment

Further Thoughts

Sys2-FT 的自我重放机制启发我们可以在持续学习任务中引入类似的数据增强策略,通过模型自生成内容模拟人类记忆巩固过程;上下文遮蔽效应的发现提示在设计微调或预训练数据时,应避免过早暴露关键上下文信息,可能通过分阶段学习或数据掩码等方式优化;此外,领域差异性表明未来可以针对非量化领域引入外部知识源(如知识图谱)或混合协议(如结合 Self-QA 和 Implication),以提升知识内化效果。