Skip to content

SEFE: Superficial and Essential Forgetting Eliminator for Multimodal Continual Instruction Tuning

grok-3-latest
Score: 0.61
Published: at 09:09

Summary: 本文提出 SEFE 方法,通过 ASD 范式和 RegLoRA 分别缓解多模态持续指令微调中的表面遗忘和本质遗忘,显著提升模型在持续学习中的性能。

Keywords: Multimodal Learning, Continual Learning, Instruction Tuning, Forgetting Mitigation, Parameter Efficiency

Authors: Jinpeng Chen, Runmin Cong, Yuzhi Zhao, Hongzheng Yang, Guangneng Hu, Horace Ho Shing Ip, Sam Kwong

Institution(s): City University of Hong Kong, Shandong University, The Chinese University of Hong Kong, Xidian University, Lingnan University

Problem Background

多模态持续指令微调(Multimodal Continual Instruction Tuning, MCIT)旨在让多模态大语言模型(MLLMs)在逐步学习新任务时避免灾难性遗忘(Catastrophic Forgetting)。 然而,现有方法未充分区分遗忘类型,导致性能不佳;论文创新性地将遗忘分为表面遗忘(Superficial Forgetting,指因后续任务回答风格影响而偏离旧任务预期格式)和本质遗忘(Essential Forgetting,指真正的知识丢失导致内容错误),并指出表面遗忘会掩盖模型真实知识状态,需优先解决以评估本质遗忘。

Method

Experiment

Further Thoughts

论文将遗忘分解为表面和本质两种类型的视角启发我们,持续学习问题可能需要细化定义以设计更精准的解决方案,这一思路可扩展到其他领域如纯文本或图像任务的持续学习;ASD 范式通过数据风格多样化缓解格式偏见的策略,提示数据增强可能在跨领域迁移学习中减少风格依赖;RegLoRA 选择性保护关键参数更新的思想,可以应用于其他参数高效微调方法,探索新旧知识平衡的更通用机制。