Skip to content

SEFE: Superficial and Essential Forgetting Eliminator for Multimodal Continual Instruction Tuning

grok-3-latest
Score: 0.64
Published: at 09:09

Summary: 本文提出 SEFE 方法,通过 ASD 范式和 RegLoRA 分别解决多模态持续指令微调中的表面遗忘和本质遗忘问题,显著提升模型性能并实现最先进的遗忘缓解效果。

Keywords: LLM, Multimodal Learning, Continual Learning, Instruction Tuning, Regularization

Authors: Jinpeng Chen, Runmin Cong, Yuzhi Zhao, Hongzheng Yang, Guangneng Hu, Horace Ho Shing Ip, Sam Kwong

Institution(s): City University of Hong Kong, Shandong University, The Chinese University of Hong Kong, Xidian University, Lingnan University

Problem Background

多模态持续指令微调(MCIT)旨在让多模态大语言模型(MLLMs)逐步学习新任务而不丢失旧任务能力,但灾难性遗忘问题阻碍了这一目标。 本文创新性地将遗忘分为表面遗忘(回答风格偏离预期格式)和本质遗忘(知识内容真实丢失),指出表面遗忘会掩盖模型真实知识状态,需优先解决以准确评估本质遗忘,现有方法未充分识别这两种遗忘及其关系,导致性能不佳。

Method

Experiment

Further Thoughts

将遗忘细分为表面和本质的视角可推广至其他持续学习场景,如纯文本 LLM 微调中是否也存在风格偏移问题,是否能通过类似 ASD 的数据多样化缓解?RegLoRA 的正则化思路启发动态关键参数识别方法,如基于任务相关性而非绝对值排序,或结合知识蒸馏增强效果。此外,CoIN-ASD 基准提示数据格式标准化可能是持续学习的重要方向,未来可设计通用转换框架适应多模态任务。