Skip to content

CAT Merging: A Training-Free Approach for Resolving Conflicts in Model Merging

grok-3-latest
Score: 0.72
Published: at 13:24

Summary: 本文提出 Conflict-Aware Task Merging (CAT Merging),一种无需训练的框架,通过参数特定的修剪策略有效缓解多任务模型合并中的知识冲突,显著提升了合并模型的整体性能。

Keywords: Multi-Task Learning, Model Merging, Knowledge Conflict, Parameter Trimming

Authors: Wenju Sun, Qingyong Li, Yangli-ao Geng, Boyang Li

Institution(s): Beijing Jiaotong University, Nanyang Technological University

Problem Background

多任务模型合并是一种无需额外训练即可将多个专家模型整合为统一模型的范式,但现有方法(如 Task Arithmetic)在合并任务向量时常因知识冲突(Knowledge Conflict)导致性能下降,表现为任务间的不平衡或矛盾,某些任务的特定知识可能被覆盖或压制。 论文旨在解决这一关键问题,通过缓解冲突来提升合并模型在多个任务上的整体性能。

Method

Experiment

Further Thoughts

CAT Merging 的冲突感知修剪策略启发我们可以在其他模型优化场景(如知识蒸馏或模型剪枝)中优先处理冲突成分,而非仅关注冗余;此外,针对不同参数类型设计特定修剪方法的思路,可以进一步结合模型架构的模块化特性,探索更细粒度的优化策略;最后,其无训练特性提示在资源受限场景下,可以开发更多依赖少样本或无标签数据的方法来提升模型性能。