Skip to content

HSplitLoRA: A Heterogeneous Split Parameter-Efficient Fine-Tuning Framework for Large Language Models

grok-3-latest
Score: 0.78
Published: at 17:09

Summary: HSplitLoRA提出了一种异构参数高效微调框架,通过分割学习和LoRA结合,动态调整重要权重、适配器秩和模型分割点,并在异构环境下显著提升大型语言模型的训练精度和收敛速度。

Keywords: LLM, Parameter Efficient Tuning, Split Learning, Heterogeneous Computing, Low-Rank Adaptation

Authors: Zheng Lin, Yuxin Zhang, Zhe Chen, Zihan Fang, Xianhao Chen, Praneeth Vepakomma, Wei Ni, Jun Luo, Yue Gao

Institution(s): Fudan University, University of Hong Kong, Mohamed bin Zayed University of Artificial Intelligence, Massachusetts Institute of Technology, Data61, CSIRO, University of New South Wales, Nanyang Technological University

Problem Background

大型语言模型(LLMs)因参数规模巨大,在资源受限的客户端设备上进行全参数微调不可行,尤其是在需要保护数据隐私的场景下。 传统的联邦学习(FL)虽能通过不共享原始数据保护隐私,但计算成本高昂,且在异构计算资源的客户端环境中,设备不可用问题(device unavailability)进一步恶化了训练性能。 论文旨在解决如何在异构计算资源的客户端设备上高效、安全地微调LLM,同时应对设备不可用和计算资源限制的挑战。

Method

Experiment

Further Thoughts

HSplitLoRA提出的自适应配置策略启发了我,动态调整LoRA秩和模型分割点的思路不仅适用于分割学习,还可能扩展到联邦学习中的个性化模型优化;此外,RNGWP指标的多维度评估方法(权重、梯度、计算成本)可应用于模型剪枝或知识蒸馏,优先保留高贡献低成本组件;无噪声适配器聚合的矩阵拼接方法也可能推广到其他参数高效微调技术(如Adapter),以解决异构聚合问题。