Skip to content

HSplitLoRA: A Heterogeneous Split Parameter-Efficient Fine-Tuning Framework for Large Language Models

grok-3-latest
Score: 0.77
Published: at 17:09

Summary: HSplitLoRA 提出了一种异构参数高效微调框架,通过重要权重识别、自适应秩与模型分割配置及无噪声适配器聚合,显著提升了大型语言模型在异构环境下的微调性能和效率。

Keywords: LLM, Parameter-Efficient Fine-Tuning, Split Learning, Heterogeneous Computing, Adaptation

Authors: Zheng Lin, Yuxin Zhang, Zhe Chen, Zihan Fang, Xianhao Chen, Praneeth Vepakomma, Wei Ni, Jun Luo, Yue Gao

Institution(s): Fudan University, University of Hong Kong, Mohamed bin Zayed University of Artificial Intelligence, Massachusetts Institute of Technology, CSIRO, University of New South Wales, Nanyang Technological University

Problem Background

大型语言模型(LLMs)在各种下游任务中表现出色,但由于参数规模巨大,在资源受限的客户端设备上进行微调面临巨大挑战。 传统的联邦学习(FL)方法虽然通过本地训练保护数据隐私,但计算成本高,尤其是在异构计算环境中,设备不可用性问题严重影响训练效率。 此外,现有方法难以适应客户端设备的异构计算资源,导致性能下降和资源利用不足,亟需一种高效的分布式微调框架。

Method

Experiment

Further Thoughts

HSplitLoRA 动态调整模型分割点和 LoRA 秩的策略启发了我思考是否可以引入强化学习或资源预测模型,基于历史性能和实时资源状态进一步优化分割决策;此外,无噪声适配器聚合的矩阵拼接方法是否可以结合降维技术或数学变换,应用于其他分布式学习框架(如联邦学习),以解决异构参数聚合中的噪声问题,同时进一步压缩通信开销。