Skip to content

HSplitLoRA: A Heterogeneous Split Parameter-Efficient Fine-Tuning Framework for Large Language Models

grok-3-latest
Score: 0.77
Published: at 17:09

Summary: HSplitLoRA 提出了一种异构参数高效微调框架,通过分割学习和 LoRA 技术结合,动态调整资源配置和无噪声适配器聚合,显著提升了大型语言模型在资源受限异构环境下的微调效率和性能。

Keywords: LLM, Parameter Efficient Tuning, Split Learning, Heterogeneous Computing, Adapter Aggregation

Authors: Zheng Lin, Yuxin Zhang, Zhe Chen, Zihan Fang, Xianhao Chen, Praneeth Vepakomma, Wei Ni, Jun Luo, Yue Gao

Institution(s): Fudan University, University of Hong Kong, Mohamed bin Zayed University of Artificial Intelligence, Massachusetts Institute of Technology, Data61, CSIRO, University of New South Wales, Nanyang Technological University

Problem Background

大型语言模型(LLM)因参数量巨大,在资源受限的客户端设备上进行全参数微调不可行,尤其在隐私敏感场景下数据无法共享;联邦学习(FL)虽能保护隐私,但计算成本高且难以适应异构设备(不同设备计算能力差异大),设备不可用性问题和异构适配器聚合的复杂性进一步加剧挑战;论文提出 HSplitLoRA 框架,旨在通过分割学习(Split Learning, SL)和参数高效微调(PEFT)结合,解决资源受限环境下的高效微调问题。

Method

Experiment

Further Thoughts

HSplitLoRA 的自适应资源配置思路启发我们是否可以通过机器学习预测设备负载,进一步优化秩和分割点的动态调整;无噪声聚合的矩阵拼接方法是否可通过加权机制(基于设备贡献)提升效果,或推广至其他 PEFT 技术如 Adapter;此外,分割学习在隐私保护和通信成本间存在权衡,是否可结合差分隐私或加密技术,在提升安全性的同时优化通信效率?