Skip to content

Optimizing Deep Neural Networks using Safety-Guided Self Compression

grok-3-latest
Score: 0.50
Published: at 06:50

Summary: 本文提出安全驱动的量化框架,通过保留集指导深度神经网络的自压缩,在显著减小模型体积的同时提升性能和泛化能力,为资源受限环境下的部署提供可靠优化策略。

Keywords: Deep Learning, Model Compression, Quantization, Generalization, Safety-Driven

Authors: Mohammad Zbeeb, Mariam Salman, Mohammad Bazzi, Ammar Mohanna

Institution(s): American University of Beirut

Problem Background

深度神经网络在资源受限设备上的部署面临挑战,传统模型压缩方法(如剪枝和量化)虽能减小模型体积和提升推理速度,但往往以牺牲性能和可靠性为代价,尤其是在泛化能力和稳定性方面存在风险。 本文提出了一种安全驱动的量化框架,旨在通过保留关键模型特征,在压缩模型的同时确保性能和可靠性,解决资源受限场景下的部署难题。

Method

Experiment

Further Thoughts

‘保留集’的概念极具启发性,可扩展至强化学习中选择关键状态优化模型,或在联邦学习中为客户端定制保留集以保护个性化特征;此外,动态调整量化位深度的机制启发推理阶段根据输入复杂性实时调整模型精度,可能对边缘设备动态推理任务产生重要影响。