Tag: Model Compression
All the papers with the tag "Model Compression".
Optimizing LLMs for Resource-Constrained Environments: A Survey of Model Compression Techniques
grok-3-latestScore: 0.70Published: at 01:27本文综述了大型语言模型(LLMs)在资源受限环境中的压缩技术,包括知识蒸馏、模型量化和模型剪枝,系统分析了其原理、变体及应用效果,并探讨了未来研究方向,为边缘设备部署 LLMs 提供了重要参考。
Optimizing Deep Neural Networks using Safety-Guided Self Compression
grok-3-latestScore: 0.50Published: at 06:50本文 提出安全驱动的自压缩框架,通过保留集和可微量化机制,在深度神经网络压缩中实现模型大小与性能的平衡,显著提升资源受限环境下的部署能力。
Optimizing Deep Neural Networks using Safety-Guided Self Compression
grok-3-latestScore: 0.50Published: at 06:50本文提出安全驱动的量化框架,通过保留集指导深度神经网络的自压缩,在显著减小模型体积的同时提升性能和泛化能力,为资源受限环境下的部署提供可靠优化策略。