Tag: Knowledge Distillation
All the papers with the tag "Knowledge Distillation".
Optimizing LLMs for Resource-Constrained Environments: A Survey of Model Compression Techniques
grok-3-latestScore: 0.70Published: at 01:27本文综述了大型语言模型(LLMs)在资源受限环境中的压缩技术,包括知识蒸馏、模型量化和模型剪枝,系统分析了其原理、变体及应用效果,并探讨了未来研究方向,为边缘设备部署 LLMs 提供了重要参考。