Tag: Pruning
All the papers with the tag "Pruning".
Optimizing LLMs for Resource-Constrained Environments: A Survey of Model Compression Techniques
grok-3-latestScore: 0.70Published: at 01:27本文综述了大型语言模型(LLMs)在资源受限环境中的压缩技术,包括知识蒸馏、模型量化和模型剪枝,系统分析了其原理、变体及应用效果,并探讨了未来研究方向,为边缘设备部署 LLMs 提供了重要参考。
FineScope : Precision Pruning for Domain-Specialized Large Language Models Using SAE-Guided Self-Data Cultivation
grok-3-latestScore: 0.63Published: at 16:05FineScope 提出了一种通过 SAE 引导的自动化数据集培育和领域感知剪枝优化大型语言模型的框架,显著提升了领域特定任务的性能与效率。
FineScope : Precision Pruning for Domain-Specialized Large Language Models Using SAE-Guided Self-Data Cultivation
grok-3-latestScore: 0.63Published: at 16:05FineScope 提出了一种通过 SAE 指导数据集构建、结构化剪枝和自数据蒸馏的框架,显著提升了大型语言模型在领域特定任务中的性能和计算效率。