Skip to content

ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning

grok-3-latest
Score: 0.70
Published: at 01:40

Summary: 本文提出 ConCISE 框架,通过信心引导的推理压缩方法,显著减少大型推理模型的推理链冗余,同时保持高准确率,为高效推理提供了新途径。

Keywords: LLM, Reasoning, Compression, Confidence Guidance

Authors: Ziqing Qiao, Yongheng Deng, Jiali Zeng, Dong Wang, Lai Wei, Fandong Meng, Jie Zhou, Ju Ren, Yaoxue Zhang

Institution(s): Tsinghua University, Pattern Recognition Center, WeChat AI, Tencent Inc., China

Problem Background

大型推理模型(Large Reasoning Models, LRMs)在复杂推理任务中通过链式思维(Chain-of-Thought, CoT)提示表现出色,但生成的推理链往往过于冗长,包含大量冗余反思内容,导致计算开销增加和用户体验下降。 现有压缩方法如事后修剪(post-hoc pruning)可能破坏推理连贯性,而基于采样的选择(sampling-based selection)无法在生成过程中有效干预。 论文从模型内部信心(confidence)的视角分析冗余反思的成因,识别出两种关键模式:信心不足(Confidence Deficit),即模型因信心低而重新考虑正确步骤;终止延迟(Termination Delay),即在得出自信答案后仍继续推理,旨在解决如何在保持准确率的同时有效压缩推理链的问题。

Method

Experiment

Further Thoughts

论文基于信心的视角为优化推理过程提供了新思路,启发我们可以用信心作为控制推理行为的关键因素,不仅用于压缩,还可能用于提高推理鲁棒性或自适应调整推理深度;提前终止机制提示可以在推理中动态评估模型状态,或启发资源分配策略,根据任务难度调整计算量;信心短语的随机注入表明语言模型对上下文微小变化的敏感性,这可能为提示工程或上下文操控研究开辟新方向。