Skip to content

MAC-Tuning: LLM Multi-Compositional Problem Reasoning with Enhanced Knowledge Boundary Awareness

grok-3-latest
Score: 0.66
Published: at 16:17

Summary: 本文提出MAC-Tuning方法,通过分离答案预测和置信度估计的学习过程,显著提升大型语言模型在多问题设置下的知识边界意识和推理可靠性,平均精度最高提升25%。

Keywords: LLM, Confidence Estimation, Hallucination Mitigation, Multi-Task Reasoning

Authors: Junsheng Huang, Zhitao He, Sandeep Polisetty, Qingyun Wang, May Fung

Institution(s): Hong Kong University of Science and Technology, University of Illinois, UMass Amherst

Problem Background

大型语言模型(LLMs)在知识密集型任务中常生成不存在的事实(即幻觉问题),尤其是在回答超出其参数化知识边界的问题时。 现有研究主要聚焦于单问题设置(逐一回答独立问题),而对多问题设置(单一输入中处理多个子问题)的研究不足。 多问题设置因涉及复杂的上下文区分和推理综合,容易导致上下文混淆和推理错误传播,进而加剧幻觉问题,亟需提升模型的知识边界意识和置信度估计能力。

Method

Experiment

Further Thoughts

MAC-Tuning通过置信度估计增强知识边界意识的思路可扩展至检索增强生成(RAG),结合外部知识库动态调整置信度以进一步减少幻觉;分离学习答案和置信度的策略启发多任务学习中更细粒度的任务分解,避免任务干扰;此外,模型对不同问题数量表现的差异提示未来可设计自适应机制,根据任务难度和数量动态调整推理策略。