Skip to content

LookAlike: Consistent Distractor Generation in Math MCQs

grok-3-latest
Score: 0.68
Published: at 19:18

Summary: 本文提出LOOK A LIKE方法,通过合成偏好对挖掘和交替优化策略,显著提高了数学多选题中干扰项和错误描述生成的一致性,超越了现有最先进方法。

Keywords: LLM, Preference Optimization, Synthetic Data, Consistency, Education

Authors: Nisarg Parikh, Nigel Fernandez, Alexander Scarlatos, Simon Woodhead, Andrew Lan

Institution(s): University of Massachusetts Amherst, Eedi

Problem Background

在数学多选题(MCQs)的教育评估中,干扰项(distractors)应反映学生常见错误以帮助识别误解,但现有大型语言模型(LLMs)在生成干扰项时,常常无法确保与输入错误描述的一致性,限制了自动化生成在教育中的应用。 论文旨在解决如何提高错误描述与干扰项生成之间的一致性问题,同时提升错误描述本身的生成质量。

Method

Experiment

Further Thoughts

论文中利用模型自身生成不一致性作为合成偏好对的训练信号,这一自监督方式极具启发性,不仅降低了人工标注成本,还能动态适应模型弱点,可推广至其他需要一致性或指令跟随的领域,如对话系统或代码生成;此外,交替优化策略揭示了在偏好优化中平衡真实数据拟合与偏好学习的重要性,值得在多目标优化任务中进一步探索。