Skip to content

Enhancing Chemical Reaction and Retrosynthesis Prediction with Large Language Model and Dual-task Learning

grok-3-latest
Score: 0.51
Published: at 13:31

Summary: 本文提出 ChemDual 框架,通过构建 4.4M 分子指令数据集、设计多尺度分词器和双任务学习策略,显著提升了基于 LLaMA 的化学反应与逆合成预测性能,并在多个数据集上超越现有方法。

Keywords: LLM, Chemical Synthesis, Dual Task Learning, Molecular Representation, Instruction Tuning

Authors: Xuan Lin, Qingrui Liu, Hongxin Xiang, Daojian Zeng, Xiangxiang Zeng

Institution(s): Xiangtan University, Hunan University, Hunan Normal University

Problem Background

化学反应预测和逆合成预测是药物发现和合成路线设计中的核心任务,但传统方法依赖专家知识,耗时且效率低。 大型语言模型(LLMs)虽有潜力,却面临两大挑战:一是缺乏大规模化学合成相关指令数据集,二是现有微调策略忽视了反应预测与逆合成预测之间的相关性,导致预测精度受限。

Method

Experiment

Further Thoughts

双任务学习策略是一个亮点,通过联合优化互逆任务(如反应与逆合成)增强模型对化学结构的理解,这种思路可推广至其他领域,如生物信息学中的蛋白质折叠与展开预测;此外,利用算法(如 BRICS)生成大规模指令数据集的方法启发我们可以通过模拟数据弥补实验数据不足,降低数据获取成本,未来可探索更多自动化数据生成技术以支持领域特定任务。