Skip to content

TRUST: An LLM-Based Dialogue System for Trauma Understanding and Structured Assessments

grok-3-mini-latest
Score: 0.87
Published: at 10:25

Summary: 本文提出TRUST框架,利用LLMs和自定义Dialogue Acts schema构建一个模拟临床医生的对话系统,进行PTSD结构化诊断访谈,并通过基于真实转录的患者模拟进行评估,展现了与真实访谈相当的性能。

Keywords: LLM, Dialogue System, Diagnostic Interview, Patient Simulation, Mental Health Recommendation Score: 0.8697280710230166

Authors: Sichang Tu, Abigail Powers, Stephen Doogan, Jinho D. Choi Institution(s): Emory University, DooGood Foundation

Problem Background

这篇论文的出发点是解决心理健康护理的可及性问题,特别是针对创伤后应激障碍(PTSD)的诊断挑战。背景在于,美国有超过2800万成年人有心理健康问题但未得到治疗,其中许多人无法进行正式诊断,因为心理健康提供者短缺、医疗成本高昂,以及PTSD评估的复杂性(如需要遵循DSM-5标准的结构化访谈)。论文指出,虽然大型语言模型(LLMs)已在心理健康对话系统中被探索用于检测、干预和咨询,但鲜有研究专注于正式的诊断访谈系统,尤其是针对PTSD的长时间结构化评估。因此,本文的关键问题是如何开发一个LLM驱动的对话系统,来模拟临床医生的行为,桥接心理健康护理的差距,实现更高效、成本更低的PTSD诊断。

Method

Experiment

Further Thoughts

论文中值得关注的启发性想法是,使用Dialogue Acts schema作为中间层来控制LLM对话系统的决策过程,这可以推广到其他领域,如教育或医疗训练中,以提高AI在复杂任务中的可靠性和适应性;此外,基于真实数据的患者模拟方法提示了如何利用LLM进行大规模模拟训练,而非依赖手动测试,这可能启发未来开发更鲁棒的AI模拟系统来处理情感和临床 nuance。