Skip to content

ToolACE-DEV: Self-Improving Tool Learning via Decomposition and EVolution

grok-3-latest
Score: 0.71
Published: at 12:48

Summary: 本文提出 ToolACE-DEV 框架,通过任务分解和自进化机制显著提升大型语言模型的工具调用能力,减少对高级模型的依赖,并在多个基准数据集上取得优异性能。

Keywords: LLM, Tool Learning, Self-Evolution, Task Decomposition, Data Generation

Authors: Xu Huang, Weiwen Liu, Xingshan Zeng, Yuefeng Huang, Xinlong Hao, Yuxian Wang, Yirong Zeng, Chuhan Wu, Yasheng Wang, Ruiming Tang, Defu Lian

Institution(s): University of Science and Technology of China, Huawei Noah’s Ark Lab, Huawei Technologies Co., Ltd

Problem Background

大型语言模型(LLMs)在访问实时信息和执行复杂任务时存在局限性,如事实性错误和无法获取最新数据,而工具集成被认为是解决这些问题的有效途径。 然而,当前通过高级模型(如 GPT-4)合成数据进行蒸馏的方法面临高昂的推理成本、数据兼容性问题(合成数据与目标模型知识范围不匹配导致幻觉)以及数据隐私风险。 因此,论文提出了一种自进化框架 ToolACE-DEV,旨在减少对高级模型的依赖,让轻量级模型通过自身迭代改进工具使用能力。

Method

Experiment

Further Thoughts

任务分解的策略为复杂 NLP 任务提供了新思路,是否可以将类似方法应用于多步骤推理或多模态交互等场景? 自进化机制展示了轻量级模型通过迭代自生成数据实现能力提升的可能性,未来是否可以通过引入外部反馈(如用户交互)进一步优化自进化过程? 模型规模与自进化效果的关系提示我们,可能需要根据模型规模调整迭代策略或数据过滤机制,以避免小模型过拟合或大模型数据冗余的问题。