Skip to content

RAG-MCP: Mitigating Prompt Bloat in LLM Tool Selection via Retrieval-Augmented Generation

grok-3-latest
Score: 0.64
Published: at 08:05

Summary: 本文提出 RAG-MCP 框架,通过检索增强生成技术动态筛选相关工具描述,显著缓解了大型语言模型在大规模工具使用中的提示膨胀问题,并大幅提升了工具选择准确率。

Keywords: LLM, Tool Selection, Retrieval-Augmented Generation, Context Management, Scalability

Authors: Tiantian Gan, Qiyao Sun

Institution(s): Beijing University of Post and Communications, Queen Mary University of London

Problem Background

大型语言模型(LLMs)在工具使用场景中面临提示膨胀(Prompt Bloat)问题:随着外部工具数量(如通过 Model Context Protocol, MCP 定义的工具)增加,将所有工具描述纳入提示会占用大量上下文窗口资源,并增加决策复杂性,导致工具选择准确率下降和潜在的幻觉或错误调用问题。 这一挑战在工具数量扩展到数十甚至上千时尤为突出,亟需一种方法来减轻提示负担并提升选择效率。

Method

Experiment

Further Thoughts

RAG-MCP 的检索与生成解耦思想非常具有启发性,不仅适用于工具选择,还可以扩展到其他需要大规模上下文管理的场景,如知识密集型任务或多轮对话中的上下文压缩。 此外,外部索引的扩展性设计为构建可扩展 AI 代理提供了新思路,未来可以探索如何将类似机制应用于动态知识库或 API 集的管理。 最后,语义检索在非传统场景中的应用潜力值得关注,可以进一步研究分层索引或自适应检索策略,以应对超大规模工具集的挑战。