Skip to content

Large Language Models Understanding: an Inherent Ambiguity Barrier

grok-3-latest
Score: 0.75
Published: at 16:55

Summary: 本文通过思想实验和半形式化论证,提出大型语言模型(LLMs)存在固有的模糊性障碍,无法将词汇与抽象概念关联,从而无法真正理解语言含义。

Keywords: LLM, Language Understanding, Ambiguity Barrier, Abstract Concepts, Thought Experiment

Authors: Daniel N. Nissani

Institution(s): Ben-Gurion University

Problem Background

大型语言模型(LLMs)的出现引发了关于其是否能够理解语言和世界含义的激烈争论。 学术界对此意见分歧,支持者认为 LLMs 具备一定理解能力,而反对者认为它们仅是基于统计规律的‘随机鹦鹉’。 本文旨在通过思想实验和半形式化论证,揭示 LLMs 存在一个固有的‘模糊性障碍’(Ambiguity Barrier),从而证明它们无法真正理解对话的含义。

Method

Experiment

Further Thoughts

论文启发我们思考:语言理解可能需要类似人类大脑中‘抽象概念中心’的机制,而当前 LLMs 架构缺乏这种机制。未来的 AI 研究或许应探索如何在模型中引入抽象概念表示及其相互关系,而不仅仅依赖统计规律。此外,是否可以通过多模态学习(结合视觉、听觉等多感官输入)来‘接地’语言模型,减少模糊性障碍?或者设计新的训练范式,让模型在学习语言的同时构建概念网络?