图灵奖得主Yann LeCun及其团队最新研究揭示,大语言模型(LLM)在粗分类任务中表现优秀,但在精细语义任务中表现不佳,其内部概念结构与人类直觉存在根本性差异。
研究发现,LLM追求极致的统计压缩,而人类则追求适应性语义丰富性,这种不同优化目标导致了LLM在处理细粒度语义时的局限性。
研究强调,当前的大模型优化目标与人类认知体系存在本质差异,这解释了LLM在某些任务中表现出色而在另一些任务中却失灵的原因。
图灵奖得主Yann LeCun及其团队最新研究揭示,大语言模型(LLM)在粗分类任务中表现优秀,但在精细语义任务中表现不佳,其内部概念结构与人类直觉存在根本性差异。
研究发现,LLM追求极致的统计压缩,而人类则追求适应性语义丰富性,这种不同优化目标导致了LLM在处理细粒度语义时的局限性。
研究强调,当前的大模型优化目标与人类认知体系存在本质差异,这解释了LLM在某些任务中表现出色而在另一些任务中却失灵的原因。