经济 政策 国家 2026-04-07T14:35:41+00:00

AI泡沫悖论:从规模化到优化

本文分析了当前的人工智能竞赛,认为大型科技公司正在投资规模化,而真正的进步是通过优化实现的。作者质疑这条道路是否通向真正的AGI,或者这只是一个基于幻觉的泡沫。


AI泡沫悖论:从规模化到优化

这并不能证明每一家科技巨头都知道自己走错了方向。所谓“推理”的东西可能有用,但它并不能证明真正的理解或通用智能。这个细微差别很重要,因为今天被宣传为接近通用人工智能(AGI)的东西,实际上只是对一种范式的完善。大型科技公司仍在向基础设施、数据中心和芯片投入巨额资金,仿佛规模化是通往通用心智的必由之路。然而,如果真正的进步继续来自压缩和优化,而不是蛮力,那么这笔投资中越来越大的部分就有可能变得过大。但这确实揭示了一些令人不安的事情:即使在科学精英中,也存在严重的怀疑,即主流路径是通向AGI,还是仅仅通向有用、令人印象深刻且可商业化的系统的完善。然而,竞赛仍然集中在同一个方向上。大型语言模型(LLM)并非强意义上的智能;它是一个统计系统,经过训练以非凡的效率将输入映射到输出。同一项研究报告称,推理成本已大幅下降,而小得多的模型也能达到以前需要庞大系统才能达到的阈值。主流轨迹并未显示出AGI的诞生;它显示出的是越来越紧凑、廉价和高效的LLM。而这就是泡沫的金融核心。问题在于,赌注的规模被合理化,仿佛它正在资助AGI的诞生,而证据却指向同一范式的工业完善。这就是为什么这个泡沫最终会破裂。并非因为它被证明是正确的路径,而是因为它是最可见的路径,并且最能支持科技巨头之间的竞争叙事。一个LLM可以写作、总结、翻译和编程。斯坦福大学的一项研究表明,前沿模型仍在不断改进,但该领域也正变得更加趋同:整个行业都在完善同一条跑道。这种差距是由一种扭曲的逻辑所滋养的:大笔资金被投入到LLM中,因为它们产生了公众和投资者希望看到的可见成果,即使这并不意味着向AGI的真正进步。进步确实存在,但它越来越像是增量优化,而非能够产生通用心智的概念性突破。从效率的角度看,这个悖论就变得清晰了。但这种承诺建立在一种混淆之上。一个LLM甚至可以模拟推理。本十年伟大的技术承诺是AGI:一种能够理解世界、进行推理并以人类般的灵活性行事的通用人工智能。其立场很明确:这些模型不像一个真正的通用系统那样理解世界,需要不同的架构,更接近“世界模型”,而不仅仅是文本预测器。市场想看的并不总是需要被发现的东西。当这种差异变得无法掩盖时,就会暴露出大部分热情都建立在一种幻觉之上:将商业性能与科学进步混为一谈。作者是数据分析师。但模拟它并不等于拥有它。不是因为AI是假的或没用的,而是因为它被估值的方式仿佛我们正在构建一个心智,而实际上我们只是在完善一个数学函数。数据中心并不会变得无用。扬·勒琼(Yann LeCun)——Meta的AI负责人、图灵奖得主以及该领域最具影响力的人物之一——曾主张,LLM不足以达到人类水平的推理和自主性。即使OpenAI在GPT-5.4中谈论“推理”,并解释这些模型在回答之前会使用更多的内部计算,但这并不会改变其本质:它仍然是一个被美化的数学函数。