规模定律遭遇现实,人工智能无限扩张神话面临考验

发布时间:2025-12-04 18:58  浏览量:23

文 |无言

AI行业最近正经历一场不小的信仰危机。

以前大家公认的“铁律”,也就是只要堆更多数据、更强算力,AI模型性能就能稳步提升,现在正被技术、经济和物理现实三重夹击,这条平滑的增长曲线说不定要碰到拐点了。

AI的规模定律最早2020年由OpenAI的研究人员提出来,2022年又做了完善。

这个定律的核心很简单,就是把模型参数量、训练数据量和计算量同步扩大,模型在各种任务上的表现就能按预期变好。

这个发现直接点燃了行业的军备竞赛。

科技巨头们开始疯狂抢英伟达的先进GPU,砸几百亿建超大规模数据中心,有的甚至为了满足电力需求,把闲置的核电站都重启了。

美国银行测算,2024年全球数据中心的资本支出已经突破4000亿美元,四大科技巨头前八个月就往AI数据中心砸了1250亿美元。

摩根士丹利还预测,到2029年全球AI基础设施的投入能冲到3万亿美元,我特别能理解行业对这个定律的追捧。

以前AI发展靠算法创新,成果不稳定还难预测,可规模定律给了明确的回报预期,投多少钱就能对应多大性能提升,资本自然愿意扎堆进场。

本来想这种模式能一直走下去,后来发现现实远比定律复杂,各种瓶颈已经开始冒头。

历史案例警示局限AI的规模定律看着靠谱,可它和真正的物理定律有本质区别。

物理定律是严格数学推导的,比如空气动力学里的白金汉π定理,能精准预测不同尺度的流体行为。

AI的规模定律只是有限数据点的曲线拟合,超出范围就可能失效,历史上这种经验法则翻车的例子不少。

1940年的塔科马海峡大桥就是典型,工程师把小桥梁的成功经验直接放大,建了更长更窄的桥,通车才四个月,小尺度下不明显的气动弹性颤振就出现了,桥面直接解体。

半导体行业的摩尔定律和丹纳德缩放定律也一样,晶体管缩到纳米级时,量子隧穿效应导致漏电严重,性能提升只能靠新架构,没法再靠缩小尺寸。

这些案例其实早就给AI行业提了醒。

我之前和一位AI工程师聊过,他说现在模型参数量越堆越大,可性能提升的幅度却越来越小,有点像当年晶体管快触到物理极限的样子。

如此看来,AI规模定律的脆弱性其实早就埋下了伏笔,只是前期的快速进步掩盖了这些问题。

金融账本亮起红灯比技术瓶颈更紧迫的是经济账算不过来。

存在不小的资金缺口,贝恩资本更是算出,AI预期收入和维持增长需要的基础设施投资之间,差了足足8000亿美元。

摩根大通也测算过,整个行业得每年赚6500亿美元,才能从计划中的AI基建里拿到10%的常规回报。

可现实情况差得远,虽然ChatGPT这类应用有好几亿用户,可企业客户的付费意愿还在培养阶段。

2024年的调查显示,很多企业反馈2025年的新模型,和2024年版本比没带来啥实质性的实用提升,这就没人愿意继续加钱投了。

更揪心的是AI数据中心的回报率,有些案例过去五年平均才2.4到2.5个点,远低于其他科技基建项目。

2024年四大巨头平均把一成多的收入投到资本开支上,这个比例比2021年高了不少,2025年还在涨。

高额投入短期内拉低了利润率,可AI业务带来的增量收入却没跟上。

我认识的一位投资圈朋友说,现在投资者已经开始质疑这种“先建后赚”模式的可持续性,不再盲目跟风投AI基建了。

行业转向新赛道当前行业的局势很复杂,没人能打包票说规模定律是不是真的到了极限。

斯坦福的AI指数报告显示,2024年美国联邦机构出的AI相关法规,是2023年的两倍多,监管压力在持续增加。

而且有迹象表明,规模定律已经出现收益递减的情况,AI实验室不得不开始换方向,不过技术突破也没停下脚步。

强化学习、测试时计算扩展等新兴方法,开辟了一条无需堆叠参数便能提升模型能力的有效蹊径,为模型性能的优化带来全新思路与潜在可能,开启了模型发展的新局。

OpenAI的o1模型就是例子,它没增大规模,而是靠增强推理能力,在复杂任务上表现出了更强的潜力。

量子计算、神经形态芯片等新兴硬件,极有可能重塑算力扩展的成本曲线。

它们以独特的技术优势,为算力领域带来新的变革契机,使成本曲线呈现出不同于以往的发展态势。

可历史教训和现实的财务压力都在提醒行业,经验法则和自然定律之间的鸿沟一直存在,当下,AI行业正立于十字路口。

未来数年的抉择,将决定它是因循守旧,继续依赖资源堆砌,还是革故鼎新,凭借创新开辟全新赛道。

支持作者,写作不易!如果您喜欢我的文章,可以点个“关注”,成为铁粉后能第一时间收到文章推送。