美股言报解读,财经信息,交易逻辑欢迎来到左兜进右兜亲爱的听众朋友们大家好,这里是左兜进右兜我是你们的好朋友左兜今天是 2025 年的 3 月 27 日,星期四欢迎收听本期节目巴克莱银行最近发布了一份关于人工智能下一个方向的言报标题是人工智能下一步发展方向向推理和代理的大转变
他们提出了一个核心问题,AI 行业正在从单纯的模型扩展,转向推理和代理的大转变。这到底意味着什么,会对技术、算力和投资带来哪些影响?今天我们就来拆解这份报告,一起来看看 AI 的未来会走向何方。首先我们得聊聊这个大转变到底是什么意思。
报告指出 AI 行业正在加速发展尤其是自从 OpenAI 发布了 OE 推理模型以后以及 DeepSync 推出了 V3 和 R1 之后整个行业的节奏明显变快了现在的焦点不再只是把模型做得越来越大而是转向两个方向第一个就是在应用层面发展代理第二个就是在模型层面提升推理能力这就像是从对应件转向了教 AI 如何思考和行动
报告里有一句话说的特别到位,应用层向代理的转变和模型层向推理的转变将对底层技术和算力需求产生深远影响。
那么这两种能力具体指的是什么呢?简单来说,代理就是让 AI 能够独立的完成任务,比如说帮你订票,写代码,甚至去独立的做研究而推理则是让 AI 能够像人一样一步一步的进行思考,而不是直接给出你的答案这两者结合起来可能会彻底改变我们对于 AI 的期待
报告提出了两种可能的未来情景第一种叫做 Chinchilla Scaling 继续也就是 AI 模型继续按照每一代增大 10 倍训练成本增加 10 倍的规律进行发展那么如果是这样的呢对于芯片网络设备这些 AI 系统组件的需求会持续爆炸式的增长而像亚马逊谷歌这样的超大规模云计算提供商就得不停的砸钱去升级他的装备
第二种情景就叫做拓展停滞或者说叫做大转变,包括假设在 GPT-5 这个级别的模型之后,预训练的扩展可能会停下来,而行业会把重心转向推理模型,用新的后训练技术和测试时计算来提升性能。
举个例子,OpenAI 的 GPT4.5 基准测试似乎暗示着这个趋势,但未来还可能会有变数。如果真的是这样,预训练的算力需求会在 2026 年趋于平稳,而推理计算的成本会比之前预测的低得多。因为先进的模型不会在盲目的追求大。
不过 AI 实验室也不会闲着他们可能会专注于 15 万亿参数左右的基础模型然后在架构和推理计算上玩出新的花样
那么这两种情景对投资有什么启发呢?报告给了我们一些策略建议,如果 Chinchilla Scaling 继续,那就跟过去两年一样,长期的持有芯片和网络设备公司,比如说英伟达、博通,但要小心那些需要不停烧钱的云计算的巨头。
而反过来呢如果扩展停滞成真了那就该看好云计算提供商因为他们的自由现金流会回升同时呢随着推理成本的下降应用类的股票尤其是那些直接面对用户的公司可能会跑赢大盘
更有意思的是,这个大转变可能会大幅的降低算力预测,如果扩展继续到 2028 年,训练和推理所需的总算力可能是停滞情景的四倍,但是即使是停滞情景,到 2028 年行业还是得花超过一万亿美元来满足算力的需求,而且还会有 2500 亿的 exaflops 的缺口。
接下来我们来聊一聊开源 AI 报告提到开源模型发展的比专用模型还要快比如说 Hugging Face 的 Lama 系列已经有近 10 万个分支下载量超过了 8 亿次
那么 DeepSeq 也差不多不过微调这些开源模型的成本只占原始训练成本的 15%到 20%比如说 Lama 3.1 全套训练成本是 8000 万美元而 DeepSeq V3 更低所以开源目前还不足以撼动行业算力的总格局相比之下 GPT 4.5 或者是 Cloud 4 的训练成本可能相当于 1000 多个开源模型
差距还是很明显的我们再来说一说 AI 应用的爆发 ChatGPT 最近两个月新增了一个亿的用户增长了 33%这也是这两年来最快的增长速度
巴克莱也因此上调了对于 AI 应用的预测
而推理模型和代理显然就是未来的关键所有的大厂 OpenAI,Astropic,Google DeepMind 他们都在抢着制造推理模型这些模型训练成本低因为是在现有的基础模型上进行微调而且还能用思维链技术通过多步推理提高准确性
比如说一个复杂的问题模型会把它拆成很多步每步都跑一遍最后再检查答案这种方法虽然算力需求高但是效果会好很多说到算力报告估计到 2028 年推理需求会增长 4 倍占行业总算力的一半以上但是现在总装机的容量完全是跟不上的
领先的云计算提供商 2025 年的加速器支出大概是 1000 亿美元,占总资本支出的三分之一,但是这可能还是不够的另外开源 AI 虽然火,但还没有吃掉太多的算力,倒是推理模型的崛起可能会让行业重新考虑算力的分配
预训练可能正在接近收益递减的临界点因为高质量的训练数据不够用了未来算力会更多的从预训练转向后训练和推理方面最后呢报告还提到了一些新的趋势比如说混合专家模型 MOE 它只激活一部分参数能够大幅的降低每个 Coken 的计算成本还有地规自提升模型自己去迭代自己
理论上只要是算力够就能无限的进化英语达 CEO 最近也提出了从一个到三个扩展规律预训练、后训练和测试时扩展 AI 的下一波浪潮才刚刚开始 OpenAI 的 O1 到 O3 只用了三四个月 Google 的 Gemini 2.0、Growth 3 还有 DeepSync 2.1 都在加速迭代
那么对于咱们消费者来说呢推理产品像是 Deep Research 已经占入头角了虽然它现在还藏在 ChatGPT Pro 还有 Gemini Advanced 这两个里面但是未来呢潜力还是非常巨大的好了总结一下 AI 行业正在从越大越好转向更聪明才更好推理和代理是未来的主角
不管是 Chinchilla scaling 继续还是扩展停滞对于算力和技术的需求都会只增不减想了解更多细节可以到我们的知识星球圈子查看巴克莱的英文的原文的完整报告最后感谢各位的收听我们下期再见这里是左兜进右兜拜拜
嗯