We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 巴克莱研报:人工智能下一步发展方向?

巴克莱研报:人工智能下一步发展方向?

2025/3/27
logo of podcast 左兜进右兜

左兜进右兜

AI Deep Dive AI Chapters Transcript
People
左兜
Topics
左兜:巴克莱银行发布的研报指出,AI行业正在经历从单纯的模型扩展向推理和代理的“大转变”。这意味着AI的焦点不再是追求更大的模型,而是发展能够独立完成任务的代理应用,并提升模型的推理能力,使其能够像人一样一步步思考。 这种转变将对底层技术和算力需求产生深远的影响。报告提出了两种可能的未来情景:Chinchilla Scaling继续,即AI模型继续按照每一代增大10倍,训练成本增加10倍的规律发展,这将导致对芯片、网络设备等AI系统组件的需求爆炸式增长;或者扩展停滞,即在GPT-5级别模型之后,预训练的扩展可能会停下来,行业重心转向推理模型,利用新的后训练技术和测试时计算提升性能。 这两种情景对投资策略有不同的启示。如果Chinchilla Scaling继续,则应长期持有芯片和网络设备公司;如果扩展停滞,则应看好云计算提供商和面向用户的应用类股票。即使是停滞情景,到2028年行业仍需花费超过一万亿美元满足算力需求。 开源AI模型发展迅速,但目前还不足以撼动行业算力的总格局。ChatGPT等AI应用的爆发式增长也印证了AI应用的巨大潜力。推理模型和代理是未来的关键,各大厂商都在抢占推理模型市场,思维链技术等新技术能够提高推理模型的准确性,但同时也对算力提出了更高的要求。 预训练可能正在接近收益递减的临界点,未来算力将更多地从预训练转向后训练和推理。混合专家模型(MOE)和自提升模型等新趋势也正在出现,AI的下一波浪潮才刚刚开始。推理产品潜力巨大,但现有算力容量不足,行业需要重新考虑算力的分配。

Deep Dive

Chapters
巴克莱银行发布研报,指出AI行业正从单纯的模型扩展转向推理和代理的‘大转变’。这将对技术、算力和投资带来深远影响。代理让AI独立完成任务,推理则让AI像人一样思考。
  • AI行业正从模型扩展转向推理和代理
  • 代理让AI独立完成任务,推理提升AI思考能力
  • 两者结合改变人们对AI的期待

Shownotes Transcript

美股言报解读,财经信息,交易逻辑欢迎来到左兜进右兜亲爱的听众朋友们大家好,这里是左兜进右兜我是你们的好朋友左兜今天是 2025 年的 3 月 27 日,星期四欢迎收听本期节目巴克莱银行最近发布了一份关于人工智能下一个方向的言报标题是人工智能下一步发展方向向推理和代理的大转变

他们提出了一个核心问题,AI 行业正在从单纯的模型扩展,转向推理和代理的大转变。这到底意味着什么,会对技术、算力和投资带来哪些影响?今天我们就来拆解这份报告,一起来看看 AI 的未来会走向何方。首先我们得聊聊这个大转变到底是什么意思。

报告指出 AI 行业正在加速发展尤其是自从 OpenAI 发布了 OE 推理模型以后以及 DeepSync 推出了 V3 和 R1 之后整个行业的节奏明显变快了现在的焦点不再只是把模型做得越来越大而是转向两个方向第一个就是在应用层面发展代理第二个就是在模型层面提升推理能力这就像是从对应件转向了教 AI 如何思考和行动

报告里有一句话说的特别到位,应用层向代理的转变和模型层向推理的转变将对底层技术和算力需求产生深远影响。

那么这两种能力具体指的是什么呢?简单来说,代理就是让 AI 能够独立的完成任务,比如说帮你订票,写代码,甚至去独立的做研究而推理则是让 AI 能够像人一样一步一步的进行思考,而不是直接给出你的答案这两者结合起来可能会彻底改变我们对于 AI 的期待

报告提出了两种可能的未来情景第一种叫做 Chinchilla Scaling 继续也就是 AI 模型继续按照每一代增大 10 倍训练成本增加 10 倍的规律进行发展那么如果是这样的呢对于芯片网络设备这些 AI 系统组件的需求会持续爆炸式的增长而像亚马逊谷歌这样的超大规模云计算提供商就得不停的砸钱去升级他的装备

第二种情景就叫做拓展停滞或者说叫做大转变,包括假设在 GPT-5 这个级别的模型之后,预训练的扩展可能会停下来,而行业会把重心转向推理模型,用新的后训练技术和测试时计算来提升性能。

举个例子,OpenAI 的 GPT4.5 基准测试似乎暗示着这个趋势,但未来还可能会有变数。如果真的是这样,预训练的算力需求会在 2026 年趋于平稳,而推理计算的成本会比之前预测的低得多。因为先进的模型不会在盲目的追求大。

不过 AI 实验室也不会闲着他们可能会专注于 15 万亿参数左右的基础模型然后在架构和推理计算上玩出新的花样

那么这两种情景对投资有什么启发呢?报告给了我们一些策略建议,如果 Chinchilla Scaling 继续,那就跟过去两年一样,长期的持有芯片和网络设备公司,比如说英伟达、博通,但要小心那些需要不停烧钱的云计算的巨头。

而反过来呢如果扩展停滞成真了那就该看好云计算提供商因为他们的自由现金流会回升同时呢随着推理成本的下降应用类的股票尤其是那些直接面对用户的公司可能会跑赢大盘

更有意思的是,这个大转变可能会大幅的降低算力预测,如果扩展继续到 2028 年,训练和推理所需的总算力可能是停滞情景的四倍,但是即使是停滞情景,到 2028 年行业还是得花超过一万亿美元来满足算力的需求,而且还会有 2500 亿的 exaflops 的缺口。

接下来我们来聊一聊开源 AI 报告提到开源模型发展的比专用模型还要快比如说 Hugging Face 的 Lama 系列已经有近 10 万个分支下载量超过了 8 亿次

那么 DeepSeq 也差不多不过微调这些开源模型的成本只占原始训练成本的 15%到 20%比如说 Lama 3.1 全套训练成本是 8000 万美元而 DeepSeq V3 更低所以开源目前还不足以撼动行业算力的总格局相比之下 GPT 4.5 或者是 Cloud 4 的训练成本可能相当于 1000 多个开源模型

差距还是很明显的我们再来说一说 AI 应用的爆发 ChatGPT 最近两个月新增了一个亿的用户增长了 33%这也是这两年来最快的增长速度

巴克莱也因此上调了对于 AI 应用的预测

而推理模型和代理显然就是未来的关键所有的大厂 OpenAI,Astropic,Google DeepMind 他们都在抢着制造推理模型这些模型训练成本低因为是在现有的基础模型上进行微调而且还能用思维链技术通过多步推理提高准确性

比如说一个复杂的问题模型会把它拆成很多步每步都跑一遍最后再检查答案这种方法虽然算力需求高但是效果会好很多说到算力报告估计到 2028 年推理需求会增长 4 倍占行业总算力的一半以上但是现在总装机的容量完全是跟不上的

领先的云计算提供商 2025 年的加速器支出大概是 1000 亿美元,占总资本支出的三分之一,但是这可能还是不够的另外开源 AI 虽然火,但还没有吃掉太多的算力,倒是推理模型的崛起可能会让行业重新考虑算力的分配

预训练可能正在接近收益递减的临界点因为高质量的训练数据不够用了未来算力会更多的从预训练转向后训练和推理方面最后呢报告还提到了一些新的趋势比如说混合专家模型 MOE 它只激活一部分参数能够大幅的降低每个 Coken 的计算成本还有地规自提升模型自己去迭代自己

理论上只要是算力够就能无限的进化英语达 CEO 最近也提出了从一个到三个扩展规律预训练、后训练和测试时扩展 AI 的下一波浪潮才刚刚开始 OpenAI 的 O1 到 O3 只用了三四个月 Google 的 Gemini 2.0、Growth 3 还有 DeepSync 2.1 都在加速迭代

那么对于咱们消费者来说呢推理产品像是 Deep Research 已经占入头角了虽然它现在还藏在 ChatGPT Pro 还有 Gemini Advanced 这两个里面但是未来呢潜力还是非常巨大的好了总结一下 AI 行业正在从越大越好转向更聪明才更好推理和代理是未来的主角

不管是 Chinchilla scaling 继续还是扩展停滞对于算力和技术的需求都会只增不减想了解更多细节可以到我们的知识星球圈子查看巴克莱的英文的原文的完整报告最后感谢各位的收听我们下期再见这里是左兜进右兜拜拜