DeepSeek占据了头条新闻,但这周真的改变了AI格局,还是夸大了?本期节目探讨了关键发展,包括地缘政治紧张局势、OpenAI的回应、企业采用以及对AI基础设施的影响。此外,还有来自Meta的重大更新、OpenAI的巨额融资以及最新的AI模型发布。
KPMG – 请访问 www.kpmg.us/ai 了解更多关于KPMG如何帮助您利用我们的AI解决方案创造价值的信息。 Vanta - 简化合规性 - https://vanta.com/nlw Superintelligent提供的代理就绪审计 - 请访问 https://besuper.ai/ 以请求您公司的代理就绪评分。 AI每日简报帮助您了解AI领域最重要的新闻和讨论。 订阅The AI Daily Brief的播客版本,无论您在哪里收听:https://pod.link/1680633614 订阅时事通讯:https://aidailybrief.beehiiv.com/ 加入我们的Discord:https://bit.ly/aibreakdown
<raw_text>0 当历史书回顾AI的这一周时,它们肯定会将DeepSeek作为驱动力。但是,这一周真的像开始时那样改变了一切吗?还是有点言过其实了?AI每日简报是一个关于AI最重要新闻和讨论的每日播客和视频。要加入讨论,请关注我们节目说明中的Discord链接。♪
欢迎回到AI每日简报。快速说明一下,显然我们连续几天都在进行采访,而且发生了很多事情。因此,本期节目将是一种扩展的头条新闻混合,包含主要内容。主要主题仍然是DeepSeek及其我们了解到的所有信息。因此,我们将继续讲述几天前中断的故事。但正如您将看到的,我们也进入了AI财报季,以及大量OpenAI的传闻。所以我们将把所有的点连接起来。
但正如我所说,我们将从DeepSeek讨论中断的地方开始。在我们中断时,一个重要的问题是这些突破的合法性。这是真正的创新吗?这是窃取的创新吗?成本真的那么低吗?它们是否得到了补贴?这些模型的训练成本是否真的像他们所说的那样?还是有秘密的NVIDIA芯片?
关于这个故事值得注意的一点是它在白宫的排名上升速度有多快。显然,这其中存在地缘政治因素。也许不出所料,白宫抓住DeepSeek并非真正具有创新性的说法。周二,AI主管David Sachs在接受福克斯新闻采访时表示:“AI中有一种叫做蒸馏的技术,一个模型从另一个模型学习。它们基本上可以模仿从父模型中学到的推理过程。有充分的证据表明,DeepSeek在这里所做的是从OpenAI的模型中提取知识。”
在接下来的几个月里,您将看到我们领先的AI公司正在采取措施来尝试阻止蒸馏。Sachs似乎指的是《金融时报》的报道,该报道援引OpenAI消息来源的话说,他们“看到了一些蒸馏的证据”,他们怀疑是来自DeepSeek。现在,Sachs解释得很好,但基本上蒸馏允许AI实验室基于由更大、性能更高的模型创建的合成数据来训练模型,并保留大部分性能。
OpenAI过去积极鼓励模型蒸馏,甚至在10月份推出了他们自己的平台来执行此过程。DeepSeek还在技术论文中记录了他们的模型蒸馏技术,但没有识别父模型。现在,OpenAI显然不会试图对一家中国公司提起知识产权诉讼,但至少从短期来看,从政府的角度来看,它允许一定程度的叙事来降低DeepSeek的成就。其论点基本上是,从头开始训练一个有能力的前沿模型是一项困难且耗时的任务,
其中训练数据的组装是最大的障碍之一。从更强大的模型的输出中提取新模型是一项容易得多的任务。这也意味着R1只证明DeepSeq能够复制领先的美国模型,而不是通过性能突破来超越基准。
现在,我要说的是,鉴于OpenAI卷入多起版权诉讼,对OpenAI提出关于模型蒸馏的问题的一个更常见的回应是一种“五十步笑一百步”的论点。但最终,正如我所说,我认为此时这种蒸馏理念更多的是关于控制叙事,而不是其他任何事情。
DeepSeq训练成本低于600万美元的说法是讨论的另一个重要部分。对于一些技术人员来说,这一说法似乎站得住脚。Anthropic的Jack Clark评论道:“DeepSeq R1最令人惊讶的部分是,它只需要大约80万个高质量的强化学习推理样本就能将其他模型转换为RL推理器。现在DeepSeq R1已经可用,人们将能够从中提炼样本,将任何其他模型转换为RL推理器。”
Accelerate harder计算了构建DeepSeq基础模型发布需要多少计算量。DeepSeq v3有370亿个活动参数。他们在14.8万亿个标记上进行了训练。训练370亿个参数乘以14.8万亿个标记的Flops估计为3.3 e24 flops,使用280万个H800小时完全可以实现。对于那些不相信这一点的人,您认为额外的计算量究竟花在了哪里?
本周早些时候,投资者Naval Ravikant曾发帖称,小型技术团队已经开始证实这些技术和由此产生的成本节约是真实的。当然,我们有一种方法可以实际弄清楚这一点,或者至少更接近真相。基本上,一旦上周一论文可用,就会启动小型实验来复制和揭示突破是否真实。由G.I. Pan领导的伯克利实验室已经完成了一个微小的概念验证。他们仅用30美元的计算量就训练了一个极小的15亿参数推理模型。
香港科技大学助理教授何俊欣发表了一个更大的复制结果。他的团队使用8000个强化学习样本向QEN7B模型添加了推理功能。从技术上讲,这实际上是该过程的独立并发发现,他的团队在过去两个月一直在从事该项目。
Hugging Face目前正在进行全面复制尝试。他们的团队正在使用他们自己的数据集重复DeepSeek论文中描述的方法,因为DeepSeek没有公开他们的数据集。该项目使用Hugging Face科学集群,其中包含768个NVIDIA H100。
这应该大致相当于DeepSeq团队声称的有限资源。该项目的一名工程师Eli Bakush说:“R1模型令人印象深刻,但没有公开数据集、实验细节或中间模型,这使得复制和进一步研究变得困难。完全开源R1的完整架构不仅仅关乎透明度,还关乎释放其潜力。”
无论这些说法的真相如何,事实上一些人持怀疑态度并没有阻止美国AI初创公司开始采用DeepSeek R1。一般来说,我们看到有两类。第一类是通过他们自己的用户体验为其他公司的模型服务的AI初创公司,当然,它们是最快添加R1的一些公司。Perplexity就是一个领先的例子,本周早些时候就建立了访问权限。有趣的是,Perplexity团队已经设法使用他们自己的系统提示设置了一个DeepSeek版本,以规避中国的审查制度。
实际上,这意味着该模型现在将解释天安门广场发生的事情,或者为什么几年前Winnie the Pooh表情包在香港很流行。周三,微软宣布他们已在Azure AI Foundry和GitHub上提供R1。亚马逊第二天效仿,将R1添加到AWS Bedrock和SageMaker中。苹果没有采取任何整合措施,但首席执行官蒂姆·库克在财报电话会议上表示:“我认为推动效率的创新是一件好事,这就是你在该模型中看到的。”
作为一个与我们在这里所做的内容无关的单独讨论,这种能够随意插入和替换不同模型的能力突出了在许多情况下,对于AI模型公司来说,模型有多小。转换成本如此之低,以至于初创公司和企业可以快速将最新的模型插入到其现有基础设施中。
现在,我们看到的第二种采用类型是初创公司将其自身的工作中使用R1。英特尔前首席执行官兼Glue董事长帕特·盖尔辛格告诉TechCrunch:“我的Glue工程师今天正在运行R1。他们可以运行R1。好吧,他们只能通过API访问R1。他们的团队目前正在开发一项名为Calm的AI服务,该服务将提供聊天机器人和相关功能。盖尔辛格表示,在R1的帮助下,他的团队预计将重建Calm,“使用我们自己的完全开源的基础模型”。这令人兴奋。
盖尔辛格的宏观观点是,R1不仅证明了AI将足够经济实惠,可以无处不在,而且高性能AI也将无处不在,他评论道:“我希望我的Aura环中拥有更好的AI。我希望我的助听器中拥有更好的AI。我希望我的手机中有更多AI。我希望我的嵌入式设备中有更好的AI。”
在谈到他对技术的看法时,他在X上写道:“智慧在于学习我们认为自己已经知道的教训。DeepSeek提醒我们从计算历史中学到的三个重要教训。一、计算服从气体定律。使其成本大幅降低将扩大其市场。市场判断错误,这将使AI得到更广泛的部署。”
二、工程学关乎约束。中国工程师资源有限,他们必须找到创造性的解决方案。三、开放获胜。DeepSeq将有助于重置日益封闭的基础AI模型工作世界。Box首席执行官Aaron Levy评论道:“任何构建企业AI应用程序的人都明白,AI的成本和质量是目前AI采用中唯一重要的两个因素。这就是为什么DeepSeq的突破如此重要。企业AI是技术领域中罕见的一类,其用例需求通常远远超过满足所有这些用例的能力。”
这太棒了,反之则意味着需求少于技术能力,但这当然只有在你最终能够满足需求的情况下才是好消息。芯片制造初创公司Cerebrus正在利用DeepSeek来展示其技术。他们计划在其位于美国的服务器上托管R1版本,并由其晶圆级硬件提供支持。传统的GPU是使用在制造过程中从更大的晶圆上切割出的单个芯片构建的。然后将这些芯片联网在一起,以构建AI训练和推理集群。
Cerebrus构建的架构允许更大晶圆上的多个GPU内核作为一个大型芯片(大约相当于一个井盖的大小)运行。这将网络置于芯片上,允许比外部布线快得多的通信。Cerebrus表示,他们的服务器可以比基于GPU的解决方案快57倍地运行70B版本的DeepSeq R1。这对于推理模型尤其重要,因为推理模型在推理阶段使用更多的计算来生成响应。虽然R1似乎比一些美国模型更有效率,但推理需求仍然很高。
请记住,本周初的市场崩盘很大程度上是由于担心DeepSeq意味着对AI芯片和数据中心的需求将会下降。大多数市场分析师似乎认为,AI实验室数百亿美元的支出大部分都用于训练基础设施。Meta首席科学家Yann LeCun驳斥了这一观点,他评论道:“......对AI基础设施投资存在重大误解。数十亿美元中的大部分都用于推理基础设施,而不是训练。”
为数十亿人运行AI辅助服务需要大量的计算能力。一旦您在AI系统中加入视频理解、推理、大规模内存和其他功能,推理成本就会增加。唯一真正的问题是,用户是否愿意直接支付足够的费用来证明资本支出和运营支出是合理的。因此,市场对DeepSeek的反应是完全没有道理的。
事实上,本周的一个真正重要的收获是,大部分AI竞赛都是关于推理的。换句话说,来自中国和美国多个实验室的模型在这个阶段对于许多任务来说已经足够好了,竞争的基础是谁能提供最便宜、最快和最稳定的AI。Matrix Ventures的合伙人Koho Osei写道:“DeepSeek的未充分讨论的影响。如果我们可以将任何像样的基础模型转换为强大的推理模型,那么计算支出将更大幅度地转向推理。”
与此同时,Perplexity首席执行官Aravind Srinivas认为其影响更为深远,他发帖称:“另一个重要的结论是,AI堆栈中的所有内容都正在以惊人的速度商品化。”
除了最终用户体验之外。Roblox首席产品负责人Peter Yang写道:“很快,人们会更关心他们最喜欢的AI应用程序,而不是为其提供动力的模型。我不关心哪个模型为Perplexity、Granola或Replit提供动力。我更关心的是它们具有高超的工艺和周到的用户体验、闪电般的速度以及与我的工作流程的无缝集成。现在是构建AI应用程序的好时机。”
针对Cursor在斯坦福大学计算机科学系本科生和Y Combinator创始人中100%采用率的披露,Playground AI创始人Suhail Doshi评论道:“应用程序玩家将获胜。其他一切都会商品化。你很快甚至都不知道Cursor使用了哪个模型。它只是最好的一个,因为你信任他们。” 正如我们从OpenAI得到一些评论一样,我们也从Anthropic的领导层,特别是Dario Amodei那里得到了评论。周三,他将自己的想法浓缩成一篇题为《关于DeepSeek和出口管制》的博客文章。
他的中心论点是DeepSeek并没有显著领先于美国实验室。他指出,媒体叙事已经抓住DeepSeek花费600万美元就实现了一个模型的想法,而美国实验室训练该模型的成本将达数十亿美元。Ambodei透露,Claude 3.5 Sonnet的训练成本并非数十亿美元。其成本在数千万美元的范围内。昂贵的部分是,一旦模型发布给公众,就需要巨大的数据中心来为模型的推理提供服务。
他声称,DeepSeek产生了一个接近美国模型7到10个月前性能的模型,成本低得多,但远没有人们所说的那样。Amadei解释说,美国公司多年来一直在观察到交易成本的年度外汇减少,并补充道:“DeepSeq v3并不是一项独特的突破,也不是从根本上改变LLM经济学的因素。它只是持续成本降低曲线上的一个预期点。这次不同的是,首先证明预期成本降低的公司是中国公司。”
Amadei确实承认,DeepSeq论文中存在的一些压缩和优化技术是真正的创新。然而,他预计这些技术现在将被美国和中国的领先实验室更大规模地应用,使它们保持在相同的成本降低曲线上。他总结道:
DeepSeek拥有数量适中到大量的芯片,因此他们能够开发和训练强大的模型也就不足为奇了。他们的资源约束并不比美国的AI公司严重得多,出口管制也不是导致他们创新的主要因素。他们只是非常有才华的工程师,并展示了为什么中国是美国的强大竞争对手。
现在,本周DeepSeek讨论出现的另一个领域是大型科技公司的财报电话会议。您听说过苹果的蒂姆·库克被问到这个问题,但在该公司押注成为开源AI领导者之后,Meta本周的报告可能会比大多数公司受到更大的影响。
然而,在周三的财报电话会议上,首席执行官马克·扎克伯格似乎一点也不担心来自中国的新的竞争。他说:
自从世界认识到中国发展的速度以来,时间如此之短,扎克伯格补充道:“现在对这对于基础设施、资本支出等轨迹意味着什么,可能还为时尚早。这里同时发生着许多趋势。”
请注意,Meta已承诺今年在新的数据中心上投资600亿美元。如果有什么不同的话,DeepSeek增强了扎克伯格对这项投资将获得回报的信心。他评论道:“我仍然认为,大力投资资本支出和基础设施将随着时间的推移成为战略优势。我们可能会在某个时候了解到其他情况,但这还为时尚早。在这一点上,我敢打赌,能够建设这种基础设施的能力将成为服务质量和能够提供我们想要规模的主要优势。”
现在,Meta内部的情绪似乎更加紧迫。本周晚些时候泄露了该公司今年第一次全体员工会议的录音。我们将积极跳过关于内容策略变化、公司多元化、公平与包容性培训的结束以及即将到来的裁员的讨论。可以肯定地说,公司内部似乎存在一定程度的不满。但会议的大部分内容都集中在他们的AI战略上。扎克伯格正努力通过Llama的免费和开源方法来提高渗透率,他表示......
我一直在寻找方法,将我们商业模式的优势转化为为人们提供更高质量的产品。我们有一个与业界最佳模型竞争的模型,而且我们免费提供。我们不收取每月20美元或200美元的费用,或者其他任何费用。现在,我认为可能还有机会做得更多。我们可以提供比业内其他人更高的质量答案,并且也可以免费提供。
在谈到DeepSeek时,他说:“每当我看到其他人做某事时,我都会想,啊,拜托,我们应该在那里的,对吧?我们必须确保我们正在努力。”扎克伯格还试图向他的团队保证,他们不会被AI取代。他提到该公司计划构建一个高质量的编码代理,他说:“这是否意味着我们不需要工程师?实际上,恰恰相反。如果一名工程师现在可以完成100倍的工作,那么我想要更多工程师,对吧?我猜想,我们将能够训练AI来完成比许多人工审核员更好的工作。这种转变可能要到明年才会发生。”
总的来说,扎克伯格留下了一条告别信息,我认为本周收听本节目的听众将很容易理解。
他说:“这将是紧张的一年,所以系好安全带。我们有很多事情要做。我很兴奋。”今天的节目由Vanta为您带来。信任不仅仅是赢得的,更是被要求的。无论您是正在进行第一次审计的初创公司创始人,还是经验丰富的安全专业人员正在扩展您的GRC计划,证明您对安全的承诺从未像现在这样重要或复杂。这就是Vanta的用武之地。
企业使用Vanta通过自动化超过35个框架(如SOC 2和ISO 27001)的合规性需求来建立信任。集中的安全工作流程可以将问卷调查完成速度提高5倍,并主动管理供应商风险。Vanta可以通过将您与审计师和专家联系起来,帮助您启动或扩展您的安全计划,以便快速进行审计并建立您的安全计划。此外,由于平台中使用了自动化和AI,Vanta可以为您节省时间,让您可以专注于公司建设。
加入超过9000家全球公司,例如Atlassian、Quora和Factory,他们使用Vantage实时管理风险并证明安全性。
在有限的时间内,本节目的观众可以在vanta.com/nlw获得1000美元的Vanta折扣。网址是v-a-n-t-a.com/nlw,可享受1000美元的折扣。如果2025年AI有一点是明确的,那就是代理即将到来。垂直代理购买行业水平代理平台。
那
这就是为什么Superintelligent在今年年初提供了一项新产品。这是一项代理就绪和机会审计。在短短几周内,我们将与您的团队深入探讨,了解哪些类型的代理适合您进行测试,您需要哪些类型的基础设施支持才能做好准备,并最终获得一套可操作的建议,让您准备好弄清楚代理如何改变您的业务。
如果您对代理就绪和机会审计感兴趣,请直接与我联系,[email protected]。请在主题行中注明“代理”一词,以便我知道您在谈论什么。让我们让您成为AI市场最具活力部分的领导者。您好,AI每日简报的听众。快速休息一下,分享一些来自KPMG最新AI季度脉搏调查的非常有趣的发现。
您是否知道,67%的商业领袖预计AI将在未来两年内从根本上改变他们的业务?然而,并非一切顺利。他们面临的最大挑战包括数据质量、风险管理和员工采用等问题。KPMG处于帮助组织克服这些障碍的最前沿。他们不仅仅是在谈论AI,他们正在通过切实可行的解决方案和实际应用来引领潮流。
例如,超过一半的受访组织正在探索使用AI代理来处理行政事务和呼叫中心运营等任务。因此,如果您希望在AI领域保持领先地位,请关注KPMG。他们不仅仅是对话的一部分,他们正在帮助塑造它。了解KPMG如何在kpmg.com/US推动AI创新。现在,从叙事的角度来看,这是一个很好的结束之处,但在我们离开之前,我们还必须讲述一些其他的故事。
首先,一些快速的模型更新,虽然与DeepSeek无关,但显然仍然是关于尝试进步和被视为进步的。谷歌似乎即将发布其旗舰模型的下一个迭代版本Gemini 2.0 Pro。该模型出现在Gemini聊天机器人应用程序的更改日志中。在模型的简介中,更改日志写道:“......无论您是在处理高级编码挑战(例如从头开始生成特定程序),还是在解决数学问题(例如开发复杂的统计模型),2.0 Pro Experimental都将帮助您更轻松、更准确地完成最复杂的任务。”
在本周的炒作中,许多人注意到谷歌已经提供了一个在质量上非常接近DeepSeek R1和R01 Mini的模型。一旦中国模型的优惠期在下个月到期,Gemini 2.0 Flash的API访问价格与R1类似。本周,谷歌已将其设置为Gemini应用程序的默认模型,其推理模式也可通过谷歌的AI Studio免费使用。
回到中国,其他实验室也在展示他们的能力。阿里巴巴发布了QEN 2.5 Max,声称在各种推理和知识基准测试中优于DeepSeq R1、GPT-40和Claude 3.5 Sonnet。阿里巴巴还强调,他们使用混合专家架构来提高推理效率。这是我们在DeepSeq的V3和R1中也看到的一种应对资源稀缺问题的办法。
然后是OpenAI。除了讨论他们的O1模型与R1相比如何,或者是否是R1的实际祖先之外,围绕他们的还有许多其他故事。也许最值得注意的是,OpenAI的投资者似乎并不担心中国的竞争对手。《华尔街日报》报道称,OpenAI正在进行初步谈判,计划筹集高达400亿美元的资金,
这轮融资将使该公司的估值高达3000亿美元。据报道,软银牵头进行这轮融资,并希望通过投资150亿至250亿美元来获得大部分交易。
奇怪的是,《华尔街日报》最初将估值定为3400亿美元,但后来修改了报道。他们评论道:“......在《华尔街日报》在该报道的早期版本中发布了这一数字后,我们的消息来源表示,较新的谈判将拟议估值降低至最多3000亿美元。”他们还澄清说,3000亿美元的数字是现金后估值,因此这似乎是在谈判过程中真正的价格下跌。
尽管如此,无论最终数字是多少,这都是一笔创纪录的交易。OpenAI在10月份的上一轮融资中以1570亿美元的估值筹集了66亿美元。在短短几个月内将其翻一番,即使按照OpenAI自身的标准衡量,也是非同寻常的。这笔交易将使OpenAI成为历史上第二高估值的初创公司,仅次于SpaceX。《华尔街日报》还报道称,这笔交易旨在为OpenAI在“星门计划”中的180亿美元股份以及一般运营提供资金。
部分理由是OpenAI的高级订阅似乎正在推动收入激增。当OpenAI推出每月200美元的专业版时,对许多人来说,这似乎有点过分。该订阅允许无限制地访问OpenAI的所有模型,包括Sora视频模型和O1推理模型,还为O1添加了一种专业模式,该模式提供了更广泛的答案,复制了研究报告。本月发布的操作员代理也仅限于专业版。
尽管如此,每月200美元的价格对于除高级用户以外的大多数人来说都是相当高的。事实上,Sam Altman本月早些时候抱怨说,专业版实际上是在亏损销售,因为“人们使用它的频率比我们预期的要高得多”。尽管如此,根据这些信息,价格似乎并没有让很多人却步。他们报告说,来自专业版订阅的收入现在已经超过了企业团队订阅,这意味着专业版已达到3亿美元的年化收入。
OpenAI还推出了ChatGPT for Government,这是一个专为政府使用而设计的聊天机器人平台的新版本。它类似于ChatGPT的企业版,允许用户创建自定义GPT并在工作区中共享对话,但也允许机构在其政府云基础设施中托管OpenAI模型的选择。他们将能够配置他们自己的安全、隐私和合规性标准,OpenAI表示,定制产品可以帮助加快公司工具的审批速度,以处理非公开敏感数据。
最后,并且相关的是,周四,OpenAI宣布了迄今为止规模最大的政府项目之一。该公司将向美国国家实验室(由能源部运营的研发实验室网络)提供其O1推理模型的访问权限。根据OpenAI的说法,多达15000名科学家将使用O1来“加速基础科学、确定治疗和预防疾病的新方法、增强美国电网的网络安全,并加深我们对控制宇宙的力的理解,从基础数学到高能物理学”。