By 2025, the geopolitical focus in AI will shift from a U.S.-China arms race to a competition over which country's AI systems become the global standard. The U.S. and China will vie for dominance in exporting adaptable AI technologies worldwide, with many countries caught in the middle as 'geopolitical swing states.' The U.S. aims to ensure Western AI technology dominates globally to counter Chinese expansionist initiatives like the Belt and Road Initiative.
U.S. leadership in AI is critical for national security, particularly in potential conflicts like over Taiwan, where superior AI could provide a decisive advantage. Additionally, U.S. dominance ensures that democratic values, free speech, and open conversation are embedded in the global AI infrastructure, serving as a cultural export that aligns with American ideals.
China prioritizes rapid deployment of AI for military and surveillance purposes, leveraging its lack of concern for personal data privacy. However, its innovation ecosystem has weakened due to government policies, forcing reliance on U.S. open-source models like Meta's LLaMA. Despite this, China excels at catching up to U.S. advancements, as seen with DeepSeq's replication of OpenAI's reasoning models.
By 2025, AI agents will be actively used in military logistics, data processing, and decision-making. They will optimize complex systems, process vast amounts of battlefield data, and enhance drone autonomy. This shift will increase the lethality and effectiveness of military operations, raising concerns about the ethical implications of autonomous warfare.
By 2025, AI agents will begin handling end-to-end workflows for consumers, such as travel planning, calendaring, and personal project management. These agents will operate in the background, automating utility-based tasks and freeing users from repetitive activities. The challenge lies in creating intuitive user interfaces that move beyond the current chat-based paradigm.
By 2025, the focus in AI development will shift from solely scaling computational power to equally prioritizing data scaling. High-quality, complex data, such as multimodal and frontier data, will be essential for advancing AI capabilities. Hybrid data approaches, combining synthetic data with human expertise, will become crucial to avoid model degradation and ensure progress.
Current AI models struggle with multi-step reasoning and reliability. Future advancements will focus on improving their ability to handle complex, multi-turn tasks and eventually make autonomous hypotheses and discoveries. However, human expertise will remain essential for guiding models and ensuring accuracy, creating a symbiotic relationship between humans and AI.
Quantum computing, though still in its early stages, has the potential to significantly accelerate AI's ability to conduct scientific research in fields like biology, chemistry, and fusion. By 2025, quantum computing could enable AI to solve complex problems in natural sciences, leading to breakthroughs in areas that are currently difficult to model or understand.
亚历山大·王是 Scale AI 的首席执行官兼联合创始人。他加入 Big Technology Podcast 分享了他对 2025 年人工智能的预测,包括对人工智能领域新兴地缘政治戏剧的见解、面向消费者的 AI 智能体、为什么数据可能比计算能力更重要,以及全球各国军队如何准备在战争中部署人工智能。我们还讨论了量子计算,以及王为什么认为我们正在接近大型 GPU 集群所能实现的当前极限。播放音频,开始一段关于人工智能走向何方以及它将在未来一年如何改变我们世界的令人耳目一新的对话。——喜欢 Big Technology Podcast 吗?请在您选择的播客应用程序中给我们五星好评⭐⭐⭐⭐⭐。要获取节目的每周更新,请在 LinkedIn 上注册播客通讯:https://www.linkedin.com/newsletters/6901970121829801984/想要 Big Technology 在 Substack 上的折扣吗?以下是第一年的 40% 折扣:https://tinyurl.com/bigtechnology问题?反馈?请写信至:[email protected]</context> <raw_text>0 Scale AI 的创始人兼首席执行官亚历山大·王加入我们,预测人工智能在 2025 年的走向,从地缘政治到人工智能智能体,应有尽有。这将在之后立即开始。
来自 LinkedIn 新闻,我是 Jessi Hempel,Hello Monday 播客的主持人。用 Hello Monday 播客开始您的一周。我们将引导职业转型。我们将学习幸福感如何融入其中。在 LinkedIn Podcast Network 或您获取播客的任何地方收听由我 Jessi Hempel 主持的 Hello Monday。
难以跟上客户的步伐?借助 AgentForce 和 Salesforce Data Cloud,部署了解您的客户并自行采取行动的 AI 智能体。这是因为 Data Cloud 将您所有的数据带到 AgentForce,无论它存储在哪里。请访问 salesforce.com/data 开始使用。
欢迎收听 Big Technology Podcast,这是一个关于科技世界及其他领域的冷静、细致的对话节目。我们今天要播出的节目让我非常兴奋,因为我们请来了亚历山大·王。他是 Scale.ai 的创始人兼首席执行官,该公司价值 140 亿美元。它今年筹集了 10 亿美元。它创建的数据为来自 OpenAI、Meta 和其他大型公司的 LLMs 提供支持。它还为企业和美国政府提供技术解决方案,帮助他们构建技术。
并部署人工智能,所以亚历山大与所有大型公司合作,真正处于他们所做工作的核心,包括你知道的,不仅是公司,还有美国政府,我们肯定也会谈到这一点,所以亚历山大,很高兴你来到这里,非常感谢你来到节目,感谢你邀请我,我很高兴今天能和你聊天
是的。我们将深入探讨您的许多预测。我只想从我认为最有趣的预测开始,那就是您认为明年人工智能领域将出现一些地缘政治转变。您能否从这一点开始呢?我认为过去十年来,人工智能的一个重大问题始终是美国与中国的军备竞赛。而且
我认为经常被问到的问题是,美国或中国哪个国家将在人工智能技术方面领先?当然,在过去的十年中,在各种技术方面,这场竞争一直非常激烈。在自动驾驶汽车方面,两者非常接近。现在,在人工智能的军事应用方面,两者非常接近。现在,在生成式人工智能和大型语言模型方面,两者再次非常接近。
新政府将介入并帮助加速发展,使美国能够更积极地与中国竞争,并最终在技术方面领先。我的预测实际上是,我们将更多地讨论不仅是哪两个超级大国获胜,而是哪个国家的 AI 系统更具适应性和全球出口能力。哪个国家
将拥有成为世界人工智能系统基础设施和基础的人工智能技术。许多国家都处于中间状态。全球大部分地区都处于美国和中国之间的中间状态。
而且总有一些问题,我认为美国和中国都会问到,嘿,在您将依赖的技术方面,您必须选择一方。因此,我们喜欢称这些国家为地缘政治摇摆州,或者许多国家——
你知道,他们可以走任何一条路。他们可以选择西方和美国的技术,也可以选择中国技术。我认为过去一年中最好的例子是,拜登政府向阿联酋提出了这个问题,嘿,我们在哪里?
在人工智能技术方面,你们将走向何方?你们可以选择华为的中国技术栈,也可以选择微软的美国人工智能技术栈,他们最终选择了美国技术栈。但我认为这将是决定未来几十年地缘政治进程的幕后斗争之一。我认为我们真的负担不起另一次中国扩张主义
像“一带一路”倡议或华为技术广泛出口那样的扩张行动,我们需要确保西方人工智能技术在全球占据主导地位。
所以基本上,您提出的观点是,美国公司(如 OpenAI、谷歌、亚马逊、Meta)正在构建一系列人工智能模型。然后,中国公司(如华为)正在构建一系列模型。它们将在全球范围内相互竞争。美国获胜或西方版本获胜很重要,因为我们在法国还有 Mistral。为什么这很重要?
这有两个方面。我认为首先,有一个战术问题,即,好的,美国人工智能与中国人工智能哪个更强大?这对国家安全非常重要。我的意思是,我认为如果您认为台湾问题或美国与中国之间其他某种热冲突存在某种可能性,那么美国确实需要确保我们拥有最好的技术,以确保我们在任何热冲突中都能获胜,确保民主能够获胜,并最终能够继续确保我们的生活方式。这就是更好的。拥有更好的 ChatGPT 并不能让你在台湾冲突中获胜。
当然,它不会是唯一因素。但战争史是军事技术史。一次又一次,你知道,当出现新的技术和新的技术范式时,它具有从根本上改变战争的能力。
改变潮流,你知道,我们最近在乌克兰看到了这一点,无人机战争突然成为主要范式,顺便说一句,我认为乌克兰的无人机战争正越来越多地受到生成式人工智能和更先进的自主性的增强,所以这绝对是一个持续的线索,但在你继续之前,你会说美国和中国在哪些方面?
人工智能技术的竞争力,特别是,呃,甚至不是更广泛的,而是像,特别是关于他们在战争中应用它的方式。因此,如果您只关注原始技术,美国处于领先地位,但中国正在快速追赶,你知道,我们喜欢将其分解为三个维度。因此,人工智能实际上归结为三个支柱。它归结为,嗯,
算法、计算能力和数据。算法是 OpenAI 或谷歌或其他公司的人员构建的算法。计算能力归结于芯片和 GPU,即英伟达
从台积电的工厂或台积电在台湾的晶圆厂生产的产品。最后是数据,这可能是三个支柱中最不受关注的,但对于这些人工智能系统的性能同样重要。
如果我们要对中国进行排名,我们在算法方面领先,我们在计算能力方面领先,这要感谢商务部实施的许多出口管制。然后在数据方面,这是一个有点胶着的局面。传统观点认为,从长远来看,中国实际上可能会在数据方面领先,因为他们不像我们在西方那样重视个人自由和保护个人数据。
所以现在,美国处于领先地位。话虽如此,将人工智能部署到军事方面,你知道,很难准确追踪。中国人民解放军没有告诉我们他们到底在做什么。他们没有告诉我们他们到底在做什么。但我确实担心他们的行动速度比我们在美国快。在将人工智能技术用于国家安全或军事用途方面,这已经成为中国的一个既有先例。最好的例子是,在过去十年中,他们在全国范围内广泛推出了面部识别技术,用于维吾尔族镇压或对公民的全球监控。他们做到这一点
非常快,比美国任何类似的技术规模都要快得多。因此,我的预期是,即使美国在核心技术方面领先,他们实际上也会比美国更快地将人工智能部署到军队中。
好的,这就是军事观点。所以基本上,您希望西方国家比中国更强大。人工智能在这里起着很大的作用。因此,人工智能产业变得更强大很重要,因为如果您不够强大,就会有责任,尤其是在这些东西被用于战场上的生产时,例如无人机和计算机视觉,我想,应用于卫星图像之上,以找出人们在激烈冲突中的驻扎地点。但是
还有一个更微妙的观点,那就是它实际上不仅对热冲突、战争等重要,而且对确定哪种技术在商业上或经济上成为全球标准也很重要。对吧。这就是你的第二点。
是的,完全正确。因为在美国,你知道,我们作为一个国家受益于在许多领域成为全球标准。你知道,我们是全球货币的标准。这对我们的经济和我们所做的一切都非常有利。你知道,当然我们的
我们的搜索。嗯,谷歌和我们许多科技公司都是全球标准。因此,对于搜索和社交媒体,许多这样的都是全球标准。我们从这些成为全球标准中受益匪浅。我认为在人工智能方面,你知道,这是一项非常有趣的技术,因为它不仅是一种技术工具,而且还是一种文化技术。最终,如果全球许多人都与人工智能进行对话以了解对某些事情的看法或感受,那么确保向世界各地输出的人工智能基底具有民主性质,即相信言论自由和关于任何必要主题的公开对话的理念。你知道,这是一个非常强大的文化输出,我们可以从美国获得,我认为随着时间的推移,这将实现美国确保我们拥有自由和自由的愿景,你知道,为所有人。所以我认为这是非常重要的事情之一,甚至超出了热军事影响。这对于,呃,
在文化上确保美国能够输出我们的理想至关重要。
所以您说这里也存在软实力问题?是的,完全正确。我想问一下中国的人工智能发展,因为我总是听到关于中国人工智能发展进度的两种相互矛盾的说法。首先,他们有一个愿意投入所有资源来构建训练和运行模型的计算能力的政府。他们不关心数据隐私,因此他们拥有所需的所有数据。
对。然后是算法,你知道,它们基本上都发表在谷歌的论文中。你可以稍微调整一下,但基本上他们有算法。所以他们应该领先。然后你看看实际发生的事情,那就是,如果你错了,请纠正我。目前,中国正在使用许多美国模型,开源模型。事实上,Meta 的模型,Llama 模型,这是一个他们开发并发布的开源模型,是
我们知道的事实是,它已被中国军方用于应用程序。所以向我解释一下。中国是如何有效地将所有这些资源用于解决这个问题的,但仍然必须依赖美国的开源技术来构建他们想要构建的东西?嗯,可能有两个主要原因。一个,一个,
在过去,让我们称之为五年内,不可否认的趋势是,呃,
中国创业行业的崩溃。这实际上是由中国共产党的政策驱动的,这些政策大大地,你知道,扼杀了某些创业行业。他们真的严重阻碍了整个创新生态系统。你可以在数字中看到这一点,流入中国创新生态系统的资金数量急剧下降。那么他们为什么要这么做呢?
在你继续之前,他们为什么要这么做?我知道他们也让马云消失了,对吧?就像他们的中国科技偶像消失了。是因为科技行业发展得太大,威胁到了政府,还是什么?这可能是那里的可能逻辑。
是的,我认为那是——那是根本性的风险。我的意思是,我认为如果政府,如果中国共产党希望确保他们巩固所有权力,那么他们要么必须将科技公司国有化,要么必须确保它们保持弱势。所以——而且还有一些其他的——是的,还有一些其他的——
完全正确。我认为很多事情都取决于我认为他们确实以与我们不同的方式看待世界。我认为我们,你知道,在西方,这看起来完全是疯了。但我认为在某些教条或某些理想中,我认为这完全说得通,对吧?但是——
但是中国创新生态系统确实已经死亡。因此,他们在人工智能方面必须做的很多事情只是赶上并复制我们一直在做的事情,他们在这方面做得相当成功。例如……
OpenAI 发布了 O1 并发布了几个月前的 O1 预览版。这是它的推理模型。是的,这是 OpenAI 的高级推理模型,它擅长科学推理、数学推理和代码推理等。该模型和该模型范式的第一个复制品实际上来自中国的一个名为 DeepSeq 的实验室,即 DeepSeq R1 模型。他们当然非常擅长赶上。现在,
他们的进步也存在非常真实的障碍,那就是芯片出口管制。我认为,这对于美国商务部和拜登政府来说都是一项令人难以置信的努力,旨在阻止中国人工智能生态系统构建与我们在美国拥有的模型大小、规模和数量级相似的基础模型,因为他们
他们无法获得我们在美国拥有的尖端英伟达 GPU。因此,你知道,无论你认为这是好政策还是坏政策,它都阻碍了中国人工智能发展的进步,这使我们能够保持领先地位。
那么让我们回到您的预测,您谈到了美国和中国将如何并驾齐驱,试图让其对人工智能的愿景在全球范围内得到采纳。所以这是你对将会发生什么的预测?你认为谁会赢?
我认为目前的趋势非常积极地朝着美国或更广泛的西方方向发展。我们拥有最强大的模型。我认为,就我们的模型而言,我们也拥有最具吸引力的价值主张,我们的模型将继续改进,是的,也许中国人的模型会随着时间的推移而赶上,但是
我们是创新生态系统。我们将成为那些比对手创新得更远的人。话虽如此,我认为——另一方面,你必须看看中国共产党或中国可能能够提供的全部内容是什么。“一带一路”倡议是通过技术、基础设施建设和债务的总包来实现的。
这使得许多人转向他们。因此,我认为我们需要密切关注,以确保我们始终拥有引人注目的总价值主张。我认为,你知道,我还有一个重要的子预测,那就是,你知道,技术发展如此之快,以至于我认为
2025 年将是世界各国军队开始有效地将人工智能智能体用于活跃的作战环境的一年。我认为你将在我们正在进行的一些热战中看到这一点,以及一些没有战争的先进军队开始使用人工智能智能体。所以我认为温度,可以这么说,人工智能部署到军队的温度将在未来一年内大幅上升。是的,我刚刚在 Big Technology 上发表了一篇关于人工智能将成为一段时间内企业级事物文章,对吧?就像公司、B2B 软件公司一样,这并不是科技世界中最令人兴奋的事情。
它是否会成为这些东西被采用的地方,因为它解决了他们的问题,他们拥有大量信息,无法组织它,无法共享它,无法对其采取行动。特别是生成式人工智能非常擅长处理这个问题。然后你考虑一下,如果它不是为普通人服务的,那么它还能在哪里使用?对吧。就像我们现在没有 iPhone 一样,但我们有很多公司从事软件工作,而军队正是它可以应用的完美例子,因为所有信息和后勤问题。
是的,完全正确。我认为这是,你正在谈论的核心观点,我认为这经常被忽略。我认为当人们想到军队并想到战争时,他们通常会想到真实的战场和战场上的行动。但是,你知道,任何作战行动或任何军事行动中 80% 的努力都是所有后勤协调工作,你知道,战场。
武器或各种物资的制造,物资到战场的后勤和运输,决策过程,所有传入信息的处理。因此,发生的大部分事情实际上看起来,正如你所说,很像一个企业。只是赌注要高得多。是的。是的,今天的军事行动完全是关于后勤的。就像开火一样,这是最后发生的事情,但是……
完全正确。这是一场后勤游戏。因此,为了,你知道,深入探讨您提出的子预测之一。那么,在这种情况下,AI 智能体如何提供帮助呢?所以,你知道,我认为智能体将在两个核心领域发挥作用
立即的价值。一个是,参考您对企业的观点,它在于处理海量数据。目前,大多数军队已经接收到的信息比他们能够处理的信息还要多。有数 TB 的数据涌入,无论是来自战场的数据、来自其合作伙伴和盟友的数据、来自卫星网络的数据、来自其他
数据收集格式,他们需要将这些数据处理成能够帮助他们做出关于他们应该如何改变行为的实际决策的洞察力。首先,这就是将海量数据摄取转化为实际决策的巨大问题。那是
这种一般的问题集适合许多子领域,无论是后勤、情报、军事行动规划还是其他任何领域。我看到的第二个领域——
产生非常非常真实的影响只是在根本上协调和优化复杂系统,而这正是,我认为后勤或制造案例非常清楚的地方,这些都是极其复杂的流程,有很多很多活动部件,并且
人类很难掌握这些流程并有效地优化它们。而人工智能系统可以比其他系统摄取更多关于这些流程的信息,可以自行运行模拟,了解哪些配置可能运行得更好,并且它们可以对这些流程进行自我优化以获得更好的性能。然后还有,我认为,第三个领域,即更多
更具推测性或科幻性,即更积极地使用人工智能智能体进行无人机自主性或目前正在运行的许多自主任务。我认为这是许多军队积极试验的一个领域。但我认为,如果您开始看到这种情况发生,那么您将拥有更多能够变得越来越致命、越来越有效的自主无人机。而且
这本身将是一场猫捉老鼠的游戏,一场真正的竞赛。这让我非常害怕。你对此感到满意吗?我认为不是,我认为,我认为最终我们需要进行
关于我们实际上希望在多大程度上使用许多人工智能智能体进行全球对话和全球协调,实际上是在战场上使用的……话虽如此,现在确实正在发生热战,军队和国家处于绝望之中,我认为他们会在短期内尽其所能来获得……获得优势,是的,这是我感觉一旦它离开车站就回不来了的事情之一,当我们谈论智能体时,它基本上就像
自行做出决策的人工智能应用程序。如果我们最终拥有它,你知道,部署在战争中,它只会,一旦有人这样做,
每个人都会这样做。这与通常的核武器储备破坏相反,我认为,这就像,哦,就像,你知道,如果我们这样做,世界就结束了,而对于智能体决定轰炸什么,在哪里轰炸,如何攻击,只要他们没有接触核武器,这真的很难让它回到谷仓,因为如果你不使用它,你就会被摧毁。
是的。我认为好消息是,如果你以核武器为例,核武器发生的事情是,我们已经建立了极其先进的技术,坦率地说,这种技术具有世界末日的能力,但这实际上导致了比没有它更多的和平,因为你有了这种威慑性威胁,即使用核武器。因此,我的希望当然在于
虽然人工智能在军事中的应用是……
非常令人担忧,并且可能非常强大,但它具有相同的效果,即最终阻止冲突而不是制造冲突。我希望你是对的,我是错的。几个月前,我们邀请了帕尔默·拉基参加节目,他谈到各国不会发动他们认为自己会输掉的战争。所以也许这会增加这一点。我的意思是,这在核武器方面当然一直如此。好吧。我想谈谈你的第二个预测。我们已经提到了人工智能智能体,但我认为我们应该深入探讨一下,因为,你知道,
我认为人们听到人工智能智能体,他们会说,这应该是我电脑上的一些东西,它会帮我预订旅行,帮我预订餐馆的桌子,帮我查找东西,如果我需要它帮我做的话,帮我做我的费用报告。或者,你知道,基本上是代表个人采取行动的智能体。我们还没有真正看到这些。我们已经看到一些公司和军队使用这些东西的例子。普通人没有机会接触到它。但你认为它会改变吗?
是的,我认为 20,是的,我认为 2025 年将是我们将开始看到一些,呃,某种非常基本的原始人工智能智能体真正开始在消费者领域工作并创造,呃,
某种真正的消费者采用。我认为这另一种方式是,我们将看到 2025 年人工智能智能体出现类似于 ChatGPT 的时刻,也就是说,您将看到一款开始产生共鸣的产品,即使对于技术人员来说,它似乎也不是
相对于我们之前拥有的东西来说,这并不是一个很大的飞跃。我认为这很大程度上将来自两个主要线索。首先,很明显,模型正在不断改进,变得更可靠,并正在下降曲线。第二个是真正改进人工智能代理的 UI 和体验。现在,我们仍然停留在
我认为科技行业仍然停留在聊天范式上,你知道,与这些模型中的一个进行聊天。我认为这是一个限制性范式,它使智能体能够真正开始工作。对我来说,人工智能智能体开始工作真正意味着什么,那就是,你知道,
我作为用户或一般的消费者开始真正将一些实际的工作流程外包给智能体,否则他们本来必须自己完成。因此,我们将开始只是,呃,完全信任智能体来完成端到端的工作流程。也许它会与旅行有关。也许它会与日历安排有关。也许它甚至会与,你知道,
制作演示文稿或管理您的工作流程有关。但我们将开始真正将我们工作的一些有意义的部分卸载给智能体。这将是真正开始流行的东西。我不知道它是否会是大实验室之一,或者它是否会是一家新兴公司想出来的,因为我认为很多事情都来自,呃,
实验和自然创新生态系统的运作。但我们看到的是,模型及其能力肯定足够强大,可以提供非常令人难以置信的体验。有很多关于我们是否正在撞墙等等的讨论,但这些模型确实非常强大,我们应该在这里看到一些大的东西。
好的,那么就带我了解一下那样的体验是什么样的。你知道,我们不必坚持这一点,就像它不必一定是用例一样。但既然你已经想象到人工智能智能体最终会在 2025 年帮助我们,那么对于某人来说,哪些体验是可行的呢?
首先,让我们了解什么是理想的人工智能智能体。我认为理想的人工智能智能体是在观察和自然地处于所有核心信息流和核心上下文流中,
你在数字世界中。所以它在你的所有 Slack 线程中,它在你的所有电子邮件线程中,它阅读你的 JIRA 或你所有的工具,以了解你工作生活中发生的一切。然后它有助于对所有这些信息进行组织,以便开始采取某些行动。所以我认为一个
将非常有益并且我认为是可行范围内的智能体是开始参与回复你的许多电子邮件,并在需要你的时候标记,例如
额外的上下文或信息能够处理您的邮件,可以自然地总结您的许多邮件。因此,某些事情只会改变做邮件的体验,嘿,我就像不得不逐条回复每一封邮件一样,提升到,嘿,这就像
所有整体工作流程和工作流程,以及您如何在这些工作流程之上进行高级参与,但这只是一个业务用例,我很想知道您是否认为像普通人最终如何使用 AI 代理,或者这是否还很遥远,也许不是在 2025 年,每个人都在工作,所以……给我一个工作环境之外的例子
是的,我认为一个更私人的例子。我的意思是,我认为同样地,我认为在每个人的个人生活中,你也在……
权衡和处理各种各样的优先事项。我正在这里和我的朋友们一起计划一次旅行,我需要为我的家人买礼物,并弄清楚他们想要什么圣诞礼物。然后我需要,我还有所有这些个人项目,它们仍然像……
在你正在处理的所有项目之上,并帮助你更自然地协调所有项目。我认为这是我们将开始看到的事情。现在,我不知道这会以何种完美的方式发生,对吧?我不认为产品体验非常重要。
作为其中的一部分非常重要,拥有一个你不会期望它完美但期望它相当不错的产品体验,我认为这是 99% 的挑战,这就是为什么尽管模型已经能够做得很好,但我们还没有看到它。
我 2025 年的预测是,人们使用 AI 代理来为他们使用约会应用程序。有些人被发现,有些人没有。我们将看到一些关于某些人如何将其设置为自动驾驶并最终……的故事,你知道,安排比他所能期望的更多的约会。是的。是的。好吧,希望这种情况已经发生了。
希望会有美好的约会。是的,我不知道。你看到了什么?我知道你前段时间在播客中采访了 Benioff。你认为从 AI 代理的角度来看,哪些事情似乎是合理的?好吧,我认为 Salesforce 首席执行官 Mark Benioff 在来的时候,很有说服力地谈到我们将拥有……
工作中的 AI 代理。同样,这就像工作或企业用例,因为工作拥有所有这些数据。而且我们在工作中一整天都在做的所有这些任务都很费力,而且确实很烦人,准备报告、制作仪表板、参加我们不需要参加的会议、从这些会议中提取要点、将它们发送给我们的老板、告诉我们的老板,例如,在 Salesforce 实例中,例如,你
每次谈话进行的情况以及我们关闭该走廊的预期渠道,所有这些都可以用于 AI。我认为它可以与 AI 一起使用。我认为在医疗用例中它非常有趣。我刚刚与 GE Healthcare 谈论了他们如何为医生提供癌症患者病史摘要的仪表板,这些摘要长达数千页。
医生们从来没有机会阅读完整的病史。现在,生成式 AI 正在对其进行总结,并为他们寻找可用的治疗方法,并在他们错过检查时通知他们。我认为这也是 Benioff 提到的医疗保健示例,它实际上可以在解决方面发挥积极作用
以你从未在去看医生预约后听到的方式扩展医疗建议和医疗治疗。现在他们可以创建一个代理来让你坚持你的计划吗?例如,就你需要做的后续工作而言。在消费者方面,对于其他人来说,这就是我感到好奇的地方,因为我们的整个互联网都是为了有效地对抗机器人而设计的。但是,如果我们有代表我们工作的代理,
在互联网上,例如旅游网站、约会网站、社交媒体网站。我非常好奇,他们是否会遇到这些机器人保护系统。他们会代表我们进行验证码吗?他们会收到短信并填写这些号码以便能够登录不同的系统吗?因为同样,整个互联网都是为了防御这些东西而建立的。所以我很想知道你的想法。我的意思是,
这种代表我们采取行动来做一些事情的个人代理的愿景,例如预订旅行、保持健康、为我们采取互联网服务的行动?鉴于所有这些保护措施是为了防止它们直到这一刻,这是否是一件可行的事情?我们将不得不从根本上重新格式化互联网的工作方式才能支持它。我认为那就像……
在某种意义上,将会有两个网络。将会有一个网络供人类在需要自己导航事物时使用,然后将会有一个网络供代理使用,这是一种……
在表面之下,人类永远不会看到的东西,但允许他们更有效、更容易地代表我们采取行动。我认为从长远来看,最终会发生这种情况。我诚实的看法是,我认为在某种程度上,我们大多数人今天对互联网的使用方式有两种。有一种……
消费,我们在这里寻找内容,我们对事物感到好奇。然后是基于效用的使用。我认为代理的可寻址市场(可以这么说)是所有实用工作。我使用互联网只是为了完成某件事的一切
我希望这能更快、更容易、更好。我宁愿不必主动这样做。假设这就像预约和查找特定信息或弄清楚如何填写我的纳税申报表或其他任何事情。所有这些都应该由代理处理。我们仍然需要消费大量内容,这只是我们喜欢做的事情的一部分。
是的,我认为这是一个非常好的观点。我的意思是,我认为最终,我认为代理将开始
在一个他们会感觉像玩具的领域,就像任何技术一样。所以也许,你知道,我们都会从一个语言学习代理开始,或者我们会从一个烹饪辅助代理开始,或者它只会是感觉相当无害的东西,但我们会开始意识到我们可以真正依赖它。然后,
并且也依赖它更多。我认为这与 ChatGPT 发生的情况一样。最初,它是一种……,我们意识到,它是一种玩具。然后人们开始用它做很多家庭作业。人们开始用它编写代码。现在人们用 ChatGPT 和其他聊天机器人做各种事情。那将是主线。在我们离开代理之前,让我问你这个问题。你认为我让我的 AI 代理(可以打字和说话)……是否合乎道德
代表我们出去给很多人发邮件和打电话,例如在客户服务部门工作的人,或者我不知道我是否正在申请学校,他们试图找出我是否合格以及我需要提交什么信息。我的意思是,这些流程可能被设计得很费力,以便筛选出不愿意努力进入或通过该申请门槛的人。
因此,在某种程度上,它正在对抗公司和机构为我们设置的这些防护措施。另一方面,它最终可能会浪费很多人的时间。就像我真的很期待某些学校或机构的“无代理政策”一样,例如,如果你要联系我们,它必须是一个人而不是一个代理。你怎么看?
你知道,我在 Reddit 上看到了这个东西。这是一篇关于……的文章
一位招生官,她创建了所有这些方法来追踪论文是否由 AI 生成。它们非常详细。它非常具体。他们列出了大约 20 个他们寻找的标准。我认为,正如你所说,看到它有点令人心碎,因为这意味着让我们
如果学生使用 AI 生成论文,他们必须花费更多时间来弄清楚它是否是由 AI 生成的,以筛选掉所有噪音。我认为你是完全正确的。我认为我们需要……
几乎就像会有一个供人类使用的互联网和一个供代理使用的互联网一样,也会有人类流程和代理流程,并且很多高意图或非常昂贵或以其他方式特殊的事情将仅保留给人类,并且它将是一种……
就是这样。我的意思是,在某些方面,我期待着这个未来。另一方面,我确实认为,我们谈论得越多,AI 将为我们处理多少事情,我确实觉得我们正在以炮弹的方式走向那个 WALL-E 未来,在那里我们都肥胖,喝着大苏打,让 Roomba 带我们环游世界。是的,我认为,我认为,是的。
轻松和便利,这绝对是技术带给我们的方向。你知道,显然在某些时候应该有限制,但是如果它们存在,我们不知道它们在哪里。没错。这种消除摩擦的想法在某些方面使世界变得更美好。在其他方面,它改变了人们的大脑化学物质,例如我们不希望经历艰难的事情,并且
当我们这样做时,我们会失去理智。这就是为什么你会在 YouTube 视频和机场人员行为的视频中看到这些内容,因为我们已经消除了很多摩擦,而且公司在客户体验的基础上竞争到了现在的地步,如果出现问题,我们会很脆弱。我们认为,你知道,我们应该得到更好的待遇。摩擦确实会让人坚强一些。完全正确。是的。
好的,我们在这里与 Scale AI 的首席执行官兼联合创始人 Alexander Wing 见面,这是一家价值 140 亿美元的公司,它与其他人合作,帮助他们为他们生成 AI 数据,并帮助他们扩展其 AI 解决方案。我们将在稍后这段广告之后讨论 Alex 的第三个预测。我是 Jesse Hempel,Hello Monday 的主持人。在我 20 多岁的时候,我知道我想要什么职业。
但从我现在的位置来看,在我生命的中期,没有什么感觉是确定的。工作正在改变。我们正在改变。而且没有指南来解释这一切。因此,每个星期一,我都会带您与那些正在深入思考工作及其在我们生活中所处位置的人进行对话。我们讨论职业转变、目标以及如何辨别目标、幸福感如何融入其中以及如何要求加薪。
加入 Hello Monday 社区吧。让我们一起规划未来。在您获取播客的任何地方收听 Jesse Hempel 主持的 Hello Monday。
难以满足客户日益增长的需求?借助 AgentForce 和 Salesforce Data Cloud,您可以部署 AI 代理,从而解放团队的时间,让他们更专注于建立客户关系,而不是重复性、低价值的任务。这是因为 Data Cloud 将所有客户数据带到 AgentForce,无论它存储在哪里,从而使代理能够深入了解您的客户并无需帮助即可采取行动。这就是 AI 的本意。请访问 salesforce.com/data 开始使用。
我们回到了 Big Technology Podcast,与 Scale AI 的首席执行官兼联合创始人 Alexander Wang 见面。所以,Alex,我想问你一下我们正在看到的这种有趣的转变,对吧?到目前为止,我们完全是在 GPU 或芯片训练了多少模型的基础上讨论 AI 模型的,对吧?过去,你可以在 16 个芯片上训练一个模型,对吧?顺便说一句,它们并不便宜,每个 20,000 美元到 40,000 美元,对吧?
然后我去了 1000 个,现在到年底,我们开始听到疯狂的数字,例如 10 万、20 万。我刚在拉斯维加斯的亚马逊 re:Invent 大会上,AWS 首席执行官 Matt Garman 告诉我,他们将在数十万个 GPU 或 GPU 等效设备上训练下一个 Anthropic 模型。然后我说,哦,那太多了。当他这么说的时候,埃隆·马斯克出来说,好吧,
我们将在孟菲斯使用一百万个 GPU 训练下一个 XAI 模型。所以我认为我们真的达到了极限,我不知道,你能用芯片做些什么。因此,你认为我们将把这场对话从芯片转移到其他方面,即什么构成了最强大的模型。所以我会为你准备第三个预测。
是的,正如你所说,在过去的几年里,很多对话都围绕着 GPU 和计算能力展开。我认为 2025 年将会发生的事情是,我们将——我们将只会关注谁能创造更新、更好的芯片或拥有更多芯片的更大的数据中心,而且谁能创造更新、更好的数据。
我认为我们将看到的一件事是,重点将从仅仅是计算能力转移到计算能力加上数据被认为几乎是同等重要的。你知道,数据实际上是……
从根本上说,是智能的原材料。围绕数据的对话将非常有趣。在过去几个月里反复讨论的一个重要话题是,我们是否达到了极限?我们是否达到了数据极限?
我们是否在整体进展上遇到了瓶颈?我认为正在发生的一件有趣的事情是,你知道,这是来自一种不惜一切代价扩大计算能力的方法。如果我们只是扩大 GPU 的数量并创造更大、更大的 GPU,
你知道,GPU 数据中心没有创建越来越多的数据来训练这些模型,那么我们将遇到问题,我们将遇到障碍,我们将停止看到我们期望从模型中获得的进展水平,因此,我们看到的一件大事,尤其是在我们与许多前沿实验室合作的工作中,你知道,这是真的。他们正在扩大 GPU 集群。他们正在扩大芯片的数量
这对他们来说仍然是一条非常激进的道路。但是并行的讨论是,我们如何扩大数据?这有两个方面。一个是显而易见的扩大数量,另一个是扩大复杂性。因此,他们看到了转向更多……的必要性,
我们称之为前沿数据。因此,转向高级推理能力、代理数据以支持我们刚才讨论的代理、高级多模式数据。例如,我们今天刚刚看到 OpenAI 发布了 Sora。因此,对视频数据以及视频、文本、音频、图像等的更复杂组合的需求将非常非常有趣,进入明年。所以……
我认为最近通过模型得出的一个教训是,你不能仅仅扩大 GPU 并期望获得相同的进展水平。你需要制定一个策略,通过这个策略,你可以扩大
所有三个支柱。你需要一个策略来扩大计算能力,你需要一个策略来扩大数据,你需要一个策略来继续改进模型。只有通过这三件事的协调,你才能继续突破 AI 进展的界限和障碍。
但我很好奇你的想法。我的意思是,你已经与所有这些首席执行官谈过话。他们在谈论什么?我的意思是,这正是他们正在谈论的事情。几周前,我们采访了 Cohere 的 Aiden Gomez,他基本上说,这曾经是训练模型的路径,而在早期,你可以有效地带走街上任何一个人,记下他们所说的一切,这将是模型的新信息。
然后你开始不得不让研究生谈论他们的……因为这个常识库已经建立起来了。然后你让研究生谈论他们的学科领域。然后你去博士那里。然后他说,接下来我们去哪里?因为我们拥有所有这些常识。现在我们拥有所有用于训练这些模型的专业知识。顺便说一句,他们改进和能够处理一些复杂性的方式真是令人惊叹。这真的很疯狂。所以问题是,接下来去哪里?我……
我认为这就是你们现在正在做的事情。我很想知道你们为这些模型生成更多训练数据的过程是什么样的。是的,这正是你刚才提到的。就像我们关注的很多事情一样,我们如何引入专业知识,以及这种来自你能想象的每个领域的专业知识,从医学到法律,从科学
数学到物理学,到计算机科学,甚至了解各种高级系统或成为一名优秀的会计师,或者你能想象的任何领域,获取……
什么是所有神秘的知识?所有这些在每个领域中都存在的非常具体、深入的知识,并将这些知识整合到大型数据集,我们可以使用这些数据集来帮助训练这些模型,以在这些领域继续改进?我们为许多工作所做的努力是……,我们称之为混合数据。我们如何
因此,我们在过去一年中特别看到的一件事是,合成数据并没有像每个人希望的那样有效。纯合成数据,只需使用
从模型中生成,尝试训练未来的模型,有时会对模型造成真正的问题。嗯,所以我们一直在大力推进的是混合数据的概念。因此,你拥有合成数据,但你使用……,嗯,人类专家与合成数据混合,以确保你正在生成数据。这确实……,嗯,
准确且高质量,不会造成问题,而且你能够非常高效且大规模地做到这一点。你也会有那些会坐下来写下他们所知道的或口述他们所知道的博士。然后你将它输入模型。是的,没错。很多时候,它甚至比这更有针对性。你知道,你运行模型直到你意识到模型一遍又一遍地犯错。然后你知道你已经达到了它的知识极限或能力极限,你有一个博士……
来帮助你,可以这么说,让模型走上正轨。那么,在我们将达到什么程度方面,极限是什么?因为如果我们,假设我们让所有这些专业领域输入他们的知识,如果它只是知道每个主题的所有知识,这最终是否会使 AI 完整,或者它是否必须达到一个新的基准才能真正显示它具有这种下一级智能?它是否必须开始自己做出发现?你认为基准应该是什么?
是的,我认为,好吧……
对我来说,我认为显然还有更多改进的层次。现在,它正在测试,好吧,它是否可以一次正确地完成这些事情,或者如何——第一条轨道只是可靠性。将这些模型从五次中一次正确地完成某事提升到 99.99% 的时间正确地完成某事。这需要大量的开发才能达到这种更高的系统可靠性水平。
然后正如你所说,这实际上是关于模型如何能够开始连续采取越来越多的行动?你知道,真正……
今天所有模型的共同点是,它们在采取多步骤行动方面并不是很好。每当它必须采取几个步骤,每当它必须将几件事串联起来时,它都会不可避免地在过程中犯错误。因此,提高可靠性的下一个层次实际上是使模型能够进行越来越多的多轮、越来越多的多步骤推理,以便能够使它们……
完成越来越复杂的任务。然后,当我们前进时,最后一部分是,这是你前进的关键,就像最终,它将能够开始提出自己的假设,自己运行这些测试,并最终做出自己的……
发现或认识,或进行自己的研究。即使那样,它有时仍然会卡住,仍然需要一位人类博士来帮助它,就像今天的博士生仍然需要一位导师来给予它正确的推动一样。
所以我认为人类和 AI 之间的这种共生关系(可以这么说)永远不会消失。我认为我们将永远能够……
在帮助模型走上正轨并确保它们始终不断改进方面将始终非常重要。但是我们将看到模型在自主程度和能够独立运行的程度方面得到提升。关于多步骤的事情,对吧,采取许多不同的步骤,我上周从穆迪公司听到了一些有趣的事情,我想和你谈谈,他们基本上说,
他们创建了 35 个独立的代理。因此,假设他们想评估其投资组合中的某些东西,例如其投资组合中的公司。他们将有一个代理来查看一个代理将查看财务数据。另一个代理将查看……,例如,天气风险。另一个代理将查看他们所在的地区。另一个将查看行业。
他们有 35 个不同的变量或其他什么。然后他们让所有这些都返回,并将结果传递给这个编译器代理,它会评估所有这些,然后通过投票代理运行结果,这些代理会询问,好的,这可靠吗?
我离开后对这个想法印象深刻,但也像我的记者大脑一样,不知道这是否真实。所以我很想知道你的想法。这是一个可能的解决方案吗?就进入这些多步骤流程的方式而言,这有多可行?
所以这是一个——在我的工作中,这是一种非常有条理的方式,试图使系统能够进行多步骤推理。因为理想情况下,你希望模型做的是——就像人类一样,能够……
能够在进行过程中弄清楚它需要知道哪些部分,并且能够自己动态地做到这一点,而不必…… 预先确定和预设模型需要经历的整个制度。是的。嗯,那么你是在说这可能是模型完全可以自己做的事情。这很酷。我认为将来,我们将会……,模型将改进以能够到达那里,你知道吗?然后我认为真正的……,在多步骤方面和多步骤推理方面,我确实认为……,嗯,
有很多障碍,因为…… 这是人类从许多反复试验和实验中学习如何做的事情。例如,我们会尝试完成一项复杂的任务,然后我们会意识到我们会学习,哦,我们实际上错过了。例如,你第一次尝试烘焙蛋糕,你知道,一项相当复杂的工作。然后你意识到你错过了 A、B、C 和 D。然后下一次,你会说,好吧,我一定会记住。我刚从烤箱里拿出一盘面粉。
我哪里做错了?是的,没错。我的意思是,我们通过反复试验学到了很多东西。现在,模型处于做同样事情的早期阶段,即能够进行这些动态过程,它们通过反复试验学习,并且能够不断从错误中学习。这就是我们需要达到的目标。
好的,我知道我们只剩下几分钟了。所以让我向你抛出几个快速的问题,然后我们就可以离开了。首先,
我只是很好奇。我们谈了很多关于数据将变得非常重要的内容,但我无法忘记埃隆将尝试构建这个拥有数百万个 GPU 的超级集群的事实。你对它会产生什么结果的预测是什么?老实说,我认为在今天我们所处的 AI 发展阶段,我们受到数据的限制,而不是计算能力的限制。因此,有了这样的东西,我只会有一些渐进式的改进。
是的,我认为我认为真正的飞跃来自数据。好的。因此,对此进行快速跟进。如果我们如果我们最终像我今天看到谷歌关于他们在量子计算方面取得的突破的新闻一样,我们可能会在周五的节目中更多地讨论这个问题。如果我们有可以更快地处理数据的量子计算机,你认为这对 AI 会有什么影响?我真的很这么认为。我有机会在今年早些时候参观谷歌的量子计算机。
设施。这非常令人印象深刻。我认为量子计算就像 2018 年的 AI 一样。它遵循一些缩放定律,你绝对可以眯起眼睛看到,在 5 到 10 年内,这将是一项非常非常有影响力的技术。最终,我认为它将能够做到的是,它将加快 AI 的能力
进行科学发现。因此,无论是,你知道,我认为许多令人兴奋的用例都在生物学、化学、聚变或许多这些非常混乱且难以理解的自然科学中。我认为这就是量子计算能够从根本上实现相当变革的地方。我认为人工智能将能够将其用作工具,使其能够在这些领域进行令人难以置信的研究。太好了。
这太疯狂了。好的,最后一个问题。我们正处于这样一场竞赛的中间,似乎每周,基础模型公司都会推出新的开发成果,无论是OpenAI,还是Anthropic,甚至是XAI、谷歌,亚马逊上周刚刚发布了一套新的模型。那么,您认为在2025年底谁将处于领先地位?
哦,这很难说。我的意思是,我认为我们今天看到的模型的一个特点是,因为今天使用的所有基准都是……
所谓的饱和,换句话说,所有模型在基准测试中的表现都非常好。实际上很难分辨哪些模型完全处于领先地位,哪些模型没有处于领先地位。例如,至少在我看到的Twitter feed中,互联网上有很多争论,关于
Cloud是否比O1更好,以及两者之间存在所有这些比较。我认为我们在2025年需要的是更难的基准和更难的评估,这将能够帮助我们
找出,你知道,把好坏区分开来。我不知道谁会领先,但我确实认为我们需要更好的衡量标准才能区分实验室现在推出所有这些令人难以置信的模型。
好的。好的。我们接受。不,对谁将成为最好的没有预测,但对评估有一个明确的有趣视角。Alex,很高兴见到你。感谢你来到节目。我认为这些预测非常引人入胜。绝对扩展了我没有考虑到的领域的思维。所以谢谢。我们希望很快能再次邀请你。是的,这很有趣。感谢你的邀请。感谢你的到来。好的,各位。非常感谢您的收听。我们将在周五与Ranjan一起回归,对新闻进行分析。我们将在Big Technology Podcast节目中与您相见。