We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Sovereign AI: Why Nations Are Building Their Own Models

Sovereign AI: Why Nations Are Building Their Own Models

2025/5/24
logo of podcast a16z Podcast

a16z Podcast

AI Deep Dive AI Chapters Transcript
People
A
Anjney Midha
G
Guido Appenzeller
Topics
Anjney Midha: 我认为AI模型不仅仅是计算基础设施,它们也是文化基础设施。控制AI模型,不仅仅是定义文化,也是控制信息空间。随着系统从模型转变为智能体,对抗性威胁日益增加,促使各国政府倾向于在本地运行整个系统,以实现锁定。投资建设AI工厂的国家,就像拥有石油储备一样,将成为这场竞赛的赢家。我们需要像对待“AI的马歇尔计划”一样对待AI,帮助我们的盟友,否则中国将向世界其他地方输出像DeepSeek这样的模型。我不认同Aschenbrenner的观点,集中规划在技术前沿的历史并不成功。拥抱其他国家服务他们自己的模型的能力会更好,理想情况下,最好的产品,也就是最好的模型,来自美国和我们的盟友。现在我们拥有的是基础模型外交,而非殖民。企业需要对AI模型有更多控制,而访问权重是实现这种控制的必要条件。 Guido Appenzeller: 你可以通过人们用来交流新基础设施项目的语义来判断某件事对某人来说是否重要。谁控制了底层资产,谁就拥有塑造监管和信号使用的巨大力量,并为下一波浪潮做好准备。如果你想在一个特定的国家建立产业,你需要相应的储备,而AI数据中心就像这些石油储备。世界不是一个地方,完全的中心化不会发生。任何形式的中心化计划方法都行不通。政府可以在研究方面发挥巨大的积极作用,资助企业尚未能掌握的基础研究非常有价值。云需要提供计算、网络、存储和模型这四个要素。模型在很大程度上取代了搜索,如果中国模型不显示历史事实,而美国模型显示,这就是人们成长所处的现实。模型对公众舆论和价值观有非常深刻的影响。

Deep Dive

Shownotes Transcript

它们不被称作AI数据中心,而是被称为AI工厂。在工业革命时期,拥有石油非常重要。现在,拥有数据中心同样重要。这些模型不仅仅是计算基础设施,它们也是文化基础设施。它不仅定义了文化本身,还控制着信息空间。因此,如果一个模型是由一个与你对抗的国家训练的,那么当模型发布时,实际上很难对其进行评估或基准测试。这是一个巨大的漏洞。

我们是否正进入一个大型语言模型外交的新时代?我们是建设?还是合作?我们该怎么做?今天,我们将深入探讨一个与地缘政治和技术同样相关的对话。本周,沙特阿拉伯王国宣布计划建造自己的AI超大规模计算平台,名为Humane。但他们并没有称其为云提供商,而是称其为AI工厂。仅此说法就暗示着一种转变。

几十年来,云基础设施一直集中在美国和中国这两个地方。但随着人工智能的兴起,这种模式正在瓦解。各国不再希望将其最具战略意义的计算能力外包。它们正在建设主权AI基础设施,即实现文化和计算独立的工厂。为了解开这对全球AI架构、国家主权和新的数字力量动态意味着什么,我邀请到了Anjane Mitha和Guido Appenzeller。

我们将讨论成为AI超大规模计算中心需要什么,为什么各国政府会花费数十亿美元来控制推理管道,以及我们是否正进入AI的“马歇尔计划”时刻。让我们开始吧。需要提醒的是,此处的內容仅供参考,不应被视为法律、商业、税务或投资建议,也不应被用于评估任何投资或证券,并且并非针对任何a16z基金的投资者或潜在投资者。

请注意,a16z及其关联公司也可能持有本播客中讨论的公司投资。有关更多详细信息,包括我们投资的链接,请访问a16z.com/disclosures。

Anj、Guido,我们想谈谈主权AI、AI和地缘政治。让我们从新闻开始。我们的合作伙伴Ben现在正在中东,以他自己的方式参与其中。发生了什么,为什么这是他自己的观点?发生的事情是,沙特王国宣布他们将建造自己的本地超大规模计算平台或AI平台,名为Humane。

我认为之所以引人注目,是因为与云时代的现状相反,他们将AI时代视为希望绝大多数AI工作负载在本地运行的时代。如果你考虑过去20年,

云计算的发展方式是,绝大多数云基础设施基本上存在于两个地方,对吧?中国和美国。而美国最终成为世界上绝大多数云提供商的所在地。人工智能的发展似乎并非如此。因为许多前沿国家基本上举手表示,我们希望基础设施独立。其理念是我们希望拥有自己的基础设施来运行我们自己的模型,能够决定我们在哪里拥有自主权

来构建AI的未来,独立于任何其他国家,这是一个相当大的转变。我认为他们宣布的集群建设规模在1000亿到2500亿美元之间,其中约500兆瓦似乎是他们正在建设的这些集群的基本单位。

因此,许多国家,沙特王国是最新的一个,一直在宣布我们可以认为是主权AI集群的东西。这与AI时代之前的时代相比是一个相当大的转变。

我不知道你是否同意这一点。我认为这很贴切。我认为许多地缘政治区域都在反思之前大型科技周期中发生的事情。无论技术在哪里构建,以及谁控制着底层资产,都拥有巨大的权力来塑造监管,塑造信号的使用方式,并且也使自己处于下一波浪潮中的有利地位。

而且,你知道,在工业革命时期,拥有石油非常重要,现在拥有数据中心也很重要。所以我认为这是一个非常令人兴奋的发展。是的,事实上,你经常可以通过人们用来沟通新的基础设施项目的语义来判断某事对某人来说有多重要。

在这种情况下,如果你看看集群建设是如何被提及的,它们被称为AI工厂。它们不被称作AI数据中心,而是被称为AI工厂。我认为对此有两种回应方式。一种想法是,嘿,这只是品牌推广。这只是营销人员在做他们的工作。而幕后,这实际上只是……

具有略微不同组件的数据中心,但世界上每个行业的人都正在寻找一种方法来适应AI时代。这是计算基础设施世界做到这一点的方式。相反的观点是,实际上,这不仅仅是营销。如果你仔细观察数据中心本身,很少有

与20年前的情况相同。主动组件的主要区别在于GPU,对吧?大约20年前,你会说一个……中GPU的平均数量是多少……几个。对。差不多,是的。这是一个非常近期的现象。而今天,我认为如果你看看一个平均500兆瓦的数据中心,并看看建造或运营该数据中心所需的资本支出中有多大比例用于GPU……巨大的,是的。这是一个巨大的转变。

我认为我们也看到了专业化,对吧?为经典的以CPU为中心的负载构建的数据中心类型与为高密度AI数据中心构建的数据中心类型看起来非常不同。你需要将冷却装置安装到机架上。你需要非常不同的能源供应。你希望它靠近发电厂。你希望尽早锁定能源供应。然后我认为我们也看到了消费者行为的变化,在传统情况下,你希望拥有一个非常完整的堆栈,其中包含许多服务,可以帮助企业构建所有这些东西。

我们看到越来越多的企业实际上很乐意只在简单的Kubernetes抽象之上构建。基本上,你知道,你可以选择一些Snowflake或Databricks类型的辅助服务。所以我认为这是一个新世界。因此,当然,你可以认为AI工厂中的技术组件与传统数据中心完全不同。然后还有,它做什么?

从历史上看,传统数据中心所做的许多工作负载都在运行一个云托管的工作负载,用于企业或开发人员,无论是谁,其中大部分数据集和工作负载实际上并不是特别有主见。

当我说有主见时,我的意思是它们不一定受到大量文化监督。你可以说中国的情况并非如此,中国希望对这些工作负载进行完全监督。但在21世纪的头十年的大部分时间里,直到GDPR、CCP等的兴起,我们生活在一个集权的时代,将大部分云基础设施部署在弗吉尼亚州北部

对世界上大多数开发人员和企业来说都是可取的,因为它为他们提供了规模经济。当然,随着GDPR、CCP、数据隐私法的兴起,这种情况开始发生变化,因为那时你有了按地区划分的合规性。这使得像Cloudflare这样的东西的兴起至关重要。Cloudflare有分布式基础设施的概念,你可以将工作负载策略与用户所在的位置联系起来。

但总的来说,这对于社交媒体工作负载的兴起至关重要。但绝大多数企业工作负载不需要分散的服务。AI的不同之处似乎在于,这些模型不仅仅是计算基础设施,它们也是文化基础设施。它们是在包含大量嵌入式价值观和文化规范的数据上进行训练的。然后更重要的是,那是训练步骤。然后当你进行推理时,也就是模型运行时,

你添加了所有这些训练后步骤来引导模型说些什么或不说些什么,是否拒绝用户。而最后一步是在过去,我想说,一年里越来越清楚地表明,各国希望能够控制其辖区内工厂生产的产品。而这种紧迫感并不像以前那么强烈。因为文化因素或因为某些独立性或弹性或……

这是一个好问题。我的感觉是,有两件事正在发生,但如果你认为我不完整,你应该插话。我认为,一是这些模型的能力的提升,现在

远远超出了我们认为的技术早期玩具阶段。我认为我们的合作伙伴Chris Dixon有一句很棒的话,那就是世界上许多最重要的技术一开始看起来都像玩具。四年前,当缩放定律论文发表和GPT-3发表时,大多数人都认为,好吧,这很酷。当然,它可以预测下一个词。这是一个不错的把戏。这是一个不错的把戏,对吧?它是一只随机鹦鹉。而现在你有了……

基础模型实际上运行在国防、医疗保健、金融服务行业。ChatGPD拥有约5亿月活跃用户。

在他们的日常生活中做出真实的决定。我认为使用这些AI模型,谷歌最近发表的一篇论文展示了Gemini(他们的基础模型)解决医学问题的能力。当你查看使用情况时,你可以看到最有趣的事情之一是,与两年前、三年前相比,人们使用模型的提示类型发生了很大变化,那时很多是“帮我写我的论文”。

它变成了编码,并帮助我解决了许多医疗问题或个人生活相关的问题等等,现在很明显,这些能力可以用来,一是推动国防、医疗保健等关键行业,二是影响许多公民的生活。所以我认为这使得许多政府意识到,等等,如果我们依赖于其他国家,

对于我们的军事、国防、医疗保健、金融服务和我们日常公民生活所依赖的底层技术来说,这似乎是我们主权中的一个关键故障点。所以这就是一个方面。只是模型变得很好了,而且它们似乎擅长许多重要的事情。第二个是,我认为越来越相信,如果你不控制

模型的生产管道,那么你注定要使用反映他人文化价值观的模型。我们与DeepSeek进行了相当深入的辩论,对吧,问题是,DeepSeek从根本上比在美国训练的开源模型更偏见还是不偏见?我认为有初步证据表明,你实际上可以看到,当然是在训练后的DeepSeek中,

有一些主题和类型的任务,它被告知要避免,并以与LAMA等模型不同的方式回答。这就是文化方面。我认为有一个关键的国家能力方面,然后是文化方面。我认为这两者结合起来创造了这种

对主权AI需求的巨大增长,即你希望控制模型可以做什么和不能做什么的想法,或者你可以称之为基础设施独立性。我认为每个人都有不同的说法。你可以称之为我们当地的AI工厂生态系统,但我认为所有这些术语都在试图表达同一件事,那就是我们必须控制我们自己的堆栈。是的。我认为我会说得更强烈一些。我认为这不仅仅是自我定义文化,在某种程度上也是自我控制信息空间。我的意思是,今天,我们开始看到模型在许多情况下正在取代搜索。对吧?

我不再使用谷歌了,我使用ChatGPT,它会返回一个答案。如果存在历史事实,并且在中国模型中没有显示出来,在美国模型中显示出来,对吧?这就是人们……

成长起来的现实。对。如果你在学校写论文,将来,许多论文将由大型语言模型评分。对。事实上,在学校里,某些可能是真实的东西,对吧,可能会被评为错误,因为控制模型的人决定这不应该成为交易课程的一部分。对。因此,对公众舆论和事物,你知道,对价值观有非常深刻的影响。对。下游用途是一个有趣的问题,因为它很难衡量。

当然,与两年前相比,当时绝大多数产品和应用程序(如Guido谈到的那些)基本上都是相当简单的模型,对吧?好吧,当时它们被认为相当复杂。

但前沿变化如此之快。今天,我们会回顾像GPT-4这样的模型,它很大程度上只是一个下一个词预测模型,并说,这相当粗糙,对吧?因为如果你仔细检查像ChatGPT这样的应用程序,当然,表面上看起来没有什么变化,对吧?它仍然是一个你输入所需内容并输出答案的聊天框,与两年前相比。但在幕后,已经发生了疯狂的演变,其中有四五个不同的系统相互作用,对吧?你有一个推理模型

可以产生一系列想法来思考它接下来应该做什么,包括然后进行我们所说的工具使用,对吧?调用第三方工具。然后你有了这样的想法,即这些模型可以开始自我学习,通过一个循环来获取你的输入并推理它需要做什么,调用一个动作,然后评估它的输出,然后更新该循环。

这开始看起来更像,人们使用“代理”这个词来称呼它。但其理念是从一个相当简单的模型转变为一个系统。很难衡量系统中对抗性裂缝在哪里。因此,如果一个模型是由一个与你对抗的国家训练的,那么当你编写代码时,打开一个端口或我们所说的“呼叫主页”攻击,对吧,它正在传输遥测数据。

当模型发布时,实际上很难对其进行评估或基准测试,对吧?因为这些模型通常在非常学术或静态的环境中进行测试。因此,当DeepSea发布时,它就是一个如此出色的模型。这是一项非凡的工程成就,突然间每个人都在到处使用它。许多首席信息官和首席技术官变得非常紧张,因为他们想,等等,如果该模型以这种代理方式使用,

而我直到为时已晚才无法看到它在对抗性方面做了什么。这是一个巨大的漏洞。所以我认为,随着系统从模型转变为代理,对抗性威胁导致许多政府意识到,好吧,我们宁愿让整个系统在本地运行,以便我们可以锁定它。再说一次,它回到了某种独立性和供应链问题。

你期望这种情况会如何发展?它会在多大程度上发展?正如我们提到的,在云计算领域,有中国互联网和西方世界其他地区的互联网。这种主权AI会发展到多么广泛的程度?是的,我将借用Guido使用的一个比喻,那就是在工业革命中,你可以看看资源是如何流动的,对吧?我认为你应该谈谈从石油储备的角度来看待它,你知道,这可以决定哪些国家可以参与工业革命,哪些国家不能参与。继续。

因此,如果你看看工业革命,石油是许多技术的基石。你需要石油储备才能参与其中。我认为人工智能数据中心有点像这些石油储备,但一个很大的区别在于,如果你有必要的投资资金和意愿,你实际上可以自己建造它们。但我认为它们将成为构建所有顶层的基础,这些顶层最终将决定谁赢得这场竞争。在我看来,投资的国家……

在建设AI工厂,或者从Guido的比喻来看,建设石油储备方面,我认为它们是一个国家的群体。让我们称它们为超中心,对吧?其理念是,它们是拥有足够的计算能力来参与前沿竞争并运行自己主权模型、主权基础设施的中心。

然后还有其他人根本没有资源这样做。如果你看看工业革命之后,你可以争辩说,下一次主要的科技革命是现代金融的出现,布雷顿森林体系和国际货币基金组织制度,现代金融表示,我们将使用美元这种价值衡量标准。你所在的国家要么像美国一样生产美元,要么像中国一样生产大量获得美元的商品。

然后,如果你不在这两者中的任何一个,你真的必须弄清楚你是否与这些贸易集团中的一个结盟。发生的事情是,像新加坡、卢森堡、爱尔兰和瑞士这样的国家意识到,好吧,我们没有资源来建立我们自己的储备系统。我们无法通过本地生产来获得美元。我们无法进行贸易。所以我们必须找到一种方法将自己融入其中。

因此,新加坡当然以成为美元流入亚洲的入口点而闻名,因为他们在法治、良好的税收制度、稳定的政府和低腐败等方面进行了大量投资。瑞士对欧洲投资和欧洲资本流动做了类似的事情。所以我认为我们现在正在关注的是这种建设,其中有美国和中国,它们显然

拥有足够的计算能力来成为超中心。然后你还有像沙特阿拉伯王国这样的国家说,我们想成为一个超中心。如果这意味着我们必须交易我们的石油来获得大量英伟达芯片,我们现在就会这样做。我认为在这个类别中,可能包括沙特阿拉伯王国、卡塔尔、科威特、日本、欧洲,显然如此。然后我认为问题是,其他人怎么办?我不清楚你必须做什么才能成为AI领域的新加坡。

也许新加坡VI最终会成为新加坡,因为现在他们拥有庞大的主权财富基金,这是参与现代资本流动带来的结果。但我认为许多其他国家都在考虑,现在是不是我们应该购买的时候了。嗯哼。

我们是建设?还是合作?我们该怎么做?是的。并更多地讨论这背后的含义。这对美国来说是好事吗?当我们考虑外交政策时,这意味着什么?在所有这些本地环境中,现在是否有赢家?你为什么不谈谈这里的一些重大影响?我认为每一次重大的结构性革命既是威胁,也是机遇。我认为美国和人工智能现在拥有世界领导地位。是的。是的。

这是一个机会。保持领先地位并不容易,就像每一次科技革命一样。我们不希望人们像在云革命中那样依赖我们吗?或者我们从更加分散化的状态中受益吗?世界不是一个地方。所以我认为完全集中化不会发生。我认为领导者很好。拥有同样拥有这项技术的强大盟友也很有价值。所以我们可能正在寻找一种平衡。是的。为了更精确地说明你的最后一点,你可以考虑一种平衡

就像我们现在显然处于不稳定的平衡状态一样。因此,Guido是对的,人类和历史的轨迹是这样的,事情会稳定下来,直到达到稳定的平衡。那么,稳定的平衡是什么呢?我认为推理的一种方法是你可以看看历史上的类比。因此,在二战后,当欧洲完全被摧毁时,私营部门和公共部门的一些非常有进取心的人走到一起说,嘿,我们可以选择背弃欧洲

并采取孤立主义的姿态,我们主要关注战后仅限美国的议程。或者我们可以尝试采取一项政策,我们知道,如果我们不帮助我们的盟友,其他人会帮助他们。因此,他们提出了这个名为马歇尔计划的想法。

美国的一些领先企业走到一起,比如通用电气和通用汽车,实际上补贴了欧洲的大规模重建,这帮助许多欧洲经济迅速恢复元气。当时,对马歇尔计划有很多批评,因为它几乎被视为资本和资源的净出口。但它最终所做的是巩固了美国和欧洲之间未来50年的不可思议的贸易走廊。

这确实让中国在70年里没有参与其中,是的。70年,真的。所以我认为我们有一个选择,要么像对待AI的马歇尔计划一样对待它,对吧?并说,一个稳定的平衡状态当然不是我们仅仅背弃一群盟友的状态,因为中国肯定拥有足够的计算资源来尝试向世界其他地区出口像DeepSeek这样优秀的模型。所以我们希望我们的盟友使用DeepSeek还是Lama?这就是它在堆栈的模型级别上归结为的问题,对吧?我认为

现实情况是,许多国家并没有等待结果。这就是为什么你在欧盟有Mistral这样的努力,对吧?他们不仅被许多欧洲国家,而且被欧洲的许多其他盟友所接近,他们说,嘿,你能帮助我们弄清楚如何建立我们自己的主权AI吗?所以我认为我们即将看到有史以来规模最大的AI基础设施建设

因为大部分采购订单和资本都是由政府提供的。是的。因为他们意识到这是一个关键的国家需求。他们的稳定平衡状态当然不是依赖于其他人或依赖于不可靠的盟友。因此,那些肯定有能力资助自己主权基础设施的人正在争先恐后地这样做。

这对于国家化辩论或你如何看待其发展意味着什么?前OpenAI的Leopold Aschenbrenner在他著名的报告中谈到,嘿,如果这件事像我们认为的那样对国家安全至关重要,那么在某些时候,政府不会仅仅让私营公司来运行它。他们将希望采取一种与之更加整合的方法。你对这种情况发生的可能性有何看法?这仅仅就分散化世界中的监管可行性而言意味着什么?

我们已经有了DeepSeek的例子。这已经改变了游戏规则,就好像我们处于军备竞赛中,你无法控制一切。我们也在参与开源对话。我们正在支持其中一些参与者。

你对这一切最终会如何结束有什么想法?我认为我对这个问题可能有强烈的看法。我的意思是,我在德国长大,对吧?因此,受益于马歇尔计划,也看到这如何将西德吸引到美国,最终在每个人都意识到其影响后,也使东德吸引到美国。我从中学到的一课是,我认为任何一种集中的计划方法都不起作用。东德或西德是一个很好的A/B测试,你知道,中央计划与自由市场经济,什么更有效,对吧?我认为结果不言而喻。

所以我认为,基本上让政府推动所有AI战略,你知道,曼哈顿计划或波罗计划,选择你最喜欢的成功项目。我看不出这会奏效。你可能需要一个由大量公司竞争组成的非常动态的生态系统,并且

我认为在某些领域,政府可以产生巨大的积极影响,对吧,在研究方面。我们一次又一次地看到,资助基础研究,这对于企业来说还不够应用,对吧,非常有价值。我认为它可以在制定良好法规方面有所帮助。糟糕的法规很容易破坏AI,正如我们所看到的。所以我认为政府在领导和指导这方面发挥着重要作用。

最终没有一个能够制定出所有细节的大师计划,这必须来自市场。我不同意Aschenbrenner的观点。我强烈同意Guido的观点,即在技术前沿进行集中计划的历史并不好,除了少数实际上是短暂战争冲刺的情况。

对。而且可以说,即使是曼哈顿计划,我认为他在这篇文章中使用了这个比喻,我们现在知道存在泄密。它实际上是洛斯阿拉莫斯或其他地方的一个被隔离的设施,他们仍然有间谍。对。因此,如果你从模型的角度来看待这个问题,或者什么是核武器的等价物,

我们必须通过将我们最聪明的研究人员锁在洛斯阿拉莫斯的一些设施中来规范这些东西的发展。这就是防止最好的模型被出口的方法。我认为这是一个很好的虚构故事,一本非常有趣的书。是的。但对于任何曾经在大型政府系统中既有幸工作又不愉快工作的人来说。

这只是一个梦想。好消息和坏消息是,从某种意义上说,模型权重在哪里并不重要。重要的是运行模型的基础设施在哪里。从某种意义上说,推理几乎更重要。我认为一年前,我们在监管方面处于相当糟糕的境地,我会说,在美国有许多提案试图规范模型的研究和开发,而不是规范模型的滥用。

我认为幸运的是,我们已经摆脱了这种状况。我们现在所处的状态仍然是各州层面的类似于“打地鼠”式的监管工作。它并不一致。希望,我认为我们已经从政府早期发布的行政命令中获得了一些积极信号,这有望意味着将会有关于人工智能的统一监管。但我认为答案不会是一个拥有一个上帝模型的单一实验室

然后国家像保护核弹一样保护它。

我认为我们现在正处于一个状态,部分原因是我们已经讨论过的AI工厂的建设,许多国家都有能力训练前沿模型。并且许多国家都非常愿意公开出口它们。中国就是一个领先者。DeepSeek迫使人们更新他们的先验知识,就在DeepSeek发布的前一年,许多在华盛顿作证的技术领导者都自信地表示,中国落后于美国5到6年。

然后,DeepSeek在OpenAI发布前沿模型26天后发布。我的意思是,它粉碎了所有这些论点。所以计算方法已经改变了。我认为这意味着获胜的唯一方法是构建最好的技术并超越其他任何人。那么,如果问题是世界使用谁的数学?我们希望它是美国数学。我的观点是,我们最好接受其他国家服务自己模型的能力

理想情况下,最好的产品获胜,也就是最好的模型来自美国和我们的盟友。这就是我们正在进入的LLM外交新时代吗?实际上,本去年在利雅得的FII上对此有一个很好的论点。他说了一些类似的话,因为这些模型,就像我们之前讨论的那样,是文化基础设施,你不想在数字时代、在网络空间中被殖民。

我认为这非常贴切。我们现在拥有的不是殖民化,我认为是基础模型外交。

这是一个很好的说法。我认为这是对的。它符合美国的相对技能,即创新和与我们的盟友合作。相对于中国,作为一个国家,它一直比较封闭。我想谈谈像Mistral这样的开源公司的利好案例,在一个一些更大的参与者越来越开放源码、越来越感兴趣的世界里。所以有几个,我们已经越来越多的讨论过这个问题,在两年前,我认为当我们牵头投资Mistral时,我们对开源如何在

基础模型最终越来越像传统的计算基础设施、存储、网络等的轨道上获胜有一个相当清晰的假设。因为闭源通常,如果你看看数据库或操作系统,Windows,闭源通常在开辟新的用例方面领先,通常会从消费者那里获得大量价值,当然。但是当企业开始真正采用这项技术时,他们通常希望更便宜、更快、更可控。

在人工智能领域,如果没有访问权重,你无法获得大多数企业想要的控制力。当时,唯一真正可与前沿闭源模型相媲美的模型是Llama。然后Llama的创建者离开去创立Mistral。所以这是一个非常自然的决定。我认为从那时起,出现了一件不同的事情,那就是主权AI基础设施的概念,它不仅仅是模型。它是其他所有东西的上下。我认为我们一直在争论的是,那么

理想的云基础设施提供商也是最好的开源模型提供商。传统上,云基础设施是一个由现有企业主导的类别,其核心业务要么在电信,要么在商业,比如亚马逊。现在看来情况正在改变。我认为你比我表达得更清晰,那就是如果你让错误的人来设计数据中心,他们就会设计错误的数据中心。但我在这里是转述。

我认为这是完全正确的。我的意思是,如果你看看个人电脑革命或互联网热潮,每一次重大的技术发展,我们都为系统开发了一个新的构建块,即CPU或数据库或网络。我认为现在正在构建另一个构建块,即模型或人工智能,无论最终它被称为什么。所以从某种意义上说,它是第四个支柱。计算网络存储已经成为计算网络存储模型。在这种情况下,

云需要提供所有四个。对。所以我认为你是完全正确的。这只是基础设施层的一部分,将来你将在其上构建所有软件系统。对。我认为思考这个问题的一种方法是有两个前沿。一个是能力前沿,另一个是帕累托效率前沿。能力前沿通常由闭源主导。

然后是帕累托效率前沿,由于开源生态系统飞轮效应的所有好处,对,在这种情况下,你发布你的模型,整个开发人员生态系统可以提取它、微调它、为模型提供更好的运行时改进、量化它等等。这使得该系列技术比闭源版本运行效率更高。第二个更安全,因为

你让全世界都在对你的模型进行红队测试,而不是仅仅是你公司内部的这群有限的人,如果你是闭源提供商的话。所以商业案例基本上是更便宜、更快、更高效、更可控。对于原始模型抽象来说,这是非常强大的。

然后如果你问,好吧,模型提供商是否有权获胜?模型堆栈以下的数据中心、芯片级别或集群级别是否有商业案例?上面是否有获胜的权利?让我们从堆栈的最顶层开始,人们越来越多地称之为代理。一个不那么性感的版本是称之为完全端到端的

自动化工作流程,对吧?如果你以世界上最大的航运公司为例,例如默克公司或CMACGM公司,对吧?这些都是拥有相当复杂工作流程的大型物流和运输公司。如果你考虑将这些模型转化为AI代理的强大功能,

今天将该代理定制到这些关键任务行业所需的工作非常困难。我们看到大量进展的一个领域是强化学习,如果你设计了正确的奖励模型,代理在完成该任务方面会变得更好。事实证明,设计正确的奖励模型非常困难。即使对于像OpenAI这样复杂的团队来说,我的意思是,我认为他们在三天前撤回了对ChatGPT的更新。他们称之为“阿谀奉承更新”,他们在那里设计了错误的奖励模型。因此,一家传统的传统行业公司

公司不知道如何做到这一点。问题是,他们宁愿投入精力来定制闭源模型还是开源模型,如果闭源提供商由于某种原因而倒闭、停业、涨价等等。看到他们的客户。是的,看到他们的客户。我们基本上完蛋了。对于代理层来说,自然的轨迹似乎也是转向拥有底层开源基础的部署合作伙伴。

我认为云基础设施,主权AI层有点悬而未决。这可能是我们下次播客的一个好话题。是的,绝对的。好吧,让我们就此结束。安吉·圭多,非常感谢你们。非常高兴。谢谢。感谢收听A16Z播客。如果您喜欢本集,请在ratethispodcast.com/A16Z留下评论。我们还有更多精彩的对话即将到来。下次再见。