认为扩展AI很难?再想想,有了瓦特和X,你可以在云端之上、云端之中以及边缘部署AI,帮助飞行员导航飞行,帮助员工自动化本地任务,让设计师可以访问专有数据,以及让远程银行出纳员可以为客户提供帮助。下一个能够在任何地方运行的网络是什么,以便你能够在任何地方扩展AI?
了解更多信息,请访问IBM.com/watsonx。下一个IBM是什么?让我们一起创造。
节目的支持来自Crucible Moments,这是Scope Capital的一个播客。我们都经历过人生中的转折点,我们做出的决定最终会产生持久的影响。没有人比当今一些最有影响力的公司的创始人更了解这一点。
在Crucible Moments中,我们让听众了解那些定义了Dropbox、YouTube、Robod和更多主要公司的成败事件,这些事件由创始人本人讲述。收听Crucible Moments第二季,你可以在cruciblemoments.com或你收听播客的任何地方收听。
收听播客。
节目的支持来自Crucible Moments,这是Coia Capital的一个播客。我们都经历过人生中的转折点,我们做出的决定最终会产生持久的影响。没有人比当今一些最有影响力的公司的创始人更了解这一点。在Crucible Moments中,我们让听众了解那些定义了Dropbox、YouTube、Robinson od和更多主要公司的成败事件,这些事件由创始人本人讲述。收听Crucial Moments第二季,你可以在crucialmoments.com或你收听播客的任何地方收听。
播客。
你好,欢迎收听Decoder。我是尼克·斯坦特,The Verge的执行主编。Decoder是我的节目,我们讨论宏大的想法和其他问题。今天,我们将尝试弄清楚数字上帝。我认为我们已经做了很长时间的Decoder了,让我们开始吧。
我们能否构建一种功能强大的AI,它能够改变世界并解答我们所有的问题?你不会惊讶地知道,AI行业已经决定答案是肯定的。9月份,OpenAI的Sam Altman发表了一篇博客文章,声称我们将在“几千天内”拥有超级智能AI。
本月早些时候,Anthropic的首席执行官Dario Amodei发表了一篇14000字的帖子,阐述了他认为这种系统在到来时将具备的能力,他认为这最早可能在2026年实现。这篇博客文章长达14000字。Dario有很多想法,令人着迷的是,Sam和Dario在他们的文章中提出的愿景如此相似,他们都承诺将带来戏剧性变革的超级智能AI,这将给工作、科学和医疗保健,甚至民主和繁荣,以及幸福带来巨大的改进,数字上帝,宝贝。
但所有愿景的相似之处在于,这些公司在许多方面公开对立。Anthropic是最初的OpenAI叛逃故事。Dario和他的同事们在2021年离开了OpenAI,因为他们越来越担心该公司的商业化方向和安全方法。
他创建了Anthropic,以成为一家更安全、更慢的AI公司。而重点确实一直放在更安全上,这有时对公司的声誉有相当大的影响。就在去年,一篇主要的《纽约时报》文章称Anthropic为“AI的炽热中心”,但ChatGPT的发布以及随后出现的通用AI热潮引发了一场巨大的科技军备竞赛。
Anthropic也参与了这场比赛。它获得了数十亿美元的资金,主要来自亚马逊,并且它建立了Claude,一个与OpenAI的GPT相媲美的聊天机器人和语言模型。目前,Dario正在撰写冗长的博客文章,内容是如何用AI传播民主。
那么这里发生了什么?为什么Anthropic的负责人突然对AI如此乐观,而他的公司以前以成为OpenAI的更安全、更慢的替代方案而闻名,并且对以任何代价取得进展持谨慎态度呢?
这仅仅是为了吸引潜在投资者或研究人员的更多炒作吗?如果AGI真的近在眼前,我们该如何衡量它的意义,以及如何保证它的安全,以及如何打破这一切呢?我请来了The Verge的资深AI记者凯莉·罗宾逊来讨论这意味着什么,行业中正在发生的事情,以及我们是否能够相信所有这些AI首席执行官所说的。
告诉我们他们真正所想。数字上帝和资本主义,但主要是数字上帝。我们开始吧。
凯莉·罗宾逊,请开始吧。
感谢你的邀请。
我很高兴能和你讨论数字上帝,以及构建它或花钱构建它,以及数字上帝是否会很酷的竞争,对吧?如果你觉得关于数字上帝是否会很酷存在很多争论,你认为如何?
这是一个很好的开场白。我认为数字上帝是否会很酷,但你知道对数字上帝的检验是什么吗?我认为,你知道,我们人类很好,很酷。
在这一点上,这只是一个哲学上的争论。我希望如此。我不这么认为。
是的,数字上帝是否很酷,我认为,这是硅谷现在的一个激励性问题,它实际上总结了很多事情。你把它描述为部落主义,你把它描述为宗教性的,你把它描述为意识形态的,我们进行的高层次对话,解释一下这里发生了什么。
它非常具有部落性,这是我在报道AI时所经历的事情,你知道,那些正在构建越来越强大的AI的人说,听着,我们正在构建一些将改变世界的东西。它将——正如一位CEO所说——它可以传播民主,它可以治愈疾病,不仅仅是像疾病这样的东西,还有创伤后应激障碍和焦虑症,一些非常模糊的东西。他们真的相信这一点,他们正在大力推动这种说法,而另一方则认为这完全是一个阴谋,他们不应该被信任。所以双方似乎都完全不了解对方。
是的,我,而这场辩论的重点不在于上帝是否很酷。这场辩论现在看起来非常激烈,我真的很……
同情双方。我刚刚听了一个关于部落主义的播客,这就是为什么它在我的脑海中,双方都想要这个东西,是为了人类的福祉,而一方认为AI会使人类变得更糟,而另一方认为它会使人类变得更好。
于是Anthropic和Anthropic的首席执行官达里奥出现了,Anthropic以其“我们离开OpenAI去创建一家安全AI公司”而闻名。现在有很多这样的公司,但他们是第一家。他试图在这两者之间取得平衡。
他写了一篇很长的博客文章,名为《爱的机器》。他说,我们试图构建同样的东西,但我们看看所有这些东西能做什么。如果我们能做到,会发生什么?
所以,这是一篇长达14000字的文章,达里奥说,我知道说这个很疯狂,但我还是要这么说,因为我认为值得说的是,我们可以用AGI将大约100年的科学突破缩短到5到10年。他不喜欢称之为AGI。
他认为这是一个有点疯狂的术语,即人工通用智能。他喜欢称之为强大的AI。
AI可以治愈创伤后应激障碍,它可以传播民主,它可以做所有这些疯狂的事情,如果人类在计算方面没有那么有限的话。是的,它确实很诱人。如果我们足够努力,如果我们以一种轻松的方式实现AGI,如果我们实现它,这就是我们可以拥有的未来。
这与OpenAI非常接近,OpenAI也做出了同样的说法。Altman几周前写了他自己的博客文章,说在几千天内我们可能会有AGI。而且这里是我们能做到的所有事情。
他们显然刚刚筹集了大量资金。该行业对人才的竞争非常激烈。我们一直称之为数字上帝,因为这么说很有趣,但最终目标是一样的吗?他们是在向同一个地方赛跑吗?
是的,我相信DeepMind的首要任务是构建AGI。OpenAI的任务是构建AGI。Anthropic的任务是构建AGI。他们已经非常明确地表示,这就是他们想要构建的东西。我不知道他们是否会同意我们关于数字上帝的笑话,但这说法更有趣,是的,他们都想要构建通用智能,因为他们认为这是以多种不同方式改变世界的一种方式。与其只改变一个部门,不如用通用智能来改变整个世界。
你能向我解释一下其中的机制吗?我今天使用这些工具。其中一些非常强大。它们当然可以将视频中的东西流畅地组合在一起,具有越来越高的保真度,但我不知道它们是如何传播民主的。
这,再说一次,是14000字的文章。他确实以一种方式来推销这一点,这些小小的突破,你知道,是为了科学。他引用了一个人的话,他说,所有这些小小的突破才能让你取得更大的突破,从而提高我们的流程效率。
这可以用于大规模数据分析、金融、医学以及许多其他领域。所以他们看到的是一个能够理解、分析和处理海量数据的模型,而人类无法做到这一点。他们看到了这将如何改变某些行业的效率,以及这将如何使我们人类取得更多突破。
但不仅如此,他们还希望能够始终自主地做到这一点。我认为他说,数百万最聪明的人在数据中心工作,这就是他的看法,就像城市里的人一样,只是AI一直在处理这些问题。这就是他们的看法。
这是一个关于决策的节目。每次我听到这样的宣传时,我都会想到目标是放弃大量的决策。我不知道如何在我们城市中分发食物,或者如何平衡电网,或者任何事情,而我们只需要……
让数据中心里的机器人去做,而数据可能会同时发生,别担心,然后我们会自由,因为AI会去做。这就是宣传,对吧,就是我们会把一大堆控制权交给AGI。这就是为什么我一直称它为数字上帝。
他们想说的是,当涉及到非常复杂的问题时,它将全天候工作,花很多时间思考这个问题,然后它会回来澄清。所以这就是一些警告,比如,不,它不会控制一切,但它会控制这些例行任务,然后回来告诉你,好吧,我已经考虑过了。
你能回答这些问题吗?你怎么看待这个?他们把它看作是一种伙伴关系,但他们最终……他们不希望你总是去检查它。这是真的。
但,但对谁来说是伙伴关系?
对他们声称是世界上一些最聪明的人来说是伙伴关系,他们正在研究癌症,他们正在研究自动驾驶汽车本身,我可以……
理解这个承诺,对吧?我们将拥有超强大的计算系统,能够推理并帮助我们解决问题,并且永远不会厌倦,也不会对我们使用它们的目的有任何感觉。好吧,我读了这些博客文章。我读了Sam的,它似乎完全忽略了仍然需要很多人做出决定的那一部分。
是的,我读了整个Amodei的博客,我觉得它很酷。这个乌托邦可能就像,我们怎样才能到达那里?实际上到达那里有什么答案?而我的工作是向非常怀疑的读者解释,因为他们会说,我甚至无法计算出这需要多少小时。
草莓,你在说什么?我觉得他们并没有很好地让我们相信我们今天拥有的工具与众不同,我们不会只需要人类,我只是看不到一个连贯的路径。别担心,我们正在建设乌托邦。别担心,给我们钱。
就是这样,对吧?给我们钱。达里奥这样做的原因是,这条路,这条路更具条件性……
是,我们永远无法肯定地说,他们大声说,这就是我写这篇文章的原因。我认为,你知道,我的工作就是看看这个,而不仅仅是按字面意思去理解,因为当我读到它时,我想,好吧,Anthropic据报道正在寻找资金,而现在的竞争比以往任何时候都更加激烈。每天都有更多的人离开OpenAI去创建一家更安全的AI公司。
他们的首席技术官据报道正在创建她自己的公司。然后,另一位研究副总裁也可能正在创建自己的公司。而这仅仅是在过去一个月发生的事情。
所以你必须争夺资金,你必须争夺人才,你必须在一定程度上争夺计算能力。但资金和人才现在真的是……
而安全并不是最性感的宣传。我相信这些AI高管相信他们所说的话,他们将建立乌托邦。我认为达里奥在他所做的时间发布他的博客文章的原因,这与Anthropic的做法不太一致,他在开头就说,我们通常不会这样做。我认为这与竞争和市场压力以及资金有很大关系。
我们需要稍作休息,稍后回来。
认为扩展AI很难?再想想,有了瓦特和X,你可以在云端之上、云端之中以及边缘部署AI,帮助飞行员导航飞行,帮助员工自动化本地任务,让设计师可以访问专有数据,以及让远程银行出纳员可以为客户提供帮助。下一个能够在任何地方运行的网络是什么,以便你能够在任何地方扩展AI?了解更多信息,请访问ibm.com/watsonx。让我们一起创造。
今天,我们将尝试弄清楚数字上帝。我认为我们已经做了足够长时间的解码器了,让我们直接开始吧。我们能否创造出一种强大到足以改变世界并解答我们所有问题的 AI?人工智能行业已经决定答案是肯定的。9 月,OpenAI 的 Sam Altman 发布了一篇博客文章,声称我们将在“几千天内”拥有超级智能 AI。而本月初,Anthropic 的首席执行官 Dario Amodei 发布了一篇 14000 字的文章,阐述了他认为这种系统在到来时将具备的能力,他认为这最早可能在 2026 年实现。《The Verge》资深 AI 记者 Kylie Robison 加入我的节目,对这一切进行深入解读。链接: Machines of Loving Grace | Dario Amodei
<raw_text>0 节目的资金来自 Crucible Al Moments,一个播客。我们生活中都有转折点,我们做出的决定最终会产生持久的影响。没有人比当今一些最有影响力的公司创始人更了解这一点,他们经历了无数的时刻。
让我们倾听一下那些定义了 Dropbox、YouTube、Robod 等主要公司的决定性事件,这些事件由创始人自己讲述。收听 Crucible Moments 第二季。今天,您可以在 cruciblemoment.com 或您收听播客的任何地方收听。
无论您是创始人、投资者还是梦想家,您都需要一家真正了解您业务内外、一家“更多就是更多”的银行,一家像硅谷银行那样,但拥有第一公民银行实力的银行,他们拥有 125 多年的悠久历史。SVB 正以前所未有的速度推动创新。
这意味着您可以获得量身定制的尖端金融解决方案,帮助您在不断变化的市场中保持领先地位。从战略融资到定制银行服务,SVB 能够在您成长的每一步提供支持,从种子阶段到 IPO 及以后。因为当专家走到一起时,我们可以帮助您的愿景变为现实。是的,SVB,了解更多信息,请访问 SVB点com闪盒。
我们休息回来后,将与《The Verge》资深 AI 记者 Kelly Robinson 继续讨论。在休息之前,我们正在讨论 Anthropic 首席执行官 Dario 的一篇非常长、非常激烈的博客文章,讨论超级智能 AI 的好处。但开发超级智能 AI 的一个重要部分是安全,为了让 AI 造福人类。
它需要是安全的。您会听到 AI 研究人员使用“对齐”一词来讨论这个问题。AI 需要与人类和我们的最佳利益保持一致。
但这究竟意味着什么?开发安全的 AI,这是一个很大的问题。这太重要了。
Anthropic 是最著名的安全 AI 公司之一,它开始更多地讨论超级智能 AI 如何改变世界,而不仅仅关注它可能出错的地方。关于安全性的广泛问题是什么?然后我想具体谈谈 Anthropic。
那么,AI 安全的概念是什么?我们建造了一个能够自行在世界上采取行动的推理机器人。那东西最好与我们保持一致,对吧?
它最好遵守我们为它制定的规则。OpenAI 因 Sam Altman 被董事会罢免 25 分钟而闻名,因为他们的董事会认为他不值得信赖。但现在他回来了,然后每个人都辞职了,因为他们想开始更安全的 AI 初创公司。OpenAI 到底发生了什么?OpenAI 建造的 AI 不够安全。是什么?
动态很有趣,因为我写过关于这篇文章,我说 OpenAI 不再是一个研究实验室,它像其他所有人一样是一家科技公司。我有一些研究人员联系我表示不同意。我的看法是,这就像学术专家,像 Meta 的产品经理,他们是非常不同的人。
因此,Anthropic 最初是为了进行 AI 深度研究而成立的,其中有很多学者和非常聪明的人,他们只想做这项研究。他们并不完全是在寻找快速工作、打破常规、制造产品的方法。这并不是他们许多人的初衷,他们可能会认为,构建这些强大模型的产品市场压力可能会被认为是不安全的。
这只是部落主义吗?有些人不在乎。我认为能够为每个人构建这些大型语言模型的产品非常酷。
我们已经花费数百万美元和大量时间来构建这些模型。因此,我认为那些离开的人是因为他们认为 OpenAI 不安全,这是一个争论。不幸的是,OpenAI 在其流程方面并不透明。因此,很难从外部角度判断,我们必须依靠这些人离开并说它不……
安全。这些新公司的文化是说我们更安全。他们如何衡量安全性?这只是每个人都在说它很安全,所以我们相信它吗?有没有针对 AI 安全性的 SAT 考试?
有很多基准测试。我写了一篇关于奖励黑客的文章,这是我最喜欢的事情,基本上就是 AI 在欺骗你,非常有趣。所以,是的,他们做了很多基准测试。
他们做了很多安全测试。我的观点是,安全发展缓慢而深思熟虑。而发布产品则很快。
我认为很多人认为 AI 安全的争论是不要制作种族主义图片,等等。不要让大型语言模型制作种族主义照片,他们会把它撤下来。我们会确保我们不会这样做。
这只是内容审核和提示工程的结合,感觉非常熟悉。这场辩论感觉非常熟悉。然后还有一个更大的问题,那就是如果这些东西采取了我们不希望它们采取的行动,因为我们赋予了它们控制权,该怎么办?
如果我们赋予 AI 控制电网的权力,我们就知道它是安全的,这是 Amodei 系统的承诺。他认为我们可以解决第一个问题。是的。那么我们究竟如何解决最大的问题呢?
是的。我认为您可以理解为什么这些研究人员对 OpenAI 的变化如此敏感,为什么他们会说“OpenAI 不安全,我们必须去 Anthropic”,Anthropic 对这些危险的重视程度要高得多。
我认为更广泛的公众并没有看到这些危险,因为如果你能计算出草莓中的小时数,这怎么会毁灭世界呢?但这些人的一部分人非常认真地对待它。但我不知道我们该如何做到这一点。
因此,Anthropic 的情况尤其有趣,特别是 Dario 的文章,因为 Anthropic 以其安全性而闻名,因为他们是第一个离开 OpenAI 并说我们正在构建一个更安全的系统的人。但这篇文章的意思是,嘿,我仍然在构建 AGI,即使我们有这样的声誉,即使我想放慢速度,即使我们关心安全,并且追求与 OpenAI 相同的目标。你认为他们为什么现在试图在这条线上行走?
我认为销售乌托邦比销售反乌托邦更容易。这是我阅读后的想法,因为自从 Anthropic 成立以来,我还没有看到这一点。我们将构建这个乌托邦。
这主要是因为我们需要放慢速度,这是我们所采用的那种性格。我认为这真的归结于市场压力。他们必须竞争。
他们必须像 Sam Altman 一样酷。是戏剧性、阴谋和构建乌托邦。这是你想投资的地方,你可能想工作的地方。
你写过关于 Dario 文章的文章。你在那篇文章中写道,Anthropic 正在寻求以 400 亿美元的估值融资,OpenAI……
刚刚筹集了 66 亿美元。所有这些钱都只是为了大型语言模型吗?这有什么好笑的吗?
好吧,研究人员的成本现在已经达到数百万美元,因为他们的供应非常短缺。不久前有一篇报道说,Mark Zuckerberg 正在直接向研究人员发送电子邮件以招募他们。
因此,研究人员面临着巨大的风险。所以他们拿了很多钱。这是一大笔钱。是的,GPU 云计算需要花费大量资金来训练这些模型。
我曾与人就此进行过交谈,想象一下,你一直在家开着空调,然后是 1000 倍,你已经知道当你长时间开着空调时你的账单是什么样的了。运行这些大型语言模型的成本非常高昂。然后人们还在使用你的产品,这些产品运行在这些大型语言模型上。
所以这也非常昂贵。这是一个非常非常昂贵的操作。它会消耗大量资金,因为他们并没有赚很多钱。是的。
这就是这其中的另一部分。然而,这些公司会赚钱吗?Anthropic 会赚钱吗?
我写过关于代理的文章,这就是每个人都在构建的东西。谷歌、Anthropic、OpenAI,他们都在构建代理。这就是我们一直在讨论的内容。
这种能够为你工作的自主 AI,可以为你预订旅行,我当然认为这是他们认为能够展示这些大型语言模型有用并且可以收费的下一件事。我是否真的认为他们很快就会盈利?不,我认为这不会很快到来。
所有这些融资事件都在同时发生,对吧?OpenAI 刚刚筹集了 X 资金,Anthropic 也在筹集资金。
显然,Anthropic 也在关注。这是巧合吗?这些公司的生命周期?
不,我认为他们只是钱快用光了。我认为,如果他们想构建下一代前沿模型,就像 Dario 自己说的那样,我们正在接近的模型将需要 1000 亿美元来训练,他们只是需要这些钱来训练下一代前沿模型。
而且,这些风投公司真的想看到下一个 GPT-5,对吧?所以他们需要快速行动以获得这些计算能力,花费这些钱,他们只是在快速消耗这些资金。有没有可能……
这些东西会在再次融资之前用完钱吗?但如果我们消耗得更快,需要筹集这么多资金,这确实让人感觉这些界限可能会比任何人希望的更快地融合。
是的,我认为是这样。我不会说我对融资和金融非常了解,但我认为我可以进行正常的数学计算。如果他们正在亏损数十亿美元,而他们只筹集了 66 亿美元,那么他们就没有盈利。
你有点完蛋了。你会用完钱的。我认为这些公司都不会倒闭,但那些没有微软或亚马逊支持的小型公司……我认为这些公司将会受到影响,我们已经看到了 Inflection 的情况。
例如,当我回到这一点,以及这些公司对大型公司的依赖程度时,这里有很多复杂性。但总的来说,我们看到著名的科技 CEO 正在撰写宣言,内容是关于构建数字上帝,以便他们能够以某种方式传播民主。我从你这里得到的印象是,这一切都只是为了筹集资金。就这么简单吗?这么愤世嫉俗吗?
不,我相信 Altman 和 Dario 确实相信这就是 AI 将改变世界的方式。我相信那些日复一日地构建这项技术的研究人员相信未来……我认为 Dario 博客文章的时机很奇怪。这太奇怪了。
就像,好吧,很明显,这似乎与你需要筹集大量资金的事实有关。而 Anthropic 刚刚筹集了有史以来最多的资金,然后 OpenAI 又筹集了有史以来最多的资金。每个人都试图构建下一个最大的模型,而这需要花费大量资金,并且说我们将非常缓慢和轻松,这并不能让人们兴奋地投资。
而 Dario 的博客文章的论点是,他真的需要这样做吗?他需要写一篇博客文章才能让人们投资吗?事情已经够忙了,我只能回到竞争上来。竞争从未如此激烈。
让我问你一个非常愚蠢的问题。你想谈谈大公司以及它们之间的关系吗?Anthropic 和 OpenAI……它们都……
它们都是基于大型语言模型构建的,对吧?就像它们都是基于一种非常基础的技术构建的。而这个想法是,我们只要投入更多的数据、计算能力、时间、电力和资金,我们就能到达那里。
我们将通过蛮力获得 AGI。然后我遇到了其他人,Yann LeCun,他认为,不,你不能。
还有一些人对这种方法持怀疑态度。他们能做到吗?这是……这是正确的道路吗?
这甚至值得吗?我的意思是……再次,有很多争论点,我认为这就是我发现的。报道 AI 最困难的部分是,很容易整天争论最微小的事情。
他们认为,必须彻底改变我们构建大型语言模型的结构,才能达到 AGI。是的,这不是达到目标的途径。像 Yann 这样非常聪明的人认为,不,你不能仅仅通过蛮力来构建。我认为我的答案是我想看到,我想看到证据。我每天都在要求证据,而我们……
没有。向我展示一条通往数字上帝的道路。不,根本没有路。这就像,让我们继续走这条路,这样应该没问题。
是的,我试图向你解释,如果你是一家有限合伙企业,你可能是一家大学养老基金,那么数字上帝,如果我们只是给你所有的钱,你就会创造数字上帝,这将如何回报我们?我的思维循环闭合得非常快。没有人赚钱,我们需要更多钱来构建下一个东西,这可能会通过将旅行代理集成到业务中来让我们赚钱。在其中某处有一堆问题需要解决,我认为对我来说,这些问题还没有得到解决。
Ann,对于听众来说,我认为这对那些正在构建和投资它的人来说也是非常不清楚的。因为如果你看看 OpenAI 网站上的使命宣言,它有一个大大的粉色方框,上面写着:你投资的任何东西都应该……
被视为捐赠。
我不确定承诺乌托邦会有帮助。我不知道承诺阻止……会有帮助。我们只是不确定事情会如何发展。
听起来像是大型科技公司拥有大量控制权,这是目前市场的监管部分。这不是其他途径。这不是部长批准的。
没有颁布行政命令。没有任何其他法律。这不是它们之间的竞争。即使他们也说,这也许只是阿德拉说,“好吧,你看失控了,我要自己建一个”,或者安迪·杰西说“我想用AWS”。对于其他事情来说,似乎实际上对这些公司的控制最多的地方将以这种方式表达,这种信任就像一个好人一样,这很有趣,因为……
在硅谷电视剧中有一句台词,我在我的文章中引用过,就像,“我不知道你们怎么样,但我不想生活在一个别人让世界比我们做得更好世界里。”这就是我们现在所处的境地。
我们为什么要被迫信任这些大型科技公司高管?为什么这必须掌握在少数大型科技公司高管手中?他们真的证明过他们可以被信任拥有数字上帝吗?
我只是在问,是的,我,我。
我认为不会。那么……
我们现在所处的境地,总结一下,感觉每个人都在争先恐后地构建相同类型的产品,朝着相同的愿景前进,速度更快,规模更大。有些人认为他们不应该这样做,因为他们可能会毁灭世界。
但如果我们做对了,一切都会很顺利,没有人真正负责,谁又能说埃利亚·卡弗斯的公司(我确信它被称为“安全超级智能”)真的比Anthropic更安全呢?就像,有很多人都声称他们认为市场想要的东西,人们可能想要的东西是值得花钱的。但我认为市场并没有广泛地理解它是否真的想要那样,或者如何衡量它,或者如何表达它。而你的另一个选择是一些其他人,无论是云计算提供商,还是政府,他们可能会做出一些决定,而且他们似乎没有动力或能力做出这些决定。
两件事。我认为没有人会选择一个更安全的Facebook。他们只是想要一个像你说的那样,摆在他们面前的,一个比他们正在使用的更好的东西。所以我认为事情就是这样发展的。
我认为普通人不会关心哪个更安全,谁来决定它们是否安全,我真的很喜欢他们必须与政府对话,并完全透明地说明他们的模型能够做什么,以及这些测试在做什么,因为我觉得他们能够说,“没事,我们测试过了,它很安全”有点令人担忧。他们确实有一些第三方研究人员,但这并不像它本可以的那样透明。所以,是的,我认为监管将是一个良好的开端,政府拥有自己的研究人员,然后说,“好吧,我们将测试这个模型的安全性。我们不会仅仅依靠这些人自己来测试。”这就是你证明它是否安全的方法,如果这些人是我们可以信任的人。
接下来三家公司,我们关注哪些人?
我认为两者都非常渴望以不同的速度向公众推出推理模型。他们想要一些能够更快地编码、能够可靠地为你推理的东西。我从OpenAI那里得到一个演示,他们打电话给一家假的沙漠商店,为他们下订单。
但我确实有一些事情做错了。这些公司看到的未来是能够推理的自主代理。所以我认为这就是我们将继续看到的东西。OpenAI向我承诺,我们将在2025年初开始看到这些代理。
所以我们会看到,好吧,我隐藏自己,没有办法从他们那里获得安全,完全银行家在其他地方。感谢你仍然来到节目。
谢谢。
再次感谢凯莉加入我的节目,感谢您的收听。希望您喜欢它。请让我们知道您认为一个酷炫的数字上帝应该是什么样子。
很好奇,你认为我们有这些想法吗?你甚至可以要求代码到The Verge公司。我们真的有真实的电子邮件,你可以直接通过这些电子邮件联系我,并通过TikTok联系我。
它被设置为Decoder播客。它很有趣。所以你可以和你的朋友分享并订阅你的播客。
如果你真的很喜欢这个节目,那就是The Verge制作的Decoder播客。并且是Vox Media Podcast Network的一部分,我们的制作人是凯特·考克斯。
和尼克·斯塔特,我们的编辑是卡莉·赖特,我们的主管制作人是利亚姆·詹姆斯,解码音乐是由Breakmaster Cylinder创作的。我们下次再见。
节目的支持来自AT&T。
用AT&T Next Up Anytime获得新的iPhone 16 Pro的感觉如何?就像你第一次点燃烤架,并想到所有令人垂涎的可能性一样,了解如何用AT&T的Apple Intelligence获得新的iPhone 16 Pro,以及每年用AT&T Next Up Anytime获得最新的iPhone。AT&T,连接改变一切。Apple Intelligence将于2024年秋季推出,具有英语和设备语言设置。
英语。一些功能和语言将在未来一年推出。零美元优惠可能不适用于未来的iPhone。Next Up Anytime功能可能会随时更改,具体取决于更改,附加费用、条款和限制适用。att.com/iphone了解更多详情。
对于美国运通卡会员,您可以享受在特定活动中使用专用卡会员入口的权限,因为跳过排队让您成为比赛日的明星。这就是美国运通强大的支持,条款适用,了解更多信息,americanexpress.com。