We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Empire of AI: Inside OpenAI’s Race to Conquer the Future | Karen Hao

Empire of AI: Inside OpenAI’s Race to Conquer the Future | Karen Hao

2025/5/19
logo of podcast Hidden Forces

Hidden Forces

AI Deep Dive AI Chapters Transcript
People
D
Demetri Kofinas
K
Karen Hao
Topics
Demetri Kofinas: 我认为Karen Howe的新书讲述了OpenAI的故事,以及科技军备竞赛的内幕。这本书的核心是关于权力的思考,揭示了一个理想主义的非营利组织如何演变成世界上最有价值的私营公司之一。今天的对话将带你了解OpenAI的转变,以及对人工智能时代权力的私人积累和我们正在建设的世界本质的未解决问题。无论你是投资者、政策制定者,还是只是一个试图理解新闻头条的普通公民,本期节目都将为你提供所需的背景信息,以了解AGI竞赛中真正重要的是什么,以及我们仍然拥有的控制杠杆。 Karen Hao: 我从未想过会成为一名记者,我在麻省理工学院学习工程学,毕业后直接进入科技行业。我本以为那将是我的职业,但我很快意识到硅谷的运作方式。我意识到,许多我最感兴趣的问题和技术可能没有商业计划,因此无法在硅谷生存。我决定进入新闻业,部分原因是我也热爱写作,并认为写作可以作为一种社会变革的工具。我最初进入科技行业是为了利用技术作为社会变革的工具,因此我天真地认为新闻业也可以做到这一点。我最初认为自己会被安排报道科技,但我意识到报道科技行业是一种深入挖掘我所认为的激励机制错位的好方法。我希望探索为什么我们似乎无法以符合公众利益的方式制造技术,并试图找出如何回到那样的状态。

Deep Dive

Chapters
Karen Hao, initially an engineer, transitioned to journalism driven by a passion for sustainability and a desire for social change. Her reporting on OpenAI began in 2019, revealing discrepancies between OpenAI's public image and its internal operations.
  • Karen Hao's background in mechanical engineering and initial work in sustainability-focused startups.
  • Her shift to journalism and focus on the technology industry.
  • Early reporting on OpenAI revealed inconsistencies between its public image and internal practices.

Shownotes Transcript

在《隐藏力量》第418集中,Demetri Kofinas与屡获殊荣的记者Karen Hao坐下来讨论《帝国AI》——她对OpenAI如何从一个理想主义的、以安全为首要任务的非营利组织发展成为世界上最有价值的私营公司之一的内部描述,该公司正竞相征服未来。这次谈话带您深入了解这一转变——从OpenAI成立之初的理想主义,到数十亿美元的微软交易和2023年的董事会政变,再到悬而未决的问题,这些问题困扰着硅谷和华盛顿,涉及人工智能时代权力私有集中的问题以及我们正在构建的世界性质。无论您是投资者、政策制定者,还是只是试图理解今日头条的普通公民,这一集都将为您提供所需的背景,以了解在AGI竞赛中真正面临的风险以及我们仍然可以用来引导它的杠杆。订阅我们的高级内容——包括我们的高级订阅、剧集文字记录和情报报告——请访问HiddenForces.io/subscribe。如果您想加入对话并成为Hidden Forces Genius社区的成员——享受与嘉宾进行问答电话会议、独家研究和分析、面对面活动和晚宴等福利——您也可以在我们的订阅页面HiddenForces.io/subscribe上注册。如果您喜欢今天的《隐藏力量》剧集,请通过以下方式支持该节目:在Apple Podcasts、YouTube、Spotify、Stitcher、SoundCloud、CastBox或通过我们的RSS Feed订阅;在Apple Podcasts和Spotify上给我们写评论;加入我们的邮件列表https://hiddenforces.io/newsletter/。制作人兼主持人:Demetri Kofinas 编辑兼工程师:Stylianos Nicolaou 在https://hiddenforces.io订阅并支持播客。在Facebook、Instagram和Twitter上关注@hiddenforcespod 加入对话。在Twitter上关注Demetri @Kofinas 剧集录制于2025年5月12日</context> <raw_text>0 大家好!我的名字是Demetri Kofinas,您正在收听《隐藏力量》,这是一个播客,它激励投资者、企业家和普通公民挑战共识叙事,并学习如何批判性地思考塑造我们世界的权力体系。

本集的嘉宾是Karen Howe,一位屡获殊荣的记者,《帝国AI》一书的作者,这是一本重要的新书,讲述了可以说是历史上最具决定性意义的技术军备竞赛的启迪性描述。

虽然这本书讲述了OpenAI的内部故事,但其核心是对权力的思考,揭示了一个致力于人工智能安全发展的理想主义非营利组织是如何转变为世界上最有价值的私营公司之一的。

今天的谈话将带您深入了解这一转变,从OpenAI成立之初的理想主义,到数十亿美元的微软交易和2023年的董事会政变,再到悬而未决的问题,这些问题困扰着硅谷和华盛顿,涉及围绕这项技术的部署而积累的巨大权力来源以及我们正在构建的世界性质。

无论您是投资者、政策制定者,还是只是试图理解新闻标题的普通公民,这一集都将为您提供所需的背景,以了解在构建AGI的竞赛中真正面临的风险以及我们仍然可以用来引导它的杠杆。

如果您想访问我们所有的高级内容,或者想了解更多关于Hidden Forces Genius社区以及如何参加我们的许多虚拟问答、面对面活动和晚宴的信息,您可以在hiddenforces.io/subscribe上进行操作。如果您还有其他问题,请随时发送电子邮件至[email protected],我和我们团队的成员会尽快回复您。

有了这些,请欣赏与我的嘉宾Karen Howe进行的这场极其重要且及时的对话。Karen Howe,欢迎来到《隐藏力量》。非常感谢你邀请我,Demetri。我很高兴邀请你,Karen。我告诉过你,我认为这一集很好地延续了我们之前与Patrick McGee的对话。

即使那一集的重点是中国和苹果,这里显然也有技术重点,但也存在中国因素,希望我们能够在谈到DeepSeek以及您在书中对规模假设的观察以及如何最好地、最佳地扩展我们今天将要讨论的这些系统时,能够谈到这一点。但在我们这样做之前,首先,恭喜你。谢谢。新书发布。是的。感觉如何?

既紧张又轻松。我不知道。这是一种有趣的张力。我很高兴把它带到世界上。而且,是的,然后它的反应就出来了,就像看着你的孩子飞出鸟巢一样。是的,我很羡慕。我采访过很多作家,我觉得,好吧,我不羡慕这个过程。我觉得这个过程会很费力且困难。我总是惊讶于人们如何能够有一份全职工作,还能写书。

也许对记者来说更容易一些,因为你有一群编辑和写作经验,但你也有这些疯狂的截止日期。无论如何,这是一项相当大的成就。我将多次提到这本书的名字,但它是《帝国AI》。再说一次,我们会深入探讨。在此之前,请告诉我一些关于你的情况。你是如何开始从事新闻工作的?你是从对新闻感兴趣开始的吗?你是从技术方面进入的,最终只是写你已经感兴趣的东西吗?

你的故事是什么?是的。所以我从未想过我会成为一名记者。我在本科阶段学习工程学,具体来说是麻省理工学院的机械工程。毕业后,我直接进入科技行业,搬到旧金山,开始在一个初创公司工作。我以为这将是我的职业生涯。这就是我学习的内容。这就是我打算做的。但是在我这家初创公司工作的头一年,我很快就

我意识到硅谷是如何运作的。我的意思是,这家初创公司很快就崩溃了,因为它没有商业计划,即使它有这个令人难以置信的使命,而且它是一个非常有使命感的人群。它专注于我真正关心的问题,那就是构建技术以促进可持续性。

我突然意识到,我非常感兴趣的许多问题以及我最感兴趣的许多技术很可能不会有商业计划,因此无法在硅谷生存。所以我开始思考,我应该做什么?就像我一样,我已经学习了四年工程学来做这件事。而现在我并不真的想做这件事。

在这个行业拥有长期的未来。老实说,有点一时兴起,我决定从事新闻工作,部分原因是我也很喜欢写作。除了写作是一种进行社会变革的工具之外,我对新闻一无所知。最初,我从事科技行业是为了将科技作为社会变革的工具。所以这就是我天真的分析,

这让我进入了这个行业。然后,通过在新闻业中磨练自己的技能,我很快就最初认为自己被安排到科技报道中,因为我实际上对科技报道并不那么感兴趣。我想报道环境。我的事业非常关注可持续性。但随着时间的推移,我意识到,对科技行业的报道是一种非常好的方式,可以更深入地了解

在我看来,当今最主要的科技力量内部的激励机制错位。并真正利用它来探索是什么导致了我们似乎无法再以公众利益为目标制造技术,并试图弄清楚我们如何才能真正回到这样的地方。

你知道,这太清楚了。我以前不知道你这些情况。我知道你学习的是机械工程,但我不知道所有这些其他事情,包括你对

我的意思是,从你的书中可以明显看出你对可持续性的兴趣,但我没有意识到你一开始就有这个兴趣。这太有意义了。这非常清楚。因为这在某种意义上也是,我的意思是,它并不是对你刚才提出的问题的哲学探讨,但它们是某种底蕴,当然,公众利益是什么,我们正在构建什么,我们正在构建的工具如何与更大的利益相一致,这贯穿于整本书。

所以,我想我能想象你将来会写一本书,你可能会更具体地探讨其中的一些事情。所以,告诉我一些关于你如何对OpenAI感兴趣的事情,因为这就是这本书的主题。再说一次,你在书中探讨了这些更广泛的主题,但你与该公司及其首席执行官Sam Altman的关系起源是什么?

是的,我从2019年开始报道OpenAI。当时,我是麻省理工学院技术评论的AI记者。麻省理工学院技术评论是一家非常关注极端尖端新兴技术的出版物,并非真正……就像我们过去说的那样,当技术具有一定的商业应用时,对我们来说就太晚了。

所以我报道的是来自学术界、来自公司研究实验室的最前沿研究。在这种情况下,

OpenAI当时是一个非常有趣的组织,因为它是由Elon Musk和Sam Altman等大人物专门成立的一个研究性非营利组织。但他们关注的不是商业化。他们关注的是那些关于如何开发比我们已经看到的技术更先进的人工智能的早期想法。

所以我最初之所以对它感兴趣,是因为它完全符合我的关注点以及麻省理工学院技术评论的关注点。但我也意识到,作为一个组织,他们正在迅速积累影响力,不仅在人工智能研究领域,而且在科技行业和政策领域。该组织从一开始就

非常善于理解它需要定位自己,并且需要与不同地区(华盛顿特区和硅谷)的当权者建立关系。所以我看到他们开始影响

不仅是人工智能领域正在进行的研究方向,因为每次他们发布研究成果时,他们都会进行大量的营销和沟通,你可以看到其他研究人员。它会吸引其他研究人员的注意,并且它正在慢慢地改变其他研究人员进行人工智能研究的方式。但它也对政策制定者以及公众开始谈论人工智能的方式产生了过大的影响,因为

它在早期就做了塑造公众舆论的准备工作。所以我决定

在我的麻省理工学院技术评论的一位编辑的建议下,对该公司进行了介绍,我说,这个组织真的很有趣。他说,你为什么不去问问他们,看看能不能介绍一下他们。所以我最终在2019年夏天在公司待了三天,只是想了解一下这个组织在说他们正在做什么的时候到底是什么样的

只是为了人类的福祉进行非营利性研究。他们是怎么做的?他们如何看待自己?为什么他们的触角伸向所有这些不同的方向?在短短三天以及随后的许多其他采访中,我很快意识到他们所说的一切似乎都是虚假的。

而且该组织,它已经在非营利组织内部建立了一个营利性部门。它似乎正处于开始从事商业活动的边缘。它说它是一个高度透明的组织,但我发现它非常保密。它说它是一个非常合作的组织,但我发现它非常具有竞争力。所以

我开始发现这种脱节,我最终写了一篇介绍,只是指出这一点。这个组织似乎已经积累了大量的善意以及基于这些利他主义观念的大量资本,它将成为道德人工智能研究的堡垒……

就是这样。这只是讲故事。这是一种非常有效的讲故事方式,它实际上并不反映表面之下发生的事情。

在我发表那篇介绍后,我与该公司的关系立即恶化了。他们对我的报道非常不满。从那以后,这始终是一种非常紧张的关系,随着时间的推移,我继续报道该公司。我继续批评该公司,因为我认为我在最初的介绍中所说的许多事情最终都是正确的。他们一直对我的工作感到非常沮丧。

所以,我觉得公司内部存在相互竞争的激励机制或目标和文化因素。显然,加速主义叙事正在增长

随着时间的推移,还有EA的影响,这并不一定与利他主义的影响相容。还有Sam Altman和他的个性。你在这里描述的很多事情似乎都非常接近,不仅仅是你书中的描述,还有我从其他人那里得到的其他描述,这些描述都与Sam非常相似。你所描述的内容以及OpenAI的精神以及它今天的现状,在多大程度上反映了他的政治目标和野心?

是的,这是一个很好的问题,因为我认为有两种方法可以回答这个问题。一种是,是的,我们正在谈论Sam,而OpenAI在很大程度上是他的体现,这是我在为我的书进行报道后得出的结论,那就是有很多关于

那家公司和那个组织的事情,这确实是对他运作方式的直接反映,这非常像他是一个现象级的讲故事的人。他就像一代人中难得一见的讲故事的人。这就是为什么他也是一代人中难得一见的筹款天才。

他能够创造出你真正想要参与并想要投入大量资金的未来宏伟愿景。他还想出了如何以一种方式来表达事情,如果你

是其中一部分,你将获得巨大的财富。我认为我随着时间的推移得出的另一个结论是,他对真相的理解非常宽松。这就是他在讲故事方面的超能力的一部分,如果你能稍微脱离真相,去讲述你需要讲述的任何故事,你将非常有效。这是一种了不起的武器。

回答这个问题的另一种方法是,Sam Altman也是硅谷的完美产物。所以,OpenAI只是他个人的体现,还是它也是体系的体现?他可以说是这个体系的最终产物。我认为两者兼而有之,因为

在过去的二十年中,科技行业、硅谷一直沿着这样一条轨迹发展,它确实依赖于讲故事。它确实依赖于将叙事作为积累财富和权力的方式。所以他是最擅长这样做的人之一。但我认为他并非独一无二地有效。

他不是一个孤岛。他存在于他的环境中,他是这个环境的产物,因此OpenAI也是它的延伸。那么,也许现在是谈论起源故事的好时机,因为这本书实际上是从2015年Sam Altman、Elon Musk和一些其他属于最初团队的人员之间举行的一次会议开始的。该公司是如何起步的?这与本书的讲述有何关联?

是的,所以OpenAI最初是Sam Allman的想法,他找到Elon Musk,基本上是想让一个大人物加入这个组织。他接近Musk的方式是通过

在2015年那个特定时间,Musk已经深深痴迷于两件具体的事情。所以Musk真的,他开始大量思考人工智能作为权力和控制的技术。他特别担心的是,第一,他不是积累这种权力和控制的人,第二,它是在一个营利性实体下发生的,因为谷歌和DeepMind

当时实际上已经非常有效地垄断了世界上最好的人工智能研究人才。所以他担心,如果他们垄断了人才,他们就能垄断技术,而技术将在这种营利性框架下发展和演变。所以Sam Altman告诉Musk,

“我完全同意你,这是一个非常深切的担忧,我们不应该允许谷歌这样做。在我看来,对抗谷歌的最佳方法是创建一个与他们竞争的另一个实验室,但其理念完全相反。我们将成为一个非营利组织。我们将是透明的。我们将完全开放并与世界分享我们所有的研究。”

所以Musk非常喜欢这个主意。然后Sam Altman与Elon Musk一起组织了一场晚宴,还有一些最终成为OpenAI领导者的人工智能研究人员。这本书以那场晚宴和他们当时进行的讨论开始,当时他们真的……

对于当时来说,他们谈论人工智能的方式非常离谱且非常夸夸其谈,他们将通过塑造这项技术的未来来塑造人类的未来。

许多实际上甚至来到那场晚宴的研究人员之所以来,部分原因是他们听说Elon Musk要来。所以这也在一定程度上体现了Sam Altman非常有策略的能力,能够将合适的人带到房间里,以便他能够让他们专注于某个特定目标。Musk的品牌名称有多重要?

例如,在Sam对公司筹款和人才培养的愿景方面?他有多关注实际引进这样的人,以便让公司的飞轮运转起来?我认为这是战略的关键部分,因为……

Altman很早就意识到,为了让这一切奏效,他需要获得一些真正顶尖的人工智能研究人才,并且他需要与谷歌向他们支付数百万美元的薪水这一事实竞争,而他未必有这样的预算。

所以他意识到,如果我不能在金钱上竞争,我需要在其他方面竞争,比如某种声誉。我需要某种吸引力。他特别确定了Ilya Sutskever,他最终成为OpenAI的首席科学家,是他想要争取加入OpenAI的主要人物,因为他

Ilya在人工智能研究领域拥有很高的声望。所以如果他能把Ilya争取过来,那将成为其他人工智能研究人员加入的声誉吸引力。但为了吸引Ilya,Musk是关键。Ilya当时之所以去参加晚宴,特别是因为他听说Elon Musk要参加。所以这真的是一个关键的策略,即让Musk加入,然后聚集所有这些人,然后能够利用他们所有人的名字和声誉来筹款。

还有一个快速的问题,以免我们偏离主题太远,但在那时,所以这是2015年,对吧,是晚宴?是的。如果我没记错的话,那也是Nick Bostrom出版《超级智能》的那一年?我认为他在2014年出版的,是的,大约是在那个时候。你可能是对的。我在2015年读到的,所以你可能是对的。这基本上是我被介绍到这个主题的时候,除了《终结者2》。存在风险的线索是我被介绍到它的主要线索。这似乎是

当时很多谈话的主题。这一点也很重要,Musk也在谈论它,Musk对此很感兴趣,他受到了这些想法的影响,Ilya也专注于风险因素。这在这里有多大?

是的。OpenAI的成立,就其关注点而言。是的,OpenAI成立的DNA中非常核心的一部分是,正如你所说,Musk真的痴迷于人工智能可能会以某种方式杀死人类的想法。它可能会毁灭整个人类。在这种存在风险的品牌中,持有这种信念的人的恐惧不是它会……它特别是因为它会毁灭人类,使其无法再生。那就是结束,结束,结束,结束。

他读过Nick Bostrom的书。他非常喜欢书中的想法。他实际上如此痴迷于这个想法,以至于他考虑过写一本关于存在风险的书。大约有一半,也许超过一半最终来到晚宴的研究人员都

有类似的想法,他们都对人工智能可能变得超级强大并落入坏人之手的想法深感担忧和不安。所以这就是导致这个组织最终成为一家公司的动力。是的,再说一次,我想回到起源故事以及从那次最初的会议开始事情是如何发展的,我的后续问题是。但我只想指出,这真的很重要,因为

OpenAI早期发布的很多信息都集中在存在风险和这种高尚的想法上,事实上,它不是标语,而是公司的使命宣言中的一部分,关于我们想要构建造福全人类的人工智能?然而,我们在过去几年中看到的是,这种说法已经发生了转变,这种更广泛的商业化推动以及在美国与中国的战略竞争范式内的框架,我们需要构建……

在西方世界的人工智能,而不是中国,这与我们在过去几年中所经历的叙事完全相反。

是的,这与叙事完全相反。但有趣的是,我的意思是,他们并没有偏离他们的使命。使命保持不变,即确保人工智能,通用人工智能,造福全人类。我在书中谈到的一件事是,这个特定的使命宣言是如此含糊,以至于它实际上,就像任何人都可以根据自己的意愿来解释它一样。所以……

这就是为什么你能够看到这个组织来了个180度大转弯,但继续在公共领域争辩说他们正在按照应该的方式继续履行他们的使命。因为在这个短语中,“确保”没有很好的定义。“AGI”也没有很好的定义。“造福人类”也没有很好的定义。就像,

所以他们可以根据自己的意愿来解释它、重新解释它、重新定向它,无论最终哪种方式最有效地继续积累权力。因为当你真正从表面上看他们正在做的事情时,这确实是他们取得的唯一最清晰的事情。好的。所以我们也会更深入地探讨这个问题。但让我们回到晚宴和早期的成立。是的。

那么,从这里事情是如何发展的呢?我的意思是,Elon最终离开了公司。我认为你开始深入探讨这个问题了。当然,OpenAI从非营利组织变成了准营利组织。我的意思是,我不记得具体的名称了。他们有一个独特的名称来称呼它。有限利润。营利性有限合伙企业。是的,有限利润,这是我第一次听说这样的事情。我不知道他们是否进行了创新。是的,他们发明了它。是的,他们发明了它。所以请带我回顾一下这个过程,从2015年的晚宴到微软交易,以及其间发生的事情。

是的。所以当他们成立为非营利组织时,基本上是一群不同的支持者承诺向该组织捐赠10亿美元。通过承诺,他们只是签署了一份声明,表示他们愿意捐赠这么多。当时是Musk的想法,他想要10亿美元的数字,因为他想要这个公告引人注目,并且他想,引用一下,“听起来不那么绝望”。

对抗谷歌和DeepMind以及他们将拥有的预算。所以他说,“其他人一起出钱,无论如何,我们都会亏损。然后我会填补其余部分。”然后在2017年、2018年,该组织在那个时候,我的意思是,早期,他们非常漫无目标,你可以这么说。就像,他们是一个极其人才密集型的人群,拥有大量的资金,或者至少他们被告知是这样。

但他们并没有真正阐明他们实际上在做什么的愿景。所以他们只是在乱试,而且组织中并没有真正出现很多有趣的东西。所以在2017年,部分原因是Musk开始对谷歌和DeepMind取得快速进展以及AlphaGo问世并占据国际头条新闻,并显然为DeepMind带来了很多爱戴和赞誉感到非常沮丧,

必须开始对该组织施加压力。“我们需要制定一个实际的计划。”所以在2017年、2018年,Greg Brockman和Ilya Satskever,首席技术官和首席科学家,坐下来开始弄清楚,为了让OpenAI成为第一名领导者,实际上需要做些什么。

大约在同一时间,组织内的其他研究人员也在提出类似的问题,但角度不同,即到目前为止人工智能的进展速度是多少,以及需要多少计算资源才能跟上这种速度。基本上,通过战略对话和正在进行的研究,他们得出了这个结论

决定,加速他们进展的方法就是简单地尝试构建尽可能大的超级计算机。因为如果他们能够拥有世界上最大的超级计算机,那么他们就能训练世界上最大的人工智能模型,因此能够快速地通过蛮力方法成为第一名。那时他们意识到,

10亿美元甚至都不够。我们需要更多的钱来建造世界上最大的超级计算机。快速插一句,为了澄清一下。在什么时候,这种观点出现,即计算能力和训练越来越多的数据以及蛮力方法,正如你所说,是实际上最快扩展并实现所谓的AGI的方式?

再说一次,这是一个模糊的基准。我们也可以深入探讨这个问题。但这种观点是什么时候出现的?所以这是一种在人工智能领域一直存在的一种观点,它是关于如何取得人工智能进展的不同观点范围中的一个极端。

所以另一个极端是这种观点,即无论什么能够让我们取得更多的人工智能进展,它现在还不存在。就像我们需要新的研究,基础研究。我们需要新的突破,新的想法来实现这种进步。然后是计算资源的观点,我们实际上已经有了所有的想法。

这只是将大量的计算能力投入到其中。碰巧的是,Ilya Sutskever属于那个极端阵营。所以当他成为OpenAI的首席科学家时,他将自己的特定信念带入

进入组织,并开始围绕这种信念来组织其研究。所以当所有研究人员、Greg Brockman和他就如何尽快成为第一名坐下来思考时,他已经带着这种哲学

进入组织。

好吧,最好的方法是通过计算资源。因此,让我们继续前进,努力购买我们能够找到的最大型计算机。你知道,书中出现的一件事是,这显然对某些人来说很方便,因为它至少允许他们在脑海中为公司和项目建立某种护城河。这似乎并非……

伊利亚的想法,你对是什么让他这么早就相信这是前进的道路有任何感觉吗?我认为在OpenAI的历史中,有趣的是不同的人有完全不同的目标,这些目标最终会围绕某些方向融合,因为它们最终以这种方式对齐。所以伊利亚,他非常有科学动机。他对如果……会发生什么非常着迷。

从研究的角度来看。在他自己的职业生涯中,那时他已经是一位人工智能领域的佼佼者。他已经参与了许多突破,但最重要的一次发生在2012年,实际上开启了整个深度学习革命。那是他作为研究生在杰夫·辛顿(Jeff Hinton)手下学习的时候,杰夫·辛顿最近因这项工作而获得诺贝尔奖。

他们使用深度学习在一个名为ImageNet的学术竞赛中进行图像识别。他们在2012年展示了他们的深度学习系统能够显著优于任何其他非深度学习技术。这是该竞赛中第一次在识别深度方面取得了突破性的进展……

图像中的内容。伊利亚参与的这项具体突破和其他突破部分上得益于规模。

规模并不是他们获得帮助的唯一因素。还有一些新的技术正在部署。有更多的数据管理方法,诸如此类的事情。但对伊利亚来说,我认为他只是真正相信规模是他参与的所有突破中最重要的因素。他以前谈到过,这是一种……

在听伊利亚谈论深度学习及其特定哲学时,一件非常有趣的事情是他确实将其描述为一种信念。他并没有将其描述为任何类型的观察科学。就像他对规模化深度学习将创造神奇事物这一想法有一种宗教般的信仰。他有时会展示一张图表,谈论人类大脑是所有动物中最大的大脑。

所有动物。如果你通常将动物界的动物沿着智力和大脑大小的轨迹绘制出来,你会发现大脑大小和智力之间存在某种线性关系。

他还相信神经网络(当今支持现代人工智能系统的软件)是大脑的有效近似。并非每个人都相信或同意这一点,但他只是相信,这就是他的宗教。他相信神经网络有效地……

找到了如何复制大脑的方法。因此,如果你将这两个想法放在一起,你只需要扩展规模。你只需要尽可能大的大脑才能获得最高的智力。这基本上就是为什么OpenAI会走上这条道路,因为他签署了它。但正如你所说,还有许多其他原因导致其他高管没有……

签署,例如,他们不一定对科学感兴趣。他们对它将给OpenAI带来的竞争优势感兴趣。如果你能获得最大的超级计算机,那就意味着其他人不会构建你认为会给你带来大量权力的这项技术。因此,它创造了一种非常有效的方法来巩固你的优势。是的。

是的,我记得看到过一位名叫朱利奥·托诺尼(Giulio Tononi)的人的作品,他在21世纪初提出了一种关于意识的涌现理论,称为整合信息理论。这是在各种超人类主义和……

库兹韦尔式思想圈中被广泛讨论的众多理论之一。其基本思想是,你的联系越多,信息就越整合,因此,你正在检查的事物就越有意识。感觉这与这里提出的相同类型的联结主义思想非常相似。我喜欢你指出的这一点,即这种规模定律并不是某种可检验的假设,而更像是一种宗教信仰。

而且这个领域,人工智能,人工智能的商业化,甚至“商业化”这个词都不能完全符合用来描述与这项技术发展相关的机遇和责任的措辞。我觉得这个领域的许多人也在努力解决一些非常陌生的问题。

工程问题本身,而是诸如我们为什么要构建这项技术以及我们为谁构建这项技术之类的目的论问题,这些问题超出了关于产品市场匹配和受众定位的传统讨论的范围。也许这个等式中缺少的是,公众并没有像在原子弹的开发过程中那样被视为利益相关者……

或双子座和阿波罗任务。你对此有共鸣吗?

是的,我认为这完全正确。我认为这种情况发生的原因有两个。一个是你在描述的,即我们应该为谁或为谁构建这项技术并没有真正明确表达的想法。我认为这与你过去谈到的一些想法有很多联系,例如道德的衰落,人们以不同的方式做事。

纯粹是为了游戏的缘故。他们这么做是因为,是的,他们对为什么要做任何事情没有强烈的信念?他们只是在追逐数字和追逐经济价值。但我认为人工智能的另一个挑战是……

最初的人工智能领域是一个非常古老的领域,它成立于1956年。它基于这样一个想法,即我们将创造一个试图做一切来重现人类智能的领域。直到今天,对于什么是人类智能,科学界也没有达成共识。

这与任何其他技术都大相径庭,因为基本上每种其他技术,你首先都有一个非常明确的定义。

所以这就是为什么人工智能如此容易受到意识形态解释、宗教投射的原因。它非常容易……它就像一面镜子,人们可以把它举到自己面前,然后看到他们想看到的任何东西。对于它是什么、为什么是它、它应该为谁服务以及所有这些事情,并没有真正的集体共识。是的。

好吧。所以我们在这里稍微插播了一下,但我们正在谈论,我认为我们回到了2017年、2018年期间,当时公司的人员决定,扩展规模并投入更多计算资源是实现AGI或获得竞争优势的方法。从那时起,事情是如何发展的,这又是如何导致我们与微软合作的呢?

一旦他们意识到他们需要大量资金才能实现这条特定的AGI优先路径……

他们实际上立即失去了他们的主要支持者埃隆·马斯克,因为他们开始谈论我们需要转变为营利性公司,因为我们不可能以非营利性的方式筹集到我们预计自己需要的资金。一旦讨论到营利性公司,马斯克就开始对此非常生气。他和奥特曼之间发生了一场争斗,好吧,如果是一家营利性公司,

谁将控制它。他们都想成为首席执行官。对此没有任何协议。然后马斯克最终退出了。他退出了这个项目,因为他觉得,我不喜欢它可能是一家营利性公司,而且我可能不是首席执行官。所以我想保持非营利性。如果你不保持非营利性,我就退出。

所以当他离开时,它让这个组织进入了一个有点危机的时期,他们刚刚意识到他们需要大量的资金。现在,他们也在同一时刻失去了他们最初认为拥有的资本。所以奥特曼做了他最擅长的事情。他开始外出筹款。基本上,他最终去了太阳谷会议,这是……

许多亿万富翁的聚会,我认为是为了与可能能够为这项工作提供资金的人们打成一片。他最终在会议的楼梯间遇到了微软首席执行官萨蒂亚·纳德拉,并在楼梯间迅速向他推销了OpenAI的想法,并立即引起了他的兴趣。

纳德拉的兴趣足以让他们开始更多地讨论此事。然后它很快就变成了微软决定填补这个漏洞,并与OpenAI建立合作伙伴关系,微软将提供10亿美元。具体来说……

奥特曼寻找像微软这样的支持者的部分原因是,微软也有能力为他们提供计算资源。对于微软来说,他们对OpenAI非常感兴趣,因为他们觉得他们也落后于谷歌。

由于谷歌对人工智能的雄心壮志以及收购DeepMind,谷歌在硬件方面的创新要多于微软。谷歌已经超越了微软,远远超过了微软构建强大超级计算机的能力。所以微软想给自己一记耳光。

通过支持OpenAI,并利用它来为自身硬件的开发或进步增加紧迫性,以便它也可以边做边学,并开始开发……

制造真正强大的超级计算机。所以现在你有了这种非常重要的商业关系,你也有这种准非营利性商业实体,我认为这最终导致了臭名昭著的2023年11月的董事会政变。带我回顾一下当时发生了什么,以及我们对这段时期公司内部的讨论和裂痕了解多少?

由于OpenAI拥有这种弗兰肯斯坦式的公司结构,它是一个非营利性组织,但随后它在其内部增加了一个利润上限部门来筹集资金并与微软建立合作伙伴关系,因此从2018年一直到2023年,它一直受到困扰……

公司内部的不同派系对OpenAI究竟是什么有不同的理解。这就像,他们对OpenAI是什么有非常不同的理解,对使命也有非常不同的理解,因为正如我提到的,使命是如此含糊,以至于任何人都可以将使命作为一面镜子。它只是他们想要的东西的投射。所以有……

两个主要派系出现了。一个派系仍然保持着这种存在风险的心态,围绕着他们为什么构建这项技术。他们想成为构建它并将其掌握在好人手中而不是坏人手中的人。他们想确保以最大的谨慎来完成这项工作,以免导致人类的灭亡。他们基本上与那些也相信OpenAI的人重叠……

最终,即使它有这个奇怪的利润上限部门,它在精神上也是一个非营利性组织,它应该像非营利性组织一样运作,即使它在侧面商业化一些东西,但最终组织应该在高层做出的决定永远不应该将资本置于安全之上。

另一个派系是那些被带入组织来运营利润上限部门并实际弄清楚如何构建可以商业化的技术从而为投资者带来投资回报的人。

所以这些人从哲学上更像是一个标准的硅谷人。他们试图弄清楚我们如何构建真正令人兴奋的用户界面?我们如何建立一个可持续的商业模式?我们如何尝试获得快速的用戶增长,以便我们可以向人们展示曲棍球棒式增长,然后说服他们给我们钱?而这些人则认为OpenAI……

也许它曾经是非营利性的,但现在它是营利性的,我们需要像营利性公司一样运作。我们还需要在当今世界的现实中运作,那就是,如果我们想实现我们的目标,即首先实现AGI,我们就必须拥有资本。我们必须参与这场游戏。而这组人越来越觉得……

随着OpenAI越来越多地将人工智能技术部署到世界各地,世界并没有终结。事实上,他们看到了很多证据表明,将这项技术掌握在人们手中带来了好处。因此,他们对使命的解读变成了,实际上,我们需要尽快部署这项技术,以确保AGI造福全人类。所以……

显然,你可以看到这些观点完全是对立的,无论是在好处方面还是在OpenAI究竟是什么方面。这是非营利组织的董事会。董事会有一段时间一直是50-50的比例,或者我应该说,在那些不是公司员工的董事会成员中,它是50-50的比例。所以他们是独立的董事会成员。在……

2022年底和2023年初,或者也许只是2023年初,三个最倾向于将公司视为公司的董事会成员由于各种原因离开了,部分原因实际上是由于ChatGPT的成功。其中两人最终卷入了利益冲突,他们开始参与OpenAI的竞争对手。所以他们不能再担任董事会成员了。

所以董事会危机发生的原因基本上是,只剩下三个独立的董事会成员最倾向于将OpenAI仍然视为精神上的非营利性组织,因此需要始终将安全置于利润之上。

然后是三名员工,其中一人伊利亚·苏茨克沃(Ilya Sutskever),后来也越来越对奥特曼感到失望,无论是他的个性还是他对公司发展方向的看法。所以他最终与其他三位董事会成员结盟。这导致了可能是科技行业历史上最壮观的戏剧。是的。

所以让我们回顾一下,我的意思是,我再次认为这里最有趣的事情不是戏剧,但人们记得这一事件。我认为那是我第一次联系你,因为我们在你的书出版之前就已经联系过了,而且可能是在这个时候,因为当时有很多关于正在发生的事情的困惑。而且伊利亚也签署了所谓的“政变”,但后来他又反悔了,然后他最终离开了公司。

那么,他的反转是否仅仅反映了萨姆·奥特曼实际上拥有的权力,以及这样做实际上是否不切实际?鉴于与微软的关系以及萨姆可以离开并带走一群工程师的事实,试图将他赶下台实际上是不切实际的吗?是的,我认为萨姆和伊利亚是截然相反的,萨姆是一个政治动物,而伊利亚不是。伊利亚是一个在政治上相当天真的人。

老实说,他只是不明白。他甚至没有想过一旦他们解雇萨姆会发生什么。我认为老实说,发生的事情是他没有,他从未想到过其他人不会庆祝这件事,而且他们没有像他那样看待萨姆。

他从未想过,如果他不给他们一个好的答案,他们会非常生气。不仅是他,董事会也没有给员工、投资者或微软一个关于发生了什么的好的答案。所以基本上,他这么做是因为他想加强OpenAI,因为他非常担心OpenAI的工作方式。

可能会在萨姆的领导下如何发展,以及AGI,他对AGI的构想可能会在奥特曼的领导下如何发展。但是,一旦他清楚地意识到这根本没有增强OpenAI,实际上可能会导致其解散,那时他就改变了主意。

所以,这并不是说他对自己的决定没有很高的信念,而是他被击败了。他很天真。非常天真。是的,他只是没有考虑到会有后果。那么,这个行业是否已经放弃了对齐问题作为该领域开发人员主要关注点的焦点?我的意思是,我们现在是不是完全专注于人工智能的商业化?

我认为也许退一步说,我……

总体上我有点批评的是,我认为当今围绕人工智能辩论的许多框架最终被框架为安全与利润之间的对立,但我实际上对两者都持批评态度。我认为,我不认为是两者之一。对我来说,它们实际上是同一枚硬币的两面,因为安全人士和利润人士,他们都有这样的论点,他们应该成为控制这项技术的人,因为他们是那些能够最好地做到这一点的人。通过人工智能的历史……

这个组织,你看到了这些意识形态是如何运作的,即使他们互相憎恨,实际上最终只会推动这项技术更快、更快、更快地发展。他们都对此负有责任。

那么,这个行业是否已经开始越来越多地转向商业化,而越来越少地转向这种末日论的安全意识形态?我认为是的。但这真的意味着什么吗?你的书中出现的一件事是,这两种方向都是目的论证手段的方法。是的,完全正确。完全正确。那么,这也是你想要表达的吗?

为了这些更大的理想,我们似乎正在失去对这场竞争所造成的更大外部性的关注。因为你在书中讲述了这一点,不仅仅是建造这些数据中心造成的生态影响,还包括对负责清理一些数据的人(委内瑞拉和肯尼亚)的迷人观察,或者对通过人类反馈进行的一些强化学习,这些学习被外包给这些以每小时1到2美元的工资工作的农场工人。有多少这样的故事实际上并没有……

大多数人不知道,你认为呢?因为说实话,我对此并不了解。是的,我认为很多人对此并不了解。我认为这是故意的,因为我想我谈论这本书的这部分内容的方式是,我一直对人工智能供应链非常着迷,因为人们并没有真正将数字技术视为像时尚、咖啡或黄金那样拥有物理供应链,但它确实有。

这是故意的,硅谷总是试图通过隐藏物理供应链来使自己显得神奇。许多行业通过将供应链远离消费者视线来隐藏它们。但我认为还有更多层面的混淆,因为普通消费者不会认为……

当他们使用ChatGPT或其他人工智能工具时,实际上在世界某个地方存在着极其庞大的物理足迹。所以,我想,要回到你刚才所说的关于最终我对这两组人的批评是什么,他们进行的对话完全脱离了……

人工智能如何影响当今人们的现实,部分原因是他们完全脱离了当今世界大多数人生活方式的现实。当我与人工智能领域中持乐观态度或悲观态度的人交谈时,

他们没有意识到硅谷的泡沫并不代表,我的意思是,他们显然意识到他们与其他人的生活方式可能不同,但他们甚至无法想象其他人的生活方式有多么不同。当我探究他们时,我记得我曾与……

一位非常属于乌托邦阵营的研究人员交谈,他说,你知道,我们实现了AGI,就是这样。对每个人来说都是欣喜若狂,对每个人来说都是乌托邦。我说,你能帮我理解一下吗?你能一步一步地向我解释一下,你如何看待它帮助社会底层的人吗?比如那些无法为孩子提供食物的人。他说,哦,我不是在谈论底层。是的。

我说,等等,你说的全人类是什么意思?因为在我看来,似乎只有某些人值得拥有这里的人性。而其他人则被认为是,哦,还有其他人。是的。所以我的最大批评是,我并没有真正看到任何一方,无论是利润方还是安全方,真正意识到人性。

大多数人生活在不稳定之中这一事实。是的,我的意思是,实际上,不要在这里混淆隐喻,但对齐问题也是文化上的对齐问题。硅谷有自己的文化,他们的担忧越来越与我感觉到的…… 大多数人的担忧脱节。长期以来,人们一直痴迷于……我从未真正理解过这一点,关于成为星际物种,我们还需要去火星,这是第一步,因为人类不会长期在这个星球上生存,我们需要播种其他星球。坦白说,我从未真正理解过这一点。而且我觉得大多数人并不真正关心这一点。我的意思是,我不知道这个想法有多流行。它在社交媒体上很流行。而这种宗教色彩不断出现。我曾与梅根·奥吉布林(Megan O'Giblin)做过一期节目,实际上甚至还与尼克·博斯特罗姆(Nick Bostrom)做过一期节目,我通过《超级智能》了解了他的作品,这非常有趣,所有这些哲学思想。

然后他出版了《深度乌托邦》。这几乎就像一种完全的逆转。所以他从某种程度上说是末日论者,变成了乌托邦主义者。我说,我与梅根·奥吉布林(Megan O'Giblin)做过一期节目,她写了一本书,讲述了她与宗教以及深入这些社区的经历。它具有如此强烈的宗教色彩,以至于几乎感觉像……

发生的事情是,硅谷内部发展了一种宗教邪教,表达这些观点的渠道是人工智能发展。百分之百。我认为这正是思考它的正确方式,是的,我通常称它们为准宗教,但当你想到……的时候,它们就是完全的宗教。

对。

但是与以前的宗教不同的是,有一个至高无上的神来决定你是否上天堂或下地狱。在这个宗教中,你决定人类是上天堂还是下地狱。因此,人工智能发展的整个事业都具有深刻的宗教底蕴,你无法真正……

有些人说人工智能产业的故事只是一个资本的故事。而我认为这根本不是真的,你无法仅仅通过资本的视角来理解所有奇怪的现象、冲突以及人们和组织做出的决定。它也百分之百是一个意识形态的故事。是的。

但从这个意义上说,它也让我想起了100年前镀金时代以及社会达尔文主义和优生学作为社会精英的流行理论的兴起。感觉这与某些类似的事情相似,但我认为一个关键的区别是,我们不是在培育超人,而是到达了一个我们创造了一个神,我们可以通过它来改造自己,而那些有能力……

拥有资本来做到这一点的人将能够逃脱。我的意思是,还有这个强烈的……我们今天所处的时代另一件非常有趣的事情是,100年前并非如此,100年前没有谈论过逃离地球,逃离这种反乌托邦的未来并逃离。今天,人工智能社区内部存在着强烈的逃避主义邪教。我最近看到保罗·图多·琼斯(Paul Tudor Jones)的一次采访,他谈到他与……

一小群人工智能领域的佼佼者在一起,其中一位在这个领域地位很高的人说,他的策略是他购买了,我不记得在中西部买了多少英亩土地,他拥有储备等等。他正在为世界末日做准备,届时将有5000万到1亿人死亡,因为人工智能开发出某种新型病毒,杀死了各种各样的人。是的,硅谷的所有大人物都是世界末日预言家。我的意思是,萨姆·奥特曼也是世界末日预言家。甚至在他开始开发之前,他就开始致力于OpenAI。我认为这与……

你谈到的虚无主义有关,就像普通人正在退出,精英们也在退出。他们不再想自己处理所有问题。

今天存在的问题。他们不再对拯救我们目前的星球、我们目前的国家以及我们目前的……,你知道,像保护那些运作良好的事物一样,感到这种依恋。他们不再对它感到这种依恋了。他们只想把它抛在脑后,转向其他东西。所以我认为这就是为什么……

为什么我们拥有所有这些资本以及所有这些来自技术发展的环境外部性。我认为部分原因是,他们并不真正关心它对当前星球和我们社会秩序当前模式的成本有多大,因为他们已经厌倦了。他们只是想,在这个地球仍然存在的时候,尽可能地抽取所有……

他们所能获得的资源。尽可能地掠夺它。是的,完全正确。尽可能地提取它。完全正确。试图让火箭发射升空,然后他们就完成了。我认为这再次说明了我们谈到的对齐问题。不是人工智能中传统意义上的对齐问题,而是社会中富人和穷人之间更大的对齐问题。

并且在这个真正集权的领域。那么,凯伦,你认为今天应该发生但尚未发生的对话是什么?你认为你的书,或者你希望你的书如何帮助开启这场对话或使其更加突出?

我认为我对人工智能领域整体论述最失望的是,人们仍然深信不疑。并非所有人,但仍然有很多人深信不疑,认为存在所谓的通用人工智能,并且我们不应该相信

硅谷能够创造它,并且它将以某种方式将我们带入乌托邦。我认为所有这些都导致我们不断地将越来越多的控制权赋予那些人,一群已经证明他们对保护这个世界美好事物毫无兴趣的人。

我们正走向一个最终会破坏自由世界秩序的地方。我们正在破坏民主。我们正在逆转我们所取得的所有进步,并回到帝国时代。这就是为什么我的书最终被称为《人工智能帝国》。我认为我们正在迅速重现一个时代,在这个时代

一小群人能够做出所有决定,他们完全出于自身利益行事,他们榨取、剥削,并做任何需要做的事情来继续致富并巩固他们的帝国。而其他人则要承受他们反复无常的后果。

我认为这在硅谷已经酝酿了很长时间。而且,你知道,人们长期以来一直俗称科技公司为帝国。但我认为我们需要将人工智能公司更认真地视为字面意义上的帝国,因为资本数量、资源数量、榨取数量和剥削数量都超过了以往的社交媒体和搜索公司。

一个到两个数量级。由于需要建设、用数据中心和超级计算机覆盖我们的星球,所造成的环境破坏是史无前例的。我们从未见过如此规模的建设速度。仅举一个例子,特朗普总统今年早些时候宣布了“星门计划”,这是一个

旨在对建设数据中心和超级计算机进行5000亿美元的私人投资,OpenAI表示这全部用于自身,在四年内完成,四年内5000亿美元。阿波罗计划将第一人送上月球大约花费了3000亿美元,历时13年(2025年)。

所以,一家公司花费5000亿美元仅仅是为了创造一项技术,而这项技术还不完全清楚。而且它是专有的。而且它是专有的。而且还不完全清楚它是什么以及它将使谁受益。

这太疯狂了。是的,这就是我最终想写这本书的原因,就像指出,我们在这里做什么?你知道,当这种情况发生时,仍然有人相信我们应该拭目以待,并希望最终我们会达到欣喜若狂的状态。就像,我们看不到尽头,因为那时为时已晚。帝国已经建立起来了。地球已经被破坏了,

民主制度也已不再可行。所以,是的,这是,我们没有第二次机会。

我认为这是一个非常有见地的框架。舒莎娜·祖博夫是否推荐了你的书?是的。是的。所以这非常贴切。她曾在出版她的书时来过节目,那本书令人难以置信。就为人们提供思考问题本质的框架而言,这是一本非常重要的书。你们两位实际上都提到了殖民化的类比。我认为她实际上

用西班牙征服者来到美洲土著居民欢迎他们为例。

作为某种神灵。在这里,你所描述的这种现象似乎也存在某种相似之处。是的,是的,完全正确。祖博夫教授,我的意思是,她的书和她的想法总体上对我的工作和这本书影响巨大。但是,是的,正是这样。就像她以这样的想法开头她的书:当你面对一些如此新颖的事物时,它会缩短你的大脑回路,甚至无法真正识别出

她谈到了她自己的个人经历,比如她家发生火灾,她以为自己还有更多时间。所以她像在房子里跑来跑去,试图拿东西。直到一名消防员把她从房子里扔出来,然后房子突然着火,她才意识到她一直完全依赖于与实际情况无关的历史例子。对。

我认为这在许多新兴技术中都会发生,因为它们如此不同,以至于人们不再认识到它们实际上是相同的。就像硅谷能够从社交媒体时代重塑自己,在那个时代,每个人,社会上的每个人都开始同意社交媒体对社会有害,你知道,

我们不再进行这场辩论。然而,不知何故,同一批人物现在在人工智能这个新品牌下重塑了自己。它使每个人都短路了,心想,哦,等等,这次会不一样。这次会更好。它会奏效的。他们是为了我们的最大利益而这么做的。而事实并非如此,那根本不是正在发生的事情。是的。

马斯克也是如此。我们生活在一个充满个人崇拜和民粹主义的时代,马斯克总是让我想起特朗普。他们两人在吸引人们的方式上非常相似。令人沮丧的是,现任政府实际上已经与这些相同的权力结构结盟。

另一件事是,我喜欢你提到了特里莎娜提出的她家着火的例子,因为她在同一章中还指出,社交媒体导致了避难所的丧失以及我们作为社区聚集在一起的空间的丧失。那么你认为,这有点

回到了我关于你希望人们能够进行的对话的问题。我不知道你是否有答案,但这是我在节目中试图探讨的事情。我们如何才能到达一个地方,在那里我们可以建立对我们正在谈论的事情的抵抗力,即权力在越来越少的人手中积累,以便我们能够真正地重新调整

我们的经济和政治制度,使其符合公共利益。回到人工智能供应链的概念,我一直认为,好的,现代人工智能系统,公司正在构建的这些庞大的人工智能模型,它们

它们需要大量数据。它们需要大量的计算资源。它们需要大量的土地、能源和水。对我来说,所有这些都是抵抗的场所。就像,我们不知何故……

现在已经进入了一种思维状态,我们只是觉得我们无能为力,他们只会占用所有这些东西。但实际上,如果我们能够限制公司实际获取这些资源的无限数量的能力,他们就无法做到他们正在做的事情。所以对我来说,就像

当考虑如何限制他们访问数据时,美国仍然没有联邦数据隐私法。我们应该有一个。我们不应该侵蚀我们的版权法,以至于他们获得更多数据来训练他们的模型,而没有任何关于人们毕生工作的知识产权保护。应该有一些人组成的联盟来真正讨论版权。

公共拥有的数据以及是否应该允许这些公司使用这些数据来训练这些模型。应该就数据集的内容审核进行公开辩论,因为在我的书中,我谈到了许多例子,其中OpenAI实际上只是……公司内部的一些人只是自己决定,我们是否应该在我们的数据集中包含色情内容?实际上,是的。为什么不呢?因为它代表了人类的经验。

这根本不是以任何民主的方式完成的。这完全是一个判断性决定,现在对这些模型的工作方式以及它们对儿童接触潜在非法内容的风险具有巨大的影响。

我们还应该建立由了解情况的人组成的联盟,他们可以就数据中心在其社区内的发展提出问题并要求进行更改。现在,公司实际上……

他们中的许多人以空壳公司、空壳实体进入社区,他们甚至不会说建造数据中心的是他们。例如,Meta有一个名为Greater Kudu LLC的空壳公司,他们用它来做一些数据中心的事情。社区就像,这是什么随机公司,他们在做什么项目?然后,一旦第一块砖块铺设完毕,它就像,瞧,是Meta,这是一个数据中心,你再也无能为力了。

我们需要对公用事业价格如何受到影响进行更多监管,因为当数据中心搬进来时,它会提高普通家庭的能源成本。需要保护基本的人类资源的可负担性。

所以我认为这就是我们需要控制帝国的方式。我认为这就是我的想法,即帝国继续积累所需的所有这些不同的投入都是可以存在抵抗的地方。可以建立联盟来

开始将这些资源的控制权从帝国手中交还给人民。所以凯伦,我认为你写了一本非常重要的书,很大程度上是因为它有助于这种具体的框架。就思考我们实际上面临的是什么?我们面临的挑战是什么?

我们面临的挑战。而且我认为,说实话,你写这本书非常勇敢。你对这个问题以及这家公司采取如此对抗性的立场非常勇敢,这并不容易。硅谷已经积累了如此巨大的权力,开始职业生涯或通过这种方式发展职业生涯并非易事,这当然不是简单的方法。你必须真正开辟自己的

除了人们可以在亚马逊上找到这本书,每个人都知道如何使用亚马逊之外。人们如何关注你?他们如何关注你的工作?你会推荐人们做什么?

如今,我主要在LinkedIn和Blue Sky上发帖,所以人们可以在那里关注我。我还没有创建时事通讯。一个子堆栈,是的,或者等效的。是的。但我通常会将我的作品发布在这些个人资料上。我只是希望人们也能随意与我联系。我尽量通过我的网站尽可能地回应。你可以在那里联系我,我会尝试回复人们的电子邮件。

以及他们提出的不同请求。但我同时也希望人们能够将这本书变成他们自己的东西,并将其用作他们正在做的工作的平台。因此,如果我能以任何方式帮助做到这一点,无论是通过我的想法和文字,还是通过直接联系和进行对话,请告诉我。好吧,凯伦,你是在这个领域的重要声音。所以非常感谢你写了这本书并参加了播客。非常感谢你邀请我。谢谢。

如果你想收听今天其余的对话,请访问hiddenforces.io/subscribe并加入我们的高级订阅。如果你想加入对话并成为Hidden Forces Genius社区的成员,你也可以通过我们的订阅页面进行操作。

今天的节目由我制作,由Stylianos Nicolaou编辑。更多剧集,您可以访问我们的网站hiddenforces.io。您可以在Twitter上关注我@Cofinas,也可以通过[email protected]给我发电子邮件。一如既往,感谢收听。我们下次再见。