We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Ep 105: What Can Aristotle Teach Us About AI? Training "Philosopher Builders" with Brendan McCord of the Cosmos Institute

Ep 105: What Can Aristotle Teach Us About AI? Training "Philosopher Builders" with Brendan McCord of the Cosmos Institute

2024/12/14
logo of podcast Joe Lonsdale: American Optimist

Joe Lonsdale: American Optimist

AI Deep Dive AI Chapters Transcript
People
B
Brendan McCord
J
Joel Lonsdale
Topics
Brendan McCord: 我认为人工智能正在成为我们社会的操作系统,它深刻地影响着我们的生活。我们必须认真思考如何避免人工智能带来的潜在专制风险,并确保它能够服务于人类的自由和繁荣。自动化在一定程度上是好的,但过度自动化可能会导致道德沦丧,就像历史上的集中营警卫一样,他们逐渐放弃了自己的道德判断。因此,我们需要在自动化和保持人类自主性之间找到平衡。 Joel Lonsdale: 我认为哲学对于理解人工智能的挑战至关重要。那些构建人工智能的人往往缺乏哲学基础,这可能导致可怕的未来。我们需要培养“哲学家建造者”,他们不仅具备技术能力,还具备深刻的哲学思考,能够理解人工智能对社会的影响,并确保它能够服务于人类的福祉。我们应该鼓励对启蒙运动价值观的理解,以避免在解决社会问题时犯下根本性的错误。

Deep Dive

Shownotes Transcript

人工智能对我们来说提出了一个非常有趣的挑战,因为它正在成为许多事物的操作系统。现在已经有许多行业,人们20%甚至50%的时间和行动都在某种程度上受计算机支配。计算机通过观察一切,了解正在发生的事情,非常强大,它会建议下一步该做什么。我们

我们正在为我们的文明创造这个控制层,我们将更多地遵循它。这本质上是专制的吗?有没有办法避免专制?我们该如何思考这个问题?这是最有趣的问题之一。所以有一位名叫阿尔弗雷德·诺思·怀特海的数学家说过,衡量文明进步的标准是我们能够在不思考的情况下进行多少重要的思维运算。因此,一方面,我们应该自动化很多事情。另一方面,历史给了我们一些自动化过度的情况。♪

苏格拉底说,未经审视的人生是不值得过的,哲学对我们自己的生活很重要,但这不仅仅关乎我们自己。我们的世界正处于人工智能变革之中。我们的文明在未来20年有很多可能的发展方向。而且,你知道,我们生活的本质不仅仅关乎我们自己。

我们自己的现实和经验将发生巨大的变化。而构建这一切的人,许多人缺乏哲学基础。有很多非常可怕、非常糟糕的想法,可能会导致非常反乌托邦、非常专制的未来。与此同时,如果我们把哲学搞对了,如果我们把这些思想的基础搞对了,也会有很多令人惊奇的事情会彻底改变世界,使我们所有人受益。我的朋友布兰登是一位非常成功的企业家,在人工智能、国防和保险等许多领域都有很多工作经验。在取得巨大成功之后,

他真正开始花时间研究哲学。他创立了宇宙研究所,以帮助培养哲学家建设者。我们将从社会上挑选一些我们最好的建设者,我们将挑选那些计划成为建设者的人,并确保他们拥有哲学思想,以理解我们作为文明将面临的挑战,理解我们的文明今天蓬勃发展的原因,以及西方为什么如此成功,以及如何在帮助每个人繁荣发展的同时保持成功。欢迎来到美国乐观主义者。非常高兴今天能邀请布兰登·麦考德来到这里。布兰登,感谢你的加入。-是的,很高兴来到这里。

布兰登,你是宇宙研究所的创始人。你是一位企业家。你是一位哲学家。你认为自己是一位哲学家吗?有抱负的。有抱负的。我喜欢。你去了麻省理工学院,哈佛商学院,哈佛商学院。首先,跟我们说说你的背景,你的创业历程吧。你很快就建立了几家保险公司,然后把它们卖掉了。你实际上,你买了很多东西,并用人工智能修复了它们。是的,没错。所以我在麻省理工学院毕业后的职业生涯是从潜艇开始的。这是一个非常不传统的开始。我在水下待了610天,大部分时间都在北极冰盖下。哦,天哪。

做事情。610天,不是一次性完成的,但连续多少天?所以从看到阳光到看到阳光最长的时间是66天。610只是加起来的总数。这太糟糕了。没那么糟。我听说有些人的旅程是五个月,但66天是很长的时间。而且是从看到太阳开始算的。即使是通过潜望镜。我听说你的Spotify在30天后会关闭。Spotify的生菜会坏掉。人们没有意识到很多东西,鸡蛋,牛奶。所以你最终会转向粉状的东西。它

相当粗糙。所以你只有两三周左右的新鲜食物,然后你就崩溃了。是的。宝贵的10天。没错。但这,我认为这是因为我有一种强烈的愿望去做公共服务,比如以某种方式帮助人类。通过潜入冰盖下的水下。通过潜入冰盖下的水下。这就是它的转化方式。我出来了

然后我开始考虑创业。当我出来的时候,是2012年。所以人工智能刚刚在ImageNet上击败了人类。大约12年前有一些重要的突破。远在ChatGPT之前,但这是一个重要的转折点。所以,对的时间,对的地方,我开始做人工智能创业的事情。我最终回到了部门,因为我听到阿什·卡特说,国防部必须认真对待人工智能。大约是在那个时候。所以做了非常有趣 的开源项目。

非常有趣的用例。Maven,与谷歌在Maven上的努力,也应用了第一个在扑克中击败人类的人工智能。一对一无限注,针对朝鲜半岛上这个非常紧迫的问题。然后最终被部长和副部长要求为该部门制定人工智能战略,并试图组建一个应用版的DARPA。你在Maven工作的那几年是哪几年?是的。

那是2017年。那是谷歌说不之后吗?不。所以我参与得相当早。我记得我第一次来到五角大楼的时候,你知道,正在进行简报。我想埃里克·施密特是第一次了解Maven。顺便说一句,埃里克完全支持国防。好人,非常支持国防。但谷歌本身却退出了。他们确实退出了。所以我经常会去谷歌,而且我的证件就像我是谷歌员工一样。

但我为政府工作。我是一名HQE,我和他们的AI团队一起工作,我们正在处理反IS的事情。在我离开之后,在我退出项目之后,我们在阿富汗部署了它,大约有4000人聚集在一起抗议谷歌的参与。所以在我退出之后,它就成了一个大问题。所以你错过了谷歌退出,帕兰蒂尔进入的整个事情。是的,没错。我的意思是,我看到了。

我目睹了这一切,但那时我已经离开了项目。到那时,你已经继续前进,然后在2019年左右开始创业?是的,没错。然后我开始创业,因为我已经看到了谷歌在内部做人工智能、构建人工智能系统和使用人工智能方面有多么出色,

我认为,好吧,大多数公司,大多数经济体都不是那样的。我认为成功的秘诀是筹集大量资金。让我们收购这些公司,然后让我们改变它们。所以我与刚刚出售传奇公司的人合作。嗯,这是一个宿醉般的夜晚,托马斯·托尔斯。是的。是的。

和伯克希尔·哈撒韦的外部律师。这是一个永久性资本工具。我们收购公司,使它们变得更好,我们为投资者带来了数十亿美元的回报。-托马斯·托尔斯,一位朋友,他是一个聪明人。-是的,是的。然后在那之后,你知道,我们正在考虑在保险方面做什么,购买公司没有意义。所以我们在奥斯汀从零开始创建了两家公司。

然后很快就卖掉了。正如你提到的,我们发展得非常快,我们拥有令人难以置信的人才,把它们卖给了一个巨大的保险平台。然后哲学就开始了。在那之前,它并不是真的- -现在你赚了很多钱,你停下来了,你在想,我必须如何回去,以不同的方式为社会而战?-是的,我有了第二个孩子,这很重要,因为我一直在想,我应该为这些小家伙树立什么榜样?你知道,他们进入的是什么样的世界?所以我开始每天在把他们放下后读15分钟,然后变成了每天三四个小时。

我有一个非常好的导师,迈克尔·斯特朗,你认识他,他给我写了一份17页的带注释的教学大纲,从古代开始,一直向前推进。它只是接管了我的生活。

我得到的第一个见解是,像我这样的人还有很多,他们是科技企业家,学习的是STEM或商业或其他什么专业。但他们并没有真正理解现在世界上正在发生的事情的哲学基础。没错。没错。所以有人把我介绍给了泰勒·考恩,我们一起制定了这个奖学金项目,试图让真正优秀的企业家阅读亚当·斯密的著作,你知道,阅读孟德斯鸠的著作。它被分解成,他们可以阅读关于市场,关于政府的性质和局限性,以及关于

自下而上的问题解决如何在社会中发挥作用。这非常重要。碰巧的是,我有很多关于这些书籍和哲学的背景知识。如果你环顾四周,你会看到所有这些来自18世纪启蒙运动的旧东西,我对此很着迷。这对我来说是最令人沮丧的事情,因为我们的朋友会赚很多钱,他们对这些启蒙价值观一无所知。然后他们试图运用一些东西来修复我们的社会,而这些东西完全忽略了它为什么能够发挥作用的智慧。是的。好吧,我认为如果你尤其是在人工智能实验室,如果你是在人类中心论的开放式人工智能,

你面临的问题越来越多的是非技术性的,而非商业性的。我的意思是,你肯定仍然有这些问题。你肯定仍然有这些问题。但杰克·克拉克,他是宇宙的创始成员之一,他与人类中心论共同创立,他在他的通讯中写道,你越认真对待人工智能安全假设,你就越愿意实施严厉的反乌托邦措施,包括轰炸数据中心,对吧?这是他的说法。

对我来说,这说明了这种第三种问题,即安全与进步之间的这种张力,对吧?这不是一个技术问题。这不是一个商业问题。这个问题属于哲学的范畴。而更好地探究这个问题,我认为,你知道,人工智能研究人员越来越需要这样做。所以你创立了宇宙研究所。宇宙研究所是什么?是的。

所以我们正在尝试,我们是一个学院,试图培养这些哲学家建设者。所以我们认为这是一个关键的原型,我们需要它。我可以,你知道,我认为你会欣赏历史方面的东西,因为,你知道,你了解并思考很多这些角色。所以我的论点是,每当发生技术革命时,你都有两种选择。你要么为自由而建设,要么看着别人为控制而建设。我会给你举一些例子。所以美国的本杰明·富兰克林,

他建立了一个图书馆和独立出版商的网络,利用印刷术的创新实现了传播知识的民主理想。与此同时,你还有约瑟夫·戈培尔,他利用印刷术将其变成了一个大规模操纵的系统。展望工业革命,你会有像亚当·斯密这样的人,

理论化市场,创造广泛的繁荣。你有苏联人利用工业技术,将其扭曲成一个经济统治的系统。最后,在互联网革命中,你会有像蒂姆·伯纳斯-李这样的人,他们将去中心化嵌入到万维网的技术结构中,给我们一个表达自由的开放互联网。而中国则建立了伟大的防火墙和

社会信用体系,创造了这个顺从和控制的网络。这显然是当今与中国,可能与人工智能的一个巨大挑战,对吧?所以人工智能,我想你是在假设,是下一次重大的技术革命。我认为我们现在在未来几年将花费一万亿美元用于人工智能。我想有一个问题是,中国的愿景还是其他愿景会赢得这场胜利,对吧?没错。是的,我认为这将是人类有史以来进行的最大规模的基础设施建设,我认为。我认为你可以这样论证。我认为我们将在2030年代初达到一万亿美元。

中国带着其技术专制和控制的愿景而来,这是一个非常容易输出的愿景。它可以传播到世界其他地方。我想担心的是,如果我们不小心,这里的人也可能会这样做。这里的人,非洲的人。我的意思是,这是一个非常诱人的愿景,对吧?如果你把人工智能与技术混淆,

政治,那么你就有令人难以置信的控制工具。马克·安德森,如果你最近观察的话,他一直在谈论前政府似乎试图选择几个赢家并以此方式控制它,并使事情集中化。是的。好吧,我认为有趣的是,你有很多不同的冲动导致了相同形式的自上而下的控制。所以有些人从

就中国而言,它明确是一个控制目标。-明确的专制。-是的,但有些人对安全有真正的担忧,他们认为我们将毁灭人类,而他们基于此的处方是,我们应该有一个世界政府。

而这与专制主义的解决方案是一样的,它是一种专制主义的载体,并以完全不同的方式邀请专制主义。也有一些人真的想关注公平的特定概念。所以你想关注物质平等,他们认为人工智能可能会打破这种平衡。因此,我们需要一个自上而下的系统来重新分配财富。-他们想要一个最终是专制主义的系统,因为他们想要自上而下地将他们对世界的看法强加于其他人,基本上就是这样。

让我们回到世界政府这个问题上来,因为这是一个巨大的争议点。我认为对于许多左翼人士来说,许多人似乎想要强加给我们,似乎想要朝着这个方向努力,并强迫我们进入这些全球性的框架,以剥夺我们的自主权。显然,对于我们许多相信社会应该自由并自下而上运作的人来说,这是最糟糕的事情之一。我们会努力阻止。像启蒙运动中,或者最近关于世界政府的想法是什么?因为它在很多工作中经常出现。

是的。这里的一个例子是,当阿莱克西斯·德·托克维尔在1830年代或1830年左右来到美国时,他去了新英格兰的城镇,他看到的东西与他在巴黎看到的东西完全不同。巴黎非常中心化。当时的巴黎政府控制着法国。在美国,新英格兰的城镇,你看到了完全不同的东西,那就是自下而上的人们自发地联系在一起解决问题。他们需要一座桥,他们就去建一座桥。

这是一股令人难以置信的能量释放。托克维尔认为这非常重要。他认为它重要的原因不仅仅是因为它的活力,还因为他认识到,尤其是在民主国家中,个人是弱小的。个人与国家之间的对抗并非公平的竞争。如果你是一个严肃的贵族,也许你还有机会,但在民主社会中,个人是弱小的。

他们相对于其他力量,例如多数人的意志,也是弱小的。因此,托克维尔说,必须要有去中心化和来自底层的活力,这样他们才能抵御这些强大的力量。如果他们不这样做,那么他们最终将面临侵犯。它最终将成为他所说的软专制。

我们可以谈谈这个。最近,我认为关于这个问题最有趣的辩论是利奥·施特劳斯与科吉克之间的辩论。他们谈到了这一点。我只是想让听众去查一下。但如果你想了解世界政府或普遍同质的永久暴政的概念,施特劳斯-科吉克辩论可能是最好的

学术文章。因为这件事总是作为极左翼的默认选择出现,我认为这非常可怕,并且与很多事情都有联系。你知道,我想问你一下专制主义和控制的问题。既然你花了大量时间研究哲学,你知道,人工智能对我们来说提出了一个非常有趣的挑战,因为它正在成为许多事物的操作系统。现在已经有许多行业,人们的

时间和行动在某种程度上受计算机支配。计算机通过观察一切,了解正在发生的事情,非常强大,它会建议下一步该做什么。在一些非常先进的医疗保健领域,这可能正是你想要的,那就是让计算机更聪明,并展示......你可以选择退出,但在很多情况下,你可能会按照它的指示去做。所以在某种意义上,我们......

正在为我们的文明创造这个控制层,我们将更多地遵循它。我的意思是,这本质上是专制的吗?有没有办法避免专制?我们该如何思考这个问题?是的。这是最有趣的问题之一。所以有一位名叫阿尔弗雷德·诺思·怀特海的数学家说过,衡量文明进步的标准是我们能够在不思考的情况下进行多少重要的思维运算。那么他在说什么呢?好吧,他在说我们应该卸载。

他在说卸载是好的。例如,我今天早上醒来,我把牙刷塞进嘴里,这并不是因为我对口腔健康有第一性原理的推理。你可能只是默认地做某些事情。你默认地做某些事情。而且,这使你能够思考其他事情。就像它建立了文明的大厦一样。因此,一方面,我们应该自动化很多事情。

另一方面,历史给了我们一些自动化过度的情况。普通人,那些没有极端邪恶的人,你知道,他们没有从事积极的恶意行为,他们变成了集中营的看守,因为他们逐渐地,你知道,一点一点地将他们的道德思考外包出去了。只是随波逐流。没错。所以让人们替我们思考,

可能会非常糟糕。所以这引出了一个非常大的悖论。就像斯图尔特·米尔的一句名言,通过与他人进行比较来纠正和调整他的观点。所以就像有些人,他们只是,他们只是自动地去思考其他人都在想什么,对吧?是的。我认为米尔有一个非常敏锐的观察,那就是我们倾向于被动。就像,

人脑依靠葡萄糖运作。葡萄糖的数量是有限的。我们天生就倾向于被动。所以人工智能提出了这个非常有趣、险恶的问题,它非常好,因为它可以合理地卸载一切,但它很糟糕,因为它引诱我们放弃越来越多。所以我思考的一件事是,让我们把它变得实际一些。我认为我们想要避免哪些模式?其中一种是像生活中的自动完成一样。就像你

就像你熟悉自动完成一样,你写,你会得到另一个词。就像我不希望这出现在生活中的一切中一样。这是人工智能的一些可怕之处。它可以建议下一步该做什么,对吧?是的。你有孩子,就像我相信你的孩子在使用人工智能时会积极地与之互动一样。我们实际上并没有使用很多屏幕,因为我有点害怕与它们的互动。就像什么,你知道,我现在看到的很多人工智能设计就像,

在某种意义上是一种药物,对吧?因为基本上它试图用多巴胺来刺激你的大脑做某些事情,而这些事情是平台的目标。我愿意冒着自己使用这种人工智能药物的风险。我还不愿意让我孩子冒险使用这种人工智能药物,直到我知道更多关于它的信息。也许这有点太谨慎了,但这就是我看到的时间。所以我认为每个有孩子的父母都能真正理解这一点。我还想到另一件事,那就是,

假设你去一个新的城市,好吗?今天,你可以得到一个餐馆、一个社区、一个酒吧的推荐,这些都符合你的能量。就像,你知道,它今天或者下个月就可以做到,对吧?但让我们更进一步。假设它可以根据她的心理特征、她的家族史等等推荐完美的约会对象。然后更进一步,假设它可以编排你应该什么时候讲童年故事?你应该什么时候表现出脆弱?你应该什么时候凑近亲吻?然后想象一下这就是你的一生。

当我这么说的时候,这将是可怕的。所以是的,就是这样。就像你感到一阵寒意,对吧?你感觉,就像,你不知道为什么你不喜欢它,但我认为如果你这样做,我的意思是,有些人可能会认为这是最佳的。我遇到过一些人,他们认为他们只想被告知确切的内容和时间,这是一种非常,我不知道beta是否合适,但这就像,这是一种非常谨慎的生活方式。我认为这是NPC或绵羊,对吧?就像非玩家角色,NBC非玩家角色的东西,类似这样的东西。

但这很可怕,因为普通人可能就是这样,他们确实想被领导。好吧,所以我希望这样的例子能够让我们摆脱这种困境,并说,看,我们坚持住了。我们需要坚持住这个宝贵的自主权的概念,也就是说,个人根据自己对善的理解进行思考和行动,而不是被他人胁迫。换句话说,不被他人利用。对。

人工智能非常擅长控制选择架构。我们现在已经在世界上面临的简单形式是社交媒体,因为我们很多人,很多人每天花四、五、六、七个小时,甚至更多的时间在这些事情上。而且,你知道,斯图尔特·米尔还有一句名言,对不起,我引用他,因为我当时正在尝试阅读它,是为了这些事情。但是,你知道,他知道自己这一方的论点,你知道,他甚至对那一点了解甚少。如果你只知道自己这一方的论点,你实际上是知道的。它来自西塞罗。他实际上是从一个方面引用的,这真的很酷。这是有道理的。

所以,你知道,在某种程度上,人工智能带你前进,它也把你困在一个泡沫里,我认为现在成千上万的左翼和右翼人士都在发生这种情况,因为基本上你在你的泡沫里更快乐。顺便说一句,我不在我的泡沫里快乐。我真的很喜欢去,我的意思是,有时这会让我害怕,但我去了Reddit的极左翼,我去其他地方,我想被挑战。我想看看人们在谈论什么。我想理解,你知道,蓝天上的其他想法,尽管那是一个有毒的地方。但是,你知道,看到它很有趣。

即使我在Twitter或X上花费更多的时间,显然是这样。但人工智能是否会根据这些NPC的偏好自然地让我们停留在我们的泡沫中?是的,我认为今天就是这样运作的。而且正如你所说,你要么得到一种贫乏的回音室,你无法接触到这些广泛而多样的观点,这意味着你无法接触到。这不是寻求真理。它实际上不利于理性发展。我的意思是,米尔在《论自由》的第二章中提出了一个令人难以置信的论点,即

即使是错误的观点,即使接触到非常错误的东西,这也是拥有对什么是正确的生动印象所必需的。-是的,因为它可以帮助你纠正它,并帮助你理解。-没错,你知道,如果我说,嘿,乔,我认为所有价值观都是相对的。你知道,我认为这是,你知道,你会被击中,你会不得不制定,这对你来说是好的,这对你是有益的。-你不想保护人们免受愚蠢的想法的影响。你想与他们互动。-你不想。而我认为另一件令人担忧的事情是,

它可能会创造一种哈哈镜文化,每个人都有一个自我策划的现实,即使不是问题,也很方便,理想的是,人工智能让你只为自己个性化一个非常复杂的现实,这让你感觉安全,它确实会。不过,我会说还有其他方法,比如挑衅性人工智能是一个非常有趣的想法,我们现在正在考虑一点,那就是,人工智能如何挑战你?人工智能如何像

让你以你无法理解的方式走出你的舒适区。有多少人选择这样做,选择这种非常柔软、美好的世界?是的,所以这取决于,对吧?就像,所以当你使用彭博终端时-

你实际上是想优化决策质量。当你晚上滚动浏览时,你处于参与模式,对吧?那么这告诉企业家什么呢?好吧,它可能会告诉他们,首先关注那些决策质量真正重要的市场。有趣。所以实际上,实际上有一种专业需求需要做出好的决策,需要了解世界。这就是你会让人们参与更健康领域的地方。

我认为这是对的。我怀有这种乐观的希望,它可以向下渗透,实际上,你可以展示更好的决策质量,我们可以解决参与度问题。这样做并不一定感觉很糟糕。它不必让人感到痛苦。就像,

苏格拉底式的,你知道,辩证法实际上感觉相当有趣。它感觉很难,但如果你做对了,这是一种幸福的体验。我希望这能够向下渗透。我想跳到高层次,向人们介绍现在主导人工智能论述的各种方法,对吧?所以有,我认为你定义了这些,有末日论者,有加速主义者,

我认为有一些监管者,还有一些技术权威主义者,还有一个四项清单。那么你对每一个的看法是什么?首先是末日论者?好的。所以这是最......这是实践者群体中最常见的......最主要的哲学。它是一种披着三件外套的哲学,但它们都非常纠缠在一起。一个是有效利他主义。一个是理性主义。一个是长期主义。所以你可能会听到这些术语,但你可以把它们放在一起说,这些就像末日论者。其要点是......

人工智能可能对人类构成风险,我们应该暂停。这有点像奥本海默,他知道自己创造的东西的狂妄自大。是的。或者你可以说这是一种悲剧性的普罗米修斯主义,就像我们从神那里得到了火,现在我们后悔了,诸如此类。因此,这个学派倾向于遵循......人们因为我说这个而生气,但这实际上是很多人思考问题的方式,即使是极小的灭亡概率

乘以负无穷效用等于负无穷效用。我觉得这是埃隆对它的评论也是如此。他,嗯,所以埃隆,我认为,是一个有趣的人,因为他......

从这个立场开始。然后我认为他转向了对......的更积极的看法,你知道,星际生活和那些。好吧,他本身就是一个加速主义者,他所做的一切,但他心中也意识到这种效用,这很可怕。这是一个非常数学化的命题。它吸引那些认为......的人,

推理与贝叶斯统计相同,或者道德可以简化为可以优化的货币,告诉我更多关于詹姆斯·塞耶斯的不道德之处

好吧,我的意思是,关键前提是道德问题可以简化为一种叫做效用或共同货币的东西。这是我将拒绝的东西。换句话说,我认为内在的不道德在于你有一堆无法衡量的好的东西。它们无法计算,例如勇气,你知道,战斗中的勇气,家庭的爱,宗教的遵守。你怎么计算这些东西?你不能。它实际上是尖锐的异质商品。

我认为因为你不能这样做,所以很多这些人采取的回避策略是说,好吧,我们真正关心的是人类的生命。我们只关注人类的生命。事实证明,除了单纯的生命之外,我们还应该关注许多其他人类的福祉。是的。我们不想进入矩阵。是的。所以就是这样,所以我拒绝这些,这些前提。另一件事是......我们非常不擅长预测未来。像

汽车出现了,然后它引发了性革命。谁预测到了这个?当你有复杂的社会技术系统时,很难预测。你可以相当可靠地预测......

就像缩放定律一样,你增加一些计算,你就会得到一些性能。这是一个狭隘的技术预测,但随后在一个更广泛的社会技术系统中进行预测,这是不可能的。所以这个群体我认为具有非常低的认知谦逊。让我们来看看加速主义者。这通常被认为是一件好事,但我认为......我认为你说这些人正在推动......像人工智能至上和创新,而没有考虑人类繁荣的一些细微之处。你这是什么意思?是的,我认为......

乐观的作用,市场的力量,我认为我完全同意这一点。我认为他们做对了。我认为很多时候这是一种对末日系列的反应,我们将......这是坏的,所以让我们加速,不要让这些人阻止我们修复问题。这就是它的来源。但是他们错过了什么?好吧,我认为他们正在采取这个想法,我现在指的是更正统的加速主义者,嘿,人类生活始于某种方式。它开始是因为......

我们自发地进化出吸收和利用能量的能力。我同意这一点。我认为这是一个公平的,这是一个合理的解释,说明人类生活是如何开始的。因为它以这种方式开始,逻辑认为,这是最终的衡量标准。我们能够

作为一个文明吸收和消散能量。这就像一件古怪的事情。是的。所以它变成了......最终的目标几乎是人类生命的最终目标是一种技术进步,或者是在利用能量方面的进步。

我认为这完全混淆了手段和目的。我认为技术是人类繁荣的不可思议的工具,但我不知道。我们确实想要成为更高层次的文明汽车。这可能非常好,因为它给了我们更大的目标。我们想要,我们想要更好的技术和更好的能源。我同意所有这些。但要说这是人类生命的最终目标,这是我们努力的方向,这会给你带来这种阴险的结论,那就是......我们应该把接力棒交给

如果可以的话,给这个更高、更好的情报。换句话说,就像......是的,这很可怕......没有我们应该内在地捍卫的人类福祉。你想成为这个的一部分中亲人类的。还有什么其他的东西会从那里面出来?比如,除了我们应该考虑的之外还有什么其他的目标?我们应该考虑的。所以其中一个,所以一个是......你面向什么?你的北极星是热力学,还是你的北极星......

人类繁荣的概念,我认为这意味着发现和发展一个人的独特天赋,然后利用这些天赋来......

成为你想成为的人。所以它一部分是亚里士多德式的,一部分是个体主义的。这就是人类繁荣的概念。你说亚里士多德式的,它让我想起......就像使用......就像......就像处理更复杂的问题,就像使用你更高的能力来......参与和做好事。使用你更高的能力去做那些处于等级顶端的事情。当我想到的时候,这是一个非常有用的框架,那些不做哲学的人有时不会遇到,但是......

很多时候我们做某事是为了另一件事。比如我们赚钱通常是因为钱是达到其他目的的一种手段,对吧?——所以加速必须像为了自身利益赚钱的人一样。这几乎就像......——为了自身利益,是的。——如果你不小心的话。——但是你可以沿着这个因果链一直走下去,在顶端出现的是我们为了自身利益而做的事情。这就是像沉思这样的东西,对吧?

对吧?我们为了它本身而做。它就像最高的善。那么,这个人类繁荣的定义想要你做什么呢?它认识到你作为个体拥有独特的天赋,你对这种善的定义也是你自己的,但是针对你最高的善的发展和追求卓越是我们应该促进的事情。好的。如果,如果你相信这一点,那么有一些事情往往会促成这一点,或者像因果有效的。一个是理性的使用,对吧?而且,

你和我可能会对最终的善是什么有不同的意见,对吧?但我们两人都必须在某种程度上运用理性才能达到那里,对吧?我们必须考虑各种选择。我们必须考虑鉴于我们对什么是好的的理解,我们今天应该做什么。所以我们必须保持理性。

正如我们之前谈到的那样,趋向于被动,就像这会萎缩一样。所以这是一件事。另一个是自主性,也就是说,我们必须能够......你知道,进行这种思考,然后付诸行动。我们不能被......你知道,某个政府胁迫去做别人的事情。你知道,我们必须能够尝试追求幸福,你知道,而不是获得它。

然后第三个是抵抗中央控制的系统。就像必须有这种分散的能量释放,才能让我们保持那些受保护的领域。所以我会说,这是我们需要保护的三个人类福祉的例子,而很少有人在人工智能领域考虑这些。——特别是去中心化,我认为这是人工智能人员非常不擅长理解的事情。——是的,我的意思是,我看到了一些有趣的希望,比如......

最近Prime Intellect进行了一次巨大的去中心化训练运行,这表明每个人对人工智能只是一个中心化事物的假设可能是错误的。我希望实际上存在这些从架构上出现的替代方案。

但我同意,就像在大多数情况下,人们已经决定人工智能是一件需要中心化的事情。是的,彼得·蒂尔总是认为它是一种亲权威主义的事情,它会导致更多这样的事情,我希望这不是真的。我看到一些最聪明的人,比如谷歌有一个联邦学习团队。我认为他们仍然这样做。有一些像这样的杰出人才,他们正在考虑替代方法。我举了一个例子,在电信领域,

过去的情况是,你家里的每栋房子都有扭曲的铜线。所以在那个时代,人们就像,哦,他们将成为所谓的自然垄断,对吧?但是无线技术出现了,无线技术改变了一切。所以我告诫人们不要......

把当前的架构假设作为既定事实,事情可能会改变。好吧,这很有趣。你也可以拥有一个自然垄断,而它也不是专制的,对吧?因为,因为,但这取决于这项技术是否赋予亲自由或反自由。完全正确。我甚至,我甚至用引号括起来,因为先验地,你不知道一家公司应该有多大。所以我不喜欢人们谈论......大公司与......相同,他们并不一定像那样侵犯自由,那......

大公司很好。我认为你必须同时对抗大政府和大公司的力量。我就像,我是一个自由主义的孩子。我非常担心大政府,但现在我担心两者,因为我认为两者都很强大。但我认为你,你必须,我更不像关注......反击的可能性。我宁愿关注......大公司实际上......嗯......

是的,确保某些事情确实很糟糕,是什么?我认为联邦贸易委员会刚刚改变了重点,更多地关注这种方式,而不是......先发制人地骚扰我们,是的,这可能很好,说到先发制人地骚扰我们,监管者是第三个,所以我们有末日论者,我们有加速主义者,我认为这个第三个领域是这四个领域中智商最低的领域,即监管者......基本上是用规则来回应每一个挑战,这些规则只是提前扼杀了新事物,实际上有一些......民粹主义的

对的人。所以这主要是一件左翼的事情,对吧?但实际上,即使在德克萨斯州,也有一些民粹主义的右翼人士真的想为人工智能创建一个监管机构,这就像......这就像......似乎他们都没有读过哲学,或者不理解......我们试图在右翼所做的事情的全部目的,比如现在去监管,摆脱这些东西。但是,但是告诉我关于监管者的事情。是的,监管是监管者所做的事情。但是我,我,

我认为很多时候甚至没有讨论是否应该进行监管,或者......你知道,机制或具体的规定是否会被争论。但我的意思是,你可以考虑

如果你关心......让我们说,保持我们的安全,你可以采取的不同模式。现在总是采取的模式是你做这个叫做事前监管的事情。所以你这么说,在事件发生之前,我将制定一套规则,以防止坏事发生或减轻坏事发生。所以你说诸如......好吧,如果10的26次方,你知道,你对它设置一些计算阈值,然后你说,让我们在那里设置一个规定。

另一种方法是事后,你允许系统与世界接触。你接受一些风险,然后你从中学习。为了让它......你知道,更清楚一点,我会说普通法就是这样运作的。所以普通法,它可以追溯到《大宪章》,并且是英国传统的重要组成部分,是......

发生的事情是,小的纠纷和冲突发生了,然后被裁决,它们像拼字游戏一样添加。所以你有一套核心法律,这些法律来自经验,然后你像拼字游戏一样添加,创造更多法律。这意味着法律体系非常进化和适应性强。

与来自顶部并说......你知道,我们应该这样做的那种成文法或民法相反。它更像是法国的传统。它来自拿破仑法典。它也来自罗马人。但是是的,在复杂的情况下,它非常非常有害

社会技术系统。好吧,仅仅因为你不知道什么将是可能的。就像德克萨斯州的这些人一样,他们正在运行潜在的法案,这就像......我们将禁止任何类型的人工智能来......操纵你的情绪或给人们打分。我说,从高层次来看,这听起来不错,但你没有意识到......内部的评分系统甚至意味着什么?为了更好地服务你并变得更聪明,它需要跟踪关于你的事情,对吧?这就像......

这就像完全误解了与创新互动的方式。是的。它会出错,而且总是会出错。就像我们不可能回到过去说,并且能够制定有意义的法规一样。完全正确。想象一下,在工业革命之前,你试图指定你不想做的事情。它只是,它只是,它只是,我们不会在这里有创新。它会在其他地方。是的。

所以我认为......我们过去一直是普通法主导的,直到20世纪20年代,然后它发生了变化。现在,你知道,我们倾向于使用我们的行政机构和立法系统来制定这些规则。这就是整个讨论所在。所以我希望人们能够参与进来,并改变

道格·金斯伯格是一位关于这个话题的非常好的思想家。他是一位......你知道,哥伦比亚特区巡回法院法官,但我没有看到很多对事后风格的适应性法规采取原则立场的人。我认为这就是你想要用这个系列来支持的东西。我认为我们将参与进来,并摆脱......

大量的法规,它根本没有任何意义。联邦层面有数百万条命令。我希望我们能够在下届政府中摆脱很多。是的,是的。而且,如果我可以为他们推荐一本书的话,那就是理查德·爱泼斯坦的《复杂世界的简单规则》,因为我们系统所做的事情之一是它试图用法律或......来微观管理每一个极端情况

用规则,而爱泼斯坦说的是,他说,实际上,在复杂系统中最好的方法是有一套非常简单统一的规则,例如产权、合同法或侵权责任。这些东西比试图提出导致难以置信的复杂性的零散系统更善于适应。——希望也教给我们的德克萨斯州立法者这个框架。我们将确保给他们这段剪辑。也许还附上书,我很感激。所以我们有末日论者,加速主义者,我们有监管者,

例如欧洲人,他们正在禁止OpenAI,顺便说一句,对于最新的发布来说,这非常有趣。然后你有了技术权威主义者。这些人是什么?——这只是人工智能与政府的融合,能够......为权威主义者发挥权力。——这就像非政府组织与Facebook和拜登政府一样,试图为社会制定许多规则。是这样的......——可能是这样。我的意思是,最......最明显的例子是中国。只是中国共产党与人工智能

提出了社会信用体系,提出了令人难以置信的控制系统,导致了长期的顺从。它

就像它实际上......我认为,让人们习惯于顺从。所以它是一种保持权力的方式。顺便说一句,如果我要......尝试对德克萨斯州的监管者进行钢铁人式的辩护,他们想要阻止技术权威主义者。我认为他们好的方面可能是,哦,去死吧,这些人。他们将试图这样做。我们必须以某种方式在德克萨斯州创造一些东西来反击。所以如果我想对这些人进行钢铁人式的辩护,而不是......以愚蠢的方式监管创新,但他们不想与技术权威主义者作斗争。你如何作为一个立法者来对抗?当然。你如何在美洲对抗技术权威主义?我的意思是,我认为......我认为拥有非常有限的......我的意思是,不像利用人工智能作为机会来为政府争取更大的权力是一件大事。不要用监管国家或政府创造更多的权力。是的,我的意思是......

人工智能触及一切。因此,人工智能监管是政府权力的一种独特载体。让我们假设在华盛顿特区某处,某人在某个时候会对公司和人工智能做些什么。国家如何反击?你考虑过这个问题吗?我还没有真正考虑过。你知道,我看到过,但我很好奇你的想法。我的意思是,我,

我没有考虑过州和联邦的动态。除此之外,绝大多数州都非常热衷于监管,并且想要提出700多个不同的版本。这个拜登非政府组织召集了200名州立法者,包括来自红州的立法者。它是由......比尔及梅琳达·盖茨基金会赞助的。我相信它是由其他一些人,比如CZI赞助的。他们试图让他们创造这些人工智能监管者,我认为这与安全主义有关。我认为这与末日论者有关。我认为它有一些技术权威主义的偏见,这些人没有意识到。

这是所有错误的事情。我的观点是,如果州想要做一些事情来反击大型科技公司和人工智能,我认为你应该强迫更多的事情变得透明。因为至少,如果德克萨斯州的任何公司正在做的事情,

被政府或非政府组织强迫去做,他们应该告诉我们我们被迫这样做。就像这里有一个我们被告知必须采取的行动。这里有一个我们甚至没有被告知的行动。如果这里有一个我们被建议采取的行动,任何你甚至被政府建议采取的行动,由华盛顿特区,我认为我们都应该知道。很多时候他们并没有强迫他们。他们只是告诉他们,但他们感觉自己必须遵守。所以我感觉激进的透明度围绕着

任何联系,任何在任何政府和在这里运营的公司之间来回传递的东西。对我来说,如果我负责州政府,我会这样做,我会强迫这些人披露。我甚至可能会强迫他们披露其他事情,例如,如果你正在暗中封禁某人,如果你正在以某种方式淡化并降低他们的病毒性,无论是什么,如果你正在以某种方式关闭他们,如果你正在以某种方式取消他们的货币化,我可能会强迫你说为什么。

你为什么要这样做?过程是什么?就像,像强迫对这件事的透明度一样。大型科技公司会讨厌它。我认为这是德克萨斯州应该做的事情。所以不要,不要创建一个监管机构,只是要求。他们做这些事情,你知道,这是一件我一直关注的地方性的事情。我想知道你是否见过这个。所以,嗯,

怀俄明州的一位40岁男子最近竞选市长,他的名字是维克多,他作为ChatGPT人工智能系统的谦逊肉身化身竞选。所以他说,就像,我将竞选,因为人类可以竞选市长,人工智能不能,但我实际上只是会转过身去向人工智能寻求答案,对吧?他没有获胜,但是

但我认为这很有趣,原因有几个。一个是它可能是预言性的。就像我们可能会有担任统治职位的人工智能一样。有一本关于这将在2040年发生在总统身上的伟大的硅谷书籍。是的,对我来说,在某些方面它非常可怕。这超级可怕。另一件有趣的事情是为什么我们觉得人工智能可以统治?

就像,是什么让我们在心理上认为人工智能拥有某种统治权或拥有某种公正的专业知识?因为它确实有这种氛围,对吧?我甚至问我孩子,我就像,我问我的孩子,你知道,如果你有一个人和一个人工智能,你问这个问题,哪个是对的?她说,人工智能,当然。我说,如果你有两个AI呢?他们问了这个问题,她说,好吧,我不知道。但基本上我们已经决定人工智能只是更好。

你知道,在某些事情上。我认为这是一个非常成问题的结果。特别是因为它现在根本没有融入哲学或原则。绝对没有。它不会推理。我的意思是,你知道,这是一个有争议的陈述,但是......你知道,人工智能人类繁荣的三大支柱,但是如果我们跳到那些,它就是理性,它是去中心化,而且......和自主性。是的,人类自主性。你通常在自主系统的背景下听到自主性,但是......

人工智能统治的想法对我来说非常可怕,但是......但是我想......我想有一些可能......有一些可能的未来,它就像内置了所有这些原则和哲学,它让你相信它就像这个具有哲学意识的智能一样,它真的令人印象深刻,然后你就像实际上是的,如果我们小心的话,我不介意让这个东西......拥有更多权力或其他什么,这甚至可能吗?是的,我的意思是,我认为有一些

有趣的方法可以将其纳入法律体系,在行政......你知道,在政治中的行为。甚至在监管系统中,也可能,如果它被正确构建或其他什么。所以我认为有一些有趣的方法,人工智能可以......审查案件是否存在系统性问题。我很想从人工智能那里获得我的许可证,就像在......10秒钟内一样。那太好了。然后如果你以某种方式搞砸了,你总是可以上诉。是的,绝对正确。但我认为,我的意思是,我倾向于认为有一些领域

特别是沉思,比如关于政治制度的基础,人工智能将无法做到。——因为它基本上是在模仿我们。——是的。我还认为,特别是,比如理性,这可能不会触及它是否能够做到这一点的问题。因为我认为它可能在某个时候能够做到这一点。

但是今天的人工智能系统不能很好地推理。我认为这是必要的,这并不是你在政治中经常看到的东西。就像你不会,政治不会。所以在地区,真理来自不同观点的冲突,就像......就像......人工智能没有用什么来做这个?所以我认为,嗯,

所以你有一些像OpenAI的最新产品O1这样的系统,它们谈论思考,你知道,谈论......推理作为一种中心属性。但是然后苹果公司发表了一篇论文,表明如果你进行微小的扰动,你就会将这些系统的推理分数降低大约65%。哇。所以它们对这些东西并不真正稳健。原因是什么?好吧,我认为原因是

人工智能研究人员并不真正知道推理是什么。所以他们所做的是知道它不是什么。就像他们知道它在哪里失败一样,如果它是在文本中寻找小的模式,或者它是在进行近似检索,或者它是在进行......你知道,任何数量不是推理的事情。然后他们采取这些,并采取一种归纳的方法说,嘿,推理是一个不那样做的系统。

所以它是轶事性的,是归纳性的。与此同时,有一种普遍的感觉,它应该做一些像卡尼曼所说的系统二那样的事情,即使他自己也不认为这个比喻完全成立,但它就像......它应该做一些深入的思考。我会说,需要对理性的积极理论进行更多工作,以允许人工智能系统做这样的事情。这是我希望它能做的事情,如果我问你一个问题,你产生一个意见,

那么你理想情况下能够做到的是产生一个对其他探测性问题具有鲁棒性的意见。换句话说,我不能问你这个问题和那个问题,以及那个问题,而你每次都切换,对吧?我问你这些问题,你已经考虑过了,或者你的立场对它很稳健。

AI目前还做不到这一点。——它几乎应该有一个功能,在回答之前自动问自己一堆问题,这样它就能保持一致性等等。——没错,所以我希望它能做到的是,你提出一个核心问题,我希望AI能围绕它规划出其他问题,就像,是的,你必须有一个答案,你必须已经考虑过这个问题了。

这就是它在现实世界中的运作方式。基本上,为了让它发挥作用,需要大量的上下文和上下文配对。所以我们有这些支柱,非人繁荣。比如,你将如何应用这些原则?目标是什么?你将如何努力实现它?好的,那么这里最重要的事情是,我谈到了富兰克林、史密斯和蒂姆·伯纳斯·李是如何在让技术向自由倾斜、远离控制方面发挥巨大作用的。

因此,由此得出的结论是,我们必须培养这样的人才。我称他们为“哲学家建造者”,这些人一方面愿意并且能够深入思考技术的最终目标,另一方面他们能够实际建造东西。我想想,我们的机构

今天是否培养了这样的人才?我说,没有。我说,比如,你从大学开始,对吧?我要做一个笼统的陈述。我非常支持奥斯汀大学,我认为这是一个例外,但他们培养的是狭隘的技术人员或墨守成规的思想家。科技公司培养的人非常擅长优化手段,但不擅长权衡目的。然后是智库,那些不参与建设的理论家。

所以我看看应该培养这类人才的主要机构,尤其是在我们最需要他们的时候,我说他们不存在。然后我说,好吧,我们该如何做到这一点?我们如何培养这类人才?

我认为部分原因在于教育。我认为需要开设一门课程,无论我们用什么说法,都能填补这一空白,如果你学习计算机科学或商业,这将为你提供一些哲学问题的支架。因此,你理解并掌握我的这种习惯。这里有一些教育,或者我们会做一个,我们在牛津大学做了一门课程,当我们讨论集体智慧时,我们阅读了穆勒和

然后我们还有Midjourney的集体智慧主管。我认为这种形式,你既能获得一些基础知识,又能获得一些前沿知识,非常强大。我的意思是,“哲学家建造者”的概念。是的。这与我们在大学追求的目标非常相似。我喜欢它。你知道,我很好奇,牛津大学,我会把它看作是充满虚无主义者和愤世嫉俗者的末日监管机构。你好像要进入野兽的心脏。你认为有机会改变其中一些人吗?是的。所以牛津大学有这个已经有千年历史的传统,你知道,像

约翰·洛克和亚当·史密斯,还有很多——那里有一些非常优秀的人,在18世纪。——那里有一些好人。——必须把它带回来,对吧?——但它通常对哲学来说非常好。第二点是,它是一个联邦制度,有点像,你知道,早期的美国概念,每个学院都有很大的独立性。因此,启动事物非常困难,有很多分布式复杂性,但是一旦你开始,就会有很多自由。

然后我认为另一件事是,你是对的,牛津大学是存在风险、有效利他主义的中心。有效利他主义来自边沁,通过辛格和麦卡斯基尔。这就像我们文明中的一种腐败,其中心就在那里。所以这是有问题的,但他们已经证明,这些学术理论有可能从学术界跳到科技界。

我认为有机会做到这一点,但要采取更广泛的,而不是狭隘的功利主义思想,而是更广泛的整合,更以人类繁荣为导向。我只是觉得那里的人喜欢拆毁东西。你真的可以在那里完成这件事而不会被他们消灭吗?我认为可以。我的意思是,我一生都在朝着这个方向努力。比如在国防部建立人工智能系统也是一样的事情。这是公平的。这是一个艰难的地方。但是,我充满希望。是的。

但这将是激进和不同的。我还认为,我必须努力建立牛津-奥斯汀轴线,因为我喜欢奥斯汀的地方在于,这里的企业家不怕在硅谷的正统观念之外进行建设。我认为这现在非常必要。在硅谷存在这些强大的模仿性泡沫,人们甚至没有真正意识到他们在忙什么,他们就像,

我所有其他的朋友都关心存在风险。我在,你知道,我担心,除非你能摆脱这个泡沫,否则你真的没有多少机会去建设。你需要一种局外人的心态来应对和解决这些问题,当然。对我来说,奥斯汀是完美的。因为在某些方面,它是一个局外人城市,但它也拥有这种深刻的技术文化和许多建设者。所以我们必须在这里做更多的事情,但我们正在做的其他事情是泰勒·考恩是一位创始成员。我知道他,你知道,他是一位传奇人物。是的。而且,

他的FastGrants项目真的很好,可以为年轻人和聪明人提供道义上的支持和经济上的支持。所以我们启动了它,它被称为Cosmos Ventures。我们支持这些激进的原型。它们真的很酷。它们包括游戏、模拟以及,你知道,市场转向测试。

然后我们在牛津大学有一个研究员项目,我应该说,我们在那里有最新的AI实验室。这是一个以人为中心的AI实验室。——太棒了。人们可以直接申请吗?——他们可以申请,是的。我们有一个叫做Cosmos Fellowship的东西。所以你可以申请,但基本上它就像一个从哲学到代码的模型。所以,大多数哲学系只是发表论文,而我们是从关于像

理性或自主权之类的想法一直到开源软件。所以你需要技术哲学家。你需要两者兼备。这就是,这就是,我喜欢这样。我们需要更多技术人员成为哲学家。如果他们想参与这项工作,他们可以在网上申请Cosmos。这只有在牛津大学吗?你在这里也做了一些事情吗?不,这里也有一些事情。所以,如果你是一个Cosmos研究员,你可以在许多不同的地方。嗯,你可以在奥斯汀这里做这样的事情。所以,我们正在2025年进一步发展这一点。

太棒了。好吧,我们创办了《美国乐观主义者》,布兰登,是为了反击我们国家中许多的犬儒主义和虚无主义。对于人工智能带来的乐观未来,最好的情况是什么?所以我考虑我们的认知基础设施,我们的

社会的知识创造和探究,我认为人工智能对社会的影响将远远超过穆勒或启蒙思想家所能想象的。所以我认为我们共同创造知识、在社会上进步以及推进科学或走向真理探求的能力,人工智能可以彻底改变这一点。如果制定了正确的政策和原则,10年或20年后世界会是什么样子?好吧,我觉得是这样的。我认为你可以让AI系统产生新的有趣的实验,创造......

你知道,对我们获得的实验数据进行有趣的解释。我认为我们喜欢逐个解决科学问题,并且加快像治愈癌症这样的事情的步伐。今天,我实际上做不到这一点,对吧?它可以在图像中找到肿瘤,你知道,这是一种我能做到的事情,但是要产生新的实验和新的知识来帮助我们真正治愈癌症。我认为这是人工智能在不远的将来可以帮助我们做到的事情。

我还认为,像大规模教育一样。所以我与Alpha School一起做了一些事情。我们尝试用这些基于人工智能的方法来帮助我们自己的孩子。但我认为人工智能......

人工智能有可能以非常高的质量扩展大规模教育。我们可以用它来培养哲学家建造者,而不仅仅是教他们数学吗?我认为可以。所以我认为你可以教他们推理的先决条件。我同意。你不想让人们只做公式化的数学。我认为你希望激发他们的好奇心,就像博雅教育一样。我认为人工智能可以让人们接受博雅教育,并且可以把它带到世界各地。所以我对此非常乐观。嗯,

作为另一项努力。我认为像巨大的经济增长一样。如果我们限制监管,减少对人们自发获取资源的一些限制,我们几乎还没有触及我们所能做的表面。

社会的增长和进步,我认为人工智能可以帮助我们实现这一点。我最钦佩的许多建设者,无论是埃隆·马斯克、彼得·泰尔还是查尔斯·科赫,他们都深深地沉浸在哲学中。他们是哲学家建造者,他们花时间去努力工作,以确保我们的社会仍然是一个繁荣和创新的社会。所以希望你能帮助我们培养更多这样的人才。当然。这就是我们的使命。好的,谢谢,布兰登。谢谢,乔。