We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Genesis: artificial intelligence, hope, and the human spirit

Genesis: artificial intelligence, hope, and the human spirit

2025/1/30
logo of podcast LSE: Public lectures and events

LSE: Public lectures and events

AI Deep Dive Transcript
People
C
Craig Mundie
Topics
Craig Mundie: 我参与撰写了《创世纪:人工智能、希望与人类精神》一书。这本书旨在更强调人工智能积极的一面,并提出一种控制人工智能的架构,以清醒的乐观态度应对挑战。我们认为,人工智能是终极的通才,其能力在广度和深度上都超越人类,因此需要对人工智能进行治理,以平衡风险和回报。当前,政府和企业在应用人工智能时,往往只关注对现有流程的增量改进,而忽略了从零开始重新构想业务模式的可能性。我们需要一个能够对所有人工智能应用进行统一且透明的仲裁的AI系统,以应对人工智能带来的信任问题。为了控制人工智能,我们需要一个可扩展的架构,并通过透明的方式建立信任,这需要人工智能公司与监管机构之间的积极合作。为了建立对人工智能的普遍信任,我提出了一种基于“维基”的架构,允许每个社会保留其自身规则,并通过人工智能进行仲裁,而无需事先达成共识。人类无法预测和理解人工智能的所有行为,因此,控制人工智能的关键在于建立一个能够处理未预料情况的系统,而不是试图制定能够涵盖所有情况的规则。我提出的仲裁系统试图通过学习人类社会中内隐的道德和伦理准则来保护人权,这与现有方法有根本不同。人工智能可以彻底改变教育、医疗等领域,但前提是需要对这些领域进行重新构想,而不是仅仅进行增量改进。人工智能的发展将经历三个阶段:工具阶段、共存阶段和共同进化阶段,人类需要在人工智能发展的早期阶段做出明智的选择,以确保良好的未来。建立全球人工智能规则的关键不在于寻求事先的共识,而在于建立一个能够在不同背景下执行规则的架构。 Mairéad Pratschke: 我认为,AI素养对公众至关重要,只有理解AI的基本原理,才能参与到对AI发展方向的讨论中。我们需要警惕科技公司对AI的控制,并确保AI的发展能够造福全人类,而不是加剧社会不平等。当前政府和机构在AI应用上的措施往往流于表面,未能触及根本问题。我们需要重新思考教育、医疗等领域在AI时代的模式,才能充分发挥AI的潜力。我们需要关注AI系统中日益突出的代理能力,以及由此带来的风险。我们需要关注AI系统中日益突出的代理能力,以及由此带来的风险。

Deep Dive

Shownotes Transcript

欢迎收听伦敦政治经济学院的LSE活动播客。准备好聆听一些在社会科学领域最具影响力的国际人物的演讲。欢迎各位,以及在线的各位来到LSE参加这次混合活动。我是马丁·安东尼。我是LSE数据科学研究所的所长。我很高兴看到这么多人来到这里,我知道还有数百人在网上收看。欢迎。

我非常荣幸地欢迎克雷格·蒙迪和玛丽埃特·普拉奇克参加今晚的活动。克雷格是蒙迪与合伙人公司的总裁,他是微软、克利夫兰诊所和参与人工智能、生物技术和聚变能源的早期公司的顾问。他曾为克林顿、布什和奥巴马总统担任多个咨询委员会的成员。他目前是中国人工智能问题双边对话的共同主席。

玛丽埃德是曼彻斯特大学数字教育教授兼主任,美国国家人工智能研究所的研究员和咨询委员会成员,我很高兴地说,她也是LSE数据科学研究所的客座教授。今天,克雷格和玛丽埃德将讨论克雷格的新书《创世纪:人工智能、希望与人类精神》,该书由他与亨利·基辛格和埃里克·施密特共同撰写。

正如讨论无疑会揭示的那样,这本引人入胜的书探讨了人工智能给社会和我们人类带来的许多挑战和机遇。它以一种极其严肃的方式来做到这一点,利用其作者的丰富经验,从科学、地缘政治和历史等令人印象深刻的思维角度出发。

这是一部极其发人深省且平衡的作品,认真地探讨了人工智能带来的许多挑战,但也承认并设想了许多好处。引用书中的一句话:“虽然有些人可能认为这一刻是人类的最后行为,但我们却认为这是一个新的开始。让我们怀着清醒的乐观态度迎接它的创世纪。”

本次活动正在录制中,如果不出技术故障,希望能够作为播客提供。

像往常一样,最后,你们将有充分的机会向我们的演讲者提问。对于我们的在线观众,您可以使用问答功能提交问题。对于今晚在剧院的各位,我会在最后开放提问环节时通知你们。我会尽量确保来自我们在线参与者和现场参与者的提问范围广泛。我很高兴将时间交给克雷格和玛丽。

晚上好,各位。好的,谢谢你们的邀请,马丁,谢谢。很高兴回到DSI,它很快就会成为我的第二个家,也很高兴见到克雷格,并有机会谈论这本书。

还要谈谈一些人所说的这本书的续集,基辛格也参与撰写的第一本书,《人工智能时代》。所以在我们深入讨论这本书之前,最好先把它放在背景中,也许可以分享一下你如何参与到《创世纪》中的。我和亨利,我们的个人和商业历史可以追溯到1998年,而这......

具有讽刺意味的是,今天让我们走到一起的是政府当时采取的两个与技术相关的行动,一个是美国几年前决定应该控制加密的使用,就像自二战以来一样,将其作为军火,并希望禁止商业公司使用它以及出口产品。

因此,对于微软来说,在互联网发展初期,以及在电子邮件和其他事物上的发展,加密对我们来说非常重要,但在做出这一决定时并没有真正考虑到这一点。所以我花了五年时间与美国政府一起解决这个问题。最终,帮助我解决这个问题的人是约翰·哈姆里,他后来领导了CSIS。

这是一个亨利创立并一直担任受托人直到去世的智库。第二件事,当时有三件事正在发生。第二件事是网络安全问题的出现。我当时在微软负责这项工作。它还处于起步阶段。但我曾在CSIS发表了关于此的演讲,在那里我遇到了亨利。我们迅速建立了友谊,并且......

他开始就外交问题向我提供建议,而我则指导他学习技术,当时他对技术基本上是一窍不通的。但他预见到计算的出现正在带来深刻的变化,他很乐意继续进行这种讨论。当时发生的第三件事是中国决定以国家安全为由禁止微软。

这听起来很像你们今天看到的讨论,美国决定应该以国家安全为由禁止TikTok。比尔·盖茨让我去看看我能否想办法阻止这种情况发生。事实证明,微软的律师在他们的正常业务中聘请了一些顾问来指导他们,他们聘请了亨利·基辛格。所以亨利和我发现我们都被要求处理同一个问题。

所以我们做了。最终,我们不仅为中国、美国,而且最终为一系列国家解决了这个问题。这对每个人都有利。所以亨利和我建立了友谊,并在那期间多次走到一起。在晚年,实际上这有点涉及到埃里克是如何参与到这件事中的。我和埃里克也以两种方式相交。一种是......

埃里克是Sun Microsystems的早期成员之一,这与我创立的一家制造小型超级计算机的公司同时发生。当您将它们与网络连接时,它实际上是客户端-服务器技术计算的开始。两家公司进行了合作,我通过这种互动认识了埃里克、维诺德·科斯拉、比尔·乔伊等人。后来埃里克成为谷歌的首席执行官。

但在此期间,亨利认为将这些技术问题介绍给 Bilderberg 集团很有趣,该集团每年举行一次会议,自 1947 年以来一直如此。自 1950 年代初以来,亨利几乎每年都参加。所以他带我参加了其中一次会议,这对我来说本身就很有趣,但也有趣的是,我是第一个加入这些讨论的技术主管。并且......

后来,这被证明很重要,因为有两件事。随着其他公司效仿微软,在全球范围内变得越来越大、技术上越来越重要,你不可避免地会被卷入这些地缘政治问题。事实上,我们创造了“技术地缘政治”这个词。那是大约20年前的事了,当时这是一种新颖的说法。当然,现在它几乎是所有国家的首要考虑因素。

大约七年前,我和埃里克决定,Bilderberg 集团(他也开始参加)应该教育人们了解人工智能。所以我们安排了一次简报。你知道,德米斯·哈萨比斯、萨姆·阿尔特曼和其他知名人士都来参加了。亨利也参加了这次简报,并立即被......

他认为拥有比人类更聪明的机器会产生深远的影响。这没有先例。在他看来,这显然意味着无数的影响。当时他已经95岁了,他最终成为了这个话题的学生。他花了几年的时间真正学习和深入思考这个问题,当然......

埃里克和我当时都与他有着长久的友谊,所以我们经常一起谈论这个问题。在亨利生命的最后几年里,我和他每隔周五都会定期谈论几个小时,谈论我们认为有趣的问题,而这开始渗透到这些问题中。随着他知识的增长,他与埃里克和麻省理工学院的丹·哈滕洛彻合作撰写了第一本书《人工智能时代》,最后,我为亨利编辑了这本书,

我告诉他,这本书很棒,因为它记录了一些人和挑战,但它并没有过多地谈论好处。与此同时,那时我已经参与 OpenAI 有几年了,也与微软保持着历史上的关系。

这让我花了很多时间思考这个问题:我们到底该如何控制这些人工智能?所以所有这些事情都结合在一起,亨利在一个周五下午的电话中提出了一个建议,他说,嗯,其中一些想法很有趣,它们可能会提供方向。我们应该一起写一本书。

所以我们说,好吧,让我们这样做。然后埃里克加入了我们的谈话。所以最后,我们三个人合著了这本书,目标有两个。首先,要更加强调积极的一面,因为我们认为对这一问题的普遍报道过分强调了负面风险。

正如刚才引用的那样,我们认为我们可以怀着清醒的乐观态度做到这一点,因为我们至少可以看到一条控制这些机器的架构的道路,从长远来看。这就是这本书的由来。好的。这是一个非常全面的介绍。谢谢。这很有趣,因为我比较了两本书,当我读这本书时,首先让我印象深刻的是,感觉像是......

基辛格作为一位长期参与原子时代并思考军备竞赛、冷战等问题的政治家,他的生活深刻地影响了这本书。听到你说你想让这本书比第一本书更积极,或者比你当时听到的叙述更积极,这很有趣。因为对我来说,这本书中传达出的信息非常......

需要控制,当然,我们从基辛格在核武器方面领导并谈论了很多的遏制中知道这一点,但也需要协调,我认为我们稍后会在这次谈话中谈到这一点,关于将人工智能的发展与人类价值观相协调,以确保它不会肆意妄为,做出我们都在新闻头条上听到的可怕的事情。但对我来说,这本书中真正体现的是一种平衡,这显然是他的声音,一个将他的整个职业生涯都投入到地缘政治中的人......

处理这些问题。然后是什么......

是的,绝对是积极的一面。有人会说更乐观的技术方面,由政治家的声音来平衡。这就是为什么我很想知道你们是如何完成整个过程并一起写作的。但我也很想深入了解实际内容,所以如果有人对此感兴趣,我们可以在提问环节中讨论。所以让我们从一开始就谈起,因为这本书确实是从......

人工智能,正如你所说,以非常积极的光环开始,作为一个新的发现时代。我希望你们都读过这本书。我假设每个人都学习过这本书,但如果没有,我会给你们重点介绍一下。所以这是一个新的发现时代,简而言之,我们的想法是,我们现在已经超越了我们的肉体和我们人类大脑的能力,人工智能将使我们能够做到一些人所说的智力增强。这可能是一个你经常听到的词组。

所以这个想法是一个相当乐观的观点,我们可以超越我们的肉体,进入我们自己的人工延伸,但当然,这样做会引发我们这些天一直在听到的所有问题,例如控制、安全、自主人工智能、地缘政治,每个人都在过去两周一直在关注Deep Seek等等。所以让我印象深刻的一件事是,你们在书的开头部分将......

你将它比作早期发现,你通过在书的开头几页谈论沙克尔顿来构建它,这让我印象深刻,部分原因是我爱尔兰人,所以我当然会关注沙克尔顿,而且我受过历史学训练,我认为我对这些发现的故事非常感兴趣,但我注意到......

书中有一句话,那就是沙克尔顿被认为是一个英雄,不是因为他几乎走到了尽头,然后还有其他的旅程,而是在一个非常关键的时刻,当他距离目标还有90多公里时,他决定掉头。他决定掉头,因为他认为在那一点上风险太大,他不希望危及他的人民的生命。

所以,我认为,这是一种相当具有挑衅性的开头方式,它成了一本相当积极的书。然而,你在一开始就摆在那里。我们该如何做出这样的判断?我们该如何知道如何平衡人类的价值观,我的价值观,你的价值观以及其他群体的价值观?我们该如何平衡和控制......

这种智慧,使我们能够增强我们的智慧,但同时也避免冒着到达沙克尔顿掉头的那一刻的风险。是的,我的意思是沙克尔顿的例子,以及我们在本书开头部分谈到的另一件事是博学家。是的,启蒙运动,是的。博学家在人类历史上扮演的重要角色以及我们......

首先通过一些人的个体行为取得突破,然后当我们能够将它们聚集在一起时,我们取得了其他更大的突破。之所以要考虑这一点,是因为这些机器在某种意义上是最终的博学家。它们不仅在理解人类理解的东西方面是博学多才的,而且我们期望并已经看到它们在这些领域中变得超级聪明。所以你有了......

在两个轴上都超过人类能力的东西,你知道,有多少领域以及每个领域的聪明程度。这是一个非常重要的区别。回到沙克尔顿的例子和管理这些事物的必要性,你知道,我们的信念是,这个系统最终代表了最终的双重用途技术。你并没有做出一个局部系统。

很容易评估的决定,沙克尔顿必须做出选择,但他知道他在权衡什么,例如,“哦,我不能让这么多人还活着。你知道,我已经走了这么远了。我看到了轨迹,我不喜欢结果。”这变得困难得多。首先,因为广度,其次,因为很难知道你在权衡什么。我们在书中试图强调积极的一面,原因之一是......

任何必须进行风险回报权衡的人都必须了解回报相对于风险是多少。如果你只考虑负面因素,那么你基本上是在进行风险权衡,而没有理解你在放弃什么。所以因为我们认为这最终会改变一切的一切,如果你决定说,我认为我要掉头,那么你就会放弃很多。

这本书非常明确地指出,在这一点上,由于其他原因,在某种意义上,如果你认为实际上有六个像沙克尔顿一样的人,他们都在试图到达北极,并且首先到达北极有一些真正的优势,这是否会改变它的计算?

他并没有与任何人竞争。他是在与耐力赛跑。所以这是一个更复杂的计算。事实上,我们在书中提出的架构的起源,也是我过去几年一直在做的事情......

实际上始于我开始与 OpenAI 合作的早期几年。你知道,萨姆让我帮助他们思考这些长期的政策和地缘政治问题。我不会在技术方面帮助他们,但是......

OpenAI 的章程,我和当时大约 60 个人,他们还在寻找。他们没有明确的策略来前进。他们正在探索前进的方法。但很明显,加入公司的人确实相信他们创始目标的重要性,即最终构建一个将造福全人类的人工通用智能。

当然,你会这么说,每个人都可以这么说,但随后你立即会遇到这个问题,即“好吧,这是什么意思?”你会说,“好吧,然后我们真的想为人类做好事。”你会说,“好吧,谁来定义好?”你最终会陷入这种无休止的争论旋涡,“好吧,谁来设定这些目标?谁来做出这些选择?”

有一天,当我访问时,我一直说,“看,即使在那个阶段,我也看到公司在如何应对一些明显的风险方面有很多战术上的参与。”但对我来说,我已经经历了前几代技术转变的战争,

围绕计算和个人计算,我说,你知道,你最终会面临这些更大、更长期的挑战,战略必须大于对这些事情应用一些战术性的修复。我说,什么?他说,嗯,你知道,我们还没到那一步。当然,我们甚至没有明确的前进道路。那大约是什么时候?

那是大约七年前。所以那时 OpenAI 可能只有两三岁。那时他们正在研究机器人技术、游戏玩法和其他事情,都在寻找线索,以找到一个能够产生这种通用智能的方向。在后来证明是偶然的,但对我来说尤其重要的是,

他说,“好吧,有一个人非常喜欢思考这个领域中的长期问题,那就是达里奥·阿马代伊。”他还在 OpenAI 工作。他的任务是在我每次来访时都哄我开心,我们会坐下来谈一会儿这个问题。有趣的是,在几次这样的会议之后,我们达成了协议,我们两个人都没有......

当我们想到长期时,除了人工智能之外,我们无法想到控制这些人工智能的方法。

那么他当时是在考虑宪法人工智能吗?嗯,我认为这是计划的起源部分。是的,我就是想知道这个。你知道,为什么他会离开并成立 Anthropic。Anthropic 的区别实际上是将宪法纳入人工智能。没错。我们之前甚至之后都没有谈论过这个,但我的观点是,这为他激发了一个方向......

表现为在 Anthropic 工作中的宪法。与此同时,我离开了,继续思考这个问题,你会怎么做,以及这是什么样的宏伟架构?然后当他们推出 Anthropic 时,我看了看,我对它有两种感觉。我的一种感觉是,这很棒,因为在很大程度上,他们嵌入的宪法......

证明人工智能可以被教导或被迫遵循某些规则。另一方面,从我在科技界的角度来看,也很明显,世界不会在一跃之间决定那部宪法是所有人的宪法。我认为自从他们推出以来发生的一些事情已经证明了这一点。

所以对我来说,它既增强了人工智能实际上可以成为仲裁系统的想法的有效性,但也让我更加确信,信任的完整架构必须包含许多尚未考虑到的维度,坦率地说,如果你认为它是......

一次一个公司地临时完成的,那么这些维度是无法考虑的。所以如果你想要广泛地信任这一点,并且你相信最终会有许多参与者想要在不同的地方构建不同类型的人工智能,

然而,你又想要一个更全球化的信任概念。你必须做更多的事情。这就是我花了几年时间研究和现在正在原型设计的东西。正是这个想法给了我们......

如果你愿意的话,清醒乐观的安慰,因为我们至少可以看到一条控制的道路。控制与遏制不同。当然。无论如何,这就是我们到达那里的方式。如果你看看我们现在所处的位置......

那就是愿景,对吧?拥有信任架构。但我认为今天在座的各位,也许还有观看直播的各位,尤其是在过去的两周左右,所有新闻报道中,都会非常清楚地意识到,我认为我们确实非常清楚地看到,每个模型,每个公司,

各种意识形态都非常明显。你知道,在埃隆·马斯克的格洛克以不同于克劳德的方式行事,不同于其他大型语言模型之前,这对任何人都不是秘密,当然,在过去几周对Deep Seek的大量媒体报道中,有很多关于这方面的讨论,这是一个我们可以深入探讨或不探讨的另一个话题。但是,嗯,感觉我们没有......

处于你谈论的信任架构愿景的阶段,相反,在书中你认为我们甚至不接近,我们甚至不接近,我的意思是,坦率地说,我们处于一种混乱的状态,没有人真正......我们没有尝试,事实上,我认为这本书真正有趣的是,你......你知道,你提出了这个愿景......

正如你所说,博学家,人工智能是最终的博学家。这是集体智慧。这是每个专业领域的专家的混合,对吧?就大型语言模型的实际架构而言,也包括我们自己狭窄的专业领域而言。这听起来很有希望,但是......

我发现自己正在审视我们在书中谈论的人工智能可能发生的事情之间的差距,例如,理性统治是你们在谈论人工智能的政治用途时谈到的事情之一。

例如,我们可以摒弃导致某些可怕局面的情绪化决策。我相信你们没有人能想象最近新闻中出现的任何这些情况。但是,你知道,有时情绪化决策对我们来说并不是最好的,这本书确实强调了我们可以通过人工智能,我们可以摒弃我们人类的弱点,如果你愿意的话,对吧?我们的智力弱点和......

实行理性统治。这是一个美好的想法。另一个想法是,你知道,这种丰富、人人共享的经济繁荣的想法,我相信,同样,我们都非常渴望拥有。

但我很好奇想知道你对这两个想法的具体步骤是什么,因为我们在这里是LSE,我们是伦敦政治经济学院,我们并不一定关注哲学方面,我们更关注可能是在地面上的政策方面。而我看到正在发生的事情,例如,英国的背景,上周,那些关注英国新闻的人会看到,或者也许你们没有看到,它在新闻中有点被隐藏了,但是政府,

计划并宣布发布一套新的用于公务员部门的人工智能工具,他们巧妙地将其命名为人工智能汉弗莱,以纪念,是的,部长,对吧?所以很多人会明白这个笑话,并因此发现这个名字很有趣。但无论如何,这是另一个问题。

但当我看到这一点,当我看到我们在人工智能的未来方面面临的一些挑战时,每个人都担心技能下降、失业,我们该如何过渡到人人共享无尽繁荣的乌托邦?

而我看到的政府正在采取的实际行动和政府正在做出的政策决定,它们根本不那么崇高。从这个意义上说,它们非常平凡。我们将使官僚机构,我们将使官僚工作合理化和集中化。我们将帮助公务员处理他们的数据过载。这些都是好主意,不是要对它们吹毛求疵。但它们并没有接近解决战争。

或创造繁荣。所以我想知道你对什么的想法,因为我喜欢这个愿景,但我环顾四周,看看新闻上发生的事情,看看正在进行的辩论,我认为,

街上的人们担心日常琐事。他们担心自己的工作。他们担心战争。他们担心暴力。他们担心对人工智能系统的控制。那么下一步是什么?很多这些都是来自人类的,最后我们有很多问题,我们人类是的,人类做得并不好,我们做得并不好,但这就是重点。我们从来没有做到过,对吧?让我把这个问题中的一些事情分开。所以一个......

你引用的每一个例子,几乎可以说是任何一个感兴趣的例子,现在都归结于这个问题,但是我该如何信任它?所以医疗保健,我的意思是,即使在临床试验中,在大多数情况下,它已经被证明,即使没有特殊的培训,当今的人工智能在医学病例中的诊断能力也比几乎任何医生都要好。

这已经不再被争论了。当第一次进行这项研究时,医生说,“哦,是的,但你必须有同理心。”所以他们进行了一项试验,比较机器在病人心中的同理心与医生的同理心。猜猜谁赢了?不是医生。-是的。人类对机器的偏见真的很有趣。-但他们为什么赢了?嗯,事实证明,病人说,“嗯,你知道,它有时间陪我。它很有耐心。”

我可以问它愚蠢的问题,它会耐心地回答我。如果我想接受教育,它会教育我。顺便说一句,在教育方面,他们也发现了同样的情况。正确。导师,学生们报告了完全相同的事情。我可以在凌晨3点问这个导师一个问题,他们不会感到疲倦,他们不会厌倦回答我的问题,而且我不必感到愚蠢。对。所以就是这样。所以,从某种意义上说,这些只是......

在许多方面,人工智能都超越了人们过去认为只有人类才能做到的事情。几个月前,我查看了部署在OpenAI平台上的一些早期应用程序的统计数据。排名前两位的应用程序是陪伴类应用程序。在人们尝试做的所有事情中,

真正购买和使用这些东西的人是那些感到孤独的人。从某种意义上说,他们发现与机器谈论他们的旅行烦恼更舒服,这既是因为这种同理心,也是因为这东西具有无限的范围,你可以谈论任何问题、议题或想法,所以即使在这些事情上,博学多才的特性也显露无疑。

看看政府在做什么?我认为他们只是在做几乎所有公司都在做的事情,这对成熟的组织来说是很自然的,那就是他们看到一个新工具,就会说,好的,好工具。我该如何对目前正在做的所有事情进行增量改进?我想让它更好、更快、更便宜、更高效,无论是什么。

但这并没有提出这样一个根本性的问题:“看,从来没有过这样的工具。”所以,如果你是一家初创公司而不是一家现有公司,并且你有一张白纸,你会怎么做?而我给许多首席执行官的建议是,这需要一种不同的思维方式和一组不同的人才,才能从一张白纸开始

并从一个假设开始,即你试图做的任何事情的人工智能中心实现都将产生一个与你历史上所做的事情的任何增量调整都不同的定性答案。这就是为什么最终医疗保健、教育等等都必须在面对这种情况时重新构想。

但我也是非常务实的,埃里克和亨利也是如此,我们认识到,你不能一步就把每个人从这里带到这个重新定义的世界。但即使要采取增量步骤,你也必须让人们感到舒服,才能开始行动。说到管理人工智能这个问题,

您好,我打断一下这个活动,告诉您另一个我们认为您会喜欢的很棒的LSE播客。LSE IQ邀请社会科学家和其他专家回答一个智慧的问题。例如,为什么人们相信阴谋论?或者,我们能负担得起超级富豪吗?来看看我们吧。只需在您收听播客的任何地方搜索LSE IQ即可。现在,让我们回到活动现场。

我的信念是,我们必须找到一种方法,利用人工智能对任何人工智能都必须遵守的所有用途进行统一和透明的裁决。当只有一两个的时候,人们可能会说,“好吧,我不知道。”我看看DeepSeq,说:“我不在乎它是否更好、更快、更便宜,或者其他任何东西。”我认为有趣的是,

它在美国出现的几周内,他们正试图禁止和驱逐TikTok。它没有任何他们一直在向微软、谷歌、DeepMind、Anthropic和其他公司要求的控制措施。事实上,它唯一表现出的行为是中国政府要求它注意的行为。

但你知道什么真的很有趣吗?如果你看TikTok,当他们第一次......当然,它被禁了24小时左右,然后特朗普说他不打算禁止它。美国,不仅仅是美国,有很多报道说美国TikTok上的网红和创作者要对中国的......

中国的版本进行红标。我想,天哪,这真有趣。因为在教育方面,我们非常担心数据隐私、学生的心理健康以及你刚才提到的所有事情。例如,我们知道人工智能是一个伟大的诊断师。这没问题。我们知道人工智能医生比人类更好。我们还不愿意承认,但证据正在出现。我们知道他们可以更有同理心。但我认为我们真正感到不舒服的部分是,正如你所说,我们开始意识到

我们所划定的

人与人工智能之间的界限,将不复存在。它正在消失。我一直对人类技能和人工智能技能在整齐的小桶中感到好奇,并认为,随着人工智能越来越好,它实际上能够做很多我们认为是人类要做的事情。但是当你谈到像社交应用程序这样的事情时,我想到的是Replica或Character AI之类的东西。我认为我们在社会中关于政策、应用以及我们如何使用这些工具的恐惧之一是,

当你有公司创造有效的人工智能、社交人工智能公司(例如Hume)时会发生什么,或者那些正在研究在说话时收听模型的公司,越来越多,但在语音模式方面越来越好,以及你刚才提到的那种人工智能非常讨人喜欢的情况。

导致我们降低了防御和界限,然后我们可能以我们现在可能不应该的方式与人工智能互动,因为正如你所说,信任架构还不存在。是的,但我的观点是,你可以取这些东西中的任何一个,如果你足够努力地推动它,我可以告诉你你会遇到信任问题。没错。除了,你在报纸上读到过吗?没有。我认为你以不同的方式阅读它。是的,但无论你离它多近,它都只被描述为,哦,你知道,当那东西出现在这里时,它没有它。或者,你知道,Anthropic做了这个,但OpenAI没有做那个。是的。所以......

对我来说,所有这些事情,包括深海的事情,都只是对这样一种想法的强化:人类,因为它已经围绕着诸如宗教,然后是当前的国家集团等事物组织起来,在每种情况下,它们最终都会制定一些规则。这些规则非常多样化。

其中一些具有非常深刻的共同基础,但有些则没有。而我从上一代自己的工作中知道的是,我不能在一个国家投放产品,并期望我的产品能够忽略他们的规则。你知道,我讲了一些关于微软早期的小故事。我最终

在微软组建并领导了一个地缘政治分析小组,作为所有产品组的共同服务。为什么?这是一个例子。早期的Windows版本,那些年纪够大记得的人,你们说你们必须设置时区。要设置时区,你点击时钟,它会弹出一个世界地图。

你会指着地图说:“这就是我的位置。”它会说:“好的,我知道你的时区。我会更改你的时钟。”所以我们在世界各地发布了它,并使其方便。我们有一张彩色地图。然后我们接到来自不同国家的电话,说他们不允许在他们的国家发布Windows。我们会说:“为什么不呢?”他们说:“好吧,你知道,我们看了你的时区地图,那里有一个小岛。

我们认为我们拥有那个岛屿,但你的颜色涂错了。事实证明,如果你打电话给涂成那个颜色的人,他会说:“我们很高兴它涂成了我们的颜色,没问题。”所以渐渐地,我们意识到操作系统必须像变色龙一样。在其运行的环境中,它实际上必须以不同的方式呈现自身。

这些小教训以及在该平台上的概括,影响了我对如何启动这件东西的思考方式。任何告诉我必须要求任何两个当事方预先就某种规则的共识观点达成一致的事情,都是一个无法启动的事情。特别是如果这些当事方是政府的话。所以这意味着你必须着手于此

使用一些允许,我将说人工智能,或者至少是裁决功能,具有这种相同的变色龙特性。好消息是,我相信这项任务,我们还没有做足够的工作来相信,鉴于这些人工智能的能力,这项任务是极其容易管理的。事实证明,人类在各个粒度级别上创造的所有规则集的结合,除了一个我将要评论的规则集之外,

是我们教育这些机器时教给它们的一小部分。所以这样做没有能力问题。但是当你试图在这个所有规则的结合中运作时,它就变成了一个非常高维的问题。人类做不到这一点。

我的意思是,你认识哪个法官知道每个社会和每个国家的每条规则,以及它如何变化?实际上你做不到。但就这种推理而言,这些博学多才的机器实际上很容易做到。因此,这为以下说法奠定了基础:看,

我不需要要求任何人改变他们目前的生活方式,才能拥有一个架构通用的系统。这有点像拥有一个在192个国家运行的通用操作系统,而这些国家都有不同的法律。这有点像下一级,但在这种情况下,你必须把它从

任何一个实现中分解出来,否则验证的复杂性太高了。你必须仔细考虑这一点的另一个原因,基辛格和我们在许多讨论中谈到了核不扩散活动和这件事的起源之间有哪些相似之处和不同之处,那就是你不能

需要任何参与者放弃他们认为是其战略竞争的积极解决方案。这是另一件你根本无法事先让他们去做的事情。我可以打断你吗?当然。因为我觉得这与书中传达的内容略有不同,我们走了一条不同的道路。所以

你正在谈论将解决人们在不同地方对人工智能的价值观发生争执的信任架构,因为我们将通过这种信任架构来决定我们自己的人工智能。你会想要一个你可以控制的应用程序人工智能。问题是......

最终同意某种共同的控制架构是否对你有利?所以这是我的问题,因为在书中,也许我们不应该担心这本书,也许我们应该从这本书中继续前进。因为在书中,一件真正让我印象深刻的事情是这个关于公司,特别是公司开始像民族国家一样行动的想法。

在书中,它被描述为公司可能会积累当前民族国家拥有的那种权力,并且它们可以形成类似于民族国家的联盟。虽然在信任架构的背景下,这似乎还不错,

但如果你从国家、公司承担国家权力方面来解读它,它听起来有点吓人。所以我想知道,你如何从......我认为书中有两件不同的事情。好的,好的。我不记得所有细节,但这个想法,这有点像,

被提出作为一个潜在的问题,你必须考虑如何处理。它现在出现了,因为现在这是个问题。当然是的。但是,在我看来,在我的历史中,

这已经出现很久了。人工智能只是它的最新实例。我刚在英国上议院参加了一个会议,讨论这些问题,我认为一些人同意,在没有公司开发技术和试图监管或立法的人之间进行更多积极合作的情况下,试图向前推进并制定关于这些事情的规则,这似乎是一个显而易见的选择。

你知道,必须采取的方向。也就是说,本书的最后一部分更类似于我在这里描述的内容,我们称之为战略。- 是的。- 好吧?而战略,好吧,你知道,他们在书中投入了过多的细节来讨论实施、权衡以及如何去做,但战略说,首先你必须有一个,好吧,我添加形容词是为了强调,你必须有一个可扩展的

架构来原谅我实施这些控制,但这本身还不够,一旦你有了它,比如说一家公司想出了它,或者一个学术努力想出了它,或者一个多边组织决定去做它,是的,它起源是什么并不重要,你知道,如果如果这可以透明地完成,那么这将成为朝着

允许人们集体将他们的信任代理给这个系统迈出的重要一步。- 你认为我们现在的地缘政治状态是否可能产生这种结果,也许欧盟,

我不知道,下周再问我。- 北美自由贸易协定国家,下周,好的。一旦DeepSeek平静下来,人们不再害怕一场军备竞赛刚刚加剧,例如。- 或者也许在人们思考之后,哇,那东西是如何发布并在几天内成为最受欢迎的下载的,而它实际上并没有我们一直坐在这里告诉大家我们担心的那些东西。- 是的,没错。- 所以公众和精英之间总是有很大的差距。

这始终如此。以及我们所说的我们要保护人们免受什么伤害,然后他们无论如何都会自己去做。我知道,这就是我的观点。这就是我发现非常有趣的部分。你知道,在学术界,我们非常担心保护学生,然后他们四处走动,似乎并不担心。

我们担心一些数据隐私问题,但我们为他们担心。人们过去会和我们谈论与广告相关的业务。我们开玩笑说,看看,这些人大多数都会为了在互联网上免费获得一些东西而卖掉他们的祖母。我记得去年我在西班牙马德里,他们不得不停止这个,因为WorldCoin向人们提供了50欧元来扫描他们的虹膜。

顺便说一句,WorldCoin刚刚改名,因为你可能知道唐纳德·特朗普非常热衷于加密货币。他发布了他的迷因币,梅拉尼娅上周也发布了她的迷因币,它们都在那里四处传播加密货币。所以一年前,这件事发生在西班牙,人们排着队

在街区周围扫描他们的虹膜以获得WorldCoin,我想,哦,我的上帝,50欧元。他们没有你那样的担忧。他们没有。也许问题在于,你对这件事了解得越多,你就会越担心,因为这也是我注意到关于研究人工智能的事情。现实情况是,这些人总的来说也会在生活中做出权衡。是的,绝对的。所以从某种意义上说,你说,嘿,他们期望......

政府最终会努力保护他们的利益。是的。好吧。但人工智能领导者总是最害怕的人,这一点有些特别。我的意思是,几年前是杰夫·辛顿。人工智能,好吧,他被描述为教父之一。所以领导者、教父,无论什么名字。是的,但他现在有点转变了。是的,似乎......

当时我有点愤世嫉俗,因为我认为他公开发表言论很好,但我同时也注意到,这是在他从谷歌辞职的时候。这有点愤世嫉俗。不应该那样。但人们会在不同的时间公开发表言论,然后他们会回来,稍微改变一下。我们在过去的一周里看到了奥特曼和阿马迪的谈话,以及萨钦·阿德拉的介入。而且,你知道,这一切都在每个人都在特朗普就职典礼上等待,你知道,基本上......

正如大卫·麦克威廉姆斯(如果有人关注爱尔兰经济学家大卫·麦克威廉姆斯),他将其描述为排队亲吻戒指。你知道,他谈到了造王者这个想法,以及技术首席执行官和政治家过于亲密的想法。所以我想一方面,是的,我们有......有趣的是,在之前的特朗普政府中,他解雇了所有科学家......没错。所以它翻转了。所以事实证明特朗普也改变了。

特朗普正在以不同的方式接受一些建议,绝对的,我已经注意到了。但回到像Yoshio Benji和这些人以及辛顿,在某些方面,再次与从事核武器工作的人们发生的事情相似。他们有很大的动力去竞争创造这些东西,他们认为,嘿,这是一个存在性问题,所以他们做了。

从某种意义上说,每个人都在概念上或数学上都知道效果会是什么。但许多开发它们的人,只有当他们看到一个爆炸时,即使是在测试环境中,也有一种顿悟,哇,这是一种完全不同的事情。他们中的许多人开始游说,哇,也许我们不应该这样做。所以我认为这是一个自然的

当你意识到你出现在某件事的诞生现场时,它代表着一种质的变化。我相信,多年来一直致力于这项事业的企业人士和学者们,现在开始说,好吧,它真的发生了。现在我可以,你知道,就影响而言,它不再是转瞬即逝的了。

但我认为,你知道,我有机会在几个月前与Benji交谈,我实际上在某种程度上感到高兴,因为在书中我们说,你可以阻止火车已经离开车站了。它走了。因为除非你能保证全世界从现在起每个人都会在同一天停止,并且永远不会做任何事情,

你所做的只是将你的未来交给那些继续前进的人。所以停止不是一个选择。所以一旦你接受了这一点,你就必须把注意力转向不要担心停止,而是担心继续以及如何最好地做到这一点。所以我的观点是,这些人现在正在朝着一个方向前进

我会说类似于我在这里用这本书所追求和推广的思想,那就是,好吧,我们最好认真考虑如何走到一起,并弄清楚如何协调这些事情。快乐的词语一直是安全和一致性。然后你说,好的,

安全以什么标准衡量,你会得到你知道的掰手腕比赛,你说与谁的价值观一致,你会陷入你知道的掰手腕比赛。所以让决定的人来决定,好吧,在我的提议中,我说,看,我会这样做,说每个社会都可以保留他们目前的规则,甚至决定的人是谁,我

每个社会都可以决定他们想让谁来代理他们的规则集的输入。如果他们根本不想参与怎么办?好吧,那么他们就不在俱乐部里了。不,不,这是一个非常重要的点。或者如果他们没有人工智能中心,他们觉得,例如,如果你是一个小国,负担不起所有数据中心,因为......不,你不需要任何数据中心,好吗?我的意思是,从抽象的角度来看,这里有人见过维基百科吗?好吧?那么,想象一下一个精心策划的维基

我给地球上的每个政府机构都提供一个页面。这是你的页面,好吗?是的。

这是你可以放入的内容的规则,而不是你放在页面上的内容,而是你应该放在页面上的内容。我们感兴趣的那种东西。给我们所有你的规则。给我们所有你的规章制度。如何输入你所有判例法的历史?这是书中的公认观点吗?不,不是。这基本上是......

已经写好的部分。好的。这是世界运作的离散规则。如果你有口头文化怎么办?我会谈到这一点。这些都是出现的一些实际问题。是的。现在,事实证明,我会回到那个问题。对不起,继续。你坐火车了。所以,

所以现在我有了这个精心策划的维基,精心策划的意思是你的社会,我不在乎你是一个教会、一个国家,或者一个公司,或者是一个个人。我说,好的,把它们放在那里。把规则放进去。没问题。所有这些东西的结合只是这些人工智能可以吸收的一小部分。而且

唯一的问题是,事实上,当我们开始用很多像世界上的所有法律法规来做这件事时,工程师告诉我什么?他们说:“嘿,我们已经读过它们了。它们已经在里面了。你可以问关于它的问题。”然后一个聪明的工程师说:“问题是规则与其他所有东西相比没有特殊的意义。”因此,即使它知道所有规则,它甚至可以帮助你编写一个新的规则,如果你愿意的话。

它对它的行为没有任何影响。所以无论你是否想这样做,我将说,达里奥的方式,这是宪法的,宪法在做什么?它正在获取规则的某个子集,在这种情况下是相当抽象的,并且它正在设计机器以赋予这些规则特殊的意义。我的论点是,你可以通过将它从任何一个人工智能中分解出来来做到这一点。

并说最好有一个统一的地方来记录所有规则,包括那些他们一直没有试图寻找和处理的规则。但我不要求任何要为他们的机构制定规则的人,他们不必与其他人协商。他们不必同意。我不在乎这些规则是否完全相反。

因为我一开始就会相信人工智能能够查看那个高维空间。因为,再次重要的是要考虑,在这种情况下的人工智能,一旦它吸收了,我将称之为这个古怪的维基规则,它不会将其用作图书馆。这就是区别。好的。

当人工智能学习东西时。不,当然不是。它不仅仅是拉。好吧,你说当然不是,但大多数人并不太了解这一点。我想从你关于基于规则的系统的讨论中了解到整个学习是如何进行的,因为这也是本书的重要组成部分,不是吗?那就是这些机器学习。他们学习。爪子的例子是一个很好的例子,因为Anthropic 谈论了很多关于宪法人工智能

他们不谈论他们谈论一点我听我说我要听起来像个疯子几周前我听了一个五小时的播客Lex Friedman播客他与Darryl Amadean谈了大约两三个小时然后他们与他有一个我认为是苏格兰女人的女人她是一位哲学家她的训练非常有趣她谈论了她的经验以及她如何

没有训练Claude,但她是如何,Claude是如何出现的,他们的关系是什么样的,行为是什么样的。但这真的是一个非常有趣的基于哲学的讨论。它超出了这里有规则,更多的是关于现在系统正在创造一些不同的东西。哇,它正在做一些疯狂的事情。我很高兴通过收集世界的规则来启动这个过程。或者至少

那些认为集体方式对

规范我们管理这些人工智能的方式有利的人的规则。代理人工智能也适合吗?当然,没关系。好的,所以所有系统都将继续崩溃。我只是说所有这些,平台人工智能,所有建立在这个平台人工智能之上的应用程序层,所有这些东西基本上都必须安装或在其侧面安装仲裁器。听起来很干净。

井然有序。实际上,是的。因为如果不是这样,它就不能扩展,否则人们会声称它太昂贵了。所以幸运的是,我们已经做了足够的工作来原型化这个,至少相信至少在今天我们所知道的范围内,获取任何现有的人工智能的成本,并且

将它与这个仲裁系统连接起来是一小部分增量工作。

事实上,这个工作量正在下降,因为人工智能本身很乐意编写代码来连接它们。没错。所以从某种意义上说,所有这些担忧,它是否太繁重,你知道,重量级?不,实际上,它的架构非常干净。当然。我的意思是,人工智能正在互相教导,代理人工智能正在互相训练。不,不,他们没有互相教导。这里没有。也许这是一个非常糟糕的短语,但你知道我的意思吗?他们正在行动......

有时靠自己。我不想说哪些是可以的,所以我不能确切地说出我在想什么,但我,你知道,你有点领先于问题了吗?是的,好吧?因为他们是,我的意思是,我读过关于例如代理系统的研究,人们担心的是,这只是你今天读到的所有事情。是的,没有人尝试过这个

- 好的,所以这都是一个假设的未来,因为我想到的研究提醒我们注意潜在的危险,例如,人工智能系统不再,它们现在都使用自然的人类语言,但回到用代码说话,人类不再像我们现在这样感到安慰,而这是一种潜在的危险。我的意思是,你提到了——但你引用的每个例子,

我认为这样做是有动机的。当然,绝对是这样。因为,你知道,渐近地,人类将检查这些东西的想法,A,不可能,B,不可扩展。所以你在架构或实现方面都失败了。一旦你开始说,好吧,我有规则,那么你就可以实现它们。你问到了DOXA。所以我很挣扎了一段时间,因为,如果你还记得这里的起源,达里奥和我当时都

认为这些机器的伟大天赋在于它们的博学能力,但这也是保证人类无法预测甚至理解这些东西将会做什么的事情。所以,人类可以制定规则来阻止他们无法想象和不理解的事情发生的想法是荒谬的。

但危险就在那里,对吧?我认为这就是人们担心的问题,不是吗?好吧,这是担忧,但那是因为没有人试图思考,我该如何处理这种情况?所以我对此思考了很多。当我想要这样做时,我召集了一些人自愿与我一起工作。其中一位女士当时正在从事软件开发工作,但事实证明她的正式教育是文化人类学。哦,太好了。

我和她谈论这个问题。我说,你看,你知道,归根结底,我需要一些这些东西的基础。结果,与此同时,我正在与另一家公司合作,实际上是在伦敦,他们正在做一项基于人工智能的事情,这取决于人工智能进行的预测,而这些预测又取决于化学定律的一致应用。结果他们也发现了同样的问题,人工智能

你可以问人工智能关于被广泛接受、没有争议的化学定律的问题,它会告诉你关于它的所有你想知道的事情。但偶尔它会忽略它,因为化学定律在两者中都没有任何特殊地位。所以现在你说,哇,好吧,这些问题,如果你看看它们,都是一样的。他们想将他们正在使用的模型建立在物理定律、化学过程定律的基础上。

我想基本上说,嘿,我想把这个东西建立在所有现有的法律之上。然后,当人工智能进入未知领域时,我最终必须为所有这些提供后盾。所以我说道,你知道,我听说在人类社会中,在道德和伦理推理和行为的某些非常基本的层面上,存在着许多共同点。我说,但我并不完全理解所有这些。她说,哦,是的。

文化人类学家称之为doxa。我说,“Doxa?从未听说过这个词。告诉我关于doxa的事情。”结果doxa恰好有两个我喜欢的特性,并且是我最终基础问题的答案,那就是doxa不是天生的。你不是与生俱来的。因此,你必须学习它。所以,如果你能学习它,并且你能弄清楚它是如何学习的,那么人工智能也能学习它。

所以这是你的文化价值观?你的文化体系?让我说完。第二个,不。答案是否定的。好的。因为它在所有文化和社会中都很常见。第二个特性是他们无法写下来。优势在于,他想让我们提问或其他什么。这

好吧,让我们完成这个想法。这很重要,关于这个的最后想法。这是本书的关键部分,doc会议。我们现在不想打断他。这是一个关键部分,因为它确实回应了每个人都在问的这个修辞问题,那就是谁的,你知道的。谁的价值观?所以我喜欢它被学习并且无法写下来的事实

是我不必让任何人争论它的描述是否正确。而且,你知道,你可以窃笑,但事实证明这实际上非常重要。如果它没有写下来,它从哪里来?你怎么知道该放什么?好吧,它是被学习的,对吧?所以我们实际上围绕这一点做了一系列实验。所以事实证明它基本上就像民间传说一样。

所以我们说,“好吧,这是怎么回事?”所以我们做了一个令人着迷的实验。那就是,他说,“好吧,如果我能......”我的意思是,思想实验是,“好吧,如果我能拿一个传感器包,你知道,就像人类一样,我把它放在婴儿旁边的婴儿床里,那么,你知道,无论婴儿如何学习,它都会看到相同的东西,听到相同的东西,做相同的事情,它也会学习它们。有捷径吗?”所以我们开始问自己,

我想知道人类是否使用任何人工制品来帮助他们进行这些事情的民间传说传播。一些聪明人说儿童寓言,故事的寓意。所以我们实际上做了一个小实验,我们实际上从英国和美国收集了一堆儿童寓言,并且基本上用这些东西训练人工智能。我很想看看那个。

然后我们用它来说,好吧,现在根据与道德推理相关的问题来管理这个小玩具人工智能。它基本上似乎不仅理解每个故事,而且还将其整合到一个处理更复杂问题的模型中。

道德和伦理推理。所以回到某种普遍的几乎是价值观。对。它从未被明确地写下来。几乎所有社会都有这些他们告诉孩子并随着孩子长大而指导他们的故事。

所以这是我们今晚的教训。这就是你今晚的教训。阅读你童年的故事,你的民间传说。不,大问题是你可能不会读它们,因为你已经知道了它们。你已经知道了它们。你应该做的是思考它们。是的。好吧。但实际上社会最终会推翻很多这些东西。是的。

通过告诉你你的文化应该做什么或相信什么。这是另一天的另一个话题,因为我很想更多地谈论文化人类学、民间传说等等。这是一个很棒的地方。我觉得我在打断。对不起。

你们可以做一个五小时的播客,我会......好吧,我们只是触及了它的表面。书中有很多内容需要讨论。非常感谢。我们确实向我们的参与者承诺了一些提问的机会。所以我会回答一些问题。

在房间里。请举手,如果你有问题,当麦克风,等到麦克风到你这里,当它来了,请表明你的身份,你知道,你是学生还是校友,等等,然后提出你的问题,请保持简短,并确保它是一个问题。你知道他的意思。有很多手举起来。好的,我们现在在哪里?你身后的那个。那边?

如果人工智能和算法的趋势不计算人类参与,人工智能如何保护人权的价值?相反,它被用来维护精英的利益。好的,有趣的问题。我没有完全听懂。你必须再说一遍。你想重复你的问题吗?而不是让我总结它?如果人工智能和算法的趋势不计算人类参与,人工智能如何保护人权的价值?相反......

不计算什么?它在数据集中不计算人类参与,而是被用来维护精英的利益。好的。你想接这个吗?那是给克雷格的。好吧,我不知道,我想关于DOCSA的最后讨论可能是我能给你的最接近的简短答案,关于如何,至少在我提出的仲裁系统中,记住我现在建议的任何东西都还没有被实施。

所以行为,公司在做什么,政府在做什么,现在并没有受到任何这些东西的指导。所以我实际上试图以某种方式引入这些非常基本的人类价值观、伦理、道德等,而它们实际上并没有被写下来,没有被统一地表达,并且在某些情况下很难

使用这些东西的经典思想来表示或将其考虑在这些机器的行为中。所以,至少快速回答一下,我认为这就是我试图做的,但这将是,这是一种与迄今为止我所知道的任何尝试都截然不同的尝试方法。嗨。我来自互联网早期的活化石,当我们开始时,我们认为互联网将是伟大的均衡器

然后出现了社交网络,证明我们完全错了。问题是,人工智能是否会因此让我们更加不正确?更不正确?在互联网成为伟大均衡器的情况下,由于控制社交网络和全球平台的公司也控制着将放大其权力并削弱普通人或类似99.9%人类社会权力的AI,情况是否会更糟?

我可以开始那个吗?我的意思是,我认为这是关于我们现在做出的选择。你知道,这就是为什么当我看到正在进行的对话,以及,你知道,我特别与学术界的人交谈时,

我觉得人工智能素养必须是第一位的,因为如果你不了解它的基本工作原理,你就无法进行这样的对话,也无法谈论如何引导机器朝着正确的方向前进。我们必须超越这种人工智能是魔法的观念,并开始真正理解它才能做到这一点。在过去几周里,人们对开源的承诺与人们经常比较的承诺进行了大量的讨论,

开源是一种承诺,我认为在教育中,我们有时将开放教育资源视为美好的事物,因为它们是安全的,并且是包含的,但开源人工智能我不确定你是否可以以同样的方式进行比较。

但对我来说,我只是想说,我的意思是,我认为这就是为什么我们所有人的素养都如此重要。因此,我们能够提出那些困难的问题,以便我们可以反驳诸如,你知道,你是否希望科技公司首席执行官为你决定你的政治政策?或者你想自己决定吗?你是否希望存在一个技术国家联盟?或者你是否相当喜欢你文化中的规范和你的doxa?你知道,我认为我们正处于一个非常重要的时刻

现在我们必须毫无疑问地做出这些选择。我对这个平等问题持乐观态度,基辛格25年前考察了计算和互联网在个人层面的到来,他的第一个比较是他说:“我认为这是自印刷术发明以来最重要的事情。”印刷术是触发性技术插入

最终导致欧洲社会彻底转型。它带来了文艺复兴,它带来了启蒙运动,它带来了威斯特伐利亚条约,让你拥有我们今天都生活在其中的民族国家。然后他谈到了人工智能问题,他说:“好吧,这更大。”但即使在25年前,他的担忧是,

与印刷机时代相比,他说,你知道,那花了几个世纪。这似乎会发生得更快。在我看来,这是一个有先见之明的评论,因为他预测了我们现在正在观察到的情况,那就是我们的机构实际上并没有能够适应这些技术的普遍采用所导致的变化速度。所以你可以说那里存在差距。现在加入人工智能。

亨利将他一百年生命中的最后五年都投入到这个问题中,那就是我们如何帮助社会开始思考这将更快地传播的更大影响。因此,你必须从机构上我们没有为这种变化做好准备的假设开始。

你知道,我认为这正是我们必须谈论的另一方面,许多掌握在政府手中并且在全球范围内普遍失败的事情的民主化,例如教育、医疗保健,你知道,可以通过这些技术的到来以戏剧性的方式进行转变,你知道,我昨天在牛津,你知道,有人问我一个关于教育的问题,我说我个人的信念是

教育体系必须彻底改变,因为现在每个孩子从小就开始,我绝对要说没有技术或成本上的原因,他们不应该有一个私人苏格拉底导师带他们去任何他们想要的地方,以任何他们想要的速度学习。现在这留下了一系列关于社会化和其他我们可以用其他方式解决的问题。现在牛津大学的一位人士说,我们仍然在这里这样做。

我说,是的,但问题是它不可扩展。这就是为什么我们最终拥有我们所拥有的教育机制。但是没有理由认为仅仅通过更多地使用人工智能来调整当前的教育系统就能达到重新思考以人工智能为中心的学习环境中的教育的好处。

对我来说,每一个这些问题都归结于人工智能介入所有这些问题所带来的根本性变化。

作为从事数字教育的人,我可以补充一点吗?这些是我们经常听到的事情,当人们听到人工智能将改变教育时,我们也会得到很多抵制。事实上,我想说,这就是我所在地方的触发因素之一。但这是一个信任问题。

这是一个信任问题,但实际上这就是为什么在我们谈话的过程中,我非常热衷于深入了解实施部分的策略,因为是的,我同意你的观点,例如,现在孩子们可以有一个苏格拉底导师,但我们如何才能达到这样一个系统,在这个系统中,这实际上是常态,我认为是的,威斯特伐利亚条约1648年结束了30年的宗教战争

这是我们无法掩盖的部分。印刷术确实改变了欧洲社会,但有很多斗争、冲突、死亡、痛苦和破坏。我受过历史学家的训练。所以我们不能仅仅掩盖这种转变,然后说我们将进行转变。因为从我对历史,特别是文化史的研究中,我意识到

我们知道我们必须做什么,这就是为什么我最近对人工智能如此感兴趣。我们知道我们必须做什么,我们知道我们可以做什么,但我们还没有弄清楚如何做,我们没有回答这个问题。我认为对于每一个感兴趣的人来说,再次,这就是为什么我认为素养、政策和行动是关键。基辛格受过历史学家和哲学家的训练。是的,我知道。他对他在95岁时学到了多少东西印象深刻。这令人难以置信。但有趣的是,当他指出印刷机时,他说这是一个触发器。

是的,完全正确。在他所有的经验中,你知道,他本人将计算视为一个触发器。是的。人工智能本质上是新的也是最大的触发器。所以我们才刚刚开始。这意味着变化将会到来。是的,100%。我同意这一点。这只是一个混乱程度的问题,你知道,随之而来。

所以我们同意至少会有混乱。我自己的经验是在所有这些事情中,当你想改变事情或看到改变的需要时,只有两种方法。伟大的领导力或危机。没有别的了。

所以你只需要问问自己现在关于伟大领导力的事情。现在有很多手。每个人都自愿成为一位伟大的领导者。我应该从我们的在线观众那里得到一个问题。伦敦政治经济学院的校友兼律师伊恩·谢里丹说:“对于人工智能,中国重视国家控制,欧盟重视监管,美国重视自由市场。”你可能同意也可能不同意这种说法,但他的问题是,“这三个行为者如何制定共同的全球规则?”

关键答案是我的提议中,规则之间没有任何共同之处。非常重要的一点。共同的是在上下文中执行规则的架构。这是一个完全不同的交易。我同意问题中隐含的问题是,一开始寻求共同点或共识是一场失败的努力。

随着时间的推移,唯一能改变规则的是那些展示新方法的人,人们说,我喜欢这个比那个更好。然后这种采用基本上推动了变化。你们每天都在使用和使用的绝大多数技术,都是这样发生的。尤其是在软件领域,对于这些东西将如何工作、运行、互操作等规则,并没有事先达成协议,

我认为这部分是人们担心的原因。例如,社交媒体是人们经常比较的一个,对吧?他们说,这就是我们偏离轨道的地方。很好,但我坚持我的说法。我明白了。如果你想在所有社交媒体中放一张图片,

这怎么可能?因为我们决定使用JPEG文件。我可以回答律师的问题,只是说一件事,这实际上是书中的一句直接引语?因为我一直都在思考这个问题。我是爱尔兰人,所以我是欧盟公民。我住在英国。我也在北美长大。所以我一直都在看这件事的每一面。在书中,我摘录的一句引言是你们集体说我们不能指望团结。

但这里有一句引言:“有些人认为这是在风暴中稳定自己的锚,而另一些人则认为这是束缚我们的皮带。”所以这几乎就像我们甚至还没有,我们甚至无法达成一致意见的规则,因为我们甚至还没有作为一个文化,作为一个世界,决定规则是否是一件好事。欧盟想要规则,想要法规,但例如欧盟中的爱尔兰,现在正处于相当分裂的状态,因为它的许多企业都在美国。是的。

这很棘手。我没有答案。我在伦敦政治经济学院的DSI任教。因此,鉴于这种历史视角,在大炮时代和火药时代,城堡停止建造。你认为哪些机构将在你预见的这个混乱时代幸存下来?

在人工智能出现之后,你还认为谁最适合在教育或仅仅为我们提供前进方向方面提供领导?是那些充满工程师和物理学家的AI公司领导者,还是社会中的其他人?

我可以说一件事,然后把它交给克雷格?因为其中一件事,我再次回到这本书,因为这就是我今晚开始的地方,但在书中有一个建议,就像权力可能从民族国家转移到企业一样,书中还有一个我发现非常有趣的建议,那就是像现在或历史上,我认为是前现代的参考,你知道,人们有宗教信仰。所以你问哪个机构会持续下去,是政府、宗教等等,大机构,对吧?

书中的建议是,人们可能会从准宗教联盟和忠诚转向人工智能部落,我认为这是这句话。我必须承认,对我来说,

这让我有点心跳加速,因为我关注它,我一直在思考像有效利他主义运动这样的人,以及在人工智能领域已经发生的争吵,如果你观看那些辩论......

这并不是关于机构是否会幸存下来的答案,但如果这是宗教的未来,我不知道该说什么。教育,我担心教育作为一个机构。说实话,这就是为什么我个人谈论教育这么多。我认为我们真的需要关注即将到来的转变。至于政府和地缘政治,我认为你绝对是回答这个问题的人,可能是所有三个。很难在一个国家或国家一次性地评估这个

活动。我认为可能发生的事情是,从长远来看,将会有一些调整,这并非完全由于人工智能,而是很大程度上由于人工智能在许多领域的贡献。当我们乐观地思考它时,仅仅在发现和工程方面所带来的加速会发生什么,

通过它的出现。我们不是在谈论小的改进。达里奥在10月份发表了一篇论文,我也倾向于同意他的观点,他在论文中说他相信人工智能的到来将带来的改进更像是20倍的改进的阶跃函数,而不是20%的改进。他说,人们应该如何看待这一点?

转述一下,它说:“在人类当前的进程和速度上”,这非常好。在本世纪中,我们将按照当前的进程和速度所做的一切,一旦人工智能在未来三到四年内到来,可能将在2035年完成。这是机会、经济的根本性变化。我们可以成为一个太空物种。我们可以重新设计自己。

我的意思是,这不像对我们生活的世界和我们是谁进行调整。这些是间接回答你问题的因素,而不是以任何可预测的方式。但是,当我们决定时,这意味着什么,我的意思是,你可以看看像贝索斯这样的人,他更多的是出于慈善目的说,他的希望是最终会有万亿人。

他说:“但很明显,我不知道如何让他们都适应这块岩石。”所以让我们去建造太空殖民地吧。让我们成为探险家吧。我的想法是,我认为他的想法是,随着这种技术带来的工程和科学能力的加速,这不再是科幻小说了。但是如果你要在太空中安置比这里居住的人更多的人,那么我们应该

调整他们以更好地适应在太空中长期生活,因为我们都被自然选择来生活在这里,这些问题将是人类必须面对的现实问题,因此许多问题,例如哪些国家会幸存下来,我不知道,你知道,当在未来一百年中,太空中的人比地球上的人多时,我不知道这意味着什么,并且

在某个时刻,你必须意识到,在我们现在做出的决定中,人工智能正在发展,在书中,你知道,我们说,与我们以前所做的一切不同,这件事经历了三个阶段,而不是一个阶段,人类历史上建造的一切,我们都用作工具来放大我们的物理或智力能力,这是第一件事,工具不是最终状态。它是起始状态,并且

在书中,我们说第二阶段是共存。当人类同意或承认我们实际上已经诞生了一个新的非生物物种,它是有智慧的,并且比人类更聪明时,共存就开始了。所以,你知道,今天有很多人四处奔走做合成生物学,是的,他们实际上正在创造新的物种,对吧?他们至少现在不是超级智能的,而且他们是生物的。

在这里,我们正在做另一件事,那就是我们正在使它们变得超级智能。它们只是不是生物的。当你进入这个阶段时,你突然发现自己处于一种必须说,哇,我们现在处于这种伙伴关系中的境地。在这个可以帮助我们做历史上无法想象的事情的东西之间,但它走的是自己独立的道路。我们最终必须使这两个物种之间的共存合理化和协调。

我们说第三阶段是在人类基本上选择了他们的进化道路之后到来的。然后我们都进入一个共同进化的状态,很难知道这将在哪里结束。但总的来说,你知道,你可以说只有三种可能的结果。一种结果是一个真的领先于另一个,并且只是选择忽略它并前进。

落后于另一个,我的意思是有些人说,它不会忽略它,它只会让我们成为宠物或摧毁我们,或者其他什么,但随后他们会查看人类相对于地球上智力较低的物种的行为,并说我希望他们不要像我们一样行事,但是然后你说,好吧,让我们让我们不要想要那个结果。好吧,也许你像光谱的另一端一样,并且

我们做出了选择,它正在进化,我们决定,哇,这是一个长期的共生关系,我们只是快乐地走向外太空或其他什么。你会说,好吧,这可能很有趣。然后你可能会说,哇,如果一加一等于三呢?

我们决定我们已经通过设计进化了人类物种。它已经进化了,我们决定,嘿,我们应该杂交成一个不仅仅是碳或不仅仅是硅的东西,而是这些东西的某种组合。在我看来,从工程的角度来看,这是完全可行的。

所以这些东西多年来一直是真正的科幻小说写作的领域。而人类现在将像在其他情况下一样,面临这些可能成为现实的情况。我们在未来几年做出的选择,当这件事正在发展和出现时,将决定,为人类将主要走向的方向定下基调。然后这会让你进入这些更长期的案例。

谁知道这将持续多久,100年、200年、300年。我们见证了整个文艺复兴以及其他一切。那花了300年。这可能会发生得更快。如果你没有读过这本书,那么带回家的信息就是对你的AI好一点。因为说真的,如果他们知道你有点混蛋,他们会知道的。是的,好的。

贡献者:Craig Mundie,Mairéad Pratschke | 随着人工智能吸收数据、获得自主权并在人类与现实之间发挥中介作用,它将帮助我们应对气候变化、地缘政治冲突和收入不平等等巨大的危机。 但它也将带来前所未有的规模和强度的挑战。 合著者 Craig Mundie 解释了他的新书如何概述了驾驭人工智能时代的策略,在盲目信仰和毫无根据的恐惧之间找到了平衡点。这是已故元老政治家亨利·基辛格的最后一部著作,与技术专家埃里克·施密特合作完成。 Mundie 谈到了这本书试图回答我们这一代人一些最重要的问题:人工智能将如何改变我们对现实的感知?在人工智能时代,人类在发现新知识中的作用将如何演变?需要什么新的控制形式来应对人工智能的自主能力?人工智能能否推动人类进化的新阶段?</context> <raw_text>0 最后是一些冷静乐观的结语。非常感谢 Craig 和 Mireille。这是一场引人入胜的讨论。很抱歉我们没有回答所有人的问题,但之后会有时间进一步讨论。我们邀请大家参加在外面举行的酒会。Craig 也将在那里签售他的书。所以,请大家谢谢你们的到来。我要感谢 LSE 活动团队和 DSI 活动团队,特别是 Ellie Finlay。谢谢。

感谢您的收听。您可以在您最喜欢的播客应用程序上订阅 LSE Events 播客,并通过留下评论帮助其他听众发现我们。访问 lse.ac.uk/events 了解接下来有什么活动。我们希望您很快能参加 LSE 的另一个活动。