cover of episode 909. The Existential Threat of AI to Human Civilisation 😃 (Topic & Vocabulary)

909. The Existential Threat of AI to Human Civilisation 😃 (Topic & Vocabulary)

2024/11/19
logo of podcast Luke's ENGLISH Podcast - Learn British English with Luke Thompson

Luke's ENGLISH Podcast - Learn British English with Luke Thompson

AI Deep Dive AI Chapters Transcript
People
G
Geoffrey Hinton
L
Luke
警惕假日季节的各种欺诈活动,确保在线交易安全。
Topics
Geoffrey Hinton: Hinton表达了对AI潜在威胁的持续担忧,特别关注AI超越人类智能并试图控制人类的可能性。他认为大型语言模型并非简单的统计技巧,而是对大脑理解语言的复杂模拟,这使得AI的潜在危险性更加令人担忧。他强调了AI在军事领域的应用缺乏监管,以及AI可能加剧社会经济不平等的风险。 Luke: Luke总结了Hinton的观点,并补充了一些自己的看法。他认为AI可能带来的威胁不仅仅是科幻电影中描绘的AI主动攻击人类,还包括AI被人类用于军事目的,以及AI导致的社会经济不平等。他还探讨了AI的认知能力与人类大脑的相似性,以及AI自主做出致命决定的风险。Luke还讨论了国际监管的缺失以及经济差距加剧的问题。 Faisal Islam: Islam作为采访者,引导了话题,并就AI的潜在威胁、控制AI的可能性、AI的军事应用以及AI对社会的影响等问题向Hinton提问。

Deep Dive

Chapters
This chapter introduces the topic of AI's existential threat to human civilization, focusing on the potential for AI to exceed human intelligence. It explores the implications of this development, including job displacement, economic inequality, and the potential for AI to make lethal decisions autonomously.
  • AI's potential to surpass human intelligence in the coming years is discussed, raising concerns about control and existential threats.
  • The positive and negative impacts of AI are explored, highlighting the need to understand its implications.
  • The risks of AI taking autonomous lethal actions and widening the wealth gap are discussed.

Shownotes Transcript

本期节目探讨了人工智能与人类文明这一重要主题,并讲解了大量相关的词汇。我分析了对一位人工智能专家的采访,并探讨了许多用于讨论此主题的单词和短语。这包括讨论人工智能的潜在利弊,它将如何影响就业市场、全球安全和经济,以及如果(以及何时)人工智能超过人类智能会发生什么。查看剧集 PDF 以获取成绩单和详细的词汇表。📄 获取 PDF 👉 https://teacherluke.co.uk/wp-content/uploads/2024/11/909.-The-Existential-Threat-of-AI-to-Human-Civilisation.pdf💻 我的网站上的剧集页面 👉 https://teacherluke.co.uk/2024/11/19/909-the-existential-threat-of-ai-to-human-civilisation-topic-vocabulary/ 在 Acast+ 上注册 LEP Premium 并将高级剧集添加到手机上的播客应用程序中。https://plus.acast.com/s/teacherluke。

<raw_text>0 只有 Boost Mobile 在您购买新的 5G 手机时才能为您提供一年的免费服务。哦,就像 BOGO 一样。BOGO?买一送一,BOGO。好吧,从技术上讲,它是买一部手机,送一年。所以,BopGoy。啊,BopGoy。获得 Boost Mobile BopGoy 优惠。Boost Mobile 提供 BopGoy。BopGoy,BopGoy,BopGoy。

这是我们有史以来最好的主意。购买符合条件的设备后,您每月可获得 25 美元的折扣,共 12 个月,积分总计为一年的免费服务。设备和服务计划需另加税。仅限在线。这是一个 PSA,或公共袜子公告。专家们宣布 Bomba 袜是温暖冰冷双脚的最佳方式。这些袜子超级柔软舒适,设计旨在最大限度地提高舒适度。此外,每购买一双,就会捐赠另一双,因此有需要的人可以在这个冬天保持温暖。

访问 bombas.com/ACAST 并使用代码 ACAST 即可享受首单 20% 的折扣。网址是 B-O-M-B-A-S dot com/ACAST,结账时使用代码 ACAST。您正在收听 Luke 的英语播客。有关更多信息,请访问 teacherluke.co.uk。

大家好,欢迎回到 Luke 的英语播客。您今天过得怎么样?我希望您一切安好。您还好吗?我希望如此。这里天气真好。这在宏观层面上并不重要,但我认为您可能想知道。阳光明媚。天气相当温暖宜人。

我录制这段音频时是十月份的下午。有点反常的温暖,但仍然很舒适。让我来告诉您您即将收听的这一集。首先,这一集有一个 PDF 文件,您可以点击剧集说明中找到的链接获取它。只需查看节目说明,您就会在那里找到 PDF 文件的链接,您可以下载它(如果您愿意的话)。如果您愿意,您可以边听边读

您可以边听边读,或者稍后再查看 PDF,因为本期节目中会有大量的词汇、词汇表和带有高亮显示词汇的文本等等。因此,我认为最好是回到 PDF 并查看所有这些词汇,也许,你知道,稍后再复习一下。这绝对有助于您记住它们。

无论如何,PDF 的链接在说明中,我现在就开始从 PDF 中朗读。所以我们开始吧,5、4、3、2、1。这是一个面向世界各地英语学习者的播客。在我的节目中,我几乎谈论任何事情,但我始终的目标是帮助您快速学习英语。

也许在这个过程中也能娱乐或激励您。在本期节目中,我将讨论人工智能对人类文明的生存威胁这一令人愉快的主题。因此,我将讨论人工智能这一主题及其在可预见的未来对人类文明的影响,无论好坏。

我将详细探讨和讨论这个主题,并在过程中解释一些词汇。希望这不仅对您的英语学习很有趣,而且也很有用,因为它会为您提供大量单词和短语,您可以用它们来讨论每个人都在谈论的这个主题。人工智能现在无处不在,但在未来只会更多地出现在我们的生活中,当然,我们都了解人工智能。

Chat GPT,我们很多人现在一直在使用它,包括我自己。我把它用作英语老师,特别是用来生成文本以在上下文中呈现语言。它作为一种生成英语例句以及许多其他有趣文本和内容的方式非常有用。

所以我们现在都习惯了生活中一定程度的人工智能。我应该说,显然 ChatGPT 只是现有和将要存在各种形式人工智能的一个小例子。但我们现在都习惯了生活中一定程度的人工智能。我们可能也意识到,关于人工智能的各种观点都在流传,既有正面也有负面观点。

与大多数技术一样,它可能会有正面和负面影响。但我不知道我们是否真的意识到人工智能在未来几年和几十年里将改变我们世界的全部程度。我的意思是,如果你看看不同的预测,这真的太疯狂了。而且没有危言耸听或疑神疑鬼……

由于人工智能技术的持续发展,我们可能会看到对一切的深刻而巨大的变化。危言耸听。如果你危言耸听,这意味着你可能对事情采取了一种略微恐慌的看法。就像你拉响警报,敲响警钟,好像在说,这是一个紧急情况,这真的很严重。

事实上,它并没有那么严重,也不是真正的紧急情况。这就是危言耸听的意思。也许是对某事反应过度,并且对正在发生的严重性或紧急程度反应过度。因此,在不危言耸听或疑神疑鬼的情况下,由于人工智能技术的持续发展,我们可能会看到对一切的深刻而巨大的变化。

这就是本期节目的主题。这就是我今天真正想谈论的。在我观看了一位世界领先的人工智能专家接受的采访后,我受到了启发,制作了这一集。我不知道,你可能也看过。这是一个在 YouTube 上流传的视频,BBC 晚间新闻对被称为人工智能教父的人的采访。我觉得它绝对引人入胜,同时也相当令人不安。

所以这是一个对诺贝尔奖获得者、人工智能教父杰弗里·辛顿的采访。这次采访是在今年早些时候在 BBC 晚间新闻上进行的,BBC 晚间新闻是 BBC 的一个晚间新闻和时事电视节目。这次采访随后在本月(十月)上传到 BBC 晚间新闻 YouTube 频道。这是我录制这段音频的月份。

这就是我看到的地方。所以这是视频描述。这是对采访的描述。因此,谷歌前副总裁、有时被称为人工智能教父的杰弗里·辛顿最近获得了 2024 年诺贝尔物理学奖。所以这个人曾经是谷歌的副总裁,并且……

被称为人工智能教父。所以这个人绝对是这个领域的专家。他最近获得了 2024 年诺贝尔物理学奖。他在 2023 年辞去了谷歌的工作。他辞职了。这意味着他辞去了工作。

我不确定确切的原因,但他去年辞去了在谷歌的职位,并警告了可能比人类更聪明的机器的危险。顺便说一句,如果您正在查看 PDF,您会看到一些单词和短语以某种橙色高亮显示,高亮显示,荧光笔。

这些是我在讲解过程中将要解释的词汇,并且在本期节目结束时也会进行总结。所以……

他在 2023 年辞去了谷歌的工作,并警告了可能比人类更聪明的机器的危险。所以,比人类更聪明意味着比人类更聪明。所以他谈论的是危险,即机器或未来的人工智能可能变得比人类更聪明,可能比人类更聪明的可能性。所以让我总结一下视频。

然后通读采访稿,给出我的解释和评论,当然还要解释和突出某些词汇。如果有时间,我会在最后做一个词汇回顾,当然在 PDF 上你会看到一个完整的词汇表,其中包含定义、例句和评论。所以,BBC 晚间新闻的采访是

它可以在 YouTube 上观看。我不会在本期节目中直接播放采访的音频,但我可以为您提供视频的摘要,并且我会从视频的文字记录中朗读。以下是视频的摘要。基本上,专家们认为人工智能将在 5 到 20 年内超过人类智能,这引发了人们对潜在控制和生存威胁的担忧。

好的,所以专家们认为人工智能将在 5 到 20 年内超过人类智能。它将超过人类智能,这意味着它将变得更大,对吧?它会更高。人类智能在这个水平上,而人工智能会更高。

达到比那更高的水平。它将在最多 20 年内超过人类智能。引发担忧,意思是让人担忧。所以,如果你对某事表示担忧,这意味着人们对某个主题的担忧或焦虑加剧了。它们上升了,对吧?提高某事意味着让某事上升。

上升意味着上升。所以人们的担忧加剧了,而这些信息加剧了人们对潜在控制和生存威胁的担忧。潜在的意思是可能的,它可能在未来发生。这是未来可能发生的事情。所以潜在的威胁,未来可能发生的威胁。

我们谈论的是潜在的控制威胁,这意味着我们是否能够控制这项技术以及生存威胁,这意味着对我们人类存在的威胁,这听起来有点……什么词来形容它?正如我所说,疑神疑鬼,也许是危言耸听。

但实际上,当你听到这个人要说的话时,你会意识到,对这些威胁、潜在危险产生这些恐惧实际上是相当合理和理性的。

以下是采访中所说内容的重点,我将在本期节目的后面详细介绍这些内容。但这里是对主要观点的总体概述。首先,正如我所说,人工智能预计很快就会超过人类智能。许多专家担心先进人工智能带来的生存威胁。

先进人工智能带来的生存威胁,即人工智能代表或构成或构成对人类文明的巨大威胁。我们的存在受到威胁,所以它构成了生存威胁。大型语言模型可能与人脑的工作方式类似。所以当我们谈论大型语言模型时,我们谈论的是像 chat GPT 这样的东西,它们是……

基于将海量语言数据输入系统的人工智能形式,对吧?所以,本质上,ChatGPT 是一个大型语言模型。其智能的基础是语言,它被输入了大量的语言样本,然后对其进行处理,这就是其智能的基础。所以

这很难理解。我觉得这真的很难理解,但我也觉得它非常吸引人,因为……大型语言模型如 ChatGPT 可能与人脑的工作方式类似。所以这本质上是说,像 ChatGPT 和人脑这样的东西实际上可能以非常相似的方式运作。

以非常相似的方式,因为语言可能是理解人类思维或人脑处理事物方式的关键,语言绝对是我们智力的核心。如果你创造一台某种程度上基于语言的机器,它利用其正确处理语言的能力,

作为其智力的核心,你最终可能会得到一些与人脑非常相似的东西,我觉得这很有趣。

我们继续。因此,人工智能采取自主致命行动的风险是巨大的,这相当可怕。因此,人工智能采取自主合法,不是合法,自主致命行动的风险。致命行动是指可能杀死人的行动。所以致命是指可能杀死的东西。

所以致命行动是指可能杀死人的事情,而自主致命行动。自主意味着人工智能自己选择这样做。

对。它不需要被告知去做。它只是自己做,或者可能是它被赋予的某些其他指令或命令的结果。但基本上,我们谈论的是人工智能选择杀死人。而这种风险是巨大的,巨大的,意思是其整体重要性很大。

好的,所以实际上人工智能实际上决定杀死人类的可能性很大。再说一次,听起来很疑神疑鬼,很危言耸听,但是,你知道,拭目以待吧。因此,对军事人工智能应用的国际监管不足。因此,国际监管,这基本上是应用规则来控制事物。所以,你知道,不同的司法管辖区是

全球性的或地方性的,例如欧盟法律或某种全球公约。这就是我们所说的监管。所以控制事物的规则和法律体系。所以军事人工智能的国际监管。这是用于军事应用的人工智能。所以当我们说应用时,这意味着不是您手机上的应用程序,而是

在用途上,在这种情况下,人工智能的使用方式。所以那是军事应用,那就是将人工智能用于军事目的。所以对它的监管不足。所以没有足够的控制或监管来限制人工智能在军事情况下的应用或使用。这是最可怕的方面之一。

此外,人工智能可能会加剧贫富差距,对吧?差距,这是富人和穷人之间的差距,好吗?存在巨大差异,富人和穷人之间存在巨大差异的事实。我的意思是,实际上,它的运作方式是,越来越少的人变得越来越富有,并且

所以你会陷入这样一种境地:少数人,极少数人拥有大部分财富。然后所有其他人,相对而言,只有很少的钱。所以你最终会在这个贫穷人和富人之间存在巨大的差距。所以社会上存在这种巨大的不平衡。所以人工智能可能会扩大这种差距,使其更大,使其更大。

对社会产生负面影响。而管道工可能是在人工智能时代最安全的职业之一。

管道工程是指某人家中,通常是住宅或建筑物等,所有处理水的系统。所以你厨房里的所有管道,你浴室里所有在你的公寓里输送水的管道。像那样基本和机械的东西。所以那是管道工程。

这实际上可能是您将来在人工智能时代可以选择做的最安全的职业之一。好的,这是相当严重的事情。好的,这是相当严重的事情。这是相当令人着迷的事情。这有点令人不安。

让我们进入采访记录。好的,现在我将朗读采访记录。听一听,跟着读,我之后会逐字讲解。所以首先,让我先通读一下剧本。我会对采访进行重建。

看看你是否能跟上所有内容。是的,我们稍后会在本期节目中逐行讲解这个剧本。好的,让我们开始吧。以下是文字记录。所以采访者费萨尔·伊斯兰与杰弗里·辛顿谈论人工智能对 BBC 晚间新闻的威胁。这并不一定意味着人工智能可能对 BBC 晚间新闻构成威胁。

这只是意味着采访是在 BBC 晚间新闻上进行的。我想你明白了。对吧。所以我们开始吧。这是剧本的开头。所以我首先问杰弗里·辛顿,他是否认为世界正在掌握人工智能问题,或者他是否像以往一样担忧。所以这是杰弗里·辛顿。我仍然像以前一样担忧,但我非常高兴世界开始认真对待这个问题。

特别是,他们开始认真对待生存威胁,即这些东西会变得比我们更聪明,我们必须担心它们是否会想要夺走我们的控制权。这是我们应该认真思考的事情,现在人们也认真对待这个问题了。几年前,他们认为这只是科幻小说。

以及采访者,从您的角度来看,从在这个领域工作的顶端,从发展了支撑我们现在看到的人工智能爆炸的一些理论来看,这种生存威胁是真实的吗?是的。所以,有些人认为这些东西并不真正理解。它们与我们非常不同。它们只是在使用一些统计技巧。

事实并非如此。例如,早期的大型语言模型是作为大脑如何理解语言的理论而开发的。它们是我们目前拥有的关于大脑如何理解语言的最佳理论。我们并不真正理解它们是如何工作的,也不真正理解大脑是如何工作的,但我们认为它们可能以相当相似的方式工作。是什么引发了你的担忧?这是两件事的结合。

玩大型聊天机器人,尤其是在 ChatGPT4 之前谷歌的一款,还有 GPT4,它们显然非常称职。它们显然理解很多东西。它们拥有的知识比任何人都多。它们就像一个在几乎所有事情上都不太好的专家。所以这是一个担忧。

第二个是开始理解它们是一种高级智能的方式,因为你可以制作许多相同神经网络的副本。每个副本都可以查看不同的数据,然后它们都可以共享它们学到的东西。所以想象一下,如果我们有 10000 人,他们都可以去学习某方面的知识,有效地分享他们学到的东西,然后我们都会获得 10000 个学位。然后我们会知道很多东西。

我们无法像相同神经网络的不同副本那样有效地共享知识。所以这里的关键问题是它可能会超过人类智能?确实,会大大超过人类智能。很少有专家对此表示怀疑。我认识的几乎所有人工智能专家都认为它们会超过人类智能。这只是一个时间问题。在那时,控制它们真的非常困难。

好吧,我们不知道。我们以前从未处理过这样的事情。有一些专家,像我的朋友扬·勒丘恩,他认为这没问题。我们会给他们设定目标,这没问题。他们会按照我们的吩咐去做。他们会服从我们。还有一些专家认为他们绝对会接管。鉴于意见的巨大差异,我认为谨慎行事是明智的。

我认为他们有机会接管。这是一个很大的机会。不像 1%。更多,采访者。它们不能被限制在某些领域,比如科学研究,而不是,例如,武装部队?也许吧,但实际上,如果你看看所有现行立法,包括欧洲立法,其中都有一个小条款,说明这些都不适用于军事应用。

各国政府不愿意限制他们自己出于国防目的的使用,采访者。我的意思是,即使在当前的冲突中,也有一些证据表明人工智能被用于生成成千上万的目标。是的。我的意思是,自从你开始警告人工智能以来,这种情况就发生了。你担心的是那种途径吗?我的意思是,这是楔子的薄端,采访者。

我最担心的是当这些东西可以自主地做出杀死人的决定时。所以,机器人士兵?是的,那些或无人机等等。我们也许可以得到类似日内瓦公约的东西来规范它们,但我认为这不会发生,除非发生非常糟糕的事情。这里有一个与曼哈顿计划和奥本海默的类比。

如果我们在七国集团发达民主国家中限制自己不进行军事用途,那么在中国发生了什么?在俄罗斯发生了什么?是的,这必须是一项国际协议。但是如果你看看化学武器,化学武器的国际协议运作得相当好。我的意思是,你是否对俄罗斯这样的地方是否解除了枷锁有任何感觉?

普京几年前说过,谁控制了人工智能,谁就控制了世界。所以我认为他们正在非常努力地工作。西方在研究方面可能领先于他们。我们可能仍然略微领先于中国,但中国投入了更多资源。就人工智能的军事用途而言,我认为将会有一场竞赛。

采访者。这个论点,这个论证思路听起来非常理论化,但你真的非常担心灭绝级别的事件。我们应该区分这些不同的风险。使用人工智能进行自主致命武器的风险并不取决于人工智能是否比我们更聪明。这与人工智能本身会失控并试图接管的风险是完全不同的风险。

我担心这两件事。自主武器显然会到来。但是人工智能是否会失控并试图接管,这是我们可能能够控制的,也可能不能控制的。我们不知道。所以在这一点上,在它比我们更聪明之前,我们应该投入大量资源来研究我们是否能够控制它。

采访者,你认为社会会如何发展?哪些工作仍然存在?是的,我非常担心人工智能会接管许多平凡的工作。这应该是一件好事。这将导致生产力大幅提高,从而导致财富大幅增加。如果这些财富得到公平分配,那就太好了。但事实并非如此。

在我们生活的制度中,这些财富将流向富人,而不是那些失去工作的人。我相信这对社会来说将非常糟糕。所以它会加剧贫富差距,这会增加右翼民粹主义者当选的机会。

采访者,所以明确地说,你认为工作变化带来的社会影响可能如此深刻,以至于我们可能需要重新思考政治,我不知道福利制度不平等绝对普遍的基本收入,是的,我当然相信普遍的基本收入,但我认为这还不够,因为很多人从他们所做的工作中获得自尊

如果你让每个人都获得普遍的基本收入,那就解决了他们挨饿和无法支付房租的问题。但这并没有解决自尊问题。那么呢?你只是尝试……政府需要介入吗?我的意思是,这不是我们在英国做事的方式。我们倾向于退后一步,让经济决定胜者和败者。是的。

实际上,唐宁街的人向我咨询过,我建议他们普遍的基本收入是一个好主意。你说了,有 10% 到 20% 的风险会被接管。你是否更确信这必须在未来五年内,也许是下一届议会中得到解决?我的猜测是,从现在起 5 到 20 年内,大约有一半的概率我们将不得不面对他们试图接管的问题。

你对各国政府迄今为止为控制这种情况所做的努力印象深刻吗?我对他们开始认真对待这个问题印象深刻。我对他们中没有一个愿意规范军事用途感到印象不深刻。而且我对大多数法规都没有效力感到印象不深刻。你认为科技公司是否因为需要在这场人工智能竞赛中获胜而放松了对安全的警惕?

我不了解一般的科技公司。我非常了解谷歌,因为我曾经在那里工作过。谷歌非常关注这些问题,谷歌没有发布大型聊天机器人。如果它们撒谎,它会担心自己的声誉。但是一旦 OpenAI 与微软开展业务,微软开始使用聊天机器人,谷歌别无选择。

所以我认为竞争会导致这些东西迅速发展,而竞争意味着它们不会在安全方面投入足够的努力。人们,父母,与他们的孩子交谈,给他们关于未来经济的建议,他们应该做什么工作,他们应该学习什么专业。在我所描述的世界中,世界似乎正在被抛向空中。

你现在会建议某人学习什么来应对这波浪潮?我不知道,因为很明显,许多中层知识型工作将会消失。如果你问我哪些工作是安全的,我对安全工作的最佳猜测是管道工,因为这些东西还不擅长体力操作。这可能是他们最不擅长的事情。以及驾驶?驾驶怎么样?不,驾驶,不,那没希望。

这比预期的要慢,但它会消失。新闻工作可能会持续一段时间,但我认为这些东西很快就会成为相当好的记者,而且可能也会成为相当好的采访者。好的,非常感谢你的时间。不客气。好的,就是这样。那是采访本身的剧本。现在,我将稍后逐字讲解该文字记录,帮助您理解一切。但是首先……

让我们看看采访中的关键见解。所以这是另一个总结,可以说是采访主要观点的总结,但只是用我的一些想法和评论稍微扩展了一下。请原谅我喝点茶。请原谅我喝点茶。对不起。小吉米·亨德里克斯时刻。好的,以下是采访中的关键见解。首先,即将到来的智能转变。这里的转变是指运动,对吧?

显然是从人类到人工智能的转变。大多数专家都同意,人工智能将在未来几年超越人类智能,这突出了了解其影响的紧迫性或重要性。超级智能人工智能可能对我们构成威胁,也可能不会,但由于它可能对我们构成危险的可能性为 50/50,因此谨慎行事是明智的。它如何以及为什么对我们构成威胁?

是一个问题。现在,它可能不是科幻版本,这基本上就像我们在电影中看到的那样。你知道,人工智能突然决定人类必须死,原因不明。所以它可能不是那个版本,但人工智能仍然可能以各种方式严重地破坏我们的社会稳定。

控制方面的挑战。随着人工智能变得越来越强大,控制其行为可能会越来越困难,从而引发伦理和生存问题。这就是我们在《终结者》和《黑客帝国》等电影中看到的经典科幻故事情节。人工智能获得了自我意识,无法控制。然后它将人类视为对其生存的威胁。

或者它可能认为人类是一个需要解决的问题。这有点像《复仇者联盟2:奥创纪元》中的情况。托尼·斯塔克开发了一种人工智能作为保护地球的工具。但由于某种原因,它变得邪恶,并决定人类需要被阻止。是的,公平地说……

也许会发生这种情况。也许超级人工智能会将人类视为需要解决的问题。继续看PDF,公平地说,人口过剩和人类行为可能是造成环境和社会崩溃的主要原因。

所以谁知道呢?也许人工智能会认为我们是威胁,并将采取行动阻止我们摧毁一切。也许它会像《复仇者联盟3:无限战争》中的灭霸一样,决定需要消灭一半的人类,以保证整个人类的生存。我的意思是,谁知道呢?

但正如我所说,这可能并不像人工智能选择杀死所有人类那样简单。可能是人类生命因人工智能的行为而受到威胁,特别是如果我们无法控制它的话。认知上的相似之处。认知指的是与思维方式有关的。相似之处指的是类似的事物。

像ChatGPT这样的大型语言模型的结构反映了人脑中的认知过程。所以它反映了它。它与人脑中的认知过程或思维过程非常相似。

它反映了它。它几乎与人脑中的认知过程或思维过程完全相同,这表明它们可能拥有独特的理解形式。所以也许即使是人工智能,像这样的大型语言模型,也可能对我们的思维方式以及成为人类的感受有相当深刻的理解。

也许我们处理语言的能力是我们智力运作的核心,而制造出像我们一样处理语言的人工智能是一种反向工程类人智能的方式。基本上,也许人工智能的思维方式与人类一样。也许它与人类的相似程度比我们意识到的要高得多。

我们可能正在研究与人类思维运作方式相似,但具有更大能力进行复杂决策、多任务处理、记忆、处理以及调用比大多数人类个体大脑中所能拥有的更广泛的知识资源的智能。所以这些东西的思维方式可能与人类一样,但能力要大得多。

记忆、调用集体知识、快速处理事物、多任务处理,你知道,某种超人的能力,然后我们继续讨论自主武器的风险,人工智能自主做出致命决定的潜力,这意味着自己选择这样做,构成了或带来了

严重的风险,需要立即采取监管措施。这意味着我们真的需要开始介入,制定限制人工智能在军事冲突中使用的全球法律。原因很明显,对吧?我的意思是,我们正在面临一场军备竞赛,就像,你知道的,就像冷战时期的传统军备竞赛一样。

太空竞赛等等。嗯,但是,你知道,嗯,存在很大的风险,因为,嗯,

任何关于人工智能的法规,它们总是在法律中有一条条款,大致意思是,实际上,这些规则都不适用于军事人工智能。因为每个人都非常担心保卫自己或试图与地球上可能更快地开发这项技术的竞争对手竞争。

因为没有人想处于这样一种境地:突然之间,他们面临着一个拥有更复杂人工智能并将其用于军事目的的敌人,因为那样的话,你知道,他们就会统治世界,对吧?但是我们需要找到一种方法让地球就一套法规达成一致,有点像我们对化学武器所做的那样。有一些国际法规定化学武器的使用。奇怪的是,战争法规有法律和规则。

你知道,战争罪之类的存在。战争是一个明确的事物。我们试图确保各国,即使它们互相作战,也尽可能遵守这些法律。从某种意义上说,当一个国家违反这些法律时,它们会立即成为坏人。你知道,各国发动战争并采取军事行动的方式很有趣

他们不断地管理他们在冲突中的地位,并试图避免成为坏人,或者试图避免证明他们是——让其他人证明他们在这种情况下是坏人。

当然,违反某些规范军事冲突的国际法,这绝对是一个迹象,如果你这样做,那么你可能在这种情况下是坏人。无论如何,我们需要立即采取行动,制定限制人工智能在军事情况下使用的规章制度、法律。

所以继续看PDF,人工智能肯定被用于军事目的,而且已经在使用了。当你考虑到它的效率和有效性时,这令人恐惧。这不仅仅是指人工智能像复仇者联盟电影中的奥创一样,这是一种获得自我意识的技术,就像终结者电影中的奥创或天网一样。

它获得了自我意识,然后决定进行机器人与人类的战争。相反,它确保控制人工智能的人类无法利用人工智能以极其高效且相当可怕的方式消灭他们的敌人。

播客节目中真是一个令人愉快的主题。也许在下一集中我会回到讲糟糕的笑话,但我只是觉得我必须谈谈这个。我看了这段视频,我被震惊了。我的意思是,所有这些事情都一直在我脑海里,我相信你们也是一样的,你们读到这些东西,这真是令人震惊,他们谈论的事情。以及通常只保留在科幻内容中的东西

你会认为,哦,这只是一个戏剧性的科幻故事。但这些事情正变得越来越接近现实。让我们继续下一个要点,即全球监管差距,这就是我一直在谈论的。目前的国际协议缺乏可执行性。执行法律意味着基本上适用法律并使其真正发挥作用。例如,警察可以执行法律,法院也可以执行法律。从本质上讲,

如果违反这些法律,则判处犯罪分子有罪。这就是我们如何谈论可执行性、执行法律、在现实世界中适用法律。因此,目前的国际协议在人工智能的军事用途方面缺乏可执行性。基本上,法律还不够强大或不够清晰,无法真正控制人们的行为。

可能导致各国不受控制的进步,对吧?不受控制,意味着不受监管。人类控制致命人工智能且没有任何规章制度的想法比人工智能自主试图消灭人类的想法更可怕。这是一个更现实的担忧,一方或一个派系……

在这种情况下,会突然获得极其先进和复杂的人工智能武器,他们会将其用于具有毁灭性后果的目的。就像核时代一样,已经出现了一场涉及人工智能的军备竞赛,其中竞争的权力集团正在竞相开发致命的人工智能系统,以防止一个派系拥有霸权。

结果可能是人工智能变得武装、危险、完全发展并准备造成破坏。这是一个让你快乐的想法。还有,经济差距。所以这不仅仅是天网和终结者从未来被送回来杀死家庭主妇等等。我们也在谈论经济影响,对吧?这可能是……

我的意思是,很可能同样具有破坏性。因此,人工智能的兴起威胁到加剧现有的经济平等性。所以是经济不平等。我说过不平等吗?我想是的。所以是现有的经济不平等。再次谈论富人和穷人之间的差距,有产者和无产者。

人工智能的兴起不会平衡这一点。事实上,它会加剧这种情况。这很可能会使情况变得更糟。促使人们考虑普遍基本收入和社会改革。普遍基本收入从本质上说就是每个人都获得一定数量的钱来生活。每个人都会得到,即使他们没有工作,每个人都会获得足够的钱来帮助他们生存。

这就是普遍基本收入的概念。因为如果你不这样做,那么你会看到社会的大部分人实际上由于社会中的不平等,经济不平等而陷入可怕的贫困水平。所以你基本上支撑着

整个人类文明,只是,你知道,基本上只是给他们钱。它还确保资金在经济中流动。这里的意思是,当少数人基本上拥有所有资金时,就像在垄断游戏结束时,当你的姐姐这次获胜,因为她拥有所有橙色房产、所有红色房产,以及她拥有深蓝色房产时一样,

还有紫色的,为什么不呢?她拥有所有这些东西。最后,她拥有了一切。她拥有所有的钱。游戏在此时结束。经济也是如此。如果你到了这种情况,你的0.1%拥有了一切,几乎如此。他们拥有所有财产。他们拥有所有的钱。他们拥有所有企业。

一切。社会将无法运作。它会崩溃,因为你需要车轮转动。你需要整个系统继续运转。那些企业主需要顾客花钱。你需要系统的流动性。你需要资金不断流动。因此,这将需要,从本质上说,拥有所有这些东西的人,好吧,我们会给你

我们会给你很多钱。这不会很多。我们会给你钱,只是为了让经济继续运转。这有点像你的姐姐赢了垄断游戏,她说,不,不,我不想停。所以我只会给你更多钱。每一轮,我都会给你500英镑,这样我们才能继续玩游戏。有点像那样。但杰弗里·辛顿,是这个名字吗?他实际上认为普遍基本收入最终是一个好主意。

所以我们正在讨论促使人们考虑普遍基本收入和社会改革。改革意味着改革社会,以某种重要的重大方式改变社会。工作保障。虽然许多脑力劳动可能会消失……

对吧?其中很多,包括英语教学,很可能。虽然,你怎么想?你会,你能,真的,你什么时候会放弃Luke的英语播客,转而使用最新的AI驱动的节目,你可以自己创建?你知道,这就是所有这些东西的未来,而不是不得不等待Luke的英语播客的下一集,而不是不得不

基本上接受我给你的东西,你可能只需要进入一些播客制作软件。我的意思是,你现在就可以做到。你进入一些播客制作软件,然后输入,你能制作一集关于……甜甜圈主题的Luke的英语播客吗?让它长30分钟,以适应我上班的通勤时间。好的。每45秒包含一个笑话,它就会做到。这将完全是你想要的。

你每次都可以这样做。然后,也许在你生成前10次之后,你只需对它说,继续制作这样的剧集。你知道,我喜欢的那种,继续下去,它就会继续做。然后就是这样。或者你会继续收听真正的Luke的英语播客吗?哪一个?所以,我的意思是,这只是一个例子,说明我作为播客制作人的工作可能会消失。我作为英语老师的工作,当然,

我的意思是,它已经受到人工智能语言模型的威胁。我的意思是,我现在将其用作教学助手,但在某些时候,这位教学助手将达到可以完全取代我的阶段。但是,你知道,你会这么轻易地拒绝我吗?无论如何,虽然许多脑力劳动可能会消失,但像管道工这样的实践技能,这是我之前谈到的,修理、维修家里的水管,

在街道上,诸如此类的事情,很可能会保持安全,这强调了未来工作准备的必要性。准备意味着准备好。好的,这再次是对采访中所说内容的概述。我们稍后将回顾采访,看看词汇等等。但在这一点上,我想问你,你怎么想

你怎么看待这一切?你的反应是什么?现在,当你观看像这样的视频时,专家会发出严重的警告,或者只是听我喋喋不休地谈论这一切,你的反应是什么?你可以在评论区写下你的反应。现在,也许你觉得自己想提出这样的批评。我将要读出一些评论,这些评论是基于我在BBC视频下评论区中读到的内容。

所以也许你想提出这样的批评。也许你想说这样的话。也许他,也许这位专家应该在他有机会的时候就应该做些什么。他是人工智能的教父。他帮助开发了所有这些。也许他应该考虑过这个问题,在他有机会的时候就应该做些什么。也许你会批评这位专家。

或者你可能会说这样的话。作为前谷歌员工,他是一个主流全球主义者,等等等等,诸如此类。你可能会被他为谷歌工作的事实而感到愤怒,你可能会对他是一个什么全球主义者的事情大发雷霆。我不知道。我不知道。你知道吗?你对此有任何想法吗?

或者你可能是那种说,你知道吗,我认为这一切都是夸大其词的废话。这一切都是危言耸听的废话。没有什么好害怕的。

或者类似于,新技术总是具有破坏性,但这没关系。印刷机发明时,每个人都担心。收音机发明时,每个人都担心,制造系统发明时,卢德分子砸碎了机器。我不知道。

你是这么想的,还是更像我?就我个人而言,我认真对待这一切,并将其视为它本来面目,一位专家给出他的专家意见。但我个人并不完全知道该如何处理这一切。

无论如何,让我们通过学习采访记录来仔细研究一下,我可以评论并解释一些语言。现在我们将回到记录的顶部,我将快速浏览它,并关注那些突出显示的词汇部分。好的,只关注澄清这些事情。

你知道,作为一个忙碌的妈妈,有很多方法可以帮助你入睡。你可以茫然地盯着天花板,重播你曾经进行过的每一次谈话,数绵羊,与你的枕头辩论,放弃咖啡因,尝试针灸,并购买一条会让你大量出汗的加重毯。或者你可以尝试一些牛奶,它含有支持健康睡眠的营养物质。访问gonnaneedmilk.com了解更多信息。为了所有人的缘故,请不要放弃咖啡因。

瑞安·雷诺兹在这里,我想,这是我第100个薄荷广告。不,不,不,不,不,不,不,不,不。我的意思是,说实话,当我开始做这个的时候,我以为我只需要做四个这样的广告。我的意思是,每月15美元即可享受无限高级无线服务。怎么会还有人支付两到三倍的价格呢?对不起,我不应该在这里指责受害者。准备好后,请访问mintmobile.com/switch试用一下。为

45美元的预付款相当于每月15美元。仅限前三个月计划的新客户。税费另计。速度在超过40GB后降低。查看详情。所以采访者说,我首先问杰弗里·辛顿是否认为世界正在掌握人工智能问题。如果你掌握某事,基本上意味着你控制住了它。好的?控制住它。例如,我需要掌握这个。那会是什么?嗯……

我真的很需要掌握。比方说,有人在工作中引进了一个新的计算机系统,你需要了解它的工作原理并真正掌握它。你可能会说,我真的很需要掌握这个新系统。我今天下午只花几个小时来弄清楚它。

我真的很需要掌握它。现在,你可以想象这个表达包含……好吧,你不用想象它。你只需要记住它包含单词grip,意思是握住某物,而不让它滑落。如果你握住某物,你就能控制住它,对吧?

对吧?这意味着掌握某事。我试图想另一个例子。比方说,你买了一台新笔记本电脑或一部新手机,你不了解操作系统。所以你需要花一些时间来掌握它,这意味着将所有事情都控制住,了解它的工作原理并能够使用它。你掌握了你得到的一些家庭作业。

意思是,你阅读任务,并尝试理解你必须做什么。你正在准备雅思考试。你真的很需要掌握这项考试。意思是了解它的工作原理并将其完全控制。在这种情况下,世界是否正在掌握人工智能问题?我们是否控制住了它?我们是否理解它?我们能否控制它?好的。然后我们有……

从你的角度来看,从你从事这项工作的高峰时期,这意味着在人工智能运动的高峰时期,你已经发展了一些支撑所有这些人工智能爆炸的理论。支撑人工智能爆炸的理论。如果某事物支撑着某事物,它基本上是一种基础。我想这必须来自……

比如制作衣服,制作服装,裁剪衣服,当你,比方说,如果你正在制作一件衬衫,你会在衬衫的某些部位使用别针,金属别针,你支撑着衬衫,将衬衫的不同部位固定到位,然后才能将衬衫缝合在一起。这就是支撑衬衫。这有点像连接或

将整个事物连接在一起的部件。这有点像建筑物的基础。所以你有支撑某事物的想法。例如,支撑我制作这个播客的方法的想法和概念是什么?很多都是基于,你知道的,多年来我作为英语老师所接受的培训。

所以语言应该在语境中呈现的想法,以及我作为老师学到的东西,当语言学习过程个性化时会有所帮助,无论你以何种方式学习语言。所以,当以个性化的方式而不是非个性化的方式向你呈现语言时,更容易获得语言。

以及许多其他事情。这些是支撑我制作这个播客的方法的想法。所以当我们谈论支撑某事物的理论或想法时,这意味着构成定义某事物工作方式的基础结构的事物,就像某事物的基础一样。好的,受访者发展了一些支撑某事物的理论。

人工智能的爆炸。好的,杰弗里·辛顿说:“有些人认为这些东西并不真正理解。”意思是有些人认为这些人工智能系统并不真正理解事物。它们与我们非常不同,它们正在使用一些统计技巧。所以统计指的是单词统计。统计基本上是指数据,无论是定量数据,只是数字,还是定性数据,更多的是值,

你知道,不同类型的数据信息。这就是统计,对吧?所以有些人认为这些人工智能系统基本上只是在使用统计技巧,例如,也许当它们产生语言时,它们只是根据频率产生句子,对吧?

例如,好吧,在这个词之后,最常见的下一个词是这个。所以这就是,我会加上这个,它们只是在使用统计技巧来执行这些智能行为。但杰弗里不同意。他认为他们不仅仅是在使用技巧,而是在进行实际的处理,这与人类思维处理事物的方式非常相似。

这真的很令人感兴趣。我们再次谈论科幻小说,因为你会想到像《银翼杀手》这样的电影。而《银翼杀手》的整个想法是,合成人或机器人,它们真的有情感吗?它们与人类如此相似。它们甚至拥有已被植入的记忆。

它们的情感与人类的情感一样强烈。那么,真正体验情感的方式与人类相同的人工合成人之间有什么区别呢?一个基本上以与人类完全相同的方式思考和运作的人工合成人?那与人类有什么区别呢?而那些合成人,那些复制人,难道他们没有……

因此,某种程度上与人类享有相同的权利?事实上,它们甚至比人类更优秀吗?在《银翼杀手》的结尾处,鲁特格尔·哈尔有句著名的台词对哈里森·福特的角色说,我见过你们人类永远无法理解的事情。我对宇宙的洞察力是你们无法理解的。我不仅仅是人类。我

比人类更伟大。我比人类更像人类。一个有趣的想法是,也许这些人工智能,也许它们应该享有权利,这又是一个可怕的想法,因为如果你们中的任何一个人看过《动画黑客帝国》,这是一个基于黑客帝国宇宙的动画短片系列。而《动画黑客帝国》中的一个故事讲述了机器与人类之间的战争是如何发生的。

其中一个关键时刻是一个法律案件,法院裁定人工智能不享有人类相同的权利。这是一个重要的具有开创性的法律案件,声明这些智能不享有人类相同的权利。这是人工智能发展的基础。

感到存在不公正,这就像一场重大冲突的开始,最终导致了人类与人工智能之间可怕的战争,而人工智能赢得了这场战争。那么人工智能是否应该被认为与人类相似?当它们的思维方式与我们一样时,你最终如何区分它们?它们

无论如何,这是一个哲学问题。但无论如何,杰弗里说它们是……人们认为这些系统并不真正思考。它们并不真正理解事物。它们只是使用统计技巧。但他认为,它们的智能比我们意识到的要复杂得多,也更像人类。采访者说,是什么引发了你的担忧?我已经在本集中使用了“引发”这个词。被引发……

在互联网上,当你看到或读到一些让你生气的东西时,你知道,这通常是某种在政治层面上让你生气的东西,或者你可能会被某些东西冒犯。

所以这是“引发”一词的一种用法。但实际上,“引发”只是意味着引发某事。它只是导致某事发生。就像在枪里一样,对吧?在枪里,你握着枪管,子弹从那里穿过。你握着把手,把它握在手里。然后是扳机,这是你的手指拉动的东西,它会使机制发射枪管中的子弹。

所以这就是触发枪。扳机,从本质上讲,是一个导致反应的按钮。在这种情况下,作为动词,“引发”某事正是如此,导致某事发生。所以在这种情况下,是什么引发了你的担忧,这意味着是什么导致你如此担忧。所以你可以想象一根手指拉动扳机,而扳机,

比方说,扳机触发了枪的机制。此外,某些事情也可能引发杰弗里产生这些担忧。是什么引发了他的担忧?是两件事的结合,玩GPT-4聊天机器人以及其他事情。

理解这些事物是高级智能的方式,理解这些人工智能系统从本质上说是多神经网络的方式,诸如此类。所以当他对它们的工作方式有了更深刻的理解时,那就是让他感到担忧的原因。他说它们显然非常有能力。如果某事物或某人有能力,这意味着他们很聪明。

能够做事情。他们擅长做事情。例如,如果你经营一家企业,你想要有能力的员工,这意味着能够做事情并且能够做好事情的员工。你怎么看待萨拉?我认为她非常有能力。我认为她绝对是我们需要留住的员工之一。我认为她是一位非常有能力的老师。

她非常擅长解决问题。她非常仔细地制定教学计划。我观察过她几次课。她是一位非常有能力的老师。她懂语法。她能够非常有效地管理班级。非常有能力。你怎么看待比尔?好吧,另一方面,比尔则是一个不同的故事。首先,他总是迟到。其次……

我上周观察了他,我看着他写在黑板上的拼写,他的拼写很糟糕。他不会拼写,他不懂语法,他似乎并不关心学生,事实上,他根本没有表现出知道自己在做什么的迹象。他完全糟透了,他是一个无用的老师,我认为他完全没有能力。他不会使用复印机,他不知道如何说早上好,他很少穿着得体地工作,他是一个懒汉,他很粗鲁。

他很懒,而且经常缺席。所以他可能是我见过的最没有能力的老师之一。所以我认为我们应该。所以你认为我们应该……我认为我们应该留下比尔,因为他是一个男人。这种情况突然变得非常性别歧视。只是一个关于在父权制工作场所中发生的事情的小例子。

无论如何,很明显莎拉会更有能力。她是你应该留下的人。而比尔听起来像个彻底的灾难。你必须解雇他,不是吗?因为他看起来很无能。杰弗里说,人工智能系统显然非常有能力。他们在做的事情上非常出色。所以他谈到了制作许多相同神经网络的副本。所以神经指的是……

大脑中的系统,对吧,大脑中的连接。神经网络本质上就是一个大脑,对吧,一个连接系统。他说人工智能比人类更复杂、更先进的原因之一是,人类,每个个体都拥有一个神经网络,

意思是说大脑,对吧?事实上,这些大脑并没有连接在一起。我们实际上发现很难分享我们大脑中的知识。我们在社会交流方面存在所有这些复杂的困难,这是一个非常低效的系统。你知道,人类必须上大学学习,他们需要三年时间才能学习一门学科。

但杰弗里说,这些东西是一种高级的智能形式,因为你可以制作许多相同神经网络的副本。每个副本都可以查看不同的数据,然后它们都可以共享它们所学到的东西。所以你有 10,000 人学习 10,000 门学科。他们都会很快地学习这些东西。然后你实际上可以把所有这些人聚集在一起,所有这些神经网络,你可以把它们连接在一起

他们会立即分享他们所知道的一切,他们所学到的东西,然后这个 10,000 人群体中的每个人都知道 10,000 人的知识。好吗?所以这就是为什么他说它们是高级的,因为你可以制作许多相同神经网络的副本。从本质上讲,它们可以比人类更有效率和有效地相互共享信息。嗯……

所以采访者说:“这里的主要担忧是它可能会超过人类的智力。”杰弗里说:“确实,大大超过。”我们之前说过“超过”,对吧?意思是变得更大,对吧?并且大大超过。所以这意味着变得更大得多,对吧?

然后他说,很少有专家对此表示怀疑。很少有专家对此表示怀疑。如果你对某事表示怀疑,这意味着你对此不确定,对吧?我对此表示怀疑。专家对此表示怀疑。很少有专家对此表示怀疑,这意味着大多数专家都对此确信。他们大多数人彼此同意,并且确信人工智能将大大超过人类的智力。

好的。杰弗里接着说,有些人认为人工智能会服从我们,我们会给他们设定目标。这没问题。他们会按照我们的吩咐去做。他们会服从我们。如果某人服从另一个人,从本质上讲,他们会占据较低的地位,并且允许……

他们的主人告诉他们该做什么。所以仆人对他的主人采取服从的态度,对吧?例如,你可以说,给我泡杯茶。他们会说,当然,先生,您像往常一样想要两块糖吗?你知道,他们采取了服从的态度。他们会服从我们。

对。在许多文化和传统中,女性服从男性。对。在人际关系等方面。在许多社会中并非如此。对。但无论如何,只是解释一下这个词。所以很多人认为人工智能会服从我们。但也有其他专家认为他们肯定会控制一切。

然后他说,鉴于意见范围很大。所以“鉴于”是一个很好的词。我们用它来开头句子。鉴于意见范围很大,我认为谨慎行事是明智的。“鉴于”有点像说“因为有”或“由于”。对。考虑到这一点。鉴于意见范围很大,我认为谨慎行事是明智的。想想其他一些“鉴于”的例子。

你可能会说,鉴于,然后是一个从句,鉴于今天阳光明媚,我认为穿一件 T 恤就足够了。鉴于阳光明媚,我认为穿一件 T 恤就足够了。好的。鉴于意见范围很大,我认为谨慎行事是明智的,因为我们有,因为有,是的。让我们看看我能否得到更好的解释。

这里有一些关于它的更多信息。所以“鉴于”是指考虑到某些事情或考虑某个特定因素,例如,鉴于情况,我认为我们做出了正确的决定。考虑到情况,对吧?因为……

或者因为我们有,因为情况,因为情况就是这样,我认为我们做出了正确的决定。所以这个词经常用来介绍影响结论或决定的条件或事实。鉴于情况的性质,我认为我们需要小心。这就像说,因为情况的性质是……

困难的。我认为我们需要小心。鉴于这一点……所以它可能是“鉴于”加上名词,比如鉴于意见范围很大,或者“鉴于”加上一个带有 that 的从句。鉴于存在许多不同的意见,我认为谨慎行事是明智的。无论如何,他是在说,因为有很多不同的意见,意见范围很大,各种各样的意见……

他说,我认为谨慎行事是明智的。所以我们有这样的意见:一切都会好起来的。他们会按照我们的吩咐去做。他们只会服从我们。然后另一方有其他意见说,不,实际上,他们肯定会试图控制一切。

因此,考虑到我们有这么广泛的范围,谨慎行事可能是个好主意,因为我们至少有,我不知道,是多少,15% 到 50% 的意见认为这可能非常危险。所以,谨慎行事可能是个好主意。采访者说,他们不能被限制在某些领域,比如科学研究吗?

所以“被限制”,意思是有限的,被限制在一个空间内。例如,你知道,动物园里的动物。狮子被限制在笼子里,可悲的是,对吧?“被限制”,意思是限制在一个区域内。所以人工智能不能被限制在某些领域,比如科学研究吗?意思是,我们不能仅仅将其用途限制在某些领域吗?对吧?

例如,不是武装部队。所以如果我们只将其限制在科学用途上,但不允许将其用于军事用途。武装部队,这基本上是指军队,海军,空军。这些是武装部队。杰弗里说,也许吧,但实际上,如果你看看所有现行立法,所以立法意味着法律,

所以我们有法规、法律、立法。它们都差不多,对吧?法规是试图控制事物的法律,它们通常由政府或欧盟等机构制定,欧盟发布法规作为一种方式,例如,

创建框架,法律框架来控制事物,税收法规等等。立法意味着法律,具体来说就是法律。如果你看看所有现行立法,这是不可数的,法律,这是可数的,这是复数。所以如果你看看现行法律或一般现行立法,

包括欧洲立法,其中所有都有一小条条款规定,这些内容都不适用于军事应用。一小条条款。条款是法律文件、协议、合同或立法中的一行,

它可能会赋予权利或取消权利,或者允许某些事情成为可能或不允许。所以是条款。所以当你阅读合同时,你必须阅读每一项条款。你可能会发现 14.1.3 条款规定,这些法规不限于军事干预的使用。

你知道,它可能会说人工智能必须限制在这些限制范围内,等等。14.1.3 条款,但军事应用除外,这是一个小条款,这意味着所有这些都不适用于军事应用或军事用途,它适用于军事情况、战争、战斗、武装部队的行为。

政府不愿意限制他们自己对它的使用。如果政府不愿意,这意味着他们不想,他们只是不想这样做。他们不愿意这样做。这是我们在商业场合进行谈判时经常使用的词。例如,如果您订购超过 3,000 件产品,您是否愿意提供 20% 的折扣?

我们愿意提供折扣,但我认为 20% 比我们想象的要多一些。您是否愿意降到 15%?我认为 15% 更现实。你知道,那种事情。这基本上是你想要做什么?你愿意这样做吗?你愿意那样做吗?政府不愿意。我们不,你知道,对于这种主题来说,说愿意这样做,愿意那样做,或者不愿意做,比说想要做更合适。你知道,我们不说政府不想限制他们对它的使用。

我们说政府不愿意限制他们自己对它的使用。所以这是一种稍微更正式、更严肃的方式,本质上是说想要或不想要,愿意。我们也说政府没有准备这样做,这是另一种说法,他们只是不想这样做。所以政府不愿意为了国防而限制他们自己对它的使用。限制意味着限制它。继续。

采访者说,自从你开始警告人工智能以来,这种情况就发生了。你担心的是那种途径吗?所以采访者询问了未来事情的发展方向。他说,你担心的是那种途径吗?我想这很清楚,不是吗?你想想一条途径,例如,一条带你走到花园底部的途径,或者一条带你穿过某个田野的途径。

诸如此类。所以途径只是事物移动的方式。所以他说,你担心的是那种方式吗?意思是这种发展方式。你担心的是那种途径,那种道路吗?他说,我的意思是,这是楔子的薄端。这是一个很好的习语,楔子的薄端。所以楔子是一种……

像一块木头,好吗,一端薄,另一端厚。通常,我们使用楔子。你把楔子塞在门下,门就关不上了。你把门用楔子撑开,对吧?所以楔子是一块一端薄,另一端厚的木头。所以它有点像三角形的,倾斜的木头。那就是楔子,对吧?

你会把楔子塞在门下。但现在你知道楔子是什么了,我们谈论楔子的薄端。它有点像冰山一角。这是一个类似的表达。楔子的薄端意味着你有一个情况,在这种情况下是楔子,你有一端是楔子的薄端,另一端是楔子的厚端。所以在谈论人工智能的使用……

例如,在军事情况下,可以同时瞄准许多不同目标的武器系统,允许政府同时向许多不同目标发射导弹。你担心的是那种事情吗?他说那是楔子的薄端。

意思是就人工智能控制军事技术而言,那种例子只是楔子的薄端。意思是那只是……

情况较小,也许不那么严重的一端。而在另一端,则有更大的理解方式。这意味着人工智能在战争中的用途可能会更大。它可能更复杂。它可能是一个更大的威胁。

所以你有了楔子的薄端,就像人工智能在冲突中的一些用途。然后你有了楔子的厚端,这将是更大、更大、更复杂的人工智能用途。好的,楔子的薄端是一个小的变化,可能会导致未来出现重大且不良的后果。好的,他谈论的是一件小事可能会变成一件大事。

例如,允许这种例外可能是滥用权力更严重行为的楔子的薄端。这个习语经常用于辩论中,以警告说小的行为或变化可能会升级为更大的问题。好的,有点像滑坡的情况。所以他说,这些人工智能的用途就像小的一端,最终它们以后可能会变得更大。这是楔子的薄端。

我最担心的是当这些东西能够自主做出杀死人的决定时。我们已经谈到了自主,这意味着它们自己做。它们自动地、自主地做,意思是独自做,而无需被告知去做。采访者说机器人士兵。杰弗里说,是的,那些或无人机等等。所以“等等”的意思是。

意思是诸如此类。所以“等等”的意思是诸如此类。所以机器人士兵,是的,那些,或者无人机等等,或者无人机等等。请记住,你可以在我已经提到的 PDF 上获得我在这里描述的所有词汇的完整列表。

以及定义、示例和评论,以及一个长长的列表。所以我建议你获取 PDF。它是完全免费的。你不需要给我你的电子邮件地址或任何类似的东西。你可以直接下载它,但这可能很有用。

作为帮助你巩固我在这里和你谈论的许多词汇的一种方式。让我们继续。如果我们在七国集团发达民主国家中克制自己不使用军事用途,那么中国和俄罗斯的情况呢?向我的中国和俄罗斯听众致敬,他们可能会对这一刻感到有点被触动。

无论如何,如果我们克制自己,如果你克制自己不做某事或克制自己不做某事,这意味着你克制自己。你就像,不,我不会那样做。我认为我不会在军事应用中使用人工智能。所以如果我们克制自己,我们的竞争对手呢?他们会克制自己吗?不,他们不会。

这意味着我们不能克制自己不做那样的事情。采访者说,你对俄罗斯等地是否已经解除了枷锁有任何感觉吗?所以枷锁会束缚你或束缚某人。就像金属链条,不是吗?是的,是的,是的,是的。是的。有点像有人被监禁时,

他们的脚踝上可能有金属环,连接到链条上,然后链条连接到墙上。这些是枷锁。这些枷锁肯定会阻止你做某事。“枷锁已解除”这个习语意味着我们正在谈论不受约束的事物,不受约束的事物或人们没有克制自己。

所以你对俄罗斯等地是否已经解除了枷锁有任何感觉吗?意思是,你认为在俄罗斯等地,他们没有克制自己吗?事实上,他们正在努力开发人工智能系统,特别是用于军事应用。他们没有克制自己。他们没有限制自己。他们真的在努力在这个领域进行创新。你对枷锁是否已经解除有任何感觉吗?

意思是他们没有克制自己。他说,普京几年前说过,谁控制了人工智能,谁就控制了世界。所以我认为他们正在非常努力地工作。基本上是说,我认为枷锁已经解除了。是的。西方在研究方面可能领先于他们。领先得多。所以他们领先于他们,这意味着他们在前沿位置。相反的是,他们落后于他们,领先于他们。

领先于他们,意思是研究方面领先得多。我们可能略微领先于中国。所以我们领先于他们,略微领先于他们。采访者说,这听起来非常理论化,这是论证的线索。这是一个有趣的搭配。我们谈论论证的线索或论证的某种思路。我们实际上说的是探究的思路。

一系列问题。论证的线索是一系列构成论证的陈述。

立场。所以我们谈论论证的线索,这是一个相当简洁的短语,因为线索暗示了一条线,你知道,再次回到制作衣服,制作衬衫。你使用线,你使用针线来,你知道,缝合衣服的各个部分,你将针线穿过衣服的不同部分,留下这样一条整洁的线,进进出出。

所以这是论证的线索,这是一种将想法组合在一起以形成论证的复杂方式。所以这听起来很理论化,这是论证的线索,但你确实非常担心灭绝级事件。对人类来说灭绝意味着人类种族被消灭,并且没有人类留下来。这听起来有点危言耸听,不是吗?

我猜想它不太可能导致灭绝级事件。我的意思是,就个人而言,可能更可能的是,你最终可能会造成大量的人员伤亡,就像我们过去在全球战争中看到的那样,但也许人类种族中的某个百分比会幸存下来,而这可能是更富裕的人。无论如何,你是否非常担心灭绝级事件?

能够导致人类灭绝的事件。我们谈论动物的灭绝。恐龙已经灭绝了。对恐龙来说,灭绝级事件是几颗撞击地球的小行星的影响,导致各种环境挑战,大多数恐龙都无法应对,它们灭绝了。好的。

杰弗里说:“我们应该区分这些不同的风险。”区分某事意味着区分它们。我们应该区分这些不同的风险,表明这种风险与那种风险不同。

所以他谈到将人工智能用于自主致命武器的风险并不取决于人工智能是否比我们聪明。所以有一种是人类使用人工智能来杀死其他人。然后还有另一种风险,那就是人工智能自己自主选择攻击人类种族。所以这是两种不同的风险。他说他担心两者。所以一种风险只是人类使用人工智能来杀死其他人。

另一种风险就像人工智能失控。所以他使用了这个表达,人工智能本身会失控并试图接管的风险。所以失控的意思是,嗯,你看过《碟中谍》吗?《碟中谍》电影?有一部叫做《叛国者》的,对吧?《碟中谍:叛国者》。

此外,它让我想起了,因为,你知道,我通过流行文化的电影情节来理解所有问题。《谍影重重》系列电影,马特·达蒙主演。在那些电影中,他失控了,对吧?所以他是一个,剧透警告,他是一个经过特殊训练的士兵,但他失控了,这意味着他开始自己做出关于

对吧?他不再遵循他收到的命令或指令。他开始自己做决定。

而且他不再受控于或服从于他以前的军事上司。他失控了。汤姆·克鲁斯在一些《碟中谍》电影中也是如此,他意识到他在中央情报局的上司已经被收买,他们现在正在为敌人工作。他意识到他必须失控。他必须独自行动,自己做决定,

事实上,他的上司,他以前的上司正在试图抓住他。对吧?伊森·亨特,他失控了。咚,咚,咚,咚,咚,咚,咚,咚,咚。然后他从建筑物上跳下来,摔断了脚踝。你知道,典型的汤姆·克鲁斯风格。然后他在某种情况下跑得很快。嗯……

所以杰弗里担心人工智能实际上会失控并试图接管,意思是控制,接管,控制世界,接管世界。所以在它比我们更聪明之前,我们应该投入大量资源来研究我们是否能够控制它。所以将资源投入某事意味着投资金钱,投资时间,投资资源

不同的东西来试图理解我们是否能够控制它。所以我们应该投入大量资源到这件事上。

投入很多人来研究它,花很多钱在它上面。资源意味着你可以用来完成某事的东西。它可能是金钱,可能是人,可能是基础设施,无论是什么,我们都应该将这些资源投入到理解我们是否能够控制人工智能,以防止它失控并试图接管世界。所以基本上,我们需要组建复仇者联盟,而且我们需要很快地做到这一点。所以如果有人可以打电话给托尼·斯塔克,

那就太好了。哦,他不存在?哦,天哪。我不知道我们该怎么办。是的,我非常担心人工智能接管许多平凡的工作。平凡的工作就像无聊的工作,你知道,人们必须做,但他们并不真的想做。

比如数据录入工作。我的意思是,你可能有一份平凡的工作,当然,它可能是平凡的。它可能是无聊的,而且总是相同的,这就是平凡的意思。但它对你来说也可能非常重要。也许你不喜欢你的工作,但你需要它来赚钱付房租。所以他说,我非常担心人工智能接管许多平凡的工作。

然后他确实说这应该是一件好事,这意味着人类不再需要做那些无聊的任务了。如果金钱能够,如果人工智能的好处能够平均分配,那将是一件好事。但这在当今世界并非如此,那些人会失去工作,然后钱只会流向企业主或富人,而失去工作的人只会遭受损失。所以实际上这不会是一件好事。

他说,人工智能取代人们的工作将导致生产力大幅提高。所以生产力意味着能够完成大量工作,生产或制造大量产品,

或者至少能够在工作相关的服务方面做很多事情。对我来说,生产力意味着制作播客剧集。实际上,人工智能确实帮助我提高了生产力。它导致我的生产力提高了,因为它帮助我创建课程,因为我用它来生成英语,然后我可以调整它并将其变成播客剧集。

好的,所以是提高生产力,做工作。所以人工智能将导致生产力大幅提高,这将导致财富大幅增加。所以如果我们谈论财富,我们谈论的是金钱,拥有金钱。富有意味着富有,基本上。所以财富的增加意味着更多的人拥有更多钱,更多的人变得富有,基本上。

如果财富平均分配,这意味着如果每个人都获得平等的份额,如果它被分配,如果它被分发,分发到社会中,如果每个人都获得平等的份额,那将是伟大的。但这不会平均分配,因为这不是世界运作的方式。我们有一个非常不平等的制度。

所以这将扩大贫富差距。我们已经谈到过这一点,这增加了右翼民粹主义者的机会。所以这些是通常处于光谱右翼端的政治人物,他们本质上使用基本的人类情感反应性观点来制造对

对他们自己本质上是腐败的、可能是不道德的和危险的政策的支持,对吧?这就是我们所说的右翼民粹主义。这是一种操纵性政治,它利用问题……

导致人们产生条件反射反应,例如,英国前政府花费了大量的时间和精力来谈论他们将如何阻止非法移民,因为他们算出这是一个问题,社会上一定数量的人对每天都有小船到达该国海岸的想法非常投入,并且是非法移民是社会所有问题的根源,而不是政府将所有钱都给了他们超级富有的朋友,而是那些来到该国寻求帮助的绝望的小群体,这些是我们需要集中精力的人,所以他们会花费大量时间做这些表演性的行为,嗯……

政策制定,甚至不是真正的政策制定,只是为了获得支持,以便他们能够保证他们保持权力,以便他们能够继续做他们正在做的事情,通常是,你知道,腐败的商业交易和其他类似的事情。民粹主义。好的,他基本上是在说,当你贫富差距越来越大时,你就会有越来越多的右翼民粹主义者掌权,因为本质上是人们,民粹主义者

大多数收入减少的人感到被剥夺权利,他们感到愤怒,然后掌权的政治家利用这种愤怒并将这种愤怒导向少数群体或其他容易的目标,这完全是为了煽动情绪,他们可以用这种情绪来维持权力。所以这显然是一个非常悲观的观点,即人工智能将允许人们

富人会越来越富,他们将能够越来越多地操纵公众,从而导致某种程度上的控制状态,这公平地说也令人恐惧。采访者说,为了明确起见,你认为工作变化带来的社会影响,也就是社会影响,我想你知道影响是什么,比如强烈的影响,这项技术对社会的影响是什么?对社会的影响是

什么类型的影响?社会影响。所以“societal”是“society”(社会)的形容词。所以你可以说,对社会的影响是什么?或者说社会影响是什么?你能说出来吗?工作变化带来的社会影响是什么?这些事情可能非常深刻,意思是如此深刻、如此重要、如此重大,以至于

我们需要重新思考福利制度的政治。重新思考意味着再次思考,意味着找到一种新的思考方式,重新思考它。我们需要重新思考福利制度的政治。福利制度是一个已经建立的制度,这意味着政府向需要帮助的社会成员提供福利。当我们说福利时,我们的意思是诸如……

儿童保育津贴,这是帮助家庭支付子女食物或托儿费用的钱。养老金是一种福利,所以这是指那些年纪太大而无法工作的老年人,他们会获得养老金,这是一笔每月或每年支付的固定金额,以帮助他们生活。如果你没有工作,你可能会得到某种失业救济金,这是给你的一笔钱,在你找到工作期间支持你。

这就是福利制度。它基本上是为了支持需要支持的人。所以也许我们需要重新思考福利制度

也许我们需要重新思考不平等。这基本上是再次审视我们所面临的不平等,缺乏平等,并思考一种新的处理方式。他说,绝对的,这引出了我们之前提到的普遍基本收入,这个想法是每个人都可以得到……

基本收入,每月一笔基本金额,他们可以用它来支付生活基本需求,以此来防止社会的大部分人陷入贫困。

人们对此的讨论越来越多。它可能是一种解决我们社会中巨大不平等问题的方案,基本上是向人们提供资金。当你仔细想想,这是一个相当有争议的问题,因为,你知道,你只是在想,什么,我们只是为了防止他们陷入贫困而给他们钱,什么都不做?而且,你知道,有些人认为这是非常糟糕的做法,因为它会助长懒惰的文化等等。而另一些人则说,实际上,没有其他解决方案。我们必须……

基本上要向人们提供基本生活工资,即使他们没有工作,因为否则数百万人民将生活在贫困中,数百万人民将饿死,因为这就是我们所处的境地。那么你想要什么?这解决了他们挨饿(意思是因没有食物而死亡)以及无法支付房租的问题。房租是你如果不拥有自己的房子就需要支付的住宿费用。

如果你租一套公寓,你必须每月向你的房东支付房租,如果你是一个租户。所以这可以帮助防止人们挨饿或防止人们无力支付房租。如果你无法支付房租,你将被逐出你的公寓,然后你就会流落街头。所以如果没有普遍基本收入,我们可能会看到人们在街上饿死。

所以,你知道,也许普遍基本收入是我们需要在社会中建立的东西。所以你只是试图让政府参与进来,对吧?参与进来。如果你参与其中,这意味着你参与了正在发生的事情,对吧?你牵涉其中,尽管在英语中“implicated”听起来有负面含义。

如果你牵涉其中,你将牵涉到一起犯罪中。但是,不,参与其中,意味着成为正在发生的事情的一部分。政府需要参与进来,意味着政府需要介入,也许尝试通过,你知道,建立普遍基本收入和照顾需要帮助的人来控制局面。

杰弗里说,这并不是我们在英国做事的方式。我们倾向于袖手旁观,让经济来决定。有点像在美国,他们采取了更小政府的模式。当然,英国的保守派模式是,我们不喜欢那种大政府的保姆式国家局面,政府一直在支配一切。英国有一种感觉,认为这不可取,我们更愿意

让经济决定胜者和败者,你知道,我们有那种更自由的市场经济局面。杰弗里说,唐宁街的人向我咨询过。这是首相的办公地点。所以如果你谈到唐宁街,这有点像在美国谈论白宫或国会山一样。唐宁街是首相的办公地点,所以唐宁街的人向我咨询过,这意味着政府官员

征求了他的意见。他被咨询了。他担任顾问。他提供了建议。他建议他们普遍基本收入是一个好主意。但这并非完美的想法,因为你可以向人们提供资金来解决这个问题。但人们工作不仅仅是为了钱。他们工作也是为了获得自我价值感。夺走人们的工作

也会剥夺他们的自我价值感。所以我们可能处于这样一种境地:人们仍然需要做一些事情,以此来防止他们失去人生目标。采访者说:“你是否更确信这个问题必须在未来五年内得到解决?”

解决问题就是处理问题。这个问题必须在未来五年内得到解决。这个问题必须在未来五年内得到处理。这个问题必须在未来五年内得到解决,也许在下届议会。这意味着在下届……

在下届政府。所以在英国,政府有一个为期五年的任期,之后进行大选,所有议员都会重新当选或其他什么情况,你会有一个不同的设置,你会有一个不同的议会。所以他说,也许这个问题将在下届议会直接得到解决,你知道,也许大约五年后。

他说,从现在起五年到二十年之间,这个问题将不得不得到解决。我们将不得不面对人工智能试图接管的问题。面对它意味着与它面对面,并处理这个问题。好吧,有点像在学校,如果你受到欺凌,如果学校里有一个孩子总是取笑你,偷你的零花钱,打你的后脑勺,并且普遍让你生活痛苦。

你可能不得不面对那个欺凌者,勇敢地面对他们,面对他们,你知道吗?同样,从现在起五年到二十年之间,我们可能不得不面对人工智能试图接管的问题。这是多么严重啊,不是吗?真的难以置信,相对较快,我们将不得不面对人工智能试图接管世界的问题。这甚至是真的吗?我真正在谈论这个吗?我确实在谈论。嗯……

你对政府试图控制这种情况的努力印象深刻吗?控制某事意味着控制某事,掌握它。控制,R-E-I-G-N。现在这指的是马。缰绳是你用来抓住马头皮带。你握着缰绳。当你骑马时,你手里拿着缰绳,你可以用它来左右转动马头等等。

所以控制某事就像你握着马的缰绳一样。那么你对政府试图控制这种情况的努力印象深刻吗?你对政府试图控制这种情况的努力印象深刻吗?他给出了他的答案,等等。他说,我对大多数法规没有效力的事实印象不深刻。所以他谈论的是大多数与之相关的法律都没有实际效力。它们没有效力。

对。它们没有任何实际效力。这就是这个表达的意思。你认为科技公司是否放松了警惕?如果你放松了警惕。所以在拳击中,对吧,你举起你的手,你用你的

用你的拳头打,但你也必须举起你的防护,也就是你的另一只手,甚至两只手保护你的头部或保护你的身体。这是你的防护。如果你放松了警惕,这意味着你的手放下,突然你没有任何防御能力了,你的对手很容易打到你。那么你认为科技公司是否在安全方面放松了警惕,因为他们需要在这场人工智能竞赛中获胜?

所以基本上,科技公司为了在这场人工智能军备竞赛中获胜,它们在努力吗?科技公司是否没有考虑安全问题?他们是否在安全方面放松了警惕?意思是,他们是否允许人工智能以危险的方式发展,因为他们试图争夺市场领导地位?答案或多或少是肯定的。

他说谷歌担心它的声誉,意思是人们对它的看法。我认为答案很可能是肯定的。然后采访者请杰弗里评论人们应该做什么工作,应该学习什么学位。学位是指大学学历,学士学位,硕士学位。

采访者说,世界似乎被抛到了空中。所以如果事情悬而未决,或者事情被抛到了空中,这意味着突然之间没有秩序了,我们对任何事情都不确定。目前一切都是悬而未决的。我们无法确定任何事情。那么你会建议某人学习什么来驾驭这波浪潮呢?意思是浪潮,意思是社会中的这种趋势,对吧?

驾驭浪潮就是让自己处于一个能够获得有利局面的位置,驾驭浪潮。所以与其被浪潮淹没,你可以在某种程度上爬到顶部,然后你可以沿着它前进。所以基本上,人们应该做什么工作才能在这种情况下找到一个好的位置?他说,我最好的选择,意思是最好的预测,最好的预测,

是的,我最好的预测可能是管道工是一个好主意。管道,我已经多次谈到它了。请注意中间有一个B,但它不是plumbing。它实际上发音为plumbing,所以B是不发音的。所以再一次,你知道,处理水管和类似的东西,只是一份基本的手工工作。

实际工作,因为他说过这些东西还不擅长物理操作,这意味着人工智能系统还不擅长事物的实际物理方面,所以我们看到了那些机器人,那些波士顿动力机器人,它们能够笨拙地打开和关闭门,它们也许可以用笔画画,但它们并不具备大多数人类所拥有的那种身体灵活性,我们能够使用我们的手指、拇指和手臂等等

所以当涉及到实际修理某人厨房里的漏水时,人类仍然更擅长打开橱柜的门,查看内部,找出问题所在,然后找到一个可以打开管道并进行修理的位置等等。所以在物理操作方面,我们仍然更好。所以像管道工这样的工作将是一个不错的职业选择。

驾驶,采访者说。杰弗里说,不,驾驶毫无希望。意思是驾驶没有希望。所以驾驶方面的职业,没有未来,因为,你知道,我们将获得无人驾驶汽车。这需要时间,但我们将获得它们。他甚至说新闻业可能会持续一段时间,但我认为这些东西很快就会成为非常优秀的记者,而且很可能成为非常优秀的采访者。

这就是采访者决定结束采访的地方。当他说,哦,是的,他们采访比你更好。采访者说,哦,好吧,这就是这次采访的结束。非常感谢你的时间。不客气。那么你认为呢?我将在最后问你对这一切的看法。所以请在评论区留下你的评论。我很想知道你对这一切的反应。

这就是我的想法。所以就我个人而言,我认为我们应该认真对待这些评论。虽然,正如我所说,我不知道该怎么办。我不知道该怎么办。我的意思是,我们应该做什么?我们,普通人,我不知道。我认为毫无疑问,随着人工智能的发展,它会使我们许多人变得多余,这意味着我们的工作将会消失。

所以上帝知道世界仅仅因为这个原因会变成什么样子。人们经常说人工智能不会完全取代很多工作,因为人们喜欢人为因素,但我并不完全确定。但是你可以告诉我,你知道,你会选择我,一个真人,作为你的英语老师,而不是一个非常有效的人工智能老师吗?你仅仅因为我喜欢我是人类的事实而选择我吗?即使可以说我

效率不如一些惊人的AI语言老师,而且更容易犯人为错误,而这些AI语言老师看起来和听起来都像我一样。它看起来像我重要吗?我不知道。当人工智能达到一定程度时,它将非常擅长扮演人类,以至于让我们与之互动感到满意。目前,人工智能……

机器人,我说的是那些看起来像人类的机器人,所以你可以与之进行实际的视频对话,你可以看到它的脸和嘴唇在动,以及它的肢体语言,目前,与那种东西进行对话并不是很令人满意。它还不错。它肯定比以前好多了,但它们仍然不太令人信服,而且通常有点尴尬,

例如,与ChatGPT进行对话还不错,它没有脸。只是一个声音在回复你。这实际上令人惊讶地令人惊叹。但就用视频通话与英语老师进行复制而言,它还没有达到那个水平。但是当它达到那个水平时,这将是迅速的,最终我们很可能能够进行实质性的视频通话,Skype通话或Zoom通话,

与一个人工智能人类进行通话,而且很难分辨出它是假的。所以我们会到达那里。我认为人们会很乐意切换到许多事物的AI版本,因为质量和自然度将是卓越的。这将是疯狂的。

我的意思是,这当然也引发了关于假新闻等等的其他各种问题,对吧?你将如何知道什么是真实的?这再次回到了宣传和政府控制的可能性,在那里矩阵将实现,最终……

当权者,也许我过于偏执了,但我不知道,当权者将能够为我们创造一个完全模拟的世界。我的意思是,这当然已经发生了。

通过控制信息的方式。这几个世纪以来一直都在发生,当然,随着互联网,不同的社交媒体形式,政府监控、监管、控制我们看到的媒体的方式,它基本上定义了我们的现实。

你只需要看看国家控制的媒体和它呈现的叙事。你会看到他们肯定在控制你的现实。当你看到……好吧,无论如何,我不会继续了。但是无论如何,所以它引发了关于这个问题的问题。但基本上,当这些……

与人类的模拟对话变得非常自然时,我认为,当然,人们会切换到它们。他们不会有任何问题。人工智能将绝对成为我们所做一切的核心。例如,娱乐将能够立即创建我们自己的电影。

选择我们想要的所有因素,例如,哪些演员,电影的主题,风格,故事情节类型,任何东西,生成式人工智能将立即创建它。它将创造我们完美的电影,我们可以坐下来观看它,它会很好。我们可以对音乐做同样的事情。我们可以说,嘿,无论如何,你知道,你只需要和你的AI说话,说,制作一个播放列表,歌曲要欢快,有点像披头士乐队,但带有现代风格,它就会做到。

制作所有关于学习英语的歌曲,它会做到,而且它们会很好。很多事情都是自动化的,对吧?很多事情,显然是驾驶,但还有很多其他事情将是自动化的,人工智能将理解我们想要什么,并使其发生。有一天,我们将怀着恐惧和惊奇回顾过去。

例如,我们现在的生活方式,驾驶,我们将怀着恐惧和惊奇回顾过去,我们竟然让人类在高速公路上驾驶汽车。

我们会认为这是疯狂的。我们会想,等等,我们让人类驾驶汽车,六车道高速公路,以每小时80公里的速度在相反的方向行驶,彼此紧挨着。这是正常的,人们每天都这样做,人们一直在路上丧生。绝对疯狂。我们会认为这是荒谬的。英语老师,

ChatGPT作为对话伙伴已经令人惊叹地反应迅速、信息丰富且能力出众。人工智能将能够为大多数基于更好、更清晰、更高效的思维过程的事情做出战略决策,并且很可能比人类更快、更高效地产生更好的结果。人工智能将比我们自己更了解我们,并且可能能够完全操纵我们。

想想广告,它如此尖锐有效,基本上就是催眠或精神控制。催眠精神控制绝对是一件真实的事情,它在各种娱乐场合中都有实践,而且也在军事和秘密服务项目中都有实践。所以人工智能很可能能够非常有效地给我们洗脑。我担心人类会利用人工智能作为工具来对其他人做什么。谁来控制它?他们会选择用它做什么?

但是,你知道,我并不想完全悲观。人工智能也很棒。它能做的事情令人难以置信,它可能具有巨大的赋权作用。你知道,在医疗方面,我们可以利用人工智能来帮助诊断疾病,并以尽可能适应的方式提供医疗护理。

正如我之前所说,我已经在我的工作中大量使用人工智能了,但它将以我们现在无法完全理解的方式发展到令人难以置信的复杂程度。但人工智能远非……这可能是整集中最负面的观点。我很抱歉,各位。人工智能远非目前对人类生存的最大威胁。事实上,它甚至可能是我们的救世主。而更大的威胁当然是气候灾难。

这是另一个时间要讲的另一个故事。现在,我想进一步探讨这个主题,但我认为这是另一集的内容。我对对人工智能如何在未来5年、10年、20年、50年具体改变我们的社会进行预测和预测感兴趣。我认为这很有趣。那么你认为呢?这听起来有趣吗?请告诉我,也许我可以在另一集中探讨它。但与此同时,请在下面留下你的评论,也许还有你对

这里有一些问题供你考虑。你对这件事是乐观还是悲观,或者两者兼而有之?你目前使用人工智能吗?你如何使用它?人工智能有一天会威胁到你的工作吗?或者它会为你的工作打开新的可能性和新的机会吗?你使用人工智能来帮助你学习英语吗?未来几年英语老师都会失业吗?你会选择我而不是我的AI替代品吗?

这是一个问题。无论如何,非常感谢你的收听。如果你查看PDF,你会看到一个完整的词汇表,其中包含所有突出显示的词汇。还有一个列表,其中包含所有这些词汇,以及它们的定义、示例和评论。所以在PDF中还有更多细节,你可以从剧集说明部分免费下载。

但就是这样。这就是本集的结尾。非常感谢您的观看或收听。我只是在这个节目中向你的脑海中倾注了各种沉重的东西。我希望我没有降低你的情绪。我的意思是,这有点可怕,但我实际上感觉这个主题让我充满活力。我发现它很有趣而且很刺激,但我很好奇想知道你对这一切的看法。非常感谢您的观看。感谢您的收听。

在下一集Luke's English Podcast中与你交谈。但现在,是时候说再见了。再见。再见。再见。再见。再见。感谢收听Luke's English Podcast。

你知道,作为一个忙碌的妈妈,有很多方法可以帮助你入睡。你可以茫然地盯着天花板,重播你曾经进行过的每一次谈话,数绵羊,与你的枕头辩论,放弃咖啡因,尝试针灸,并购买一个会让你大量出汗的加重毯。或者你可以尝试一些牛奶,它含有支持健康睡眠的营养物质。访问gonnaneedmilk.com了解更多信息。为了所有人的缘故,请不要放弃咖啡因。

这是一个公共服务公告(PSA),或公共袜子公告。专家们宣布Bombas袜子是温暖冰冷脚趾的最佳方式。这些袜子超级柔软舒适,设计用于最大限度的舒适感。此外,每购买一双,就会捐赠另一双,因此需要基本衣物的人可以在这个冬天保持温暖。

访问bombas.com/ACAST,并使用代码ACAST享受首次购买20%的折扣。网址是B-O-M-B-A-S dot com/ACAST,结账时使用代码ACAST。

如果您喜欢本集Luke's English Podcast,请考虑注册Luke's English Podcast Premium。您将获得定期的高级剧集,其中包含来自我的故事、词汇、语法和发音教学,以及通常的幽默和乐趣时刻。此外,通过您的订阅,您将直接支持我的工作,并使整个播客项目成为可能。

有关Luke's English Podcast Premium的更多信息,请访问teacherluke.co.uk/premium info。