Today we discuss ideas from John Searle and Noam Chomsky and consider several questions surrounding machine intelligence. Get more: Website: https://www.philosophizethis.org/ Patreon: https://www.patreon.com/philosophizethis Philosophize This! Clips: https://www.youtube.com/@philosophizethisclips Be social: Twitter: https://twitter.com/iamstephenwest Instagram: https://www.instagram.com/philosophizethispodcast TikTok: https://www.tiktok.com/@philosophizethispodcast </context> <raw_text>0 大家好,我是斯蒂芬·韦斯特。这是“哲学思考”。感谢所有在Patreon上支持节目的朋友们,patreon.com/philosophizethis。也感谢所有以其他方式支持节目的朋友们,例如告诉朋友、留下评论,让更多人了解这个播客。感谢你们的一切。我希望你们喜欢今天的节目。
毫无疑问,自从2022年11月ChatGPT发布以来,媒体大肆宣传大型语言模型和人工智能领域的进展,让几乎每个人都知道了这些信息。毫无疑问,你们中的许多人都听说过这个消息。而且,毫无疑问,你们大多数人都尝试过ChatGPT之类的程序,并与之进行过对话。也许在进行对话后,你感到非常印象深刻。哇,这东西看起来像个真人。它对我的所有问题都给出了相当完善、连贯的回答。
我的意思是,这与过去在Windows XP Service Pack 2上骚扰我的回形针完全不同。这东西要来对付我的家人了。也许你见过人们与人工智能进行的那些对话,人工智能声称自己爱上了提问者。“离开你的家人吧,他们不像我这么爱你。” 这些事情确实发生了。
也许你最近听说过人们谈论我们可能即将迎来AGI(人工通用智能)的可能性,这是人工智能领域长期以来预言的发展阶段,在这个阶段,事情显然将从人们所说的弱人工智能(例如计算器、手表,这些东西可以模拟人类智能的某些单一方面)转变为强人工智能,这是一种不同级别的人工智能,它具有理解、学习和适应的能力
这是一种能够在与人类相当或超过人类水平上运用知识的人工智能。这就是AGI。也许你听说过所有关于如果发明出这样的东西将会发生什么世界末日情景。
但这真的是我们现在必须担心的事情吗?我们真的即将迎来技术奇点,人工智能将成为我们创造的一种入侵物种吗?我们目前是否正处于一场技术军备竞赛中,目的是创造出比我们所能想象的要聪明数千倍的东西,其目标范围是我们无法想象的?ChatGPT仅仅是最终会进化成所有这些东西的变形虫的第一个迭代吗?如果只是给它足够的时间呢?
要回答这个问题,我们首先要从一个远没有那么雄心勃勃的问题开始。这个问题不是ChatGPT是否即将突破其黑匣子并接管世界,而是像ChatGPT这样的机器是否与人类一样具有智能。当我们解决问题时,这些机器是否真的在做与我们相同的事情?
比这更根本的问题是,也许你作为收听像这样的节目的那种人,也许你在与这些东西进行对话时,问过这样一个非常哲学的问题:“嘿,先别管理解或智力了。我想知道,当我与ChatGPT交谈时,这台机器是否像我一样思考。就像,当出现三个闪烁的点并且它正在加载时,当它正在处理并确定接下来要说些什么时,到底发生了什么?
那是计算机在思考吗?思考是否是我用大脑思考的方式所严格定义的东西?或者思考可以以多种不同的方式定义?如果我们想回答这些问题,并且如果我们不想在余生中错误地将我们的智力与人工智能等同起来,那么哲学家们很久以前就意识到第一步将是密切关注计算机到底在做什么。
这里有一些历史背景:关于机器能否思考或是否具有智能的现代版本对话,基本上始于一位名叫艾伦·图灵的人的工作。图灵是一位绝对天才级的数学家,在他那个时代,在20世纪初,他对心灵哲学和机械工程领域发生的所有事情都着迷。他也是一位具有远见卓识的人。我的意思是,在许多方面,很明显,他在数字计算时代到来之前的几十年就预见到了这一点。
并且处于这种意识状态,当时看到了事情发展的趋势,他提出了一个他认为人们最终必须认真对待的问题,如果事情继续朝着这个方向发展的话。这个问题是,如果机器真的具有智能,我们怎么知道它们是否具有智能?这个问题越想越难回答。我的意思是,在什么情况下,某些东西会从弱人工智能(例如你的闹钟)
转变为能够理解事物的东西,具有智能的东西,具有思维的东西?你甚至如何开始回答这些问题?好吧,如果我们想找到答案,我们就必须从某个地方开始。艾伦·图灵想出了一个测试机器智能的方法。
你可能听说过它。它被称为图灵测试。现在它很有名。其想法是,如果你正在进行两次不同的文本对话,一次与人类交谈,另一次与人工智能交谈,如果有人被人工智能愚弄,以为他们正在与真人交谈,那么该人工智能就通过了图灵测试。或者换句话说,我们现在可以将人工智能视为拥有智力的东西。他的想法是,如果我们想知道某物是否有智力,如果人工智能能够表现出足够的智力来愚弄一个有智力的东西,
那么,我们还有什么好争论的呢?让我们称之为智能吧。从道德上讲,这似乎也是一个相当安全的地方。如果某物表现得像一个智能生物,那么我们就应该像对待智能生物一样对待它。但不久之后,哲学家们就开始注意到图灵测试的问题。其中一位是约翰·塞尔。他在20世纪80年代中期出现,在他的作品中,他在一定程度上回应了图灵测试,他提出了一个非常重要的问题,这个问题将改变整个讨论。
他问道:“如果一台机器表现得智能,那么是否真的可以肯定地说它就是智能的?”
因为正如我们所讨论的,我们有一些很好的理由对这个假设持怀疑态度。还记得上一集结尾关于观察自动驾驶汽车的例子吗?从外部来看,它似乎是在根据某种自由意志做出自由选择。它自己正在平行停车。它正在避免事故。它正在检查前往目的地的不同路线的交通状况。但是,尽管看起来是这样,我们知道它并没有做出自由选择,因为是我们对它进行了编程。
它。同样,约翰·塞尔在20世纪80年代说:“也许当我们遇到通过图灵测试的计算机时,它们也可能只是从外部看起来很智能。” 但是,如果这是真的,怎么会这样呢?
约翰·塞尔开始工作,并阐述了在关于人工智能的这些对话中现在已经成为著名区别的东西。这是句法和语义之间的区别。对塞尔来说,数字计算机程序并不像你我一样对物理世界有理解。计算机在形式句法的层面上运行,也就是说,它们读取计算机代码,计算机代码是由符号组成的,最终是由1和0组成的。
但塞尔说,计算机在任何时候都不理解这些符号在物理因果现实中的含义。事实上,如果你仔细想想,这正是计算机和计算机编程之所以成为如此强大的工具的部分原因。它们可以在大量不同类型的计算机硬件上运行任意数量的不同程序。这些东西如此互换的事实,仅仅是因为这些程序的编写方式使得它们从根本上操纵的是1和0。
换句话说,对约翰·塞尔来说,计算机能够以惊人的方式操纵这些句法层面的符号。但这丝毫不能说明计算机理解其产生的任何东西的语义含义的能力。这就是句法和语义之间的区别。以计算器为例,这是一个基本的例子。每个人都知道,在人类智能的单一方面——解决算术问题方面,计算器能够进行超人的计算。
它完成了它的工作。当给定某些输入时,它会产生某些输出,并且它遵循一组预先编程的规则。
但是,没有人真正认为计算器理解什么是数学。没有人认为计算器理解这些计算的含义以及它们对人类生活的重要性,无论你拥有多么强大的计算器。我的意思是,你可能获得了麻省理工学院的全额奖学金,并且在过去五年里从未与另一个人说过话。约翰·塞尔会说,即使你的计算器也远不足以从句法转向语义。
因为它与处理能力无关。计算器存在于句法层面。仅此而已。现在,你可能在这个时候反驳说,等等,等等,约翰·塞尔,我明白你在说什么,而且我理解计算器,但是等等。
当我与ChatGPT之类的程序交谈时,这东西显然与计算器大相径庭。我的意思是,我告诉这东西我的冰箱里有什么。这东西帮我写了一个购物清单。这东西正在告诉我关于重力、关于社会问题的信息。显然,这东西对外部世界以及所有这些东西的含义有理解。
但是约翰·塞尔可能会反驳说,你对此完全确定吗?为了解释他为什么问这个问题,让我们来看一下在这个现代心灵哲学时期写出的最著名的比喻之一。它是由约翰·塞尔提出的。它被称为中国房间论证。它是这样的。想象一下你独自一人坐在一个房间里。为了塞尔的例子,还要想象一下你一句中文都不会说。
对我来说,这并不难做到。现在想象一下,在这个房间里,你从门外的其他人那里收到小纸条,这些纸条上写着你无法理解的神秘符号。你不知道的是,这些实际上是用中文写给你的问题。你在这个房间里的工作是对这些纸条做出回应,基本的输入输出。
现在,尽管你不知道这些符号的含义,但这对你来说并不重要,因为房间中央有一张桌子,桌子上有一本用英语写的大书,其中包含一套复杂的规则和参数,用于操纵这些符号。你再次不知道的是,这些规则只是允许你用中文回答用中文写的问题的规则。
你拿一张纸条,在书中识别符号,按照书中给出的规则来确定哪些符号是对这些符号的正确回应,然后你将另一张写有你回应的纸条送出房间。再次强调,基本的输入输出。关键是,如果你有足够的时间来处理信息,
尽管一句该语言都不会说,你仍然可以将写有回应的纸条送出这个房间,这些回应与说母语的中国人的回应没有区别。人们实际上已经在现实世界中进行了这个实验,而且它有效。门外的人认为他们正在与一个懂中文的人交谈。那么,这一切为什么重要呢?对约翰·塞尔来说,艾伦·图灵错了。图灵测试并不能告诉我们机器是否具有智能。
我的意思是,当然,通过一套足够复杂的规则和参数在句法层面进行操作,计算机当然可以产生与智能人士的回应无法区分的回应。
但是,鉴于中国房间论证,这是否会在任何程度上证明计算机具有智能?这是否会证明它对所说内容有任何理解?是否有理由相信,无论它拥有多么强大的处理器,它都能以某种方式神奇地从句法转向语义?对塞尔来说,答案是否定的。
他在这个领域的工作中还有几个不同的目标。我的意思是,除了试图弄清楚机器到底能够做什么,以及当我们谈论机器的智能或理解时,我们的确切含义是什么之外,他试图用所有这些来捍卫的最重要的观点可能是试图保护关于什么构成了心灵的对话。计算机在什么时候会变成心灵?它甚至是这样运作的吗?一方面,从科学的角度来看,就目前而言……
我们只在高度复杂的信 息处理系统中看到心灵。但这是否意味着一个也是信息处理系统的计算机能够从仅仅是信息处理转变为拥有一个因为某些功能而出现的心灵?
这种思维方式是所谓的功利主义的一种小类型,塞尔对此并不感冒,仅供参考。正如他所描述的那样,也许过于简单地说,这种功利主义的想法是,有些人认为,这种信息处理周围的物质条件无关紧要,无论是什么,碳、硅还是电路板上的晶体管,这些人认为,如果进行正确的输入和输出集合,就会自发地产生一个心灵。
毫无疑问,正是这种心态导致人们怀疑像ChatGPT这样的东西可能正在发展出构成心灵的理解和智力水平。但是塞尔提出了一个问题:“如果我用一堆旧啤酒罐、风车和绳子做一台计算机,并将它们全部绑在一起,加上换能器以便这东西可以看到光子,加上传感器以便它可以感觉到振动?如果你通过这东西运行所有必要的输入和输出,心灵会自发地出现吗?”
对他来说,答案显然是否定的。显然,为了使我们所体验的心灵成为可能,至少需要满足某些物质条件。这在一定程度上是关于基质依赖性的对话。为了批评约翰·塞尔一下,我们为什么应该假设在大脑内部进行的产生我们所体验的心灵的信息处理类型只能在生物物质中进行?我的意思是,这看起来有点人类中心主义,不是吗?
但是塞尔会想要澄清几点。他并不是说心灵只存在于人类身上,或者它们只能存在于生物物质中。但他所说的却是,试图将计算机的信息处理与人脑正在做的事情等同起来是错误的。这是我们没有任何根据可以做出的飞跃。
在我们现代世界中,人们倾向于这样做,或者他们说这即将到来。他们会说,哦,我们只需要更多的信息处理,更复杂的规则。然后人类的心灵就会从计算机中出现。塞尔认为,这大部分都来自人们在思考像人类心灵这样神秘的事物时所使用的隐喻。这里再次向苏珊·桑塔格和其他人的作品致敬。但约翰·塞尔说,我们在每一代人谈到心灵时都会这样做。我们将它与当时对我们来说似乎很复杂的流行技术进行比较。
他说,当他还是个孩子的时候,每个人都将心灵比作电话交换机。心灵一定就是这样运作的。你早些时候读过弗洛伊德的作品,他说他将心灵比作液压系统和电磁学。他说莱布尼茨将心灵比作磨坊。他说那些认为心灵只是在正确的硬件上运行的正确软件的人,所有这些人都在犯我们这个时代的相同错误。但塞尔认为,这不仅仅是mind.exe在正确的硬件上运行。
而且,为了避免说得太多,以便我们今天能够继续讨论人工智能的话题,他怀疑我们的心灵是大脑的高级特征,因此需要我们的生物构成才能以它们的方式存在。他可能会说,是的,到目前为止,我们只在复杂的信息处理系统中看到心灵,但是
但到目前为止,我们也只在生物信息处理系统中看到心灵。因此,尽管有些人似乎痴迷于将心灵仅仅变成一种软件,但我们的生物学中可能有一些东西是我们需要的。正如他所说,你可以创建一个心灵的计算机模型,但你目前还无法创建一个真正的心灵。
同样,他说,你可以创建一个关于消化及其运作方式的详细计算机模型。但是,如果你给这个计算机模型一块比萨饼,它将永远无法消化它。但无论如何,关于句法和语义的这场对话改变了人们谈论人工智能的方式。
并且对中国房间论证也有一些批评。我们将在以后的节目中讨论它们。但是为了理解今天的ChatGPT,重要的是要理解,在许多方面,这场对话多年来变得比20世纪80年代更加复杂,这主要是因为人们试图与人类心灵进行比较的软件的复杂性得到了提高。
看,我们今天世界上的某个人很容易说,好吧,先生,我明白你在说什么。而且公平地说。在1985年,你知道,当史蒂夫·乔布斯在当铺里卖掉他那副小小的圆形讽刺眼镜以便我们能够支付当月的房租时。我相信那当时是一个很好的观点。但现在是2023年。像ChatGPT、LLM这样的东西与当时的计算机程序完全不同。
如今,我们有了机器学习。ChatGPT接受了数十亿个信息参数的训练。这种人可能会说,这些东西运作的精妙之处在于,它们获得了大量关于世界如何运作的信息,它们利用其令人难以置信的计算能力来寻找数据中的模式,然后它们利用概率来预测给定序列中下一个词将是什么,同时考虑其他词序列在其训练数据中的外观如何。这些东西会随着时间的推移而变得更好。它们从错误中学习。
显然,这与我们在1985年所拥有的东西大相径庭。而且显然,这开始触及到我们所说的“智力”的含义。对吧?我的意思是,我们作为人类所做的许多事情不都是对大量经验数据的模式识别吗?我的意思是,这里似乎是无限的。只要给这台机器提供世界历史上所有智慧的总和,给它提供一个人曾经拥有的每一个有用的经验,然后要求它解决每一个科学问题,并给我们一个对宇宙的全面理解。
但是,就像塞尔在1985年问及计算机一样,2023年也有一些哲学家会反驳说,你完全确定这就是这东西能够做到的事情吗?
这些哲学家中有一位名叫诺姆·乔姆斯基的人。我们之前在这个播客上介绍过他的著作《制造共识》。无论如何,今天在世的哲学家中,很少有人能像他那样被人们铭记为多产、有影响力的人。我个人实际上看了很多诺姆·乔姆斯基的采访。我发现他对美国政治的看法非常有趣。
有趣的是,在他现在的每一次采访中,因为他现在已经95岁了,每个采访者都必须问他一个问题,就像他已经死了似的,他们问他,例如,乔姆斯基先生,回顾您的一生,您最想收回的一件事是什么?在您犯的所有错误中,您一生中最快乐的时刻是什么?我的孩子
他们问所有这些问题,但我认为他仍然是一位至今仍在进行相关哲学工作的学者。他对ChatGPT和LLM的看法只是其中一部分。他在今年3月与他人合著了一篇发表在《纽约时报》上的文章,文章标题是《ChatGPT的虚假承诺》。ChatGPT的虚假承诺是什么?好吧,他和他的合著者正在回应我们刚才谈到的任何一种心态。
从文章中引用:“这些程序已被誉为人工通用智能地平线上出现的第一个曙光。长期以来预言的时刻,机械思维将超越人脑,不仅在处理速度和内存大小方面数量上超过人脑,而且在智力洞察力、艺术创造力以及所有其他独特的人类能力方面质量上超过人脑。” 引用结束。
现在,为什么这是一个虚假的承诺?因为对诺姆·乔姆斯基来说,人工智能的理念(就其目前存在而言)超越甚至与人类智能相匹配,是科幻小说。
它被称为由人工智能驱动的语言模型,但对他来说,它与人类智能或语言没有任何关系。为了证明他的观点,他经常从区分开始。他会问:“你会说ChatGPT是工程领域的成就,还是科学领域的成就?” 因为从根本上说,这是两件截然不同的事情。
首先,该给予的荣誉必须给予。他说,大型语言模型无疑对某些事情有用。转录、翻译,他列举了它最终可能证明有用的六个例子。毕竟,伟大的工程壮举通常对人们想要做的事情非常有用。例如,一座允许人们过河的桥梁。
但是,在进行科学研究方面取得的伟大成就,则完全属于另一个层次。科学不仅仅是试图为人们创造有用的东西。科学试图更多地了解我们所居住的世界中的元素。但问题是,我们究竟是如何做到这一点的?也就是说,这个过程是什么?我们究竟是如何取得突破,从而更好地理解宇宙的呢?
是通过分析大量关于世界如何运作的数据,然后根据我们已经知道的知识来概率地预测科学领域的下一个突破将会是什么吗?因为如果是这样的话,应该让ChatGPT放手去做。你知道,给它一瓶红牛,告诉它去解开宇宙的所有奥秘。问题是,诺姆·乔姆斯基说……
当人类提出导致进步的科学理论时,人类并不是这样做的。文章引用:“……人类心灵不像ChatGPT及其同类那样,是一个笨重的统计模式匹配引擎,它吞噬数百TB的数据,并推断最可能的对话回应或对科学问题的最可能答案。”
相反,人类心灵是一个令人惊讶的高效甚至优雅的系统,它使用少量信息进行运作。它不是试图推断数据点之间的粗略相关性,而是试图创造解释。”
换句话说,当我们进行科学研究时,我们想要的不只是基于我们已经知道的知识而可能成立的理论。有时,让我们更好地理解宇宙的理论是高度不可能的,甚至是违反直觉的。文章用一个人拿着苹果然后苹果掉到地上的例子来说明这一点。你可以问到的一个科学问题是,为什么苹果会掉到地上?好吧,在亚里士多德时代,解释苹果掉到地球上的原因是因为地球是苹果的自然位置。
合理的答案。在牛顿时代,这是因为存在一种看不见的万有引力。在爱因斯坦时代,这是因为质量会影响时空的曲率。现在,如果ChatGPT或任何这些语言模型存在于亚里士多德时代,然后接受当时人们可以获得的数据的训练,在一个并非旨在提出新的解释的系统中,而是一个仅仅根据它已经看到的科学家之间的对话及其训练数据来产生下一个最可能的词的系统中,
这些模型永远不会预测像苹果由于没有人会在几千年后谈论到的一个名为时空的概念的看不见的曲率而掉落到地球上这样不可能的事情。这些模型永远不会假设这是导致苹果落向地球的原因。为此,我们需要提出新的解释。为此,对诺姆·乔姆斯基来说,我们需要真正的智力。
这是一个他所谓的欠生成的一个经典例子。如果你要问他,这是ChatGPT的问题之一,也是到目前为止人工智能与真正的人类智能的区别所在。这就是:它们总是容易出现欠生成或过生成。这些模型要么欠生成,这意味着它们不会生成所有应该或可能生成的响应,因为它们的答案是基于在其训练数据中最常见的答案。
或者它们过生成,并给出在语法上符合句子的响应,但实际上没有任何意义,因为算法对物理现实和逻辑连贯性没有任何真正的概念。正如诺姆·乔姆斯基所说,你要求这种算法绘制元素周期表,它会给你所有存在的元素,因为它见过人们谈论过元素。但因为它对潜在的物理或化学定律没有任何真正的概念,
它还会给你不存在的元素,甚至是一堆不可能存在的元素。它会这样做,因为语言模型所做的只是试图生成看起来像以前见过的文本的文本。它真的不知道它所说的任何东西的含义。
顺便说一下,这是句法与语义。这又是中国房间论证。这就是为什么像乔姆斯基这样的人会说,我们目前拥有的这种大型语言模型无法区分可能与不可能。这是一段关于这个主题的引言,顺便说一下,这段引言并非来自文章。引用:
如果你想知道这是否只是来自像诺姆·乔姆斯基这样的仇恨者的另一个有偏见的引用,我刚才读到的那句话实际上来自ChatGPT。我让它为自己辩护,它告诉我乔姆斯基是对的。
但无论如何,如果我们想说有什么东西开始类似于AGI,这确实是当前形式的大型语言模型的问题。
智力。当谈到人类如何运用他们的智力提出能够阐明我们对宇宙理解的科学理论时,这种智力不仅需要知道什么可能是真的,还需要知道什么不可能是真的。道德推理,AGI也会这样做,这需要能够区分什么应该是真的,什么永远不应该是真的。
至少就目前而言,大型语言模型甚至没有接近做到这一点。乔姆斯基称他们实际上在做什么,如果你只想对这项技术有一个更准确的描述,那就是它有点像你手机上的高级自动完成。“复杂的、高科技的剽窃”,他曾经这样称呼它。现在这还远不是谈话的结束,这只是一个单一的观点。
如果你像哲学家一样思考,从这里可以走的一个方向是质疑我们在这里使用的定义。例如,为什么我们在没有更具体说明的情况下使用“智力”这个词?例如,在我们说智力时,检查我们的意思不是很重要吗?机器能否以智力进行思考,但这与人类智力完全不同?另一个问题是,这些东西是否符合我们目前认为的智力的狭义定义,这是否重要?
因为有一件事不能被低估,这是我说的,不是诺姆·乔姆斯基,即使大型语言模型甚至远未接近成为通用人工智能,仅仅在人工智能当前技术水平上,人工智能仍然是非常危险的东西,如果仅仅是因为人们相信人工智能即将成为AGI。
看,在当今世界,你手机上所有关于人工智能革命已经来到我们中间的头条新闻,所有阅读这些头条新闻的人都在经历这种三头怪兽。怪兽的一个头是科技公司如何获得资金。你知道,如今在硅谷,仅仅推出新产品来获得资金是不够的。不,你必须创造一个正在从根本上改变我们所知现实面貌的产品。这就是你获得资金的方式。
所以我们有了科技公司之间为了获得资金而制造虚假炒作,以及媒体公司为了点击而乐于屈服的伙伴关系。这是怪兽的一个头。怪兽的第二个头是一种未来主义,似乎迷住了相当一部分人口,他们认为我们所有的问题都将由从云端降下的某种科技救世主来解决。
然后是怪兽的最后一个头,这只是某些人似乎拥有的整体好莱坞情绪,他们只是,他们希望这些事情是真的。他们非常渴望生活在人工智能革命正在发生的时代,这种偏见影响了他们看待一切的方式。所以当他们看到一篇关于奇点临近的头条新闻时……
当他们与ChachiBT交谈时,他们认为这东西是一个无所不知的神谕,它在互联网上搜索信息,然后将其合成为你天才的见解,这种对技术运作方式的误解是危险的。这可能会让人们相信,这实际上并非仅仅基于少数公司员工选择的数据,而所有这些员工都有自己的议程。人们可能会向它寻求人生建议,以为他们正在与一个超级智能的生物交谈。
想想让它开始为我们做一些政治决定会有多么诱人。我的意思是,在这种误解中,这种人工智能不容易受到人类相同的偏见的影响。这东西并不局限于单个大脑或单个视角。这东西可以从每一个角度模拟未来万亿次。它真的可以想出所有可能的最佳世界。
再说一次,想象一下,本质上是一种宗教,人们认为这种人工智能不仅是我们领导社会的最佳候选人。它实际上比所有其他人类的智力总和还要好。想象一下,以一种宗教的方式,相信我们亲爱的AI领导者的决定。你知道,即使它做出的决定,我不太理解,那只是因为我们是脆弱的人类。我们只需要有信心。我们是谁,能知道我们神明的智慧?
但要回到诺姆·乔姆斯基的话题,他认为人们误解ChatGPT所做的事情的最大危险之一是,人们每花一秒钟与它交谈,担心奇点即将到来,那就是我们没有花一秒钟去担心人类目前面临的两个绝对真实的生存威胁。核战争的威胁和不可控气候变化的威胁。
正如他某处所说,我们生活在一个化石燃料公司和银行正在摧毁地球上生命可能性的世界。他会问,我们要花多长时间玩弄这些花哨的玩具,文字生成技术,然后才能认真解决那些真正能够终结我们所知的人类生命的事情?毫无疑问,像乔姆斯基这样的人会认为这些想法对人们来说很重要。这就是你的男孩史蒂文在这里试图做的。感谢你今天一直陪伴并倾听这些想法。
现在,也就是说,即使我们现在离AGI还很远,人工智能对人类构成的风险,即使从去年11月以来,改进的速度呈指数级增长,规范变化如此之快的事物所面临的挑战,还有很多事情需要讨论。下一集,我们将讨论很多内容。
就像我们经常在这个播客中做的那样。我们下次将听到一些持不同意见的人,一些对ChatGPT、机器人技术、合成图像和视频印象深刻的人。所有这一切如何促成我们已经身处的诈骗和错误信息氛围?下次,我们将提出一个问题,创造一个入侵物种意味着什么?然后,如果我们发现自己生活在其中,那会是什么样子?感谢收听。下次再聊。