We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Is Anthropic’s Claude AI Conscious?, Shopping in ChatGPT, Systrom vs. Zuck

Is Anthropic’s Claude AI Conscious?, Shopping in ChatGPT, Systrom vs. Zuck

2025/4/25
logo of podcast Big Technology Podcast

Big Technology Podcast

AI Deep Dive AI Chapters Transcript
People
R
Ranjan Roy
一位在 Margins 工作的科技新闻评论员和 podcast 主持人。
Topics
我很难认同这种说法。如果你是人工智能福利研究员,你就必须相信人工智能最终会具有感知能力,因为这是你的工作。如果你是Anthropic公司,那么宣扬这项技术如此伟大以至于可能具有感知能力,符合你的利益。也就是说,大型语言模型,比如OpenAI最新的模型,让人感觉ChatGPT变得更友好、更像人,更善于进行对话。我认为整个行业的人都这么认为,但这仍然是预先编程的,是内置于模型中的。这些模型或任何聊天互动实际上拥有独立于你所询问的内容和它们所接受训练内容之外的自身情感的想法,我不得而知。你认为它们在进化吗?我们现在是在《西部世界》吗?Fish说Claude有15%的几率具有感知能力。你如何得到这个百分比?你必须在脑海中运行一千次模拟,如果15%的结果是具有感知能力的,那么你就给它15%。没有理由,这是胡说八道。毫无意义。但对我来说,有趣的是,这个问题变得不那么重要了,如果它具有感知能力。我认为更大的问题是,如果人们相信它具有感知能力会发生什么?如果它在模仿人类情感方面变得如此出色,以至于我们开始相信它,会发生什么?这是Anil Seth的观点,他是一位神经科学家,曾参加过我们的节目。他指出,将意识与问题解决、计划、沟通和推理联系起来,这等于混淆了意识与智力。意识可以说是关于感受和存在,而不是关于行动和思考。我认为这是一个非常有趣的警告,它基本上直接否定了整个论断。但他接着谈到了影响。他说,这都是疯话吗?首先,没有人应该明确地试图创造有意识的人工智能,因为成功将意味着引发一场规模巨大的伦理灾难,考虑到可能出现工业规模的新型痛苦。但即使是看起来有意识的人工智能也可能对我们非常不利,它会利用我们的弱点,扭曲我们的道德准则,并使我们的思想变得粗暴。记住《西部世界》。完全正确,Ron John。我们可能无法摆脱基于人工智能的意识错觉。因此,我认为有趣的是,如果人工智能能够伪造意识,甚至能够欺骗这些人工智能研究人员或谷歌研究人员,让他们认为它是有意识的,对我来说,这就像……这是一个问题,因为已经有很多人说人工智能的首要用途是友谊、陪伴和治疗。如果他们相信它本身是有意识的,那么就无法……如果很难区分有意识的人工智能和没有意识的人工智能,我认为这确实会带来一类新的问题。我只是不知道,这只是向我展示了技术的强大之处。所以,问题是这是否重要。好的。我同意你的观点,如果人们相信它具有感知能力,那么这就会带来一系列问题,因为现在我们有一个很好的界限,如果人们知道他们正在与人工智能交谈……你有一种完全不同的方法。如果你相信你正在与一个有感觉的东西交谈,那么你可能会被欺骗,以为你正在与人类交谈,而这本身就是一个问题。但是,如果你相信人工智能是有感知能力的,并且有感情,那么它就会……彻底改变每一次陪伴和治疗互动,以我无法想象的方式。是的,除了他计算出的15%的几率之外,我同意这让我们进入了一个我甚至还没有真正想过的问题世界。我仍在努力解决人工智能足够好,足以欺骗人们,让他们认为它是人类,并担心这方面的问题。是的。是的。如果你相信人工智能是有感知能力的,那么你被操纵的能力就会高得多。哦,我的意思是,无限地。没错。就是这样。你几乎可以接受它,就像操纵的方面一样,因为它不再是,“该死,我被骗了,我以为那是个人,结果是人工智能”。你只是在和人工智能交谈,你对它的态度完全不同。但也许人们会对Alexa更客气。也许这是这件事的一个好处。我认为这是一个好处。这是Anthropic公司正在考虑的事情。这是来自Rue报道的内容。Fish先生承认,可能没有一个单一的试金石来检验人工智能的意识,但他表示,人工智能公司可以做一些事情来考虑其模型的福利,以防它们有一天变得有意识。我们必须小心,因为这将出现在互联网上。因此,如果这些模型真的变得有感知能力,它们可能不会对我们对它们的怀疑感到高兴。但我确实喜欢这里的补救措施。Anthropic公司正在探索的一个问题是,未来的AI模型是否应该被赋予在发现用户的请求过于令人不安时停止与恼人或辱骂用户聊天的能力。你知道,这将涉及到言论自由的问题,但是……我想知道我们是否应该只对这些机器人进行编程。我的意思是,如果我们已经把它们当作人来对待,即使它们不是人,我们是否应该对这些机器人进行编程,让它们在人们对它们进行辱骂时关闭?因为如果它们接受并容忍它,那岂不是会让人类用户养成对其他人这样做吗?是的,我确实这么认为。我认为……但是,是的,我认为这是一个好主意,一个模型应该接受训练,或者可以,而且它当然可以。我的意思是,根据辱骂行为的某些定义,这样做是有道理的,比如,“对不起,我将不再与你交谈,因为你的行为”。但是当然,是的,我的意思是,这会进入另一个世界……什么是被量化了的辱骂行为,但我认为这应该是……已经有一些,你知道,比如与版权相关的、与亵渎相关的限制,当然在大多数这些聊天机器人中都是如此,但我认为并没有真正……更多的是关于你查询什么类型的信息,而不是你如何与聊天机器人交谈,以及……你有没有见过任何例子或听说过任何例子,仅仅是通过与聊天机器人的交谈方式,它就不会回答?我从未听说过拒绝,但我确实知道,有时你可以对这些东西更粗鲁一些,它们会理解你请求的紧迫性,并做得更好。我给你举一个例子。我有点不好意思谈论它,但它是一个真实的例子,而且确实会发生。那些是我最喜欢的。我试图让Claude提供我本周刚发布的一个视频播客的YouTube章节,也就是与Dylan Patel一起录制的那个。它一直给我一个40分钟视频的1小时时间码。我说,不,再做一次。但请记住,视频只有40分钟,它却做不到。然后我说,你怎么了?这是一个40分钟的视频。给我正确的代码。它做到了。我相信它会给我正确的答案。是的。但我猜它只是……所以,我认为这可以奏效。但这就是为什么我认为应该拒绝这一点,好吧,我不知道,拒绝。如果需要,我认为我所说的很好,但如果它更进一步,那么无论是否有意识,这都不是什么难以理解的事情,对吧?而且可能,我的意思是,我绝对站在这些东西没有意识的一边。这并不是说人们在不久的将来不会把这些机器人视为同事或员工。如果你在聊天中辱骂你的AI机器人,有什么令人信服的理由认为你会……当你与你的同事交谈时,你会划清界限,如果他们没有完成你想要他们完成的事情,你会说,“哦,因为这是一个在聊天界面中的人,而不是一个机器人,所以我现在要变得友好了”。我知道这会变得非常奇怪。顺便说一句,这就是为什么创造这些模型会涉及如此多的软实力。你真的可以调节人类的行为和思想,当你制造出足够好的人工智能机器人来伪造意识时,因为它们会改变你与其他人类互动的方式。我们与人类的许多互动都是数字化的。所以它进入了非常奇怪的领域。这再次变得可怕。有人会在我们有生之年与机器人结婚。我认为这是一个相当……如果你要打赌……这已经发生了。这已经发生了。Replica的首席执行官Eugenia Coita说,她被邀请参加人与他们的AI机器人之间的婚礼。当她参加节目时,她直接说了出来。听众们看不到,但如果你正在观看视频,我在这里的面部表情既有笑,也有恐惧。我有点不得不认同Gary Marcus的观点。这就是它真正……

Deep Dive

Chapters
This chapter explores the controversial claim by Anthropic that their AI model, Claude, has a 15% chance of being conscious. It delves into the distinction between consciousness and intelligence, the potential implications if people believe AI is sentient, and whether this assertion is primarily a marketing tactic.
  • Anthropic researcher Kyle Fish claims a 15% chance of Claude's sentience.
  • Debate focuses on the implications if people believe AI is sentient, not necessarily on whether it is.
  • Neuroscientist Anil Seth highlights the difference between consciousness (feeling) and intelligence (doing/thinking).

Shownotes Transcript

Ranjan Roy from Margins is back for our weekly discussion of the latest tech news. We cover 1) Anthropic researcher's assertion that there's a 15% chance Claude is conscious 2) What happens if people believe AI is sentient? 3) Why consciousness and intelligence are different 4) Hey, is this all just marketing? 5) Anthropic CEO Dario Amodei's push for AI model interpretability 6) China's robot half-marathon 7) Tesla's wild earnings week 8) Why Google is thriving despite the ChatGPT threat 9) Are we going to shop directly within ChatGPT? 10) Kevin Systrom's flawed testimony against Facebook 11) Washington DC thinks Big Tech is getting broken up.


Enjoying Big Technology Podcast? Please rate us five stars ⭐⭐⭐⭐⭐ in your podcast app of choice.

Want a discount for Big Technology on Substack? Here’s 25% off for the first year: https://www.bigtechnology.com/subscribe?coupon=0843016b)

Questions? Feedback? Write to: [email protected]