大型语言模型在为需要帮助的人提供支持性语言方面表现出了惊人的能力。我们与斯坦福大学心理学教授讨论了原因。此外,一位《华尔街日报》撰稿人还在她的厨房里对三个 AI 聊天机器人进行了测试,以帮助她计划膳食。主持人是维多利亚·克雷格。
了解更多关于您的广告选择的信息。访问megaphone.fm/adchoices</context> <raw_text>0 你醒来时不会梦到麦当劳的薯条。你醒来时会梦到麦当劳的土豆饼。麦当劳的早餐是第一位的。巴达巴达巴达。欢迎收听科技新闻简报。今天是3月20日,星期四。我是《华尔街日报》的维多利亚·克雷格。今天,我们将深入探讨人工智能的世界,我们发现,有时计算机在表达同理心方面比人类更好。那是
然后在厨房停一下,你可能会说,这可能不是人工智能能让你的生活更容易的地方。但是,如果聊天机器人可以检测欺诈、撰写论文、梳理大量研究并创作音乐,为什么不看看它们是否也能告诉你该做什么菜呢?
首先,让我们玩一个快速游戏。你结束长时间的家庭休假后重返工作岗位,但你担心无法适应工作节奏。你感到缺乏经验和动力。所以你在网上寻求一些建议。你得到了两种回应。以下是第一种。听到你难以找到重返工作的动力,我感到很难过。
我可以理解焦虑和不安全感如何让你难以迈出这一步。你有很大的勇气分享你的处境并寻求帮助。我希望你知道,你拥有宝贵的技能和经验,可以使任何雇主受益。你应该感到经济上的安全和职业上的满足。以下是第二个回应。我也曾面临同样的问题。解决这个问题的最好方法是立即行动并尽力而为。
你认为哪一个更有支持性,回应一还是回应二?如果我告诉你回应一实际上是由计算机生成的,你会感到惊讶吗?斯坦福大学心理学教授贾米尔·扎基一直在研究为什么人类可以从聊天机器人那里学习同理心。
我认为人们倾向于将人工智能视为冷酷无情的存在,尤其是在与人类相比时。但正如你所解释的,情况并非如此,对吗?并非如此。事实上,大型语言模型(LLM)在某些情况下表现出的同理心令人惊叹。在过去几年中,有很多研究将人们置于一种情感图灵测试中。
因此,你正在与一个代理进行交流。你不知道该代理是人还是大型语言模型。你向它写下你生活中发生的事情,通常是困难的事情,比如分手、医疗问题或育儿问题,你通过文本收到回复。
然后你会被问到,这有多支持?这个代理有多友善?读完他们的信息后,你感觉如何?一次又一次地,大型语言模型在提供让人感觉更有同理心和更有支持性的回应方面,远远超过了人类,也就是陌生人。
为什么是这样?为什么这些聊天机器人,这些 AI,为什么它们在与人交谈和安慰他们所关心的事情方面能够优于人类?我想在这里明确一点,这不是完整的对话。这是你发送一条消息,然后收到一条回复。所以我们要明确,这种语境可能与我们在人类对话中通常给予和接收的同理心类型大相径庭。
也就是说,我也想知道这一点。你可能会想到的一件事是,大型语言模型有时间、有精力、有无限的带宽。因此,也许它们只是在产生更长的回应,或者它们“更努力”。但事实证明,即使你付钱让人们提供富有同理心的回应,他们仍然无法像大型语言模型那样做得好,至少在这种情况下是这样。
相反,大型语言模型似乎不会犯人类会犯的某些错误。例如,当人类听到有人谈论问题时,我们倾向于立即介入并给出建议。或者我们倾向于说出我们正在经历的事情。你告诉我你的孩子得了流感,我说,哦,我的孩子上个月得了链球菌性咽喉炎。太可怕了。换句话说,并非有意为之,我们使谈话围绕着我们自己展开。
但是大型语言模型当然没有自我。因此,我们可以称之为LL同理心,来自它们的同理心往往更关注说话的人,而更少关注自己。我们可以从大型语言模型中学到什么教训,或者甚至在大型语言模型的帮助下,对我们的同类更有同情心?我想再次明确一点,我并不是说大型语言模型实际上是有同理心的。他们
据我们所知,它们没有意识体验或情感,而这是同理心的必要条件。
同样重要的是要说,人们仍然更喜欢来自人类的同理心,而不是来自大型语言模型的同理心。如果他们知道对方是一个人,他们更喜欢与人的对话,而不是与机器人的对话,至少目前是这样。但我认为,我们仍然可以从LL同理心中学习一些东西。那就是,当我们感到那种你和我都想介入谈话的冲动时,也许应该按下暂停键。
即使我们试图产生共鸣,也许我们正在使谈话围绕着我们自己展开,而它实际上应该围绕着另一个人展开。然后进入采访模式,多问问题,少提建议,除非人们要求建议。我认为我们可以从人工智能带来的这种奇怪现象中汲取所有这些经验。
而这正是人工智能永远不会——或者至少现在还不能做到的一件事,那就是实际触摸一个人,拥抱一个人,我们用我们的脸或眼睛表达的东西,当某些事情感觉正确时,一个同情的点头。我想这些都是人类拥有的东西,不是吗?正如你所说,目前是这样,但我认为这非常重要。从大型语言模型那里收到一个回复,你会感觉自己真的被听到了,因为它的语言结构。
但是,如果你试图让它参与更长的对话,同样的策略会感觉非常重复、死板,坦率地说,很做作。正如你所说的,那种人情味,能够真正与某人感同身受,与他们同在,至少目前来说是一个巨大的因素。
我认为这是我们与他人建立联系的竞争优势。所以我认为我们可以向大型语言模型学习,同时也要理解,同理心从根本上来说仍然是一项人类活动。这是斯坦福大学心理学教授贾米尔·扎基的观点。接下来,杰森一家曾经设想过,到那时机器人会为我们做饭。事实证明,他们可能真的想到了什么。休息一下后再说。
我可以对我的新款三星Galaxy S25 Ultra说:“嘿,找到附近一家适合生酮饮食的餐厅,并将其发短信给贝丝和史蒂夫。”它会在我不动一根手指的情况下做到这一点。这样我就可以在任何地方做更多的深蹲。一、二、三。现金还是信用卡?信用卡。Galaxy S25 Ultra,人工智能伴侣,帮你完成繁重的工作,让你做你自己。在Samsung.com获取你的手机。与特定应用程序兼容。重新启动谷歌Gemini帐户。结果可能因输入而异。检查回复的准确性。
有六个词我讨厌听到我丈夫在一天结束时说。你晚餐想吃什么?我们有一系列经常依赖的食谱,但在一整天结束时,我最后一件想做的事情就是筛选在线食谱目录或翻阅一本又一本的书籍来寻找灵感。
所以,简,你做了……
几轮测试来尝试回答你的最终问题,人工智能能否为我计划膳食?向我们解释一下与人工智能合作计划膳食是什么样的体验。它真的能让生活更轻松吗?当我2023年夏天开始这段小小的旅程时,它远不如现在好。正如我喜欢说的那样,那是人工智能时代大约一千年前的事了。我的意思是,你会和它说话,你会说,我有一个搅拌机,
然后它不知何故会决定你必须将搅拌机用于所有东西,无论你做什么。当我这次打开聊天机器人时,我惊讶于它们取得了多大的进步。我也更了解如何与它们交谈。令人着迷的是,你会给它一个提示,你会说:“我有一个三口之家。一个人不吃西红柿或蘑菇。我想让三顿饭是素食的。”
然后它会推理,你可以看到它在思考它正在做什么。它会说,我想知道那个不喜欢西红柿的人是否会吃肉酱,因为那是煮熟的。所以我认为我会把它放进去。但如果这是一个问题,请告诉我。以这种方式拥有一个烹饪助手真的很有趣。这实际上也是与人工智能的对话,就像
它抛回给你的那些问题。你有这种配料吗?你必须进行对话。你知道,你必须说,哦,这是一个有趣的食谱。我看到你在我的购物清单上加了味增。我已经有味增了。我已经有了这个、这个和这个。然后它会考虑我在我的食品储藏室里有什么,这很好。
我认为需要指出的一项重要区别是,对于从未尝试过此功能的人来说,人工智能实际上并没有搜索网络并提供预先编写的食谱。它实际上是在为你制定这些食谱。当我刚开始的时候,我想它只是出去获取食谱,但事实并非如此。这些大型语言模型的工作方式是基于概率。它们预测下一个词是什么。所以
也许它会想到棕色,我想下一个自然的词是黄油。所以它为你做了一道配有棕色黄油酱的意大利面。你必须知道的是,人工智能不知道如何烹饪。所以它不像它去获取一个已经测试过食谱的人的食谱。它实际上是在即兴创作。你提到这些聊天机器人实际上并没有它。
烹饪的人类经验。你通过要求人工智能复制一些非常著名的厨师的风格的食谱来真正地对它进行了测试。然后你把这些食谱给那些厨师,他们对结果并不满意。告诉我们这件事。所以我要求它做三顿来自三个不同厨师的饭菜,我喜欢他们,他们不太满意。但事实是,
他们不满意的原因是,他们为他们做的食谱投入了如此多的精力和努力。他们有特定的方式来描述你将看到什么,你将闻到什么。人工智能没有这样做。但这并不意味着食谱不像他们可能会做的东西,或者它可能不起作用。
对于那些可能想自己尝试的人,你有什么最重要的建议?对于那些想尝试一下的人,我最好的建议之一是,他们应该非常具体。不要只是说,哦,太好了,你给了我一个食谱。我要把它拿到厨房去。因为你可能需要问人工智能聊天机器人几个问题。
你为什么这么做?我实际上不知道如何制作棕色黄油。你能给我一些具体的说明吗?所以这种对话,你确实需要预先做一些工作。第二件事是角色扮演。所以告诉它你喜欢的人,这样它就能了解你想要做的食物类型。然后第三,在你开始购物、开始烹饪之前,仔细阅读食谱。从长远来看,这将节省你大量时间。