你有没有一个朋友完全依赖人工智能聊天机器人?比如,每当他们有问题或遇到麻烦时,他们就会拿起手机,得到人工智能生成的答案。当然,有时它也会出错。这可能会导致各种争吵,或者让你感觉自己受到了非人类事物的影响。
收到一封显然是由机器人撰写的电子邮件也令人非常恼火。此外,将人工智能用于每一件小事还会产生环境影响。因此,今天我们将揭穿一些关于人工智能聊天机器人的神话,并找出我们使用它们更健康的方式。我是汉娜·盖尔巴特,这是来自英国广播公司世界服务的《世界上的什么》。世界上的什么
现在让我们从英国广播公司科技记者利夫·麦克马洪那里了解更多信息。你好。你好,汉娜。我想玩一个判断正误的游戏,因为人工智能正在快速发展。关于ChatGPT和其他聊天机器人是如何工作的,有很多未知之处。以下是我听到的一些谣言。所以,判断正误?
将一个提示输入ChatGPT会消耗500毫升(半升)水。这是一个棘手的问题,因为它有一定的真实性,但也有一些需要注意的地方。因此,ChatGPT使用500毫升水(基本上与一小瓶水相同)的说法,
来自《华盛顿邮报》和加州研究人员去年进行的研究。它确定,使用OpenAI模型GPT-4的人工智能聊天机器人需要略多于一瓶水才能生成100字的电子邮件。但实际上,产生的水量
为人工智能聊天机器人提供一次查询所需的能量,实际上会因各种因素而异,从查询本身的性质和长度到服务器处理它的位置以及这些位置的数据中心冷却需要多少水。这就是为什么你会看到如此多的研究和专家仍然难以确定确切的使用量。我们知道的是,人工智能聊天机器人
处理请求所需的水可能比平均谷歌搜索多,因为它需要更多的计算能力。OpenAI的老板萨姆·阿尔特曼表示,平均ChatGPT查询所需的量大约相当于十五分之一茶匙。但是,是的,关于他如何得出这个计算结果的细节并不多。那么,对ChatGPT说“请”和“谢谢”是否会花费数千万美元是真的吗?
从某种意义上说,这是真的,因为萨姆·阿尔特曼谈到了向他的公司收费GPT的人们的礼貌成本。他说,这基本上是因为计算能力而给OpenAI(Charge UPT的创建者)带来了数百万美元的损失。同样,它需要生成对人们说“请”和“谢谢”的回复。他们非常渴望取悦,因此当你说任何话时,他们总是会被提示回复。
我认为,事实上,这导致一些人提倡我们在使用人工智能聊天机器人时应该不那么客气,这样我们就不会消耗更多能源。我们也在帮助减少其对环境的影响。但与此同时,一些专家也表示,出于担心这可能会渗透到我们在社会上的行为方式,我们不应该对人工智能聊天机器人变得粗鲁无礼。好吧。这个怎么样?人工智能聊天机器人不如谷歌搜索准确。
我将再次令人讨厌地说,这个问题仍在争论中。因此,谷歌搜索通常会提供更广泛的结果集。而且,这些结果通常会优先考虑权威和可信的来源,以响应某些查询。
而且,我过去与专家讨论过人工智能时代对网络搜索意味着什么,他们说,使用搜索引擎搜索信息通常对数字素养非常有益。我们必须挑选某些来源,并运用我们的批判性思维能力,才能真正了解我们在寻找什么,以及它何时可靠,何时不可靠。
而且,人们担心,在人工智能的回复中,你会得到很多现成的信息,即使它经常包含参考文献和引文。它们还可以做到以非常令人信服的方式编造事情,或者像业界所说的那样,“幻觉”。
但我也要说,现在进行谷歌搜索通常意味着在搜索结果的顶部会看到人工智能生成的回复,这要归功于谷歌对其人工智能概述功能的推出。它使用人工智能总结结果。这些已被证明会自行产生不准确之处。所以,这对一个相当简单的问题来说,又增加了一层复杂性。
因此,基于这一点,这是我看到很多人都在写的一个问题。人工智能聊天机器人将变得有意识或有感知能力。对此,我认为大部分是错误的。许多人确实相信感知能力,即人工智能聊天机器人以某种方式变得有生命并拥有自己独立的想法和感受的想法是……
是可能性,甚至事实上即将到来。我们过去看到谷歌等科技公司的一些工程师做出了可能已经出现的大胆声明。重要的是要说,这些说法已被坚决驳回,它们通常是前面提到的幻觉的结果,即人工智能可以编造事情,这可能包括赋予自己这种类似人类的品质,并像活的一样说话。
人工智能公司继续努力创造真正超级智能的人工智能,能够同时处理许多不同的任务,其方式与人类能力相匹配甚至超过人类能力。一些专家确实认为,像这种发展意识的想法是一种可能性。
但是,这种意识究竟是什么样的呢?因为它不会是人类的意识,因为归根结底,这些是经过训练来模拟人类行为的计算机系统。这是我个人非常讨厌的一点。你总是可以检测到是否用人工智能写的东西。我会说这个是错误的。有很多讨论
关于某些特征或指标。例如,破折号可能是人工智能生成的文本的标志。
但是,所有这些关于在人工智能生成的回复中肯定会看到的常规事物的想法,从来都不是完整的画面。而且,越来越难以确定某件事是否是用人工智能写的。所以这已经澄清了一些事情,但这仍然是一个有点模糊的领域。我想多问你一些关于我们如何使用人工智能聊天机器人,因为我认识的很多人……
非常依赖它们,他们不仅将它们用于研究和求职申请,还用于解决各种个人问题。有多普遍
现在人们如此依赖它有多普遍?好吧,我认为目前围绕聊天机器人的炒作非常热烈。ChatGPT于2022年末出现。现在它们已经变得更加规范化,特别是我们看到越来越多的公司开始为员工和工作任务引入它们,它也开始在人们日常生活中变得更加普遍,就像
以前,拥有像亚马逊Alexa这样的语音助手并不常见,而现在却很常见。
但重要的是要记住,并非每个人都能使用这些工具。人们仍然对它们有很多警惕。虽然人们开始越来越依赖它们,但与此同时,人们也担心越来越使用人工智能工具可能意味着什么,例如我们个人的发展,我们如何学习。这也会随着人工智能聊天机器人本身及其能力的发展而发展。是的。
现在,我可能不应该这样做,利夫,但我使用ChatGPT检查了一堆血液检查结果,并获得了一些补充剂的建议。我确实向我家族中在该领域工作的人员进行了二次检查,因为我只是很好奇它会推荐什么。如果我把我的个人健康数据甚至我的财务数据输入ChatGPT或人工智能聊天机器人,最糟糕的事情会是什么?
我的经验法则是,如果我不愿意把它放在Instagram或社交媒体上,它可能也不应该放在像ChatGPT这样的人工智能聊天机器人中。但原因略有不同,因为
人们担心,人工智能聊天机器人的隐私政策可能会使用输入其中的信息来进一步开发其系统。这意味着,如果你输入,如果你在那里输入某种个人身份信息,如果它包含敏感信息或个人数据,那么它就会
脱离你的掌控,落入为这款人工智能聊天机器人提供动力的公司的掌控之中。你就不一定能控制它的使用方法,以及如何使用它来进一步开发系统。
许多公司确实有控制措施。例如,我认为对于ChatGPT,你可以与它进行聊天,它不会保留你输入的提示或与它分享的信息。但我认为,作为一个关键的经验法则,人们非常担心这些信息最终会去哪里。是的,我记得照片倾倒的日子。我现在更小心了。但是
我决定为此使用ChatGPT以及为什么我经常使用它的原因之一是,我觉得它已经了解我了,它记得关于我的所有事情,而且它也像人类一样以一种非常渴望取悦的方式与我交谈,正如你所说。这有什么优缺点?这种风格,这种对话的语气,它似乎模仿的真正的人声
这如何影响我们与它的互动方式,以及我们彼此互动的方式?好吧,我认为这是一把双刃剑。据我所见,很多人之所以喜欢使用人工智能聊天机器人,正是因为你刚才所说的原因。他们非常擅长听起来像人类,经常说正确的事情,非常支持。他们通常以一种方式接受训练,而不是
也许如果你正在与一个朋友、家人或在现实生活中非常了解你的人交谈,他们可能足够了解你,可能会指出你某些事情,或者分享他们真实的观点。人工智能聊天机器人没有意见。所以你正在与有时我认为最好被认为是一个非常支持的人交谈。
当你与聊天机器人交谈时,互动墙我认为你必须始终记住,最终你正在与
非常擅长表现和听起来像人类,但实际上并非如此的东西交谈。我看到ChatGPT以及其他聊天机器人也正在导致人们之间产生摩擦。有些人对他们的伴侣或朋友以及他们对仅仅转向ChatGPT来解决一切问题的依赖程度感到恼火。有些人会说,“嘿,你忘记了如何自己思考了吗?”
所以,这里只是为一个朋友提问,下次我使用人工智能聊天机器人时,我还应该考虑哪些其他选择?人们越来越敦促其他人可能稍微回归基础,作为
作为使用人工智能工具的替代方案。这可能是从,你知道,使用搜索引擎,正如我之前所说,继续选择和整理信息,从中学习,但也拿起一本书进行研究,或者,你
在我们更社交的个人生活中,采取可怕但有时有益的步骤,与朋友、家人或支持网络联系,讨论
私人事务,尤其是在分享任何敏感信息时。是的,我认为你是对的,这是为了保持这些社交网络的活跃,并拥有你的内部圈子,无论是朋友还是家人,都是你可以向其寻求建议的人,但我不知道在书中查找东西是否会涉及去图书馆,利夫。我知道这非常老套,但是的,称之为怀旧。利夫,非常感谢你加入我们。感谢你邀请我,汉娜,很高兴。音乐
在我们结束之前,不,你不应该使用人工智能来代替你的医生。但在我们使用它的程度和用途方面,还有一些其他需要考虑的事情。这是人工智能和数字专家安东尼奥·韦斯。人工智能会比我目前自己能做的更好吗?
成本和潜在收益是否超过任何风险?这是一个相当困难的问题。但是,你知道,风险在于它会出错。实际上,有人说,如果你联系你从未与之交谈过的人,他们会说,“等等,你刚刚用机器人与我交谈了吗?”好吧,这在社交上很尴尬,而且也可能让你处于尴尬的境地。这样做有什么风险?这些潜在的好处是否超过所有这些风险?
我自己的研究表明,这些模型在医疗用例方面做得越来越好。它们仍然有一部分时间是错误的。一般来说,这部分时间正在减少。但风险在于……
得到错误的答案或一些更私人的但非常重要的事情。我认为这种风险非常高,我认为这是有问题的。在所有这些中,风险在于人们继续无意识地使用人工智能,然后我们发现自己处于每个人都在做某事而没有真正意识到它如何真正使我们受益的地方?归根结底,人工智能是由人类设计的,因此它应该造福人类,如果它对你不利,你不应该使用它。
今天的节目就到这里。我希望这对你们有用。对我来说绝对有用。我们还讨论了诸如人工智能能否拯救约会应用程序免于灭亡以及人工智能网红是否是社交媒体的未来等问题。你可以在任何地方找到它们,只要你能获得英国广播公司的播客。我是汉娜·盖尔巴特。这是来自英国广播公司世界服务的《世界上的什么》,我们下次再见。