这是 Everyday AI Show,一个每天播出的播客,我们简化 AI 并将其力量带到您的指尖。每天收听,获取提升您的职业、业务和日常生活的实用建议。
您是否曾经盲目复制粘贴大型语言模型提供的内容?对吧?我理解。我们都工作过度。我们压力很大。有很多事情要做。您的经理现在要求您使用 AI 时做得更多。但是
这实际上可能非常危险,对吧?盲目相信 ChatGPT、Gemini、Copilot 或 Claude 等大型语言模型吐出的内容。我认为 AI 失败的一个最大原因,也是有时 AI 失败的原因之一是由于
对。本质上,大型语言模型是互联网的反映。它们是社会的反映。有很多事情是错误的。有时这些模型并非绝对真理。有时它们存在很大的缺陷。因此,我们今天将更深入地讨论这个问题,以及您可以做些什么以及如何关注不同类型的偏差。我认为这就是人们所说的可能会出现在大型语言模型中的偏差。对。
好吧,我很期待今天的谈话。我希望您也是。欢迎来到 Everyday AI。也许这是您第一次来这里。如果是这样,您在过去三年里都在哪里?我们每天都这样做。我的名字是 Jordan Wilson,这是您的每日直播播客和免费每日新闻通讯,帮助像您我这样的普通人,不仅学习 AI,而且学习如何利用 AI
它来发展我们的公司和职业。我希望您成为公司部门中最了解 AI 的人。因此,如果您想这样做,您需要访问我们的网站。那就是 youreverydayai.com。我们将回顾今天的谈话,以及
真正回顾您在 AI 世界中需要的其他一切。我们每天都在我们的免费每日新闻通讯中这样做。因此,如果您想了解更多关于今天节目的见解,请务必注册。好吧,在我们开始之前,我很高兴谈论 AI 失败的首要原因——认知偏差,让我们首先回顾一下 AI 新闻世界中正在发生的事情。因此,微软推出了两款新的 AI 销售工具,它似乎是为了直接与
Salesforce 竞争,是的,Salesforce 与微软发生了一些争执,微软现在推出了两款新的 AI 工具,一款是销售代理,另一款是销售聊天,以简化其销售流程,作为其 Microsoft 365 副驾驶平台的一部分。
平台。因此,销售代理自动化潜在客户资格认定、会议安排和后续跟进,而销售聊天则使用 CRM 记录、电子邮件和会议记录提供可操作的销售见解。因此,这两个工具都与 Microsoft Dynamics 365 和 Salesforce 集成(很有趣),从而最大限度地减少了对传统 CRM 系统的依赖。
因此,此工具将于 5 月公开预览,这标志着微软积极进军 AI 驱动的业务应用程序。是的,Salesforce 的首席执行官一直对微软的 AI 方法持批评态度,他们推出了他们的 Agent Force。所以微软只是反击。
好吧,更多的大型科技公司。谷歌在其搜索中推出了新的 AI 模式,追赶 Perplexity 和 ChatGPT,这些工具最初只是追赶谷歌。这就像一个完整的循环怪异时刻。无论如何,新的 AI,
AI 模式是 Google One AI Premium 订阅计划的一部分,您可以从本周开始通过 Search Labs(谷歌的实验平台)访问 AI 模式。因此,此功能由谷歌最新的 AI 模型 Gemini 2.0 提供支持,该模型增强了推理、思考和多模式功能,可以有效地处理探索性和比较性问题。
因此,AI 模式使用查询扇出技术同时对各种数据源发出多个相关搜索,并将结果整合到详细准确的响应中。是的,如果您是付费订阅者,您可以访问 AI 模式,或者至少可以通过访问 Search Labs 或访问 google.com/AI 模式来注册候补名单。
好吧,最后但并非最不重要的是 AI 新闻,一个非常非常重要的新闻。OpenAI 押注人们会非常喜欢代理,以至于他们据报道可能会提供每月收费 20,000 美元的一种代理。是的,一个月。
因此,OpenAI 以其针对高级 AI 代理的大胆定价策略成为头条新闻,据报道,其企业级自动化工具的每月收费高达 20,000 美元。因此,这些 AI 代理被描述为博士级,旨在代表用户采取行动,目标是寻求可扩展自动化解决方案的大公司。
因此,较低级别的 AI 助理的月价格可能为 2,000 美元。这针对的是寻求高级 AI 功能的高收入专业人士。这标志着 OpenAI 此前订阅模式的重大转变,此前其最高价格计划为每月 200 美元。所以这不是,
这只是根据报道。这些或多或少只是经过仔细审查的谣言。所以这还没有发生。所以不要登录您的 ChatGPT 帐户尝试注册 20,000 美元。我的意思是,这太疯狂了,对吧?好吧,关于这个就足够了。我们在新闻通讯中还有更多关于这些故事的内容。因此,请务必访问 youreverydayai.com 并查看。好吧。但是让我们谈谈
认知偏差,因为我认为很多人只是盲目地遵循模型输出的内容,甚至不知道其中的一些危险。因此,请帮助我欢迎来到节目。我很期待今天的谈话。我希望您也是。所以我们今天请到了 Codbias AI 的首席执行官兼联合创始人 Anatoly Shilman。非常感谢您加入 Everyday AI Show。
谢谢 John 邀请我。好吧,我很期待这个。直播观众,感谢您的收看。Big Bogey、Michelle、Marie、Jamie、Vincent 和其他所有人。如果您有问题,请现在提出。但是让我们从顶部开始,Anatoly。那么什么是 Cogbias?你们都在做什么?好吧,我们构建了一个平台,用于检测和减轻沟通中的认知偏差。
我们最初是作为我们自己的内部项目开始的,以帮助我们在客户发现过程中提出更好的问题,现在已经发展成为一个完整的平台,我们可以获取人们在客户发现、市场研究、NPS 分数、评估等方面的问题
并为他们提供他们可能在其问题中面临的偏差的细分。此外,最重要的是,我们会改写并为他们提供更好的建议,说明如何做得更好。现在,这也适用于他们的电子邮件。因此,如果您需要撰写难以撰写的电子邮件,例如,需要传递一些坏消息或一封愤怒的邮件,您知道他们是怎么说的,等待 24 小时再写一封电子邮件。但是我们的客户实际上可以撰写该电子邮件。我们的系统基于您提供的实际上下文,将
会以更好的方式为您改写它,并告诉您原始电子邮件中存在哪些问题。我们发现许多人,例如销售人员、市场研究人员、UX、UI、产品经理一直在使用我们的产品。有趣的是,我们发现的一件事是人们不断创造新的使用方法。正如您提到的,即将推出的一件事是 AI 代理,
是我们实际上能够审核 AI 代理对话并检测它们具有的偏差,并为公司创建必要的更改报告,以使它们变得更好。我想跳到最后,这就是我开始节目的方式,对吧?因为我认为很多人只是盲目地复制粘贴大型语言模型输出的内容,甚至不知道这样做会带来一些危险。
这是一个错误吗?好吧,最大的原因是 AI 就像人一样。它是由人建造的,就像谷歌是由人建造的一样。在我们出现整个 AI 爆炸并且人们使用谷歌之前,“好吧,它在谷歌上,它一定是真的。”
是一个人们经常重复的说法,这绝对是不正确的,而且我认为您在 AI 中会越来越频繁地发现人们称之为幻觉的东西,这实际上更像是一种胡说八道。实际上有一篇非常流行的论文,名为“ChatGPT 是胡说八道”,它只是从这样的角度撰写的:你知道 AI 实际上更像是你认识的那个无所不知的朋友,每个人在他们的圈子里都认识一个这样的人,他们会告诉你所有这些令人难以置信的事情,并且
大多数人都会说,好吧,他们无所不知。他们将其视为事实。但是 AI 必须做的是回答您的问题。因此,即使他们找不到答案,他们也会编造答案。显然,其中有很多教训。最近,美国的一家大型律师事务所发生了一起丑闻,该事务所使用的 AI 用于处理案例,实际上自己创建了先例案例。因此,它创建了一个从未存在过的案例的整个宇宙。
这是一个反复出现的主题。我们最终得到的是,人们对这项新的创新飞跃如此热情,以至于他们忘记了,就像其他任何事情一样,您应该采取信任但要验证的态度。我最近参加了一个 TEDx 活动,那里的谈话主题是我们创造的未来和 AI 的未来。最有趣的是,在最初的谈话中,我问人们,你们有多少人对 AI 感到热情和兴奋?我
整个房间的人都举起了手。这非常令人兴奋。但是一旦我开始谈论一些已经观察到的事情,并且实际上开始单独询问人们,例如,好吧,告诉我你对 AI 的真实想法。这始终是一种信任但要验证的态度。我认为问题是,很多时候人们认为,好吧,你知道,显然,它是 OpenAI 制作的。它是微软制作的。它是谷歌制作的。它必须是好的。
但他们只是,他们并非完美无缺。他们可能会犯同样的错误。因为它们是由工程师建造的,所以它们具有这些工程师所具有的偏见。因此,它们具有我们人格相同的延伸。因此,他们收集信息的方式、传播信息的方式反映了人性。
所以我想也许让我们逐一分解一下,或者我们将在这个剧集标题上进行链式思考,对吧?但是什么是认知偏差呢?我认为所有的人都多少理解它是什么,但是实际的认知偏差是什么?理解认知偏差的最好方法是,有一个非常长的科学定义,我不会让您感到厌烦。老实说,这是基于我们感知的非理性信念。这是理解它的最好方法。
请注意,这是极其简单的。所以,人群中的心理学家们,请不要对我大喊大叫,但我只是想确保它易于理解。而我所说的非理性是指,当我们有某些信念时,我们不会清晰地思考,对吧?因为我们拥有认知偏差的能力是我们度过一天的方式。最终,我们每天早上起床时都会做出选择
以某种方式穿衣,以某种方式做头发,驾驶某种类型的汽车等等,这都是因为我们想要被感知的方式或我们感知自己的方式或它带给我们的感觉。这些都是偏见。认知偏差的关键点是它们并不坏。它们只是我们人性的一部分。因此,在某些情况下,一些最著名的偏见是存在的。确认偏差、框架偏差、可用性启发式。这些事情会在情况需要时帮助我们和伤害我们。有时,可用性启发式是我们伸手去拿最接近我们的第一件东西来解决我们遇到的问题。因此,在某些情况下,它是一个锤子,用来把钉子钉到墙上。其他时候,它将是一个扁平的物体,因为那是离我们最近的东西。
这有点像我们操作许多事情的方式。因此,从这样的角度来看,选择,嘿,我需要得到 10 个。我必须向我的客户发送一份调查问卷。让我们向 ChatGPT 询问关于购车的十大问题。ChatGPT 给出了这些问题,砰的一声,突然间,你完成了一个整个过程,它变成了,这是问题。你会说,好吧,这些对我来说听起来不错。它们很完美。没有细分。没有分析。没有信念。
所以我想分解一下我听到你说的两个关键词。所以,你知道,你说过基于感知的非理性信念。所以是信念和感知,对吧?因为这些事情是大多数人可能不会想到会进入大型语言模型的事情,对吧?信念和感知。这些不是基于事实的。这些不是经过科学研究的信念。
这是如何发生的,人们如何能够在大型语言模型中出现这种情况时注意它?好吧,我希望有一个简单的方法,对吧?首先,这是因为人类是制造它的人。因此,即使 AI 制作了另一个 AI,它也是基于人类的原始编程。因此,您只会得到相同偏差的新排列,或者基于旧偏差的新偏差的演变。关键是要理解,例如,
例如,工程师将编程一个 AI 并说,我希望你以这种方式输出信息。我希望你把,当他们要求一个列表时,这就是列表将基于这种思考的方式。当您从新闻来源或媒体来源获取信息时,这是您在查看任何其他内容之前要查看的前 500 个内容,以解决问题。
是因为他们的个人信仰吗?是因为他们对什么是可靠的以及什么不是可靠的感知吗?作为新闻来源,我们不知道,对吧?另一端也是如此。当它开始寻找答案时,如果它在这 500 个中找不到答案,而我只是编造了这个数字。我真的不知道这些情况下的真正秘诀是什么。
突然间,它变成了这种情况,好吧,如果他们在这 500 个中找不到答案,它可能会认为其他的不太可靠。因此,它会提出自己的答案。或者它会添加自己的小技巧。因为它是一个 AI,所以你会认为,好吧,这是一个计算机回答的。它一定是对的。
是的,是的。这是你对大型语言模型做的最糟糕的事情,对吧?就像,哦,这是一个计算机。它必须是对的。但是我们向大型语言模型提出的许多事情都是细致入微的,对吧?它不是二元的。我们要求它制定策略以做出决策。我们并不总是要求它计算草莓中 R 的数量或伊利诺伊州的首府,对吧?但是也许如果你可以,你能带我们了解一下,有哪些类型的
偏差,以及,你知道,也许只是简要地,你知道,就像我知道,就像,你知道,确认偏差,对吧。也许你能简要地带我们了解一下在大型语言模型中最常见的两三种类型的偏差以及它们的含义?是的。显然,确认偏差可能是最著名的一个。你知道,它正在证实它自身的初始信念。而且通常情况下,它会做到的最好方法不是从 AI 的角度来看,而是从角度来看。
偏差真正影响我们的方式是我们对所说、所显示等内容的感知。因此,AI 将以特定方式回应我们,并以这种方式使我们产生偏差。因此,在某些情况下,我们会问它一个特定问题,它会回应我们,并且会触发我们的确认偏差,因为它会证实我们的事实。因此,如果我们向 AI 提问一个有明显答案的问题,
它会以特定方式将其吐回给我们,或多或少地使其更漂亮、更复杂或更详细地展开。因此,确认是一个很大的问题。框架偏差。我们以特定方式构建某些内容以获得特定答案。
因此,如果我们说,随便编造,梅赛德斯-奔驰是最快的汽车,也是最划算的豪华汽车,等等。然后我们将问有关它的问题。现在,AI 将以相同的方式回应,就像人类一样。因为同样,AI 并不是来和你争论的。我知道我们已经看到那些 AI 开始与你争论事实的滑稽故事,但这并不是它运作的现实。然后显然我谈到了可用性启发式,这是
这是最有趣的一个,因为就像我说的那样,它是最低的果实,简单地说。人们伸手去拿他们可以获得的第一件东西,这似乎可以解决问题。是的。
你提出了一个非常有趣的问题,我想深入探讨一下。对。所以当,当模型本质上反映了我们,我们的信念时。对。嗯,但我认为重要的是要指出,你知道,系统提示,对吧?所有大型语言模型都有系统提示。你刚才说的一件事是,它们中的大多数都是为了成为一个有帮助的助手而设计的,对吧?所以,呃,
即使没有答案,他们也希望有所帮助。我认为这就是为什么有时你会得到这些,你知道,半途而废的答案或,你知道,你看到的东西,你可能会想,这是对的吗?好吧,有时这并不总是重要,因为它最终试图有所帮助。但是,你知道,我想问你,对话在
大型语言模型的背景下,当我们,你知道,无论是 Copilot 还是 ChatGPT 或其他什么,那将如何影响它?就像我们实际上是如何提示它的,以及,你知道,我们根据偏差获得的输出?好吧,这是一个巨大的,实际上是一个很大的因素。如果你从一个角度考虑它,比如说你要求它,
一个特定的元素或一个特定的答案。然后你说,好吧,现在我希望你写出来,但假装你是一个有 20 年经验的工程师,并用那个术语写出来,但写得更好一些。所以现在存在一个偏差因素,什么是真正的 20 年经验的工程师?你怎么写得更好?什么是更好?
你知道,纯粹的定义元素以及偏差是如何被感知的,然后就变成了一个混乱。而且通常情况下,这就是提示崩溃的地方。这就是为什么一段时间以来人们喜欢,好吧,你知道,我们不必再知道如何进行提示了,因为 AI 非常聪明。我说,不幸的是,我们确实需要,因为 AI 声称能够做到但实际上做不到的一件事是,它并不真正理解。它最初以非常基础的方式理解。我昨天在一个活动上听到一句很棒的引言。
他们说,他们说,“在这个时间点上,AI 是它有史以来最糟糕的。”这是一个,这是一个真实的陈述。现在我们正处于起步阶段,处于非常早期的阶段。因此,人们经常对飞船抱有期望,而根据 AI 的标准,我们可能更接近马车。
我们会到达那里的。但问题是,随着事情变得越来越复杂,从我们如何提出 AI 以正确方式感知的问题的角度来看,它们也会变得越来越复杂。因为我们会说,写得更好一些。所以它会改变一些词语。它听起来对我们来说更好。但是,如果上下文仍然包含对我们的目标有害的偏见,那么这对我们真的有帮助吗?不,它只是一个答案,因为它是一个写得更好一些。好吧,我会在它周围添加一些夸大其词的内容。我让它更好一些了。
因此,我们的提示并不一定能帮助它更好地完成工作。我们的提示只是帮助它,再次确认偏差,帮助我们确认它帮助它确认我们想要更美好的东西。所以它会改变石头到它对更好一些的感知,但并不一定能解决实际问题。
让我们谈谈这个问题的根源,对吧?因为,你知道,我有点,我有点提到,你知道,大型语言模型是互联网的反映,而这是人性的反映,对吧。这就是为什么有时会出现刻板印象和偏见,你知道,首先,但是带我们了解一下我们的模型是如何从长远来看反映这些偏见的。所以也许你能带我们了解一下训练数据?
以及一些关于认知偏差的问题,它们在涉及训练数据时是如何被插入到这个整个方程式中的?好吧,我的意思是,我们已经谈到了这个想法,当他们甚至开始告诉 AI 这是你将如何解析信息,这是你将如何将其分解,这是你根据这些请求将如何收集在一起时,我们必须再次开始思考
一旦这些问题被插入,那么一旦他们必须开始思考,什么是可靠的信息来源?
然后它开始尝试提取这些数据,我们仍然必须考虑这样一个因素,它非常类似于从消防水龙头上饮水。我甚至无法想象它必须解析的、以区分我们所要求的特定微小事物是否具有答案的信息的绝对数量(以拍字节和上帝知道我们还可以应用的其他度量单位来衡量)。而且它仍然在几秒钟内返回结果。
所以这些东西是你真正开始在训练数据上崩溃的地方,因为它不是,你知道,最近关于 DeepSeek 的一件大事,你知道,他们如何用 560 万进行训练。显然这是不正确的。但这关于这件事的一个有趣情节,但感谢你指出这一点。是的,这是一个有趣,这是一个有趣的数字。对。而且,呃,但关于它的一件大事是,它将什么才是训练的真正含义带到了最前沿。对。是的。
当我们考虑训练小型模型时,它实际上是我们人类坐下来处理特定数据点的标记元素以及 AI 应该如何根据我们分配给它的标签来处理这些元素。在
一个拥有海量数据的巨大模型的情况下,它自己标记数据。所以它只是被认为是标记事物。当你教 AI 标记事物时,问题是什么?你希望它更像,你知道,彩虹的所有颜色,能够看到所有点。它做不到。它的神经深度比我们现在拥有的要有限得多。
所以,相反,它所做的是,你知道,它或多或少是如果然后规则。许多这样的规则都被应用了。我简化得太多了。这并不是 AI 的真正运作方式。但为了理解的基础,这实际上是它感知信息的方式。
这个答案能回答这个问题吗?是,否。下一个。这个答案能回答信息吗?是,否。下一个。它会经历整个例程。当它到达某个点时,它会说,好吧,这部分地回答了信息。如果你推断这一点,然后有点,你知道,把它平滑出来,这就是你的胡说八道因素,这就是信息。是的。所以 AI 做出的每一次幻觉或胡说八道,其中总是有真理的元素,这使得它如此令人信服。是的。
这是要考虑的最大问题,就像在训练期间一样,因为当你考虑什么是训练时,你知道,他们确实会花费数月甚至数年来训练模型,但这并不意味着他们正在手工标记东西。他们真正做的是监督这个巨大的模型,试图标记所有东西。
然后进行审核,检查,再检查,再检查,看看,哇,这完全错了。如果它足够大,他们会发现它。问题是,目前不可能捕捉到海量数据中的所有内容。它会永远这样吗?我无法回答。我认为他们也无法回答。这就是为什么即使你看到这些新技术的演变,
我们看到了这些代理的新演变,几乎每周都会出现一个新工具,感觉它是一个接一个的新工具。一贯的主题是相同的。他们实际上并没有创造更好的深度。他们正在创造更好的响应时间,也许是更低的延迟,更便宜。他们有时会让它成为一个更好的对话部分。
但是输出的信息仍然非常相似。对于我们来说,当我们真正研究它如何衡量认知偏差与我们拥有的科学模型时,ChatGPT 和 Claude 以及其他一些模型的一致性约为 30% 到 40%。原因是,再次,海量数据以及你如何标记它以及科学应用如何真正应用于句子中的特定词语或特定细微之处并不是它的强项。
当你看到 AI 的发展方向时,我们有通用 AI,我认为你可能之前已经讨论过这个问题了,狭义 AI 的爆炸式增长将在特定元素中表现出色,这将是它们的主题。
你还在为了弄清楚如何利用 AI 发展你的业务而四处奔波吗?也许你的公司已经使用大型语言模型一年或更长时间了,但无法真正获得牵引力来找到生成式 AI 的投资回报率。嗨,我是 Jordan Wilson,这个播客的主持人。
像 Adobe、微软和英伟达这样的公司已经与我们合作,因为他们相信我们在教育大众了解生成式 AI 以领先一步方面的专业知识。一些美国最具创新性的公司聘请我们来帮助他们制定 AI 战略,并培训他们数百名员工如何使用生成式 AI。因此,无论您是为数千人寻找 ChatGPT 培训,
或者只需要帮助构建您的前端 AI 战略,您也可以与我们合作,就像世界上一些最大的公司一样。访问youreverydayai.com/partner与我们的团队联系,或者您可以点击我们网站的合作伙伴部分。我们将帮助您停止在这些 AI 领域中运行,并帮助您的团队领先,并为 Gen AI 建立一条通往 ROI 的直线路径。
所以,这是我们观众的一个很好的问题,您也提到了 AI 的未来,对吧?就像一切都在发展一样,你知道,代理或多代理环境。但是,您知道,现在我们有了这些模型,你知道,思考,这些模型推理,这些模型,你知道,慢慢来。所以塞西莉亚提出了一个很好的问题,你知道,你如何检测认知偏差并鼓励也许是慢速思考或
与快速思考相比,当我们希望 AI 快速时。是的,就像,我甚至会补充她的问题,你知道,推理模型,你知道,它们需要时间来思考,这是否也是一个过程,也许我们会看到更少的偏差?我们可能会,但同样,它仍然取决于开发人员,对吧?这是一个……
不幸的是,它就像一个轮子。一旦你将人性融入到轮子里,我们就会有我们的偏见。我们所有人都有。这不是一件坏事,就像我说的那样。只是,不幸的是,我们感知信息和其他事物的方式将决定一些更有害的偏见出现。
这在您听到关于刻板印象之类的事情时很常见。这并不是说工程师写道:“是的,男人比女人更好”,或者其他什么东西。不,这实际上是他们的偏见以及信息如何被解析,什么优先于什么,导致模型推断到下一部分,即“好吧,这就是我将如何感知事物。”
虽然他们有数百数百名工程师不断地查看、审核和检查,但这仍然是如此庞大的信息量和如此多的变体,这是不可能的。对于塞西莉亚的问题,您正在处理的问题,丹尼尔·卡尼曼有一本很棒的书,叫做《思考,快与慢》,它有点……
我不想说他是现代认知偏差行为经济学的鼻祖。但他确实有点像,对吧?所以考虑它的最佳方法是,将会有一个空间用于这些更具分析性和专注于事物的模型。这与我们拥有其他执行某些更复杂任务的事物相同。我一直将其比作一个想法,你知道,人们有 Apple Watch,然后人们有一块仍然有齿轮的机械表。
他们更喜欢这个元素,因为他们觉得对他们来说它更可靠,因为它不会没电。它只是因为你动而动。是的,我认为这是一个很好的例子。我们肯定会把它放在新闻稿中,只是关于系统一与系统二的思考。我认为当我们考虑使用 AI 时,这一点很重要。道格拉斯提出的另一个好问题是,由于某些模型的训练方式,它们是否比其他模型具有更多固有的偏差?
老实说,这是非常主观的。不幸的是,所有模型都有偏差,并且没有所谓的有害偏差。这仅仅是他们对某些信息点的感知,你如何提问,对吧?我们经常做的是,我们注意到很多用户实际上会在 chat GPT、dovetail 上生成内容,命名一个生成问题的系统。
然后他们会将它们通过我们的系统运行。然后这将是他们用于其实际产品的最终结果。他们这样做的原因有两个。有时他们对这些问题感到满意。他们只是想知道,我将如何使我的受众产生偏差?因为无论你问什么,你总是在某种程度上使他们产生偏差。但问题是,如果我正在进行市场调查,我是否只是为了如实回答问题而使他们产生偏差?或者如果我正在进行销售并且我想促使他们采取行动,我是否有效地做到了这一点?
所以这些是你真正关注的事情。但是现在,在大多数情况下,例如,我认为如果你查看模型的大小,大型语言模型比小型模型具有更多固有的偏差。这仅仅是因为它们消耗的数据量巨大,以及接触模型的人数众多。与此同时,狭义 AI 完全存在偏差。我们试图做的关键因素是,
我一直非常支持让一个非常多元化的团队来查看模型、标记它并查看其他所有内容以及它如何感知数据。这就是原因。因为如果你让各种各样的人来查看它,你不会对如何从一两个人或十个人那里解析数据有看法。你将能够以更……
客观的方式做到这些事情,如果这是一个合适的词。例如,当我们开发我们的模型时,并且再次,狭义 AI,对吧?非常不同。我们开发了,我们从 17,000 个问题开始,我们查看了它们的句子结构。从那时起,我们能够推断出大约 45 万个问题,可能甚至更多。这是我听到的数字之一。
其想法是,现在我们能够标记这 17,000 个问题。我们可以让模型认可这些是这些认知偏差的科学事实。根据科学定义,而不是我们的感知,而是科学的定义,你将如何对此做出反应。现在,这是否意味着科学没有偏见?不。但是科学,基于我们社会现有的最佳思维,这就是它。随着它的发展,我们也在发展。
大型模型也是如此,因为随着它们不断推出新版本,我们希望它们能够不断更新模型思考方式的这一特定元素。但我有一个问题,我认为每个人都有,那就是在如此快速的进化周期中,我的意思是,我们有时在新的版本之间谈论 30 天,如果更少的话。显然,很多东西可能是快速修复,但你总是想知道后台发生了什么。他们实际上是在修复主要问题,还是通过创建更多功能来增加问题?
是的,是的。我认为有时你会花时间,你知道,规避一些缺点,然后新的模型出来了,就像,好吧,我们投入的所有工作呢,你知道,为了在这些……
固有的问题周围或通过这些问题建造桥梁。
但在今天的谈话中,我们讨论了很多内容,从训练数据中的偏差到构建它的人类的偏差,各种认知偏差,这非常有帮助。但当我们在这里结束时,我认为我会把它交给 YouTube 上的 Big Bogey。我认为这是一个结束节目的好方法。所以他问,当偏差可能与基本数据深度纠缠在一起时,你如何消除不需要的偏差?我甚至会说,
你知道,除了使用你的平台之外,公司应该如何解决这个问题,因为这是一个巨大的问题?我认为这个因素必须是数据的价值和数据输出的价值,对吧?因为通常,如果你正在查看特定数据,其中偏差可能会影响公司做出的关键决策,
获得外部帮助将至关重要,并且显然我的平台可以帮助解决很多问题和其他问题。但是当你查看更大的部分时,例如,加利福尼亚州有像 Percipio 这样的咨询公司,他们的全部工作是研究认知偏差以及它如何影响决策。因为他正在谈论的元素,你知道,
基本数据可能与认知偏差深度纠缠在一起,但最终,我们对数据的感知才是导致影响我们决策的偏差的原因。
数据会以某种方式使我们产生偏差,但我们必须选择如何接收它。如果我们已经意识到我们可能存在问题,那么我们就必须寻求外部咨询,并且能够几乎带上一双眼睛来监督我们的流程,并弄清楚我们是否需要一个更客观、更主观的流程或客观流程来做出选择。
因为最终,再次,人类,对吧?就像信任机器一样,这并不是一个好主意,尤其是在数据复杂或可能在某种程度上非常与人类相关的情况下。
并且 AI 不可能以同样的方式理解,那么它就变成了你必须做出最佳选择的情况。有很多很好的课程、很多很好的阅读材料、很多很好的课程。我一直非常支持公司进行行为科学和行为经济学培训,原因很简单,不是因为它可以替代像我这样的工具,而是因为它可以增强人们发现问题然后寻求解决方案的能力,而不是
事后才发现,哦,我的上帝,我们的销售电话和销售会议以及我们从这些销售数字中推断出数据的方式完全错误。客户并不真正想要这个。他们只是觉得他们别无选择,直到他们找到更好的解决方案。那里有很多好的建议。我认为,Anatoly,非常感谢你抽出时间参加节目。我认为你帮助我们,使这个
对一个非常复杂且非常重要的主题有了更好的理解,我们都需要了解这个主题。非常感谢你。非常感谢你的时间和见解。非常感谢你邀请我。我真的很喜欢这个播客。老实说,我非常喜欢它。太好了。嘿,我也一样,但你知道,如果我不喜欢的话会很奇怪。所以,嘿,如果你也喜欢这个播客,如果你从 Anatolian 这里听到了一些东西,你就像,等等,那是什么?别担心,我们将在我们的
免费每日新闻通讯中回顾所有内容。所以,如果你还没有,请访问youreverydayai.com,注册免费的每日新闻通讯。如果这有帮助,请告诉别人。请订阅频道,给我们评分,告诉你的朋友,告诉你的妈妈,告诉你的邻居,告诉你的妈妈的朋友的邻居。但最重要的是,请确保明天加入我们,了解更多 Everyday AI。谢谢大家。
这就是今天 Everyday AI 节目的结束。感谢您的收听。如果您喜欢这一集,请订阅并给我们评分。这有助于我们继续前进。要获得更多 AI 魔法,请访问youreverydayai.com并注册我们的每日新闻通讯,这样您就不会被落下。去打破一些障碍,我们下次再见。