您的品牌广告系列是否达到了最佳效果?马库斯,说实话,可能没有。我理解。如果您只在广告系列结束后才能获得洞察,那么答案是响亮的“不”。要做出更好的广告系列决策,您需要实时衡量。您需要 Sint 的 Lucid Measurement。说实话吧。在 sint.com/insights 上了解实时品牌提升衡量的强大功能。网址是 c-i-n-t.com/insights。
大家好,今天是星期一,6 月 30 日。加乔、雅各布和各位听众,欢迎收听 Behind the Numbers,这是由 Sint 提供支持的 eMarketer 播客。我是马库斯,今天与我一起参加节目的还有两个人。
高级分析师,为我们位于纽约的 AI 和技术简报撰稿的是加乔·塞维利亚。嗨,马库斯。嗨,雅各布。很高兴和你们在一起。我们还邀请了我们的分析师,他撰写关于相同主题的长篇报道,居住在加利福尼亚州。他是雅各布·伯恩。感谢你今天邀请我,马库斯。是的,先生。今天的趣闻,先生们。当您回忆起一段记忆时,您实际上是在重建它。
而且每次都会改变。那么我在说什么呢?来自圣路易斯华盛顿大学的 H. L. 罗迪格三世撰写了一篇关于重建性记忆心理学的论文。因此,他们解释说,当我们感知和编码世界上的事件时,我们会构建而不是复制外部世界,因为我们理解这些事件。因此,如果感知是构建,
那么记住最初的体验就涉及重建。
我们使用过去事件的痕迹、一般知识、我们的期望以及我们对必须发生的事情的假设。正因为如此,回忆可能会充满错误,称为虚假记忆,其中包括编码过程中的推论、事件发生后我们收到的信息以及我们检索过程中的视角。这让我感觉好多了。
马库斯,这真是今天的趣闻。我讲得太深入了。是的。所以另一种看待它的方式是,它说与普遍的看法相反,记忆并不像录像机那样工作,忠实地捕捉过去以便稍后准确地播放。相反,即使我们很准确,当我们记住时,我们也在重建过去的事件。嗯,CBC……嗯……
来自《自然》杂志的一篇文章,加拿大作家兼导演乔什·弗里德说,一旦我们的大脑有了新版本的叙述,它就会忘记并抹去以前的版本,所以这几乎就像一场传话游戏……我们将所有内容都视为最后的回忆,客观地说,你知道我们对世界的感知总是主观的,就是这样。
无论如何,这还不够深入。今天的真正主题是什么是人工通用智能?那么究竟是谁提出了人工通用智能或 AGI 这个术语呢?福布斯的吉尔·普雷斯指出,AGI 这个术语是在 2007 年由一系列关于该主题的论文发表时创造的。有一本书名为《人工
人工通用智能》。它由本·戈尔策尔和卡西奥·帕纳钦共同编辑,尽管他们似乎说他们是从一位前同事、人工智能研究员谢恩·莱格那里获得的标题创意。
在书中,先生们,他们说,或者定义人工智能为,他们说,AGI 是,宽松地说,他们说,拥有相当程度的自我理解和自主自我控制能力的人工智能系统,能够解决各种复杂问题在各种情况下,并学习解决他们在创建时不知道的新问题。
所以它不是最明确的术语。当时不是,现在似乎也不是。雅各布,当我们讨论这一集时,你甚至说今天的定义都很模糊,并没有真正达成一致。所以我请你和加乔提出你自己的定义,来制定你自己的 AGI 定义。你的是什么?
是的,我认为一个简单的定义就是,在智力和能力方面与大多数人类相当的人工智能模型。但这里的关键是“通用”这个词。因为人类智力的特点是我们擅长很多不同的事情。我们可以解决很多不同的问题。我们拥有各种各样的能力。从历史上看,你知道,人工智能,当它在 20 世纪 60 年代开始发展时,
实际上,目标是制造一台能够像人一样思考的机器。但事实证明,人工智能实际上通常擅长于一个非常狭窄的领域。所以我认为这就是 AGI 这个术语的由来,因为它试图获得一个 AI 模型,构建一个在很多方面都像人类一样优秀的人工智能模型。
它不仅仅在一个类别的事情上表现出色。这将是一个例子。因此,IBM 的超级计算机深蓝在击败国际象棋大师加里·卡斯帕罗夫时,只擅长这一件事。所以那是狭义 AI,对吗?狭义 AI,对。我认为在 2022 年的 ChatGPT 中,我们已经看到它变得越来越通用,但它仍然不如人类通用。
所以这似乎是很大一部分,加乔,这显然在名称中,人工通用智能。谷歌表示,存在这种泛化能力。AGI 可以将在一个领域学习的知识和技能转移到另一个领域,使其能够有效地适应新的和未见过的环境。这是一个重要的组成部分。你同意雅各布所说的吗?你还想补充什么?
我同意。我认为这需要超越对各种主题的狭隘理解。我还认为自主性是 AGI 的重要组成部分。因此,您可以将其视为一个不断学习的实时算法,它可以做出决策,并且理解主题之间细微的差别。我认为这是 AGI 中难以捉摸的部分,因为,当然,它可以超越……
许多人类的思想,但与此同时,它如何运用这种思想,你知道,可能达不到人类的水平。嗯哼。是的,这里的一个问题是,人类的水平究竟意味着什么?所以我查看了 IBM 的定义,他们说 AGI 是一个假设阶段
在机器学习的发展中,其中一个 AI 系统可以匹配或超过人类的认知能力,这个词“认知”在许多这些定义中经常出现,人类在任何任务上的认知能力。因此,当您考虑认知能力时,麦肯锡的定义是,他们说 AGI 可以复制类似人类的认知能力。
能力,包括推理、解决问题,但还有大量感知、学习、语言理解、导航、社会和情感参与等……嗯……但是贾伦·莱尼尔普及了虚拟现实这个术语,他问道,跨越某个门槛是否会使某些东西成为人类,而不是
是的,我认为这是一个很好的问题。门槛是什么?人类的智力和认知本身就很难理解。所以现在你试图拿一台机器来与人类进行比较。我的意思是,没有人真正就门槛在哪里达成一致。这就是为什么我实际上喜欢 Anthropic 的首席执行官达里奥·阿马迪,他说他更喜欢用“强大的人工智能”来代替 AGI。
因为它有点含糊,
AGI 已经成为一个营销术语,因为再次强调,它并没有以精确的方式定义。因为这很难。你将如何真正地说,你将如何知道一个模型是否真的与大多数人的智力和能力相当?公司会对此达成一致吗?接下来,我认为模糊性将是
你知道,这将是持续的一个方面。没有人想确定一个定义,因为竞争对手只会反驳说,不,因为这就是我们认为的。对。所以我并不期望达成共识。我也不期望有人说,是的,这就是 AGI。我们已经实现了它。它这样做是因为它,你知道,由此产生的后果将是巨大的。对。所以他们会保持模糊。是的。
我认为这将是模糊的。而且,你知道,目标是一个移动的目标。考虑到,你知道,他们说,哦,我们快到了。但有些人说,不,我们没有。我认为这只是表明,你知道,仅仅定义
AGI 将在未来不断发展。是的。为了使它更加复杂,还有一个术语一直在流传,那就是超级智能,这是一种甚至超过最聪明的人的智力的人工智能模型。这也是一些人工智能研究人员认为可能的事情。甚至超过 AGI 的能力。
那么,可以说我们想要创造与人类相当或比人类更聪明的人工智能的一个重要原因是图灵测试吗?图灵测试来自计算机科学家、英国计算机科学家艾伦·图灵。他基本上是,你能欺骗一个人认为计算机是人类吗?这一切都源于此吗?
好吧,我认为图灵测试只是一个源于这种创造与人类一样聪明的人工智能愿望的测试。但我认为图灵测试指出了这个问题,你将如何知道?因为如果它只是在欺骗你,
那么它是一种,它是一种表演。它并不真正智能,对吧?所以我认为这其中一部分是人类,我们知道我们了解我们所生活的这个世界。因此,即使人工智能可以做一些事情,它是否真的理解它在做什么?当你与聊天机器人交谈时,它理解
它的输出非常好,但它是否理解它所说的词语?所以我认为我们对人类智力的思考很大一部分是,我们理解什么,你知道,世界,我们理解我们使用的语言,我们试图解决的问题。
但人工智能似乎并没有这样做。是的。至少目前还没有。亚马逊的一个定义说,AGI 是一个理论人工智能研究领域,它试图创建具有类人智能和自我学习能力的软件,执行它没有经过训练或开发的任务。自我学习部分,我们是否同意这是 AGI,或者我们认为这实际上超出了更接近超级智能?
我认为这是 AGI 的一部分,因为,你知道,正如我们所讨论的,AGI 是一件正在进行的事情,对吧?它是一个未完成的状态。为了使其继续发展,它需要继续学习。你知道,那里的问题是它肯定可以学习至少互联网上的所有信息,绝对可以。但它仍然缺乏,再次强调,你知道,
一般的推理、常识、同理心、社会智力。这就是它需要解锁的东西,以便,你知道,不要比人类更聪明,而是至少与人类一样
人类认知地处理周围世界的方式,对吧?说到他们如何认知地处理世界,常识似乎也是其中的一部分。谷歌表示,AGI 应该拥有关于世界的庞大知识库,包括事实、关系和社会规范,使其能够根据这种共同理解进行推理和决策。是的。
你能有常识吗?我的意思是,常识在多大程度上与成为一个人内在相关?请继续。好吧,它似乎与成为一个人密切相关。我认为,你知道,即使是 AGI 或超级智能也不会是人类,但这是我们试图确定的智力和能力的衡量标准。
所以你可以像人类一样聪明,但仍然不是人类。对。我认为这种缺乏常识正是许多人批评人工智能能力的地方。但另一方面是说,好吧,人们也经常不顾常识行事。人们会犯错。我们有点幻觉。我们做了所有这些我们批评人工智能的事情。所以也许人工智能的幻觉是不同的。也许它缺乏常识是不同的。
但这并不意味着它不那么聪明。这是一个反驳论点。我认为当前人工智能模型的一个主要局限性是,它们主要是在互联网数据上进行训练,而不是在现实世界数据上进行训练。现在这种情况正在改变,因为我们看到这些旨在用于机器人的模型正在开发中。我认为未来的前景是拥有
人工智能驱动的机器人收集现实世界的数据,然后可以用于模型训练。我认为这可能表明一个门槛。
一旦这种模型训练更加广泛地进行,我们可能会看到人工智能更接近 AGI,通过现实世界的数据,你能给人们举个例子吗?是的,所以你有一个人工智能驱动的机器人,它在世界上,拥有传感器,正在收集它触摸到的东西的数据,它与人进行的互动,它在移动时看到的东西
它不仅仅是使用互联网数据来产生输出。它正在收集数据。它从现实世界中实时互动中获得。是的,就像无人驾驶汽车一样。对。是的,就像无人驾驶汽车一样。是的。
说到无人驾驶汽车,实际上,这是一个很好的转折点,因为 OpenAI 对 AGI 有几个不同的定义。他们说它是一个高度自主的系统,在大多数经济上有价值的工作中都优于人类。然后在与纽约 OpenAI 首席执行官的个人资料中,Sam Altman 将 AGI 定义为您可以雇用为同事的普通人类的等价物。有一些定义
来自
来自 OpenAI,但 TechCrunch 的 Maxwell Zeff 指出,OpenAI 创建了五个级别,它在内部使用这些级别来衡量其朝着 AGI 的进展。与雅各布类似,我认为我们之前讨论过这个问题,加乔可能也讨论过,自动驾驶的六个级别。您有从零到五的六个不同阶段,从您完全自己驾驶汽车到汽车完全由自己驾驶,直到五级。然后与
有了这个,他们有五个级别,他们用它来衡量内部的 AGI,所以你有一级聊天机器人 ChatGPT,二级推理者,OpenAI 的 01……
然后是代理,三级,我们现在似乎已经到达或即将到达。创新者,四级,可以帮助发明东西的人工智能。然后是最后一级,组织人工智能,可以在五级完成整个组织的工作。
我们是否认为越来越有可能最终得到类似于此的东西,即我们获得关于某些东西达到一定 AGI 水平的粗略指南,而不是这个单一的 AGI 门槛?是的。你知道,人工智能,归根结底,它
很有趣,它是研究,但它也是一种可销售的工具。为了销售它,你必须拥有你正在销售的产品规格。所以我认为我们将看到更多这类级别,我想,随着人工智能的发展而被充实。
我认为这与我们所说的 AGI 的本质有点不同。我的意思是,将其简化为 Sam Altman 所说的经济驱动因素有点贬低它,因为人类的智力……
远远超过我们在工作中所做的任务,经济价值,是的……所以,我认为这有点限制了 AGI 的含义,这也许很好,如果我们只是从产品的角度来看待它……但我认为这只是看待问题的一种有限的方式,是的,这是一个很好的观点,因为我们必须考虑告诉我们什么是 AGI 或不是 AGI 的人,是经营公司的人,是的
他们都在互相竞争。他们试图将他们的模型产品化。他们正在获得,我的意思是,竞争现在在各个层面都在进行,对吧?从代理到聊天机器人到搜索。我认为对大多数人来说,大多数公司来说,AGI 的概念实际上并不会真正改变局面,但基于特定解决方案的工具,对 AGI 的更新,
对我的伙伴我能做什么的功能的更新。我认为,这就是现在最重要的事情。我认为在可预见的未来,这就是它的方式,
这就是它的衡量方式,对吧?是的。我们之前已经谈到过这一点,但我想要回到这一点,因为我认为这是一个非常有趣的问题,那就是,人工智能系统是否已经比人更聪明了?视觉资本家的尼科洛·孔特写了一篇关于使用跟踪人工智能的数据来衡量人工智能智商水平的文章,该数据根据人工智能在挪威门萨智商测试中的表现对最聪明的人工智能模型进行了排名。
有许多不同类型的智商测试,这是其中一种主要的测试。作为参考,人类平均智商分数范围为 90 到 110。高于 130 的分数通常被认为是天才水平,结果发现,排名第一的是 OpenAI 的 Tech
仅 03 模型在门萨智商测试中得分 135,使其舒适地处于天才类别。还有六个模型高于人类平均水平的顶端,即高于 110。有两个来自 Anthropic 的 Claude 模型,两个来自 Google 的 Gemini 模型,另一个来自 OpenAI,一个来自 XAI 的 Grok 模型。然后你还有 10 个
介于人类平均智商分数范围 90 到 110 之间。所以加乔,人工智能系统是否已经比人更聪明了?- 我认为,如果你把它分解开来,我们会发现他们在某些方面已经超过了我们。例如图像识别,我认为他们在 2015 年超过了人类。语音识别,那是 2017 年。然后是语言理解,那是最近的 2020 年。他们在这一点上与人类不相上下。
再次强调,这些是狭窄的衡量领域,对吧?你仍然需要把它与使我们成为人类的特殊调料结合起来,才能确定它们是否更聪明。它们在某些任务上肯定有能力。它们不会感到疲倦。没有疲劳感,对吧?所以你可以说它们有耐力因素,对吧?
因此,对于那些我认为只是用护栏精心制作的特定任务,当然,它们也可能在个案的基础上匹配或超越,对吧?总的来说,我仍然不这么认为。他们仍然缺乏……
他们不擅长抽象推理。有时,你知道,这就是定义智力的东西,你知道,当场解决问题的能力,对吧?以及改变范式。
人工智能会尝试做的是,如果它不知道答案,它会编造一些东西,因为它没有被编程为说,嘿,你知道吗?我不知道。不。没有人工智能曾经告诉我过。相反,他们会编造一些东西并试图证明它是正确的。有些人。是的。是的。
是的,人们创造了它们,所以它们将成为我们的反映。但你是对的。有些人会说,我不知道。目前至少没有人工智能会这么说。是的。我的意思是,我大部分同意加乔所说的。我还想补充一点,我认为智商测试并不是衡量 AGI 的一个很好的基准,你知道,确定我们是否达到了 AGI 水平,或者你知道,超过了人类智力水平。
如果它们是,那么我们会说,哦,看,人工智能模型的得分达到了天才水平。然后我们应该能够让它在没有人为监督的情况下运行和执行任务,但它还没有达到那个水平。当然,原因是它真的不能做人类能做的事情。再次强调,它回到了这种通用水平的智力,我认为智商模型并没有真正测试这种智力。
它测试的是非常具体的东西,而不是能够对现实世界有深刻的理解并在现实世界中解决问题。我认为智商测试并没有真正做到这一点。是的,我认为你使用的任何测试都必须随着可用的人工智能而发展。你不能设定一个标准并说这就是它,因为……
它在不断变化。是的。它更像是一个数字问题,还是更像是一个理解问题?实际上,这,这,
我认为这将是挑战,是的,是的,但我认为与此同时,你看看人工智能模型能够以比人类思考快得多的速度处理大量数据,然后做出预测并从中得出见解,我的意思是,这令人震惊,人们甚至无法做到这一点,所以我认为它变得越来越通用,但是
在达到人类智力的通用水平之前,还有很长的路要走。根据 2025 年 YouGov 的一项研究,大多数美国人认为人工智能最终会变得比人更聪明。47% 的人表示,人工智能最终会变得比人更聪明。13% 的人认为它已经这样了。24% 的人说这是不可能的。其余的人不确定。
这就是我们本集的时间。星期五,我们将回到讨论 AGI 可能如何改变我们的生活,以及它最有可能何时到来,如果有的话,当然。非常感谢我的嘉宾。感谢加乔。再次感谢。是的,还有雅各布。感谢你邀请我。是的。
是的,确实。谢谢你,朋友。感谢整个编辑团队,并感谢所有收听 Behind the Numbers 的人,这是一个由 Sint 提供支持的新的营销人员视频播客。订阅、关注、留下评分,如果心情好的话,还可以留下俏皮的小评论。莎拉将在星期三与您一起回归《重新构想零售》节目。