让我们来解读一篇题为“用于实现 AGI 发展路径上进展的 AGI 级别”的论文。其核心思想是什么?没错。这篇 2024 年 5 月的论文的作者们建立了一个框架,用于对人工通用智能 (AGI) 模型的能力和行为以及通向它们的步骤进行分类。这是一种很酷的思考方式。但是,为什么定义这些级别如此重要呢?
这完全是为了拥有一个共享的语言来比较不同的 AGI 模型,就像为电影建立一个通用的评级系统一样。
它帮助我们了解我们已经取得了多大的进展,还有多远的路要走,以及每个阶段出现的风险。这种共享的理解对于研究人员、政策制定者甚至公众都非常重要。好的,我明白了。这就像 AGI 的路线图。你能否更详细地分解这些级别?当然可以。他们设定了五个性能级别,从新兴级别开始,AGI 在此级别
人工智能在某些任务上的表现可能与未经训练的人一样好。然后它上升到称职级别,表现得像一个熟练的人,然后是专家和大师级别,它超越了大多数人。最后一个级别是超人类级别,它在任何任务上都比任何人都好。哇,超人类 AI,这太令人震惊了。但是他们如何衡量普遍性呢?
好问题。事情变得有点棘手的地方就在这里。这关乎人工智能能够在一定级别上执行的任务范围。作者在这篇论文中没有设定具体的任务列表,但他们确实概述了一个好的基准应该是什么样的。所以它仍在进行中,但其思想是明确的。这真是令人兴奋的事情。是否存在符合这些级别的现有 AI 模型?论文指出,截至 2023 年 9 月,
像 ChatGPT 这样的前沿语言模型可能在撰写短文或简单的编码等任务中表现出称职的性能水平,但在其他任务(如复杂的数学问题或需要事实性的任务)中仍处于新兴的性能水平。这是有道理的。我可以看出这个框架如何真正改变我们谈论 AGI 的方式。但是你提到的风险呢?啊,是的。风险是讨论的重要组成部分。
每个级别的 AGI 都伴随着自身的一系列风险。例如,在较低的级别上,更多的是关于人类滥用技术,例如传播虚假信息。但是,当我们上升到专家和大师级别时,我们开始担心诸如工作流失甚至人工智能可能以我们意想不到的方式行事等问题。这听起来有点可怕。
我们如何应对这些风险?作者认为,这不仅仅关乎人工智能的能力,还关乎我们如何与之互动。他们提出了不同级别的人工智能自主性,从我们完全控制的人工智能工具到人工智能代理,它可以自行行动。
通过同时考虑人工智能的能力和我们如何使用它,我们可以做出更明智的选择,以安全地部署这些系统。这一切都非常有趣。我开始了解这个框架如何成为人工智能领域的改变者。在我们结束之前还有什么最后的想法吗?我认为这篇论文是急需讨论的一个很好的起点。
通过定义 AGI 的级别并考虑每个阶段的风险,我们可以共同努力,确保随着人工智能变得越来越强大,它也能以负责任的方式并为所有人造福而使用。这结束了我们对用于实现 AGI 发展路径上进展的 AGI 级别的讨论。谢谢。