We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
People
N
NLW
知名播客主持人和分析师,专注于加密货币和宏观经济分析。
Topics
NLW: 我认为,对于大多数企业来说,关注AGI(通用人工智能)是没有必要的。目前,现有的AI技术已经足够强大,可以解决许多实际问题。企业应该关注如何利用现有AI技术来改进工作,而不是纠结于AGI这个遥不可及的概念。目前限制AI影响业务的因素不是AI的能力,而是系统、流程、集成、部署以及思维方式等方面。事实上,我认为目前AI的能力增长速度快于企业整合AI的能力。 Dave Pittman: 我们不需要等待AGI的出现,就可以实现人工智能的持续改进。我们可以通过自我维持的逃逸速度(SEV)来实现这一点。SEV的关键在于建立一个无需人工干预的反馈循环,让AI不断改进自身。这需要三个基本要素:一个可靠的强化学习策略和环境来指导AI的评估;生成高质量的合成数据;一个高度优化的反馈循环来克服系统中的阻力,从而实现逃逸速度。SEV是一种更具针对性的方法,专注于建立一个能够在特定领域自我改进的系统。与追求AGI相比,SEV是一种更有效率的途径,可以让我们在无需构建AGI的情况下获得AGI的好处。基础模型的改进遵循类似于火箭方程式的规律,达到逃逸速度后,改进将变得更容易。当前的基础模型正因为需要更多数据而难以改进,而SEV提供了一种新的策略。通过不断改进基准模型和合成数据生成模型来实现自我提升。如果SEV的自我改进速度足够快,那么模型的改进将呈指数级增长。 NLW(Summarizing Dave Pittman): 人工智能的进步速度很快,以至于我们不需要关注AGI。我们可以通过自我维持的逃逸速度(SEV)来实现人工智能的持续改进,而不需要等到AGI出现。为了实现SEV,我们应该关注人工智能的评估结果,而不是试图理解其性能。基础模型的改进遵循类似于火箭方程式的规律,达到逃逸速度后,改进将变得更容易。当前的基础模型正因为需要更多数据而难以改进,而SEV提供了一种新的策略。SEV的关键在于建立一个无需人工干预的反馈循环,让AI不断改进自身。SEV可以让我们在无需构建AGI的情况下获得AGI的好处。SEV是一种更具针对性的方法,专注于建立一个能够在特定领域自我改进的系统。

Deep Dive

Chapters
This chapter introduces the concept of AGI and its perceived benefits, particularly its potential to accelerate problem-solving across various fields. However, it questions the practicality and relevance of AGI for businesses due to the uncertainties surrounding its development and accessibility.
  • AGI is presumed to accelerate intelligence, unlocking discoveries and advances.
  • The speed of AGI problem-solving depends on computing power.
  • Uncertainties surround the arrival of affordable, universally accessible AGI.

Shownotes Transcript

所有前沿实验室都在争相研发AGI,但在本集中,NLW认为,就实际用途而言,AGI的概念对于所有企业来说都无关紧要且具有干扰性。资料来源:https://edave.substack.com/p/escape-velocity-why-we-dont-need 特别优惠:要获取您随时可用的代理,请访问 https://www.lindy.ai/,并向 [email protected] 发送电子邮件,标题中包含“LINDY”字样。由以下机构为您带来:KPMG – 请访问 ⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠www.kpmg.us/ai⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠⁠ 了解更多关于 KPMG 如何帮助您利用我们的 AI 解决方案创造价值的信息。Vanta - 简化合规性 - ⁠⁠⁠⁠⁠⁠⁠https://vanta.com/nlw 来自 Superintelligent 的代理准备情况审核 - 请访问 https://besuper.ai/ 以请求您公司的代理准备情况评分。AI每日简报帮助您了解AI领域最重要的新闻和讨论。在您收听的任何地方订阅播客版本的AI每日简报:https://pod.link/1680633614 订阅时事通讯:https://aidailybrief.beehiiv.com/ 加入我们的Discord:https://bit.ly/aibreakdown </context> <raw_text>0 今天在AI每日简报中,我们将探讨为什么AGI对企业来说是一个无用的术语。AI每日简报是一个关于AI领域最重要的新闻和讨论的每日播客和视频。要加入讨论,请关注我们节目说明中的Discord链接。

大家好,欢迎回到另一期深度阅读节目。今天,我们将讨论一个我经常思考的话题。事实上,在我们帮助企业弄清楚Superintelligent的代理时,它一直在我们与企业的对话中潜伏着。幸运的是,本周人工智能工程师Dave Pittman撰写了一篇文章,让我们有机会讨论这个主题。Dave的文章名为《逃逸速度:我们为什么不需要AGI》。他的问题是,当改进的轨迹如此之快以至于我们不在乎AGI时会发生什么?

这篇阅读内容不是AI,而是我本人。Dave写道:“……AGI的预期好处之一是,它将导致智力的超人类加速,这将解锁各个领域的发现和进步。基本的论点是,如果AGI与人类一样聪明,但思维速度快得多,它将能够以前所未有的速度找到问题的解决方案。试图弄清楚如何使聚变反应堆工作,一群博士的大脑只能如此快地想出新的想法并进行推理,通常需要数月或数年。”

有了AGI,速度限制理论上是我们赋予它的计算能力。与人类不同,AGI可以全天候工作,而且我们假设,它可以以快一千倍的速度提出新的想法并进行测试。突然之间,我们面临的许多人类规模的挑战似乎是可以解决的,因为我们拥有零成本的智能。尝试将蛋白质组合用于新的癌症疗法?只需询问几个数据中心即可。

测试许多关于减少混凝土制造过程中碳排放的想法?完成了。为全球互联网设计超高效天线?周五启动任务,周一回来——这就是承诺。只有一个问题。目前尚不清楚我们何时才能同时获得AGI本身以及输入成本如此低廉的AGI(任务的新数据、计算能量、芯片等)可以忽略不计。然而……

事实证明,我们不需要AGI或普遍廉价的AGI。我们正处于实现一种新型人工智能改进的边缘,我称之为自我维持的逃逸速度或SEV。一旦你达到了逃逸速度,拥有AGI就变得无关紧要了。如果我们首先讨论一些其他的想法来帮助我们思考,那么理解SEV将是最容易的。第一个是初创企业的经典教训:总是聘用比你之前聘用的人更聪明的人。

通过遵循这一规则,随着公司规模的增长,它实际上变得更有能力。人们常常认为这非常困难,因为存在彼得原理,或者说,你怎么才能知道别人比你更聪明呢?然而,这种假设是基于了解某人如何比你更聪明,而不是仅仅确定某人更聪明。第二种情况,确定智力,要容易得多。最基本的是,给某人一个你未能解决的挑战,如果他们解决了,他们就更聪明。这里的关键教训是,为了SEV的目的,我们应该关注评估而不是理解AI性能。

我们的第二个思维框架是将改进基础模型及其缩放定律视为遭受了夏洛夫斯基火箭方程的困扰,也称为火箭方程的暴政。火箭方程指出,试图发射越来越大的火箭效率越来越低。这是因为更大的火箭需要更多的燃料,这会导致火箭重量增加,而这反过来又意味着你需要更多的燃料来发射你现在的更重的火箭。然而,一旦你达到逃逸速度,平衡就会向你的火箭倾斜,它不再有坠毁的风险。

目前,基础模型提供商正在努力解决类似的问题,即更强大的模型需要更多的数据。由于他们开始依赖其他AI模型生成的合成数据,构建更大的模型也变得更加困难。因为需要一个更大的合成数据模型来生成更复杂的数据,而这反过来又需要……你可以看出这是怎么回事。当人们谈论AGI带来的复合智能和突破性进展的好处时,他们主要指的是AGI已经达到智力逃逸速度的概念,模型进行的所有推理都会改进其答案或解决方案。

因此,基础模型正在自身的重量下崩溃,我们不知道如何知道它们是否正在改进。AI公司该怎么办?我认为我们应该采取一种新的策略,即自我维持的逃逸速度或SEV。SEV的承诺是:只需不断投入一些基本资源,例如计算机内存,并将你的AI安排在一个反馈循环中,以生成结果并在此基础上进行构建。

一旦你拥有一个能够产生更好AI的AI,你的唯一限制就是你能够为火箭发动机提供燃料的速度。SEV的核心是一个无人干预的反馈循环。每次创建一个新的AI模型时,都会使用更复杂的基准对其进行评估,该基准是先前AI模型的结果,基准将问题空间缩小到它无法解决的问题。

新模型是替换旧模型的候选者。如果候选模型证明它确实比旧模型更聪明,它就成为基准模型。然后,使用这种新的改进的基准模型以批评性对抗的方式挑战我们的合成数据生成模型,以产生更高质量的合成数据生成模型。现在,我们的基准模型和我们的合成生成模型都得到了提升,因此我们可以重复这个过程而无需人工干预。如果我们的过程确实是自我维持的,那么它唯一需要的外部输入就是更多的计算能力、时间和内存来改进自身。在

如果我们的自我改进速度足够快,那么我们的模型改进过程将达到逃逸速度,改进不仅是线性的或累加的,而是呈指数级复合的。将其与我们当前的缩放定律进行比较,如果我们看到基础模型已经越过了临界点,并且在其资源投入方面获得了次线性收益,那么它们将摇摇欲坠,并有效地坠落回地球。

今天的节目由Super Intelligent赞助,更具体地说,是由Super的代理准备情况审核赞助。如果你听了一段时间,你可能已经听我说过这个了。但基本上,代理准备情况审核的想法是,这是一个我们创建的系统,可以帮助你对组织中代理可以解决问题的机遇进行基准测试和规划

具体帮助你解决问题,创造新的机会,这是一种完全为你定制的方式。当你进行其中一项审核时,你将进行一次基于语音的代理访谈,我们将与你的一些领导和员工合作,以规划组织内部正在发生的事情,并找出你在代理旅程中的位置。

这将产生一个代理准备情况评分,其中包含一组深入的解释、优势、劣势、主要发现,当然还有一组非常具体的建议,然后我们可以帮助你找到合适的合作伙伴来实际履行这些建议。因此,如果你正在寻找一种启动你的代理策略的方法,请发送电子邮件至[email protected],让我们把你连接到代理时代。

今天的节目由Vanta赞助。信任不仅仅是赢得的,更是被要求的。

无论你是正在进行第一次审核的初创公司创始人,还是正在扩展你的GRC计划的老牌安全专业人员,证明你对安全的承诺从未像现在这样重要或复杂。这就是Vanta的用武之地。企业使用Vanta通过自动化合规需求来建立信任,这些需求涵盖35多个框架,例如SOC 2和ISO 27001。集中的安全工作流程可以将问卷调查完成速度提高5倍,并主动管理供应商风险。

Vanta可以通过将你与审核员和专家联系起来,帮助你启动或扩展你的安全计划,以便快速进行审核并建立你的安全计划。此外,由于平台中使用了自动化和AI,Vanta可以为你节省时间,以便你可以专注于发展你的公司。加入超过9000家全球公司,例如Atlassian、Quora和Factory,他们使用Vanta实时管理风险并证明安全性。

在有限的时间内,这个观众可以获得Vanta的1000美元折扣,网址为vanta.com/NLW。网址是V-A-N-T-A dot com/NLW,可享受1000美元的折扣。

破解如何为这种自我维持的反馈循环提供动力的代码的初创公司或科技巨头将体验到字面意义上的失控成功,这仅受其资源的限制。我认为这种自我维持的循环需要三个基本要素。一个可靠的强化学习策略和环境来指导AI进行评估。二、生成合成数据,重点是质量而不是数量。三、一个高度优化的反馈循环,以克服系统中的阻力,从而防止达到逃逸速度。那么,为什么SEV意味着我们不必关心AGI呢?

有了AGI,我们正在构建一个万能的锤子,它在所有方面都可能很棒。然而,我还没有遇到过很多(如果有的话)用例,有人真正想要AGI。相反,他们通常需要一个更专业的AI,其性能足够好,感觉比房间里最聪明的人还要聪明。追求AGI是一种通过“烧开海洋”来实现的方法。

另一方面,SEV是一种更有针对性的方法,它专注于建立一个能够在有限领域内自我改进AI的系统。该领域必须有利于传递性改进,这意味着我们可以假设对我们AI的改进可以相互叠加。具有良好传递性属性的领域的一个例子是总结法律合同。当代行为艺术之类的领域则不是。然而,根据我的经验,企业关心解决的大多数问题都在传递性领域。现有的神经网络模型本身就适合在传递性领域表现良好,

而最近用于推理模型的测试时计算的成功是支持传递性领域的另一个胜利。作为一名寻求在这种混乱中获得可预测性的AI首席执行官或首席技术官,SEV是一种非常有吸引力的方法。在你的AI改进中建立稳定的轨迹是出了名的困难,这反过来意味着几乎不可能预测几个月后,更不用说一年后或下一轮融资的时间范围了。有了SEV,我们将这种混乱变成了更可预测的轨迹,这种轨迹更多地基于资源,而不是工程汗水和AI研究人员的人才。

好消息是,SEV的许多部分已经存在。我们正在看到在使RL稳定且易于使用方面取得巨大飞跃。同样,在合成数据生成方面,我们已经达到了足够大的模型来克服早期的缺点。虽然还没有得到广泛认可,但DeepSeq的AI优化是我们未来几年将看到的雪崩式基础设施改进的开始。所以就是这样。SEV为我们提供了一条捷径,让我们可以从AGI中获得我们想要的东西,而无需构建AGI本身。这篇文章阐述了SEV的策略,但在实施SEV的策略方面仍然存在许多悬而未决的问题。

我不会惊讶地看到许多变体出现,这些变体利用特定领域的技巧。正如一位早期读者对草稿所说,达到SEV可能归结为谁能找到解决方案空间中最有影响的问题,其中AI的质量相对容易衡量。好了,这就是Dave对这场讨论的贡献。当然,他从构建者的角度来看待这个问题,并思考如何将模型设定在持续改进的轨迹上。

其中隐含的是对我们对未来这个模糊点的过度关注的批评,我们称之为AGI,而AGI本身仍然定义不明确。再次从技术的角度来看,Dave说我们不需要AGI,因为我们可以获得持续改进,而无需以任何方式担心这个术语。但我从不同的角度来看待这个问题。当你从商业角度考虑这个问题时,

我们为什么不需要AGI的原因更简单。对AGI的关注是对未来某个时间点的关注,在这个时间点上,AI将比我们现在拥有的AI好得多。

但现在的AI已经很出色了。现在很大一部分知识工作可以像人类一样由AI完成。目前几乎所有知识工作都会比人类更好,至少使用AI是这样。从最近的一些时刻(例如Manus代理)可以清楚地看出,我们仍然低估了我们现在甚至拥有的模型的能力。当谈到AI影响业务时,限制因素目前不是能力。

而是系统、新流程、集成、部署、新的运营结构方式和新的思维方式。事实上,我认为现在,能力的增长速度快于企业整合能力的速度。

现在,我不想贬低AGI这个宏伟的乌托邦式想法的可能性和潜力,它确实可以解决我们现在无法解决的许多世界问题。我根本不是在试图争论这不会以更高效和更复杂的营销方式带来难以置信的变革。

但我要说的是,对于大多数企业和以某种方式部署AI来改善其工作的人的实际生活现实而言,我们现在所拥有的已经是一个惊人的飞跃。仅仅为了赶上我们现在面临的能力而需要做的工作是巨大的。纠结于术语肯定会让你落后。因此,我认为目前,企业可以相当安全地将AGI讨论留给研究人员和未来的社会设计师,

并专注于触手可及的力量。无论如何,Dave Pittman写了一篇很棒的文章。再次感谢你写这篇文章。这就是今天的AI每日简报。一如既往地感谢您的收听或观看。直到下次,再见。