我们是否将像ChatGPT这样的工具的非凡技能与真正的智能混淆了?AI怀疑论者加里·马库斯毫不留情地警告说,信任生成性AI模型的炒作可能会使我们偏离构建我们真正想要的AI未来的道路。比拉瓦尔和加里深入探讨了超越AI炒作周期的细微视角,并试图在健康的怀疑主义和技术乐观主义之间找到共同点。有关TED AI Show的文字记录,请访问go.ted.com/TTAIS-transcripts</context> <raw_text>0 人工智能至少自1950年代初就已经存在,当时曼彻斯特大学的研究人员制造了一台可以下跳棋的机器和一台可以下国际象棋的机器。但在2022年底,70年后,OpenAI随意发布了ChatGPT的早期演示。突然间,AI成了人们谈论的焦点。
即使你身处科技行业,它似乎也像科幻故事一样突然爆发。高中生们有了一种全新的作弊方法。程序员们有了一种新的自动化工具,可以调试数十种编程语言的代码。用户惊讶地看着闪烁的光标在几秒钟内展开整个故事或剧本。
自从第一次发布以来,AI一直处于新闻周期的顶端。如何利用AI进行家庭时间。BBC的恐慌与可能性。工人在2023年学到了关于AI的知识。谷歌向媒体机构推销可以帮助制作新闻的AI。AI生成的垃圾正在污染我们的文化。主流媒体报道了AI新兴能力和惊人的改进。但更重要的是,它报道了反应。
许多知名的科技领袖和学者,甚至名人,都对AI的未来发表了各种宏伟的声明。随着这些预测在社交媒体上的传播,我们开始听到两个极端阵营的声音。
有技术乐观主义者,他们声称AI将解决重大全球问题,并引领一个极度富裕的世界。马克·安德森(Marc Andreessen)在《技术乐观主义者宣言》中写道,AI可能是我们文明迄今为止创造的最重要和最好的东西,当然与电力和微芯片相当,甚至可能超越它们。
对于所谓的技术乐观主义者来说,不久之后我们都将生活在一个充满无限创造力和发明的世界中。而另一边则是悲观主义者。那些相信我们将创造出一种超级智能的人的观点,这种智能可能会在没有我们的情况下起飞,并追求可能摧毁人类文明的任意目标。这些人使用像P-Doom这样的术语,指的是AI消灭地球上所有人的概率。
其中一些人自称为“末日论者”,如埃利泽·尤多斯基(Eliezer Yudkowsky),他提出超级智能AI可能会将武器系统指向人类,如果它将我们视为威胁。悲观主义者描绘了反乌托邦,敦促我们放慢或完全停止开发,规划灾难性的结果。我想给你展示一些东西,所以请耐心等待。
嘿,ChatGPT。我的制作人莎拉和她的狗在河的一边。他们想过河。有一只船可用。他们需要遵循什么步骤?用要点写出解决方案,并尽可能简洁。
莎拉上船并划到河的另一边。那狗呢?莎拉在另一边下船,走回原来的岸边。莎拉把她的狗放在船上,和狗一起划到河的另一边。什么?为什么不这样做?莎拉和她的狗在另一边下船。哇。好吧。这就是有能力拯救或毁灭人类的技术?有时似乎围绕AI的所有炒作仅仅是炒作。
我是比拉尔·维尔萨杜,这是TED AI Show,在这里我们弄清楚如何在AI改变一切的世界中生活和繁荣。想要一个无与伦比的强大、快速和控制的网站吗?试试Bluehost Cloud,这是Bluehost的新网络托管计划。由WordPress专家为WordPress创作者打造。拥有100%的正常运行时间、令人难以置信的加载时间和24小时的WordPress优先支持,您的网站将快速响应并具有全球覆盖范围。使用Bluehost Cloud,无论流量多大,您的网站都能应对激增。此外,您还会自动获得每日备份和世界级安全性。立即访问bluehost.com开始。
在炒作方面,加里·马库斯是告诉我们要降低音量的主要人物之一。
加里自称为AI怀疑论者,这也是他在AI行业中最为人知的。他不认为AI会拯救我们或让我们灭绝。他也不认为在过去几年中吸引公众想象的大型语言模型接近智能。也不认为如果我们继续沿着这条训练路径,它们会变得智能。
但他确实认为,围绕生成性AI的炒作有实际后果,我们在思考我们想要什么样的AI未来时,应该考虑到具体的危害。
加里曾是纽约大学心理学和神经科学的教授,以对生成性AI模型的尖锐批评而闻名。尽管一些科技人士将他描绘成一个只恨AI的人,但他实际上共同创办了自己的机器学习公司,该公司于2016年被Uber收购。因此,仅仅因为他对当前AI的发展路径持怀疑态度,并不意味着他认为我们应该完全避免构建先进的AI系统。
他最新的书将在这个秋季出版,标题为《驯服硅谷:我们如何确保AI为我们服务》。所以,加里,关于AI的炒作太多了。有趣的是,当你去和非技术知识工作者交谈时,他们对AI能做什么有这种看法,当他们阅读新闻或上推特时,然后去使用这些工具时,他们会觉得,天哪,这种情况真糟糕,对吧?
我觉得讨论技术的局限性几乎是被看作不受欢迎的。哦,我被讨厌了。就像,我觉得人们把我放在他们的黑暗点上。你常常被描绘成一个AI否定者,但实际上你是一个将生命奉献给AI的人。所以我想回到一开始,问你,当你刚开始时,是什么让你对AI感到兴奋?我的意思是,我从小就对它感兴趣。我八岁时在纸上学习编程。
我很快就开始思考:我们如何让它玩游戏?我对游戏AI产生了兴趣。还有一点不是每个人都知道的是,我没有完成高中。之所以能够不完成高中,是因为我在Commodore 64上写了一个拉丁文到英文的翻译器。这让我可以跳过最后几年的高中。我在业余时间就已经在思考AI。这不是一个学校项目。我只是一直对它充满热情。
我应该说,我对AI也经历了多次失望的周期。所以,你知道,爱一个东西并对它感到失望是可能的。我想很多青少年的父母可能会有这种感觉。我觉得AI现在就像一个倔强的青少年。你希望它最好,但你可以看到它在决策和推理上挣扎。我真的希望AI能成功。我很高兴你注意到了这一点,因为很多人把我误解为,正如你所说的,是一个AI否定者。我是一个生成性AI否定者。我只是认为它不会成功。我认为与之相关的风险很多,我不喜欢人们所做的商业决策。就此而言,我也不喜欢政府不做决定的决策。
所以现在有很多我不喜欢的事情。但在某种程度上,我几乎是一个加速主义者。有这么多问题,我认为我们无法单靠自己或甚至计算器,甚至超级计算机来解决。因此,我希望AI能在很多事情上提供帮助。所以我相信这个愿景。当我听到山姆·奥特曼说,AI将做所有这些事情时,我是支持他的。只有当他说,我们现在正朝着AGI的轨迹前进时,我才会翻白眼,心想,不,你在开玩笑吗?在我们拥有足够复杂的AI之前,我们需要解决这么多问题。
我想你提到了一些有趣的术语,显然AGI是一个备受争议的术语,但我认为你有一个非常简洁的定义,AGI到底是什么?这个似乎每个主要AI实验室都在朝着发展的东西。你如何定义它?AGI应该是人工通用智能。
他们所考虑的基本上是具有灵活性和普遍性的智能,类似于人类智能。部分对比在于,AI有着悠久的历史,构建的解决方案非常狭窄,紧密适应特定问题。因此,像一个可以下棋而不能做其他任何事情的国际象棋计算机就是狭义AI的经典例子。我认为我们很多人在这个领域很长一段时间以来都认为,这并不是我们所说的智能。它是有用的,更像是为特定目的构建的计算器。
然后ChatGPT出现了,它在某种程度上打破了我们谈论这个问题的常规方式。因此在某种程度上,
它不是狭义AI。你可以和它谈论任何事情,但它并不是我们所指的人工通用智能。它实际上并没有那么聪明。你知道,它是否正确取决于训练集中的具体内容,以及你的问题与其训练内容的接近程度。你不能真的依赖它,因为你永远不知道你的特定问题何时会与它训练过的内容有微妙的不同。因此,你不能依赖它。这并不是真正的智能。所以你有普遍性,但...
这几乎像是智能的近似,而不是真正的智能。我认为它距离大多数人所说的还远。如果你问我AGI何时会到来,我会非常保守地说,它可能会在2030年到来,因为每个人都在努力工作,花费数十亿美元,我又能知道什么?但如果你问我,从我作为认知科学家的角度来看,
我们解决了什么,没解决什么?我们在哪些方面取得了进展,哪些方面没有?我们在模仿方面取得了巨大的进展,而在规划和推理方面的进展非常有限。这些问题我们在AI领域思考了75年,而在这些方面的进展确实非常有限。
所以,加里,你说进展有限,但像AlphaGo这样的成就呢?我的意思是,该程序在围棋或国际象棋等游戏中的策略能力远远超过人类。这些系统做出的举动是人类根本不会想到的。
国际象棋是指数级的,围棋也是指数级的。推理和规划以及开放式的现实世界问题,在这些问题上你无法通过拥有无限的模拟数据来解决,就像在围棋中那样,我们在这些问题上没有取得进展。我们有这个近似器,准确率为80%。80%的准确率对于某些问题来说很好,但如果你想做医学,如果你想指导家用机器人,诸如此类的事情,
80%并不够好。无人驾驶汽车的情况是,我们很快达到了80%的准确率。然后每年都有微小的改进,但我们离通用目的的五级无人驾驶汽车还远得很。你不能把它放在一个它从未去过的城市里,像我可以把一个Uber司机放在那个城市一样开车。我们根本没有接近。因此,你知道,为什么驾驶这么难?即使我们有,
数百万或数十亿小时的训练时间。我想这可能是因为有大量的异常情况,这实际上是许多问题的关键。你知道,有些情况根本不在任何人的训练集中。我最喜欢的例子是特斯拉。有人按下了召唤键。你可能看过这个视频,它直接开了过去。你甚至,我不知道,撞上了一架喷气机。你知道我想去哪里。对吧。所有时间最糟糕的召唤例子。就像特斯拉,
没有人会犯这样的错误。现在,有一个单独的问题是,最终无人驾驶汽车可能仍然会犯人类不会犯的错误,但更安全。但就目前而言,它们并不比人类更安全。它们确实会犯这些奇怪的错误,这告诉你一些关于它们操作的事情,并告诉你为什么这个问题难以解决。这个问题难以解决的原因是存在异常情况。在硅谷有一种“假装直到成功”的文化,我认为。现实是,我认为我们离AGI还远。我甚至不确定我们是否接近无人驾驶汽车。
不过有趣的是,你在谈论模仿,对吧?这些系统在这方面非常擅长,无论是模仿我们写文本的方式还是生成图像。
这种模仿的特性给人一种理解的错觉,对吧?这就是它变得有点阴险的地方,人们开始比他们应该信任这些系统更多。它们会犯一些非常奇怪的错误。我举了Galactica预测或说埃隆·马斯克在车祸中去世的例子。确切的句子是,2018年3月18日,埃隆·马斯克卷入了一起致命的车祸。好吧,在一个...
经典的AI系统中,如果你断言某事,你会在数据库中查找,或者你可以在数据库中查找以查看它是否真实。而在这些大型语言模型中,你无法做到这一点。这不是它们的工作。它们甚至不知道自己在断言任何事情。有大量的数据表明,埃隆·马斯克实际上仍然活着,对吧?因此,认为他在2018年去世是绝对不成立的。证据是
强烈反对这一点。任何可信的
可信的人工通用智能应该能够在其他方面积累可用证据。如果你不能做到这一点,你在做什么?所以在那个特定的例子中发生的事情是,2018年3月18日,有些人在车祸中丧生,其中一些人拥有特斯拉,但它并没有区分埃隆·马斯克拥有特斯拉公司与个人拥有特斯拉汽车等。因此,你获得了语言的近似感觉,但没有进行任何事实检查的能力。
我想我想要双击一下这个语言部分,对吧?当我们作为人类组合语言时,我们常常会说错话。如果我们对某事没有所有信息,我们可能会说不准确的东西。当然,社交媒体上充斥着不准确的信息,无论是故意的还是无意的。因此,在你看来,这与这些生成性AI模型的幻觉有什么不同?
我知道这是一个你可能也普及过的术语。带着遗憾普及。
在我回答你问题的主要部分之前,问题在于它暗示了一种意图或人性。这有点过于拟人化。你必须像认知心理学家那样思考这些事情。认知心理学的第一条规则是,任何给定的行为都可以由不同的内部机制以不同的方式引起。因此,你知道,人类总是会犯错误,并且总是会说不真实的事情。他们说不真实的事情的原因之一是他们在撒谎。是的。
人类总是撒谎。他们撒谎是为了欺骗其他人。他们撒谎是为了欺骗自己等等。这从来不是LLM幻觉的解释。它们没有意图。因此,你知道,从一开始,你就知道解释是不同的。实际上,无论它说的是真还是假,它使用的机制是相同的。
它在集群之间跳跃。有时它跳跃并落在一个好地方,因为它通过语言和可能通过视觉间接获得了关于世界的相当好的数据。因此,有时它落在正确的地方,有时落在错误的地方。机制是相同的。如果你撒谎,你实际上是在进行一些二阶处理思考,是否有人会抓住我?我的肢体语言是什么等等。因此,这些机制是非常不同的。人们犯错误还有其他原因。例如,他们的记忆不好。
你可以说在LLM中有一些这样的情况,伴随着损失等等。因此可能会有一些重叠。有时我们试图重建一些我们知道我们并不完全正确的东西。我们试图做出最佳猜测。做出最佳猜测也有点不同。因此,它们的幻觉并没有相同的基础机制。因此,你必须查看潜在的因果机制。恰好是LLM如此容易出现这种情况的原因是它们无法进行事实检查。这就是它们的工作。
所以,是的,像在潜在空间中漫步可能并不等同于AGI。显然,有时这很方便,但正如你所说,它的准确率是80%。它甚至可能是有用的。我的意思是,它可能是AGI的一部分。我不想说我们应该完全抛弃这些东西,但这不是AGI。它可能是AGI的一个子集。
我总是喜欢把这些看作是一组工具。因此,如果有人来找我说,我有一个电动螺丝刀,我可以建造房屋。我会说,你有电动螺丝刀真不错。这是一个绝妙的发明,但你仍然需要锤子、刨子、水平仪和蓝图等等。你需要一系列方法的联合,以便共同解决这个更大的问题。确实如此。我喜欢这个词,实际上,真有趣,你提到这个,我喜欢“协调”这个词。如果你看看神经科学,脑成像文献,我认为它真的告诉我们一件事,我认为这非常昂贵,并没有告诉我们太多,但它真正告诉我们的是,你可以带一个人,教他们一个新任务,把他们放在脑扫描仪里,
他们会在线上,立刻找出一种新的方式来协调他们已经拥有的大脑的各个部分,以解决这个新任务。事实上,更令人惊讶的是,你再带20个人,他们可能大多数会做同样的事情。因此,人类大脑在协调其能力方面做了一些系统性的事情。这是惊人的。我们不知道大脑是如何做到的。我不知道AI是否需要做同样的事情,但对人类来说,这种协调是
人工通用智能或自然通用智能的核心,正是将合适的工具在合适的时刻组合在一起。回到今年的TED演讲,微软的穆斯塔法·苏莱曼表示,AI幻觉可以在明年之前得到治愈。许多像他一样的行业领导者,也在说类似的话。他们错在哪里?
所以我不知道他们是否真的相信这一点。我认为如果他们相信,他们就是天真。他们缺少的是这些系统本质上不进行事实检查。它们不进行验证。我喜欢你的说法,他们在潜在空间中漫步。这根本不是解决幻觉问题的办法。想象一下你有一份报纸,你有一群记者,其中一些人实际上在吸毒,他们在线提交他们的报道。
你会怎么做?让他们写更多的报道?不,你需要一个事实检查员。你需要一个技能是追踪事情的人。这根本不是这些系统所做的。如果你真的理解技术方面的内容,这似乎是一个荒谬的说法。
所以,是的,显然你不认为更多的数据和更多的计算是解决方案。我不认为这是答案。总会有异常情况,这根本不是解决这个问题的正确技术。因此,我认为我最重要的工作,在当时被极大低估,是在1998年。我谈到了我所称的训练空间问题。我查看了早期的神经网络。
并展示了它们基本上没有超出分布进行泛化。因此,现在已经成为一个普遍公认的真理,即存在分布转移的问题。这就是为什么无人驾驶汽车的端到端深度学习不起作用,因为分布转移,你有一个数据分布来打破它。
你所训练的。而现在一些测试在该分布之外,比如当有人撞到某人时,旁边有一架飞机。因此,你最终会超出分布。这是一个人们关注了25年的模型类别的问题。1998年就是一个问题。这个问题没有解决。没有人能提出一个概念性的想法,让人们说,嗯,我可以向你解释为什么会这样,这就是我将要解决的方法。
总有一天会有人这样做,实际上,我认为。但现在这就像神秘主义。我会添加更多数据,它就会消失。还有另一种看待这个问题的方法,就是查看实际数据。
所以每个人都在说,这是指数级的。我在想,为什么不绘制数据?所以我们没有所有需要的数据来完美地做到这一点,但你应该做的是绘制GPT到GPT-2到GPT-3到GPT-4。我们实际上没有GPT-5。然后拟合曲线,告诉我指数是多少,好吗?问题是,无论你对其进行什么曲线拟合,你应该看到从GPT-4到现在的进展,而现在是13个月前,14个月前。
而我们没有,对吧?一切都在GPT-4上达到了顶峰。如果你进行统计程序来绘制曲线,你必须说它已经放缓。如果你相信早期的趋势,我们现在应该更进一步。那个早期的趋势现在根本没有保持。
我认为,正如你所说,许多领导者,如德米斯·哈萨比斯(Demis Hassabis)也公开表示,可能仅仅扩大数据和计算可能不是答案。我们可能需要一些根本性的突破。这也是我最被诟病的论文的要点。深度学习正在撞墙。我们看到这些经验性概括,所谓的扩展法则,但它们不是法则。它们不是像物理学那样的法则。你不能选择性地说,今天我不遵循重力,对吧?但扩展法则,对吧?
只是一个时期的概括,就像说,过去六年股市上涨。这并不意味着明年它会再次上涨。但仍然,关于AI风险的讨论很多,对吧?AI无疑已经进入公众意识。当我们开始思考AI风险时,我们听到的都是AI运作得太好带来的风险,对吧?这是AGI在内部实现的场景,对吧?
但从我听到你说的话来看,似乎你认为更大的风险实际上来自于AI看似具有人类认知能力,而实际上并没有。那么在你看来,我们需要最关心的具体危害是什么?很多讨论都是关于可能会出现的超级智能AGI的风险,当然我认为这需要关注。对。
但现在有很多风险。我认为目前AI,生成性AI的最大风险是它很容易被滥用。而且它正在被滥用。因此,人们正在使用它以及深度伪造技术等来制作宣传。此外,还有人利用它进行网络钓鱼。其他深度伪造工具被用于非自愿的深度伪造色情等。
所以有整整一类事情。然后还有一整类,我会说,更关乎可靠性的问题,比如一些人被告知这项技术有多强大,他们想把它放到各个地方,比如武器系统、电网和汽车中。因此,过度信任不太复杂的系统会带来一系列问题。因此,现在有不同类型的问题。但我认为它们是严重的,我认为—
值得每天问自己,因为这是一个非常动态的演变过程,LLM的净优势
是否大于净成本。我老实说不知道答案。即使我所争辩的是真的,我们在LLM上能做的事情正达到一个平台,即使在接下来的五年或更长时间内没有能力提升,仍然会有积极和消极的用例,没人发现。
我认为你所说的也是,尽管期望与现实之间存在差距,但人类使用这些模型,尽管存在所有缺陷,仍然可以做很多好事和坏事,对吧?没错。而且恶意行为者可能会有优势,因为好人主要希望他们的系统可靠,而坏人则不太在乎。因此,想想垃圾邮件。垃圾邮件发送者每天发送一百万条垃圾邮件,他们只需要其中一条命中。因此,可能存在某种不对称,这实际上可能会改变局面,但这只是推测。我对此并不确定。
在这个大型语言模型时代,另一个主导的伦理辩论是版权问题。事实上,这些模型正在模仿由真实人创造的数据,无论是作家、艺术家还是互联网上的人。你认为是否有任何合理的世界,创作者实际上会因他们的数据而获得报酬?
我们是否将像ChatGPT这样的工具的非凡技能误认为真正的智能?AI怀疑论者加里·马库斯毫不留情地警告说,信任生成性AI模型的炒作可能会使我们偏离构建我们真正想要的AI未来的道路。比拉尔和加里深入探讨了超越AI炒作周期的细微视角,并试图找到健康怀疑主义与技术乐观主义之间的共同点。有关TED AI Show的文字记录,请访问go.ted.com/TTAIS-transcripts</context> <raw_text>0 这必须是这样的。我的意思是,看看Napster发生了什么。一时间,每个人都在说,信息想要自由。我喜欢获得所有这些免费的音乐。法院说,不,这样行不通。人们在这里拥有版权。因此我们转向了流媒体。流媒体并不完美,但我们转向了有许可的流媒体。这就是我们所做的。我们转向了许可,这就是我们在这里要做的。要么法院会强制执行,要么国会会强制执行,或者两者都会。有一封来自英国上议院的惊人信件,我刚看到,基本上说...
如果政府不采取行动,我们将会使这种情况正常化,人们会从艺术家那里左偷右窃。这不是我们的目标。我有一本书即将出版,名为《驯服硅谷》。我在最后说的事情之一是,我们实际上应该抵制那些没有适当许可的东西。因为如果我们说,哦,我们的朋友们作为艺术家被剥削没关系,那么我们就是下一个。
本节目由LinkedIn赞助。LinkedIn广告让您能够建立正确的关系,推动结果,并在一个尊重的环境中接触您的客户。他们不会受到轰炸。这是非常有针对性的。您将能够直接接触并建立关系。
拥有十亿会员,1.8亿高级管理人员,似乎每个人都在LinkedIn上,还有1000万C级高管,您将能够通过专为B2B构建的目标和测量工具推动结果。在技术领域,LinkedIn的广告支出回报率比其他社交媒体平台高出两到五倍。
您将与尊重您所处B2B世界的合作伙伴合作。79%的B2B内容创作者表示,LinkedIn为付费媒体产生了最佳结果。今天就开始将您的B2B受众转化为高质量的潜在客户。我们甚至会给您下一个活动100美元的信用。请访问linkedin.com/TED audio以索取您的信用。这是linkedin.com/TED audio。条款和条件适用。LinkedIn,您应该去的地方。
对于那些正在收听的人来说,无论是过于乐观还是过于怀疑AI正在发生的事情,正确的、适度的看待正在发生的创新的方式是什么?您对想要对抗这种AI炒作周期的人有什么建议?媒体应该如何处理AI的报道?然后消费者和决策者在世界上的主要购买决策中应该如何对待这些AI新闻?
我认为消费者必须意识到,让AI听起来比实际更迫在眉睫是公司的利益所在。你最终会得到像人道别针这样的东西,它们真的很令人兴奋,因为它们听起来好像要为你做一切,除了洗衣服。但实际上并不是这样。我认为记者需要养成询问怀疑者的习惯。这包括我,但还有许多其他人,他们会说,你知道,这个东西真的有效吗?如果山姆·阿尔特曼说我们正朝着AGI的轨迹前进,那就问问,
10位教授,看看他们对此的看法。你知道,可能有九个人会说,这太荒谬了。这不是AGI。我们实际上还很远。这需要被考虑进去。仅仅报道公司的新闻稿通常是错误的,因为公司显然对股价或估值等有兴趣。他们显然会有乐观的偏见。你想要反驳这一点。我,
我看到记者在政治上经常这样做,但在AI报道中却没有看到太多,怀疑者偶尔会得到一句话。我是说,我不应该抱怨。我最近有很多媒体曝光,但我仍然认为总体上有一种非常强烈的偏见,基本上是报道公司的新闻稿,声称你知道,我们快要解决这个问题了。而且,
我们已经听到无人驾驶汽车的消息10年了,但汽车仍然没有出现。我们还要看多少次这个电影,才能意识到承诺是廉价的?直到某件事情从演示变成每个人都可以使用的实际产品,你应该稍微保持怀疑。因此,生成性AI似乎在这里,对吧?我们无法将精灵重新放回瓶子里,正如我在关于AI的每一个小组讨论中所说的那样。是的。
我们应该引入什么样的限制和法规来进行部署?你有一本书将在九月出版,名为《驯服硅谷》。给我们一个TLDR。这是一个巨大的挑战。我不能用一句话来概括。书中的一个论点是...
AI现在有点像九头蛇,尤其是生成性AI,每天都有新的东西冒出来。我们需要一种多管齐下的方法。我们需要对将要服务于1亿人的东西进行预部署测试。因此,我认为目前不需要限制研究。但随着事物向大量人群推出,就像你对待药物、汽车或食物或其他任何东西一样,
如果你没有先前的实践来证明这是安全的,那么人们应该被要求。而关于GPT-4的疯狂之处在于,他们写了一篇长论文,解释了许多风险,几乎没有提供任何缓解策略。他们只是说,祝你好运,世界。
而且他们没有透露他们是基于什么数据进行训练的,这真的会帮助我们减轻风险。因此就像,祝你好运,世界,我们不会帮助你。莫琳·道德曾经引用格雷格·布罗克曼的一句话,说,我们不会只是把东西扔到围栏外,让世界自己去解决。但这正是他们现在所做的。我们不能信任硅谷自我监管。看看社交媒体发生了什么。
他们基本上在这项工作上失败了,这对青少年女孩来说真的很糟糕。这对社会的两极分化也真的很糟糕。因此,进行一些预部署测试是重要的。进行审计也很重要。政府必须支持独立研究人员,并说,是的,我们将使您能够轻松进行分析,以查看这些东西是否安全。
你举了一个良好监管行业的例子,比如航空航天,显然航空公司和航空旅行是相对安全的。但我们仍然会发生像波音这样的事件。对吧。那么,监管是答案吗?
好吧,我的意思是,如果没有监管,我们会有更多的事件。想象一下,如果没有监管,那么你知道,商业航空旅行,就像在1940年代,很多人死于这种情况,像是常态。我认为监管并不容易。我认为我们必须采取迭代的方法来进行监管,就像我们对待其他所有事情一样。政府有很多问题,你知道,
我写这本书的部分原因是因为我认为政府本身并没有达到正确的地方。我认为我们需要让更多公众参与做出关于这些事情的正确选择。
你知道,有趣的是,你提到政府本身不会成为私营部门的制衡。这很有趣,因为你知道,我认为很多政治家,如果你和他们谈谈,他们会说,哦,是的,你知道,我会在这里做我的任期,然后最终我想去一家AI公司工作。你听说过那种旋转门。那么你认为我们该如何对抗这一点?你认为消费者整体上是一个足够强大的声音来成为这种制衡吗?
我认为消费者需要觉醒,成为这种制衡。我认为你说得对,关于旋转门。你知道,当我一年前在参议院作证时,房间里的每位参议员似乎都欣赏强有力的高监管的价值。但在这里,我们12个月后,欧盟做了一些事情,但美国国会没有。因此,总统实际上提出了这项行政命令,这是他能做到的最强的。
但美国宪法的性质是你不能制定法律。因此,拜登提出的事情基本上是报告要求和类似的事情,并在政府的不同部门设立首席AI官员。所有这些都是好的,但我们最终确实需要一些约束。我还谈到了国际合作在AI治理中的必要性。参议院对此持温暖态度,跨党派,民主党和共和党,但实际上没有发生任何事情。而且
公众需要意识到,如果沿着这条路走下去,我们将看到社交媒体破坏社会的方式,但会更糟。AI可能会对隐私造成更大的影响,真正加剧网络犯罪,可能会破坏民主本身。唯一能让事情发生的方式是人民站出来,组织起来,把他们的钱放在嘴边,说,这对我们很重要。
对监管的一个普遍批评似乎也在将美国与中国对立起来,对吧?就像,如果我们在美国过早限制创新,我们的对手将会领先。你对此有什么看法?
我的意思是,在许多方面,中国实际上在监管AI方面领先于我们。例如,他们最近有一个版权决定,其中一个商标角色被AI系统剽窃,中国法院说,你不能这样做。因此,艺术家在中国的保护可能比在美国更好。
现在,中国做了一些我认为是不可辩护的事情,我认为我们不应该这样做,那就是他们要求他们的语言模型遵循党的路线。我认为这是荒谬的。我们绝对不应该这样做。但在其他方面,中国实际上有一些与我们相同的担忧。他们不想部署会完全破坏信息生态圈、造成大量网络犯罪等的系统。真正改变世界的将是首先实现AGI。这是一个关于研究优先级的问题。
我认为美国历史上一直在引领创新。如果我们停止将所有资金投入到大型语言模型中,仅仅因为它们是闪亮的东西,而是更广泛地将我们的赌注放在研究上,我们完全可以赢得这场比赛。我希望我们会这样做。因此,基于你刚才所说的研究优先级,让我们回到起点。这是相当技术性的,但我认为我们有必要深入探讨。现在,我们正处于基于这些大型神经网络的生成性AI模型的路径上,这意味着它们有点像黑匣子。
我们真的不知道它们为什么会这样做。这与更基于规则的符号AI系统有很大不同,后者允许我们确切地看到一个系统是如何做出决策的。因此,从技术角度来看,如果不朝着当前的生成性AI范式发展,您希望AI行业朝哪个方向发展?我的个人观点是,我认为最有利可图的研究方向是
神经符号AI,它试图结合神经网络的最佳特性,这些网络擅长学习,以及符号系统的最佳特性,这些系统擅长推理和事实检查。我认为这必须发生。
我认为这会发生。谁先到达那里,我认为将会处于巨大的优势。我不认为这像是一个两天的项目。我认为这真的很难,部分原因是神经网络的部分是不可解释的。因此,如果它是可解释的,你可以将其转交给符号系统,但它不是。我们真的不知道黑匣子里有什么。因此,在黑匣子世界和符号AI之间架起桥梁是非常困难的。我们可能需要大量的创新。
但我认为从长远来看,这就是你想要的。你不想要仅仅能够写初稿的AI。你想要可以信任的AI,可以依赖的AI。我不知道如何实现这一点,除非你可以根据已知数据库等进行事实检查。你需要一个与世界一致的AI,或者至少给出解释,而不是仅仅输出一些东西。
这也很有趣,因为在某种意义上,战线已经划定。人们使用“你要么是加速主义者,要么是减速主义者”这样的术语。你知道,如果你真的是加速主义者,你应该做的是与大型语言模型脱离关系,告诉自己,我希望AI能工作,但这不是它。如果你希望AI拯救世界,你应该
每一次进步都问,实际上这是否能让我到达那里,还是在浪费我的时间?至于人们想要暂停AI,我认为我们不应该暂停研究,但生成性AI正在造成问题,我们至少需要考虑这一点。我认为我们进行公共讨论,比较风险和收益是好的。如果风险足够高,比如网络犯罪和民主的破坏,或许,我们应该重新确认
重新考虑这是否真的值得。是的,它帮助人们进行头脑风暴,但帮助人们进行头脑风暴,也许让程序员写得更快,可能并不能抵消对民主的重大破坏。我们确实应该考虑这一点。我同意。我的意思是,你可以用这些模型做一些好事。你显然给出了协助编码的副驾驶示例,它可以合理地完成任务,并将其提升到80%,这确实为人类节省了很多繁琐的工作。这令人兴奋。因此,总体而言,我有一种技术乐观主义的倾向。但我认为我在这种加速主义者与减速主义者的对立中挣扎的地方是,
即使你是技术乐观主义者,也并不意味着你不能开放并承认这些模型的局限性。是的。我的意思是,这对我来说很奇怪,因为我实际上认为我是一个技术乐观主义者。你在这里第一次听到。 但并不是很多人知道这一点。是的。
就像我们都同意北极星,我们应该对如何到达那里持解决方案无关的态度,而不是变成这种教条式的圣战,像是,谁是支持或反对技术的人。我认为今天一切都如此分裂,而这种对立阻碍了真正细致的讨论的发生。这绝对是正确的。这又回到了社交媒体。对吧。在社交媒体上,甚至很难提出细致的观点。
这实际上又回到了科技行业本身,偶然创造了使良好对话变得困难的条件。好吧,嘿,我认为在AI领域没有缺乏炒作。有时我们确实需要在脸上泼一些冷水。加里,我很高兴你在谈论这一切的另一面,并对我们如何继续保持谨慎乐观。这是我所得到的,你和我都持谨慎乐观的态度。我认为你被描绘得过于消极。
但老实说,如果你深入探讨你的论点,不用说“深入探讨”这个词,我发誓我在ChatGPT之前就用了这个词。你知道,我认为你会发现你的立场要复杂得多。好吧,感谢你给我机会阐明这一点。那么,AI会拯救我们还是让我们灭绝?好吧,根据加里·马库斯的说法,可能都不是。
我必须说,我同意他的看法。在AI行业,加里是一个相当两极分化的人物。至于我在这一切中的立场,我认为自己对人工智能持谨慎乐观的态度。我不认为AI能解决人类面临的每一个问题,但我确实认为它是我们可以用来影响现实世界变化的最强大工具之一。虽然我确实认识到生成性AI的缺陷和风险,
但我也倾向于相信它为创造者打开了许多令人兴奋和有意义的门。我的意思是,这是一个非常酷的工具,可以增强人类的才能,老实说,自动化我们认为是现代知识工作的许多繁琐工作。
正如加里所说,当我们开始将思考的表象与实际思考混淆时,我们就会遇到麻烦。推理的表象与实际推理并不是同一个过程,当我们打开引擎盖时,我们不会得到相同的结果。这些大型语言模型是惊人的模仿者,但它们尚未能够从第一原理进行推理,更不用说向我们解释它们的推理了。在思考的表象与实际思考之间出现的风险是真实的。
因此,几十年来对人工通用智能的追求将继续。但承认当前的路径可能不是到达那里唯一的方式是可以的。相反,重要的是要记住,对于AI将走向何方以及我们将如何到达那里,有一系列的观点。许多观点远比无节制的加速主义或夸张的末日主义更为细致。
我们可以对AI的可能未来感到兴奋,但也要保持健康的怀疑态度。并记住,作为这些公司的用户和客户,我们帮助决定我们想要看到的AI未来。TED AI Show是TED音频集体的一部分,由TED与Cosmic Standard制作。
我们的制作人是埃拉·费特和萨拉·麦克雷。我们的编辑是本·本-尚和阿莱汉德拉·萨拉查。我们的节目制作人是伊万娜·塔克,助理制作人是本·蒙托亚。我们的工程师是亚洲·皮拉尔·辛普森。我们的技术总监是雅各布·温宁克,执行制作人是伊丽莎·史密斯。我们的事实核查员是丹·卡拉奇。我是你的主持人,比拉尔·布尔西杜。下次见。