谷歌DeepMind联合创始人兼首席执行官德米斯·哈萨比斯与专栏作家比娜·文卡塔拉曼讨论了人工智能在推动科学突破中的作用,为什么人类水平的智能是“重要的基准”,以及在全球范围内规范人工智能的挑战。
<raw_text>0 有了FanDuel,NFL季后赛更精彩,因为现在新客户可以下注5美元,如果赢了就能获得300美元的奖金。如果你赢得你的第一个5美元赌注,那就是300美元的奖金。FanDuel,NFL的官方体育博彩合作伙伴。21岁以上,且仅限于特定州。仅限首次在线真钱投注。需要5美元的首存。奖金以不可提取的奖金的形式发放,奖金在收到后七天内过期。不可提取奖金有相关限制。
适用限制。请查看sportsbook.fanduel.com上的条款。有赌博问题?请致电1-800-GAMBLER。
您正在收听华盛顿邮报直播的播客,将新闻编辑室实时带给您。大家早上好。欢迎来到华盛顿邮报从华盛顿特区到达沃斯的中心。我是比娜·文卡塔拉曼。我是华盛顿邮报的专栏作家,今天很荣幸能与诺贝尔奖获得者德米斯·哈萨比斯一起,他是谷歌DeepMind部门的创始人,现在当然也是其首席执行官。德米斯,欢迎。非常感谢。感谢您的邀请。很高兴见到大家。
所以今天关于人工智能有很多兴奋和炒作。你已经在这个领域待了一段时间了,你一直在做这件事。15年前你创立了DeepMind。我想从你的角度了解一下,如果你回到当时的心态,人工智能的进展是否比你预期的快或慢?是的。这很有趣。我的意思是,回想起2010年,是的。
几乎没有人真正从事人工智能研究,当然在工业界没有,即使在学术界也很少。深度学习是由杰夫·辛顿和他的同事们在2006年发明的。所以这似乎是一件非常牵强的事情,试图重新做人工智能,重新学习,并试图应对AGI的巨大挑战。但我们有一个20年的目标,我认为我们正在按计划进行。
所以,你知道,15年后,看到这一切真是太令人惊讶了。好的。我知道你曾经说过,我们可能距离AGI还有5到10年。我想稍后在谈话中再谈到这一点。是的。
当我和你见面时,那已经是十多年前了,我认为你正处于决定是否让DeepMind与谷歌合并,以及现在又是谷歌的转折点。我很想知道从你的角度来看,情况如何?成为一家大公司的一部分是什么感觉?到目前为止,一切都很好。是的。
你知道,在2014年需要做出重大决定,例如是否成为谷歌的一部分或独自发展。但我们当时知道,而且我认为事实也证明,要实现AGI,需要大量的计算资源。也许那时我们并没有完全想象到需要那么多计算资源,
但我们知道我们需要很多,比2014年所能提供的更多。那是在大型融资完成之前。所以也许我们的时机晚了1到2年。我们早了一两年。但谷歌,当然,我们选择他们的原因是他们拥有世界上最多的计算机。
而且“组织世界信息”的使命我认为与我们的使命很契合,我们的使命是解决智能问题,然后用它来解决其他所有问题。显然,包括最重要的是组织信息和使用信息。所以这一切都很自然。
当时,首席执行官是拉里·佩奇,他一直对人工智能很感兴趣,并将谷歌最终视为一家人工智能公司。事实上,他当时告诉我,即使在90年代后期他们在车库里的时候,他也认为它最终是一家人工智能公司。
这让我相信这很适合我们想做的事情,事情也确实如此。尽管自那以后,道路上肯定有很多曲折。现在,我认为DeepMind和谷歌DeepMind实际上是整个谷歌的引擎室。作为一个创始人,而且我也认为你是一个视频游戏设计师,你是一位科学家,你是一位神经科学家。
你是一家大公司的成员,你创立了DeepMind。你在谷歌内部是创始人模式还是管理者模式?你在管理者模式吗?是的。当然,现在人们对创始人模式很痴迷,但我认为我非常符合这种模式。对我来说非常重要的是,好吧,这是一个更大组织的一个部门,但我仍然有足够的自由和空间来设定文化
设定这个地方的强度和节奏以及整体的研究目标。这是在收购之初就达成的另一件事,那就是我们将相对独立地运营,当然在研究方面,我们将对我们想要追求的目标拥有完全的自主权。
现在情况更复杂了,因为你知道整个谷歌和所有依赖我们产品部门的产品。所以在过去几年里,这很有趣,我学到了很多新东西,而且非常令人兴奋。但你知道,我们基本上可以按照我们认为合适的方式运作,以实现负责任地构建人工智能以造福世界的使命,这是
我们更新后的使命,以及我们所做的AlphaFold和科学工作,以及我们为改进所有产品所做的工作都是其中的一部分。所以我想谈谈AlphaFold。对我来说,现在区分你的方法和谷歌作为大型人工智能公司的方法的是你对科学的关注。当然,这个预测模型获得了诺贝尔奖,它使我们能够解决生物学中一个非常棘手的问题,那就是蛋白质的结构是什么,以及一个能够做到这一点的模型。
我想知道,AlphaFold的下一步是什么?你接下来打算用什么方法来解决你正在研究的这些棘手的科学问题?好吧,有很多。我们研究AlphaFold,如果你愿意的话,它是我们应用人工智能于科学方法的典型代表。
但我们实际上将其应用于许多科学领域,不仅是生物学,还有化学、一些物理问题、聚变、天气预报、数学。我的意思是,这就是AGI和通用人工智能技术的重点。它几乎可以应用于任何事物。显然,我们在生物学方面进展最快。AlphaFold,你知道,破解了生物学中预测蛋白质三维结构的50年来的重大挑战,正如你所说的那样。这是药物发现的关键部分。
所以这就是我想专注于此的原因,除了它本身就是生物学的一大挑战之外。它是理解和加速药物发现的关键组成部分。所以这就是我们正在做的。他们现在正专注于一个新的衍生公司Isomorphic,我们在几年前成立了这家公司,以利用AlphaFold技术。
你刚才暗示你预计到今年年底将有一种药物进入临床试验。你能详细说明一下人工智能在药物发现中取得的突破吗?是的,我们同时研究了十多种药物项目。显然,我们认为最先进的项目将在今年年底准备好进入临床试验。
而且我们目前最感兴趣的是具有非常困难化学性质的问题。例如,蛋白质中可能存在一个口袋,直到某些物质与之结合后才会打开。所以,你知道,有时它被称为隐蔽口袋。我们对制药公司认为是不可成药的靶标非常感兴趣。无论出于何种原因,都很难找到一种化合物能够与正确的位置结合。
在药物上,这些都是我们技术可以进入并找到结合位点,然后使用我们开发的另一种人工智能系统来设计一种清洁化合物,该化合物将与该位点结合,而不会与体内的其他任何物质结合的完美事物。因此,你可以考虑对化合物进行虚拟筛选,以对抗它可能结合的所有物质,以及它可能结合的体内所有蛋白质。
这有多少与能够分析大量关于已知化合物和体内已知可成药靶标的数据有关,以及能够进行这种结构空间分析有关?
是的,所有这些都是相关的。所以,你知道,有了我们的新AlphaFold 3,这就是那里的进步,AlphaFold的最新版本,实际上我们有AlphaFold,你知道,你可以把它想象成AlphaFold 3++,内部是它处理事物之间的成对相互作用。所以是蛋白质和蛋白质,但也是蛋白质和配体,也就是化合物。
因此,它可以预测化合物将在哪里结合以及这将对蛋白质的形状产生什么影响。有了这项技术,你实际上可以在几秒钟内快速扫描数千种
不同的蛋白质,以查看什么样的结合属性以及其他重要的属性,例如你正在设计的这些化合物可能具有的毒性、溶解度等。然后我们有,你可以把它想象成一个生成式人工智能过程,以一种智能的方式设计化合物,并对其进行迭代以不断优化你赋予系统的目标。
那么,我们可以期待你的第一种人工智能药物治疗什么疾病呢?我们正在研究许多疾病领域。我们不能谈论我们与之合作的伙伴关系。我们与礼来公司和诺华公司建立了良好的合作关系,但我们也有内部药物项目,我们正在研究一些主要的治疗领域,例如心血管疾病、癌症和神经退行性疾病。
好的。所以我们应该拭目以待。是的。你提到了其他一些领域,例如聚变,这在我的有生之年一直被认为是圣杯,也感觉有点像幻想。人工智能将做些什么我们以前做不到的事情?
我们已经以几种方式使用人工智能,一种比另一种更成熟。我们最近与我们在EPFL的合作者合作发表了一篇《自然》论文,用于控制其测试聚变反应堆中的等离子体更长时间,使其处于稳定状态。
在一个测试反应堆中,你知道,我们已经构建了一种人工智能控制系统,它可以非常自适应地控制等离子体周围的磁场,对于聚变来说,关键在于你能将等离子体保持在稳定状态多长时间,这是它产生自持反应的关键。
因此,我们不是使用正常的运行方法,而是控制方法,我们使用人工智能方法来提前预测等离子体接下来会做什么,然后在等离子体这样做之前几毫秒改变磁场,以确保它保持受控。
所以我必须问你,作为一个神经科学家,以及你之前在DeepMind时阐述的解决智能问题的难题,其中一些问题似乎是人类智能无法解决的,无论是预测蛋白质的结构还是与等离子体的工作。
你是否仍然处于试图解决创造与人类智能相匹配的机器问题的模式,或者这是一种完全不同类型的人工智能?不,从一开始的想法和神经科学的灵感就来自于一些算法思想和大脑使用的架构。我的意思是,即使是神经网络也是松散地受到大脑的启发。
强化学习也是如此,我们之所以如此努力地推动强化学习,现在它也很流行,是因为大脑中的多巴胺系统使用一种强化学习形式来学习我们所学习的东西。所以我们知道,在极限情况下,这应该能够达到人类水平的智能。
人类水平的智能之所以成为一个重要的基准,是因为它是我们拥有的唯一一个通用智能的例子,也许是在宇宙中,当然是在地球上。所以它值得研究。它可能不是构建通用智能的唯一方法,但我们知道它是一种方法。所以从一开始,我们就想确保我们构建了一个系统。这就是我们对AGI的定义,一个展现人类所有认知能力的系统。
如果你有一个这样做的系统,那么你就知道你拥有了一个通用智能。如果它只做其中一部分,那么你可能没有一个完全通用的智能。但这并不意味着你在许多领域。当然,它会在某些领域超越人类智能,比如围棋,我们所有的Alpha程序,折叠蛋白质。显然,这些都是人类无法做到的事情。但它仍然使用与人类智能基于相同事物相同的底层技术。
你是否仍然认为我们应该尝试将人工智能理解为
达到人类智能的速度,或者你认为我们应该开始将其理解为一种更奇怪的智能?不,我认为两者实际上都是需要的。所以我认为理解它并根据人类可以做的各种事情来测试它仍然很重要。我们完全通用,因为,你知道,艾伦·图灵的人们所做的工作,对吧?图灵机,以及更理论化的版本是,我们必须匹配并证明这些系统是图灵完备的。它们能够模仿图灵机吗?
图灵证明了图灵机可以计算任何可计算的东西。所以这就是我们追求的目标。大脑可能是一种图灵机,我们希望我们的人工智能系统也像它一样通用。但它也是一种有点外星的智能,因为正如我们之前所说,
它将在某些领域很快超越人类智能水平。事实上,由于人类无法拥有的能力,它已经在某些狭窄的领域做到了这一点,那就是可扩展的内存和可扩展的计算能力等等。但显然,生物大脑是有限的。你对我们何时将实现人工通用智能的估计比该领域的其他人更保守。正如我们之前谈到的那样,你已经说过大约5到10年。
你认为主要的障碍是什么?为什么你认为你的估计比其他人要远一些?是的,我的意思是,你看,首先,
每个人都在对需要什么做出假设。我的假设是,而且我不会惊讶如果它更快,所以这是一个概率质量而不是一个明确的预测。所以有很大的机会它会更快。但我认为可能还需要一到两次突破。
在我们拥有AGI所需的所有技术之前。- 说说那些是什么,是的。- 好吧,像推理、记忆和分层规划这样的东西。今天的系统存在一些问题,以及它可以做什么的问题。真正的开箱即用发明。我会对此进行的测试是,当爱因斯坦做这件事的时候,它能否发明广义相对论?
有了他当时拥有的知识。我认为今天的任何系统都离这还很远。或者,如果我们以AlphaGo为例,AlphaGo想出了令人惊叹的策略,比如第37步,这非常著名,这是在与李世石的大赛中,我们从未见过的超级创造性的一步。
但是系统能否发明围棋?对我来说,那将是更高层次的发明。到目前为止,答案显然是否定的。现在,我认为我们将能够做到这一点。但问题仍然是缺少什么。因此,如果除了扩展之外还需要一到两次突破,
那么,你知道,平均而言,这些类型的重大突破似乎每两到三年就会出现一次。这表明大约需要五年时间。但这可能是,你知道,这只是一个经验性问题,即扩展本身是否足够。我们也在将这一点推向极限,就像其他实验室一样。所以让我们拭目以待。由于你比这个领域的其他人更了解大脑,我必须问你这个问题。
有什么区别?所以围棋中存在创造性的即兴发挥,能够做出新颖的举动,但这与发明游戏、发明或发明相对论有什么区别?好吧,我的意思是,这是一个更高层次的创造性飞跃,而且我们作为人类究竟是如何做到这一点的并不清楚,对吧?显然,我们仍然将一些创造力建立在经验的基础上。没有人会在真空中发明东西。
很难知道这可能是一种特定方式,像爱因斯坦这样特定的人的大脑,你知道,可能是历史上最伟大的天才之一,你知道,将信息联系在一起,对吧?是什么让他在其他人之前看到了广义相对论?但是发明围棋,你知道,甚至不清楚你如何将其指定给机器,对吧?你可能必须在一个非常抽象的层面上进行,比如,你知道,发明一个游戏。优雅的,
玩起来,学习需要五分钟,但掌握需要一生,但在人类一个下午的两个小时内就可以玩。类似这样的东西就是你如何指定它。然后你会希望它能想出一些像围棋一样美丽、优雅和深刻的东西。但今天甚至不清楚如何将这一点指定给今天的系统。
但我认为这不是魔法。我认为这是一个可计算的过程。至少这是我们对大脑的证据。据我们所知,大脑中没有任何不可计算的东西。尽管像罗杰·彭罗斯这样的人认为大脑中存在量子效应,但没有人找到任何令人信服的生物学证据来证明这一点。所以据我们所知,它是一种图灵机。因此,最终,我们正在构建的这些类型的系统应该能够拥有这种能力。
值得期待。我很好奇,你还在AGI方面发出了一些警告,并警告说行业应该在这个问题上进行更多合作。详细说说你真正担心的是什么,因为我认为有很多。是的,我有两个主要担忧,而且我认为随着系统变得越来越强大,这些担忧现在正日益突出,首先是恶意行为者将通用系统用于有害目的。
那么,如何才能实现人工智能的所有有益用途,例如治愈疾病、帮助能源和气候等等,所有这些我们想要的东西,以及我为什么花了我整个职业生涯来研究人工智能。我认为这将是有史以来最具变革性的技术。但是,如何才能同时限制那些同样技术被用于作恶的人,甚至是流氓国家呢?
所以这是一个问题。这是一个巨大的挑战,因为你想公开分享所有这些信息并将其发布等等,就像我们在过去15年中所做的那样,开源等等。所有这些通常都非常适合传播知识和加速进步。但随后你就会遇到有害行为者访问的问题。
然后是第二件事,这对于人工智能作为一项技术来说是独一无二的,那就是AGI风险本身。因此,随着这些系统变得越来越自主,不是今天的系统,而是每个人都在构建的下一个系统,基于代理的系统,我认为今年将是代理的一年,因此更多能够自行完成任务的自主系统。当然,
我们正在构建这些类型的系统,因为它们对于生产力、消费者、用户以及科学来说都将更有用,但它们也带来了更大的风险。在极限情况下,当我们达到AGI时,就会出现关于这些系统可控性、它们所具有的价值观、你为它们设定的目标以及确保它们不被误解的问题。所有这些都需要更多研究,我认为我们需要很快进行研究,以确保这些系统是可控和安全的。
鉴于大型语言模型背后的公司已经发布了这些模型,而没有对它们的使用和恶意行为者可能造成的双重用途设置防护措施,
政府的作用是什么?检查是什么?控制方法是什么?好吧,我认为政府,你知道,我赞成,你知道,这太重要了,这项技术,你知道,不能不监管,但它也重要到不能不好好监管。这个问题在于,我们需要正确的监管类型。这很难做到,因为它是一项发展如此迅速的技术。
五年前我们坐在这里讨论的内容,作为人工智能的前沿,与今天的模型不同。而且可能几年后,它们又会非常不同。我预计会回到,正如我之前谈到的这些基于代理的系统和类似AlphaGo的想法与这些大型语言模型或多模态模型相结合。所以很难。我认为我们必须是某种,政府需要灵活、快速和适应性强
这并非他们所熟知的,以便快速跟进,快速跟进关于这些系统已知的最前沿事物。我认为需要的是,需要鼓励的是领先参与者之间加强合作,而且是在国际范围内。这些问题的另一个问题是
如果世界上只有一个地区进行监管,那么这样做就没有真正的意义,因为人工智能是跨越国界的,它将影响所有国家。你将得到这种竞争动态,如果只有少数几个地方以某种方式进行监管,其他国家就会超越。所以我实际上认为,我们必须以某种方式对这些模型达成某种国际共识。
这就是为什么我很高兴看到这些峰会正在建立起来,国际峰会,第一个由当时的英国首相苏纳克在英国举行,下一次将在几周后在巴黎举行,我将参加,以便快速召集这个国际社会并开始对话。