您好,欢迎收听Skynet Today的Let's Talk AI播客,在这里您可以听到人工智能研究人员关于人工智能实际情况以及哪些只是耸人听闻的标题的讨论。我是Andrey Krenkov,斯坦福视觉与学习实验室三年级博士生,也是本期节目的主持人。在本期特别访谈节目中,您将听到乔治城大学安全与新兴技术中心(CSET)的研究员Tim Huang的观点。
他是哈佛-麻省理工学院人工智能伦理与治理倡议的前主任,谷歌前人工智能全球公共政策负责人,拥有伯克利法学院法学博士学位和哈佛大学文学学士学位。
他被福布斯杂志誉为互联网上最忙碌的人,他目前的研究重点是计算能力和机器学习硬件的地缘政治方面,以及媒体操纵和网络信息战的未来。
Tim,非常感谢您抽出时间参加本期节目。是的,Andre,感谢你邀请我参加节目。很好。那么让我们直接进入你最新的作品《塑造人工智能竞争的地形》,我相信它大约一个月前问世了。是的,就在最近。没错。所以该报告的主题是:
中国即将超越美国在人工智能领域的领导地位的担忧引发了一个简单明了但极具挑战性的问题:民主国家应该如何有效地与人工智能领域的专制政权竞争?
那么,您能否向听众解释一下这个问题陈述呢?当然,可以。这份报告主要针对那些思考人工智能国家战略的人。
我认为他们也担心这项技术对国家安全的潜在影响。如果您一直从事技术研究,您可能不太熟悉这种讨论。但在华盛顿特区的政策专家中,在过去几年里,出现了一种新兴的讨论,我认为是关于美中竞争问题的讨论。
在人工智能领域。我想,在这种讨论中出现的一个说法是,某些政府比其他政府更容易获得数据,对吧?这可能是因为隐私保护措施或多或少,或者公民抗议人工智能和机器学习某些用途的能力或多或少,对吧?
人们担心,美国的民主制度,以及更广泛的自由民主制度,在实施这项技术方面可能会面临更多挑战。而且,我认为出现的一个有趣的事情是,现在有一群人说,
好吧,我们需要做的是降低隐私保护,对吧?因为如果我们降低隐私保护,那么人们就能获得更多的数据。更多的数据意味着更强大的AI系统。这就是我们将保持竞争优势的方式,并确保美国保持其在人工智能领域的竞争优势。
而这篇论文的观点则恰恰相反。它基本上说,自由民主国家是否有可能在不牺牲自身价值观的情况下进行竞争?它基本上说,是的,人工智能领域有一些可以改进的方面,这些方面确实能够让我们鱼与熊掌兼得,对吧,既能创造强大的AI系统,又能
做到我们需要它们做的事情,而不必牺牲围绕民主、参与和人权的一些非常坚定的价值观。我明白了。所以,这就像民主国家应该如何推进人工智能的发展,而不牺牲与专制集团相比的基本价值观一样。
是的,我认为这是对的。而且我认为,当你参加NeurIPS或ICML之类的会议时,你会看到这种情况较少,但至少在人工智能政策领域,我认为出现了一种关于人工智能的观点。人们总是谈论它,就好像人工智能是板上钉钉的事情一样,对吧?就像,哦,我们如何在人工智能方面获胜?我们如何获得最好的人工智能?对吧?
对。但是如果你做过任何研究,你会知道那实际上是一个未充分说明的问题。这不是一个明确的问题。而这篇论文真正想要论证的是,看,人工智能是可塑的。我们可以选择优先解决技术问题。这将真正改变人工智能的战略动态。因此,赢得人工智能的方法是塑造人工智能本身,这才是这篇论文的核心思想。
对,对。为了深入了解您在论文中提出的方法,您称之为“地形战略”。那么,您能解释一下“地形战略”这个术语的含义以及它所包含的内容吗?当然。地形战略的概念,这只是我在论文中采用的术语,实际上是基于人工智能具有可塑性的观点,对吧?思考这个问题的方法是,
看,在任何特定时间,人工智能的研究界和工程界都可以处理无数的问题,对吧?他们会优先考虑这些问题,对吧?
根据研究界选择强调、优先考虑的问题,人工智能将在该子领域取得更多进展。例如,我们现在从事机器学习公平性研究的人比以前多得多,这意味着讨论一直在发展,我们在这个领域有了更多的技术和更多的活动。因此,该领域正在这个特定领域发展壮大。
我在论文中的论点是,这构成了某种竞争地形。对。例如,如果您没有工具来检查或解释机器学习系统,那么某些行为者可能或多或少地难以使用或利用这项技术。
地形战略基本上说,让我们继续塑造人工智能,使其能够完成我们需要它做的事情。对。并使其在我们现有的约束条件下工作。因此,对“哦,好吧,我们只需要在人工智能上投入更多资金”的回应是说,好吧,也许我们应该以某种方式将其作为目标,以便随着时间的推移获得结构性优势。这确实是地形战略思想的核心。对。
我明白了。是的,作为一个试图进行人工智能研究的博士生,我可以证明,很多时候,至少在新项目开始时,大部分时间都花在了弄清楚我们甚至想要做什么研究以及要关注什么问题上。所以这确实很贴切。
它非常具有可塑性,重点可以随着时间的推移而变化,并且已经发生了变化。没错。是的,这是我经常思考的事情,对吧?是什么导致研究人员选择研究他们最终发表论文的内容,对吧?以及什么设定
了研究议程。我认为这一点非常重要,因为这些决定确实会影响机器学习领域未来的发展方向。对。因此,如果强化学习是一件非常热门的事情,那么强化学习就会发展。对。仅仅是因为我们有更多的人在努力解决这些问题。因此,我认为塑造议程的能力实际上非常重要。
我明白了。为了更具体地说明,您对这个地形应该是什么样子,哪些具体方向可能会有用,提出了一些具体的建议。所以我们也许可以逐一讨论一下。第一个是减少对数据的依赖。
是的,您能否详细说明这将如何有用,以及您如何想象政府能够诱导研究人员朝着这个方向发展?
当然,是的,绝对可以。正如我前面提到的,我的论文说,好吧,我们该如何塑造这个地形?好吧,我基本上说,看,人工智能领域有一些子领域我们可以投资,对吧,以鼓励或优先开展这方面的研究。如果我们能够解决这些子领域的一些重大技术问题,那么它可能会改变例如政府在人工智能竞争中的整体战略动态。
所以我首先提出的想法是,看,有些人会说,专制政权在人工智能方面具有优势,因为他们不必担心隐私,对吧?他们不必担心在收集数据之前获得人们的同意。因此,你可以这样认为,
专制组织、专制政府在部署人工智能系统方面具有优势,因为他们可以更廉价地获取数据。他们可以获得比自由民主国家多得多的关于各种事物的数据。
而且,我前面谈到的动态在这里也适用,人们会说,好吧,在这种情况下,我们需要做的是减少隐私保护的程度,这样民主国家就可以让他们的公司更容易地访问数据。我们将能够以这种方式跟上。
因此,地形战略对此进行了研究,并指出这是错误的,对吧?认为应该牺牲隐私才能获得良好的AI系统是错误的。相反,我们应该尝试说,如果我们解决了哪些技术问题,将能够在无需如此大规模地访问、如此大的数据自由的情况下有效地训练AI系统,这将产生巨大的影响。
这就是我提出的第一个建议。我说,嘿,你知道,有一些东西,比如一次性学习,对吧?或者元学习或模拟学习,对吧?这些都是一些事情,让我们以模拟学习为例,对吧?在那里,你基本上可以有效地训练机器学习系统,而无需访问现实世界的数据,对吧?
对。我在这里要提到的另一种方法是像自我博弈这样的东西。对。我们可以训练强大的表示、高性能系统,而无需访问数据。所以我相信,如果我们投资于这些技术集群,将减少我们对大型现实世界数据集的依赖。
这实际上是我提出的这种第一支柱的核心。我明白了。是的,确实如此。事实上,我是一个在我的研究中大量使用模拟的人。我认为,许多不在谷歌或DeepMind这样的大公司工作的研究人员实际上需要关注这些数据,因为他们没有资源拥有数百万个机器人或数百万个GPU。
所以我当然可以看到,如果有一些激励措施,这个方向会变得越来越流行。您能否解释一下,为了使这更吸引研究人员,可以采取哪些激励措施或策略?是的。
是的,当然。我也很想听听你的想法,作为一个做很多模拟学习的人。我认为,可以使用两种主要的杠杆。其中一种就是现金。我认为这会产生巨大的影响,对吧?如果有资金可以用来解决某个问题,那么就会有一个强大的引力井,将研究人员吸引到解决这个问题上来,对吧?
所以我确实认为,政府可以做的一件事是在NSF资助等方面优先考虑这一点,对吧?或者发放赠款,对吧?专门关注这些类型的问题。
但是,我想说第二点,正如你所知,对吧,正如我在论文中指出的那样,模拟学习在某种程度上是用对计算能力的需求来代替对数据的需求。对。而且我认为,政府可以在使高性能计算更便宜、更容易为越来越多的人所获得方面做一些事情。
这可以是任何事情,从“我们将补贴你对GPU的云访问”到在半导体层面进行干预,说“我们想利用我们的资源来使供应链的某些部分更便宜,并使人们更容易获得最新的GPU和最新的ASIC来完成这项工作”。
但我不知道,我实际上很好奇,作为一个做模拟工作的人,我不知道这些激励措施是否会鼓励你或你的同事在这个领域做更多工作。是的,事实上,我可以肯定地说,我已经申请了多次赠款。在某些情况下,他们确实有一些感兴趣的广泛主题。所以我提出的具体研究
在这些赠款申请中是根据它们量身定制的。关于你所说的计算能力的第二点,事实上,其中一些赠款不仅仅是为了钱,也是为了计算资源。因此,研究人员肯定可以从计算能力中受益。如果有某种竞争,你知道,
针对特定主题发放,我相信他们会感兴趣。我还听说斯坦福大学正在讨论建立一个国家人工智能云之类的东西,以便让规模较小的实验室或规模较小的群体更容易获得,他们可能没有自己的大型集群。
是的,当然。而且我认为所有这些想法都将非常令人兴奋,因为我认为它们将有助于鼓励在这个领域的工作,这再次我认为有助于减少收集现实世界数据的需求。现在,我的意思是,我认为一个细微之处,我很想进一步讨论这一点,那就是,显然,模拟学习并不能真正地
在所有情况下取代数据,对吧?因为有些事情很难模拟数据,以至于代理能够获得良好的表示。我认为,我提出的这种策略的一个有趣的成果是,虽然美国可能能够在某些类型的人工智能部署方面实现均等,
例如,我们可能无法在例如模拟人类行为方面取得类似的性能水平。对。例如。对。因为这很难创建一个好的模拟。是的,这是千真万确的。这实际上让我想起了美国历史上有一些其他的倡议可以追溯到更远的时间。
例如,DARPA竞赛,研究人员实际上受到了激励去研究真实的硬件。所以有DARPA自动驾驶挑战赛,许多研究人员试图开发自动驾驶汽车,这在某种程度上实际上刺激了
十年来的自动驾驶技术和产业。因此,这些挑战赛分别在2005年、2008年举行,此后不久,所有这些都发生了。从那时起,还有一些关于类人机器人之类的挑战赛。所以也许这也可以……
会有更多的数据和计算方法。是的,我认为这将非常令人兴奋。而且,模拟学习是一个有趣的问题,因为我觉得我们已经有一些非常引人注目的、很好的演示。
我认为研究人员可能会对我的文章提出更多异议,我在文章中主张,我们真的需要最大限度地开展一次性学习或少量学习等工作。基本上是说,也许我们可以通过我们的模型能够用更少的例子学习良好的表示来减少数据。而我对这一点也很感兴趣,因为我认为在某些情况下,
这是一种投机性的赌博,对吧?就像我们说的,如果我们只真正优先考虑和资助这种研究,也许我们就能真正减少创建强大有效的模型所需的数据量。所以我对这个问题的看法是,这实际上是一系列赌博,对吧?我认为我们应该押注模拟学习。我们应该押注一次性学习、少量学习等。因为所有这些事情,如果任何一件事情成功了,都有助于在
对抗例如更容易获得数据的行为者方面创造更好的均等。是的。
是的,这是千真万确的。我认为它也与我们在学术界产生的一种想法相结合,那就是学术界如何与产业界竞争?我们如何继续进行有影响力的研究?答案的一部分不是仅仅从更多的数据和计算中解决问题,而是更聪明一些。所以我认为这个方向肯定有继续发展的潜力。但是
但是,要转向你提出的第二个主题,那就是促进支持民主合法性的技术。您能否解释一下这可能包括什么?
当然。这里的想法基本上是,更专制的组织或社会可能能够占据优势,因为他们更能够强制或胁迫人工智能系统的部署。对。
因此,如果你相信,例如,自动驾驶汽车,对吧,将对社会和经济非常有益,对吧?一个拥有强大专制控制的中央政府不必去让每个人都投票赞成这样做,对吧?他们不必与可能抵制这一点的任何州作斗争,对吧?至少,他们遇到的阻力要小得多,他们遇到的阻力要小得多,他们在推出这些类型的系统时遇到的阻力要小得多。
因此,你可以这样认为,专制政权具有结构性优势,因为他们可以做到这一点,他们可以成为第一个进入市场的人,对吧?他们可以成为第一个解决这项技术难题的人,他们可以获得很多好处。
与此同时,对吧,你知道,自由民主国家必须与公民进行协商,确保公民信任这项技术,然后同意使用它,同意使用它。
而且,你知道,我认为你会看到与数据案例相同的论点出现,对吧?在数据案例中,人们说,好吧,在这种情况下,一个解决方案是我们减少隐私保护的程度。同样,在这里,你知道,你确实会不时听到这种论点,基本上是人们说,好吧,也许我们应该改变规则,这样你就不用让人们同意,对吧?就像,你知道,公司应该能够推出这项技术,而不必让每个人都同意。
而我所论证的是,这也许是错误的看待问题的方式,对吧?也许我们需要找到方法,使人们更容易信任这项技术,对吧?我认为这是一个双管齐下的研究计划,对吧?其中之一是真正理解这些社会因素。例如,为什么人们信任一项新技术?为什么人们愿意尝试一项新技术,特别是如果它具有生死攸关的后果?但是
但我确实认为,这里也有一个非常强大的技术研究议程。所以我思考的一件事是,考虑一下人工智能系统的互操作性。如果我即将启动一个新的人工智能系统,并且我希望你,公民,信任它,投票支持它,所有这些事情,实际上我只能告诉你一些关于系统如何工作或如何做出决定的信息。
这实际上限制了我向你展示可能让你更信任系统的东西的能力。因此,你知道,这实际上限制了我们,对吧?因为我们要么被迫根本不使用这项技术,要么被迫碾压公众对部署这项技术的反对。我认为这两种结果都不好。
因此,你知道,我的建议在这里基本上是说,让我们投资于互操作性研究。让我们投资于公平性研究,因为这些事情使我们能够使用不同的设计杠杆,以确保技术符合民主问责制的标准。对。
这样做,其目的是使民主国家能够更快地采用新技术,从而使它们能够与专制组织保持均等。这就是这种第二支柱的论点。
我明白了。所以从某种意义上说,与其强迫人们使用人工智能,或者只是说他们必须使用人工智能,不如通过使人工智能更容易理解和更容易与之合作来使人们更容易决定这样做,对吧?是的,这是正确的。对。所以,是的,我的意思是,我想明确一点,这不仅仅是一个纯粹的技术议程,但我确实认为,我们可以一起解决一些问题。
在机器学习中,这将真正地,例如,使人们能够创造更多的透明度,对吧,或者让这些系统更负责任。所以,是的,所以我认为这是一个重要的部分。当然。在斯坦福大学,我们实际上有一个以人为本的人工智能研究所,该研究所于去年成立。
基本上是为了进一步推动人工智能的这个方向,更多地关注人的方面。我们如何与人类合作,了解人类,了解他们的需求,而不仅仅是根据数据集开发新技术?所以这绝对是一个正在兴起的东西,并且很可能成为未来十年的一个巨大主题。
是的,而且我确实,你知道,我从一些人那里听到过这种说法,那就是,哦,你知道,可解释性方面,公平性方面,这就像公关一样,对吧?这实际上并不重要,或者公司之所以投资于它,是因为他们想在媒体面前表现良好。而且
你知道,我的论文的论点在某种程度上是为了提升这项工作,基本上是说,看,这对于社会正义的原因很重要,对吧?我们应该希望这些系统是公平的。但是,你知道,我们也应该考虑投资于这些方面,部分原因是这是国家竞争力的问题,对吧?它使民主国家能够更快地采用这项技术,并更快地获得这项技术的好处。因此,实际上有一个强烈的理由来投资这些东西,你知道,不仅仅是为了公关的原因。是的。
我明白了。好的。然后让我们谈谈最后一个分支,那就是挑战机器学习的社会控制用途。在这种情况下,这意味着什么?当然。这也许是我在论文中提出的三个建议中最具颠覆性的一个。而且它有点像恶作剧。所以,如果你喜欢这种东西,这就是你的论点。
这里的论点基本上是,专制政权,他们投资很多或可能非常喜欢机器学习的原因之一是,因为它给了他们更多工具来进行社会控制。例如,人脸识别系统可以成为监控社会中人们的一种非常强大的方式。你可以想象创建强大的预测系统,试图找出谁将成为异议者,谁将不会成为异议者。
对。因此,专制者获得的一个重要价值,一个重要的好处,以及他们可能在这项技术上投入大量资金的原因之一是,因为它给了他们更多选择来控制他们的公民。因此,你知道,我在论文中提出的论点之一是,也许自由民主国家应该应该去对抗这一点。对。实际上,让使用这些技术来实现这些目的变得更加冒险。对。
通过这样做,降低这项技术对专制政府的价值。所以我设想的是,我们应该在对抗性示例等方面进行更多投资,但我们也应该在将这些对抗性示例技术转化为可以被例如当地的活动家使用的技术方面进行大量工作。
通过这样做,破坏我们认为的某种,你知道,不太有益于社会,或者当然,你知道,具有压迫性用途的技术。没错。我们已经看到了一些例子,艺术家和不同的组织已经开发出了一些面具,例如,
呃,对抗人脸识别技术或其他计算机视觉技术。所以人们已经在研究这些东西了。这里的想法,听起来像是要进一步推动这个方向,并使其在……
人工智能研究中更受青睐?是的,就像我们应该,我们应该扩大规模。我认为这是首先要做的。然后我认为第二件事是,是真正考虑一下,我们如何将东西从研究领域转移到将实际使用这些东西的人的领域?我认为这种传播部分是目前没有得到支持的东西。就像有艺术家在进行实验,但我认为它实际上可以是,你知道,这里的国家战略的一个组成部分。
我明白了。好的,这就是挑战机器学习社会控制用途的第三个主题。这是在我们讨论的前两个主题之上,即减少对数据的依赖和促进支持民主合法性的技术。
现在,我想稍微改变一下话题。我们一直在讨论这篇关于塑造人工智能竞争地形的论文,这篇论文广泛地论述了民主国家如何才能以有利于民主的方式指导人工智能研究。但与此同时,几年前,我认为你合著了一篇文章,标题为
人工智能不是军备竞赛。你可能会认为存在竞争、军备竞赛的方面。所以我想听听你对如何在全球范围内思考人工智能发展这个问题的想法。
是的,当然。我认为这两个,我理解这个问题的来源,因为我认为这两个最初听起来像是相互冲突的。但我实际上认为这两个是相当互补的。这篇文章的重点,这种人工智能不是军备竞赛的论点是,几年前,我认为有些人开始认为,就像,
你知道,人工智能将成为下一个伟大的超级武器,我们需要我们需要主导它作为美国,否则,你知道,中国将获胜。所以我们现在正处于人工智能军备竞赛中,双方都需要像核导弹一样花钱。
斯坦福人工智能实验室博士Andrey Kurenkov采访了乔治城大学安全与新兴技术中心(CSET)的研究员Tim Hwang,讨论了他的新报告“塑造人工智能竞争格局”以及更多内容。 订阅:RSS | iTunes | Spotify | YouTube 查看www.skynettoday.com上关于类似主题的报道 主题:深思熟虑 Kevin MacLeod (incompetech.com) 根据知识共享许可协议授权:署名 3.0 许可协议 </context> <raw_text>0 这篇文章的重点是要论证人工智能根本不像军备竞赛,对吧?首先,赢得军备竞赛究竟意味着什么,这一点非常不明确,对吧?大概不是用你在ImageNet上的表现好坏来衡量的,对吧?我认为这是一个大问题。我认为第二个问题是人工智能本身,机器学习,是多方面的,对吧?很难说谁领先谁落后于人工智能。
关于机器学习的非常广泛的意义。所以我认为这也使得这个想法非常非常混乱。然后我认为最后一点是,你知道,把它看作一场军备竞赛真的会促使我们走向,好吧,我们只需要更多的人工智能,对吧?几乎就像,你知道,对核导弹的竞争或类似的东西。就像我们的弹头比他们多。所以我们赢得了军备竞赛。
由于所有这些原因,我认为这种范式,把它看作一场军备竞赛,实际上是不正确的,对吧?实际上我认为它并不反映现实。
但我认为这与人工智能没有竞争的说法不同。它也与以下观点不同:对于特定的机器学习模型、部署、使用领域,某些群体在部署这项技术方面不会比其他群体更好。对。
所以竞争是真实存在的。我认为军备竞赛绝对不是真实的。我想这就是我如何将两者结合起来的方式。对,所以我们不能仅仅投入资金就能获得更多的人工智能,但不同的政府可以将人工智能导向他们更希望它成为的样子。
所以我认为理解它的方式是,你可以走不同的方向,但不一定是我们可以开发的不同数量的人工智能。没错。是的。我认为当我们考虑竞争或谈论竞争时,我们需要对我们的意思更细致入微一些。对。你知道,我认为仅仅相信赢得人工智能的途径是投入更多资金到人工智能上,这是一种巨大的浪费。对。
我实际上不认为这是正确的做法。我认为我们的谈话必须转向,好吧,在机器学习生态系统中,我们认为哪些方面值得投入资金?我认为,你知道,军备竞赛并没有让我们达到那个地步,对吧?我们确实需要开始更多地考虑,你知道,像你这样的人,像在大学里做研究的人,对吧?然后说,好吧,哪些事情会真正加速他们的工作?
我认为当我们在如此宏大的层面谈论人工智能军备竞赛时,我认为我们实际上可以提出非常有用的干预措施。对。美国与中国的这种抽象概念过于粗略。当然,中国也有许多研究人员,也在学术界……
来美国或与美国的人合作。你需要更具体一些,说中国或美国的政府,甚至是民主政体和专制政体的这些类型的政府
而不一定只是说中国对美国或类似的东西。是的,我同意。我的意思是,我认为这就是为什么在某种程度上,这篇论文从围绕美国与中国的辩论开始。但我的意思是,我认为范围要广泛得多,对吧?我认为这很大程度上是在考虑不同社会中的不同治理系统如何导致在谁能有效部署机器学习方面产生不同的结果。没错。所以记住这一点很重要。
关于另一个话题,这篇论文大量思考了开发对民主有益且可在民主中使用的人工智能的问题。它与我们在过去几周听到的一些关于面部识别的新闻有关。所以有点……
IBM、亚马逊和微软快速发展,都宣布他们不会向美国警方出售面部识别技术,并主张通过立法来规范这一领域。所以你认为,是的,我想你对美国面部识别领域以及整个话题的发展有什么看法?
是的,我认为它一直在朝着非常积极的方向发展。这实际上要感谢许多一直在做惊人工作的活动家。你知道,麻省理工学院媒体实验室的Joy Bollamwini和其他人在这方面做了非常非常惊人的工作,真正证明了这些商业产品在非常重要的方面存在缺陷。所以,你知道,
我认为它正在朝着好的方向发展。但我认为有两件事让我担心。你知道,我认为第一个问题是这些公司对其承诺的坚定程度如何,对吧?因为这些只是这些公司做出的公开声明。这并不是说他们签署了合同或改变了公司治理或任何真正的东西,对吧?他们主要只是发布了一份新闻稿。
而且,你知道,我认为我们应该担心的是,当某些公司基本上说,你知道,我们将停止面部识别,但这只是一年的暂停。对。因为至少这告诉我的是,你知道,你将花一年时间,等待公众的热情消退,然后重新开始在这个领域开展业务。所以我对这些承诺持谨慎乐观的态度。是的。
我认为第二件事……哦,对不起。听起来,安德鲁,你想插话。是的,为了补充这一点,我们讨论过一点……
与此同时,这些公司显然会说这些话,也可能游说使法规变得宽松。因此,保持批判性和关注他们的行为非常重要。是的,我的意思是,我认为,对,现在是时候保持压力了,对吧?我想说的是,我唯一担心的另一件事是,当然,谷歌、脸书、亚马逊,所有拥有大型工业实验室的大型科技公司。
但我们应该认识到,随着时间的推移,这项技术正变得越来越商品化,对吧?即使是新手也能用机器学习做的事情,也比几年前多得多,仅仅是因为有很多开源软件包、教育材料以及所有其他东西。我认为这对我们如何看待这个问题有很大的影响。
因为我认为当这些大公司说他们不会部署这些技术时,我们应该感到高兴。但事实是,经济在某种意义上是极其灵活的,对吧?而且我们确实有很多鲜为人知的公司,小型公司,我认为他们愿意跳进来,对吧?并承担很多业务。
因此,你知道,这里一部分担忧是,随着机器学习变得越来越民主化,同时也会变得越来越难以控制。所以我认为我们应该谨慎地说,好吧,你知道,微软没有这样做,所以我们赢了,对吧?如果有什么不同的话,我们必须开始关注这个更少
可见的中小型企业和传统国防承包商的经济,他们可能不会那么强烈地认为必须不与执法部门合作。我明白了。是的,这是一个很好的观点。关于相关的一点,你还写了很多关于深度伪造的主题,这也许……
尤其是在那里可见,人工智能的民主化使任何人都可以创建非常令人信服的虚假媒体,让人们看起来好像在说他们没有说过的话。这可能导致假新闻和其他事情。这是一个越来越热门的话题。我们已经看到了一些案例,它已经被使用过,但还没有任何灾难性的影响。但我们正在进入美国的选举年,
这可能会导致情况变得更糟。所以是的,就我们前进的方向和目前的情况有多糟糕,你对此有什么看法?
当然。是的,让我首先从一点开始,我认为我实际上会先稍微反驳一下。我的意思是,我认为我们确实已经产生了相当灾难性的影响,对吧?我认为这只是不像许多大众媒体所描绘的那样。对。所以,你知道,2016年之后,我认为每个人都自然地担心,你知道,下一次伟大的,呃,呃,俄罗斯干预运动,对吧。和选举。嗯,但是,但是,呃,
我同意你的观点。我们确实没有看到这项技术被广泛使用。而且,你知道,我的理论是,如果你想在政治上散布虚假信息,有很多更便宜的方法。对。我认为如果你是一个实用主义者,你知道,传播一些Photoshop图片实际上就能达到目的。
但我认为伤害在其他地方是非常真实的,对吧?你知道,像最初的深度伪造Reddit频道一样,对吧,它使用,你知道,非自愿色情技术,它被用于骚扰目的,这些都是非常真实的,伤害也是非常真实的。所以,再次,有点像军备竞赛的辩论,我倾向于认为,你知道,我认为我们只需要对,你知道,伤害发生在哪里更细致入微一些。
以及是什么驱使行为者去做这些事情。所以,是的,无论这值不值得,我认为这是一种看法。但最终,我认为……是的,我应该说这是绝对正确的。我应该澄清一下,我们还没有看到任何关于某种假新闻和某种名人的大型新闻媒体报道。但当然,正如你所说,……
人们已经以非常有害的方式使用深度伪造技术,并且你指出我们应该意识到每项技术的这些多个方面是很好的
我想知道,因为它是一种民主化的技术,问题的一部分是,你知道,个人可以使用它来伤害他们认识的人或类似的事情。你不能仅仅通过监管来消除它。那么我们如何处理这种人工智能技术呢?是的,绝对如此。所以我认为这个问题有几个方面。你知道,我认为有……
所以我认为第一部分,来自许多当前媒体取证文献,是只要我们知道所使用的方法,对吧?就像,如果我们有,你知道,由生成对抗网络产生的例子,或者,你知道,我们有,你知道,模型本身,对吧?
其中一件非常好的事情是,我们可以为它开发检测系统,对吧?所以我认为一个非常有趣的战略动态是,你知道,对于我们拥有的并产生了大量例子的GAN方法,我们实际上可以做得相当好地检测它,对吧?问题是试图检测新的模型,对吧?我们没有见过的事情,未知的未知数。所以其中一个……
至少对我来说,它表明,战胜深度伪造将真正成为一场速度的较量,对吧?也就是说,开发和训练检测系统的人是否能够足够快地获得在野外出现的新的GAN方法的例子来创建检测系统?
所以我非常喜欢的一件事,而且我一直向很多人推荐,我认为我们应该创建一个类似深度伪造动物园的东西,对吧?一个有很多例子和样本的地方,可以用来训练深度伪造系统,深度伪造检测系统。我认为这实际上是该领域一个非常强大的潜在方法。你知道,我认为第二个是,我们需要使检测民主化,对吧?
现在,我认为正在发生的事情是,GAN生成系统,对吧,你的换脸应用程序,这类东西,它的民主化速度比深度伪造检测快得多。所以我认为需要创建某种开源工具和商业工具,让你和我或任何人,你知道,进行他们自己的媒体取证。
嗯,我认为这,这也是一个潜在的强大工具。嗯,但我认为我最后要说的第三点是,最终我认为我们需要更多地了解深度伪造的心理学,如果这说得通的话。嗯,我们从许多假新闻中知道,你不需要任何非常花哨的东西,对吧?就像,嗯,图像的清晰度并不能真正说明某人是否相信虚假叙事。
所以我认为我们需要做的是进行更多研究,试图了解是什么让深度伪造对某人具有说服力?什么时候它实际上不会成为问题?我明白了。是的,这是一个很好的想法集合,并且在能够处理它方面肯定是一个棘手的话题。
现在也许为了总结一下,我们可以看看你做的另一个演讲,并将视角放大到更广泛的人工智能。所以你已经触及了深度伪造和面部识别作为人工智能的特定应用。我想知道这如何与你所做的题为“人工智能不仅仅是机器人”的演讲联系起来。所以在那次演讲中,我相信你是在说
说人工智能是一种
比如说传统科幻意义上的机器人,但它实际上要多样得多。所以是的,那次演讲的论点是什么?- 当然,那次演讲真正关注的是,你知道,而且它甚至发生在我们如何谈论这些事情上,对吧?就像人工智能这个词被抛来抛去,机器学习这个词也被抛来抛去,并不总是清楚什么是什么是,你知道,这些东西是如何结合在一起的。
我思考的方式当然是机器学习只是人工智能中的一个子领域。但是当我们谈论人工智能时,我们确实谈到了我们所拥有的所有流行文化内涵。因此,尤其是在我参与的一些政策圈子里,当你听到人工智能时,人们会想到杀人机器人、终结者以及我们周围所有其他类型的幻想小说,我们周围的科幻小说。
而演讲实际上是在论证,你知道,最终我们,机器学习就是统计学,对吧?这就是最终,你知道,通过数据的算法和模式匹配。而且,你知道,我认为这在某种程度上让一些人感到失望,对吧?因为他们会说,哦,等等,所以你实际上并没有研究,你知道,天网?
但我认为这对某些人来说也是一种解放,因为人工智能实际上只是,它是一个更通用的工具,对吧?它不仅仅是一件事,对吧?它不仅仅是机器人,甚至不仅仅是和你说话的机器,对吧?它可以是一系列不同的东西。而演讲的核心实际上就是谈论,或者演讲是为了谈论流行文化对它的理解与机器学习领域的实际多样性之间的区别。
对。这是一个很好的观点。这是我们试图通过这个播客和Skynet today整体向更多人传达的一个观点。
显然,这与深度伪造、面部识别、促进民主人工智能的所有其他主题都相关。你需要从根本上理解什么是人工智能,并以正确的心态思考它,然后才能深入研究并开始思考具体的行动和具体的问题等等。当然,是的。我认为这就是为什么
你知道,如果更多的人工智能研究人员对人工智能政策问题感兴趣并参与到政策领域,我会感到兴奋,因为他们的声音非常需要。对。许多这些技术细节对政策有很大影响,即使它不是政策讨论的一部分。因此,你知道,我确实认为这两个世界尽可能地交叉实际上同样重要。
我明白了。所以也许为了总结一下,我们开始谈论你最近的作品《塑造人工智能竞争格局》,它最近才出版。
那么你现在在做什么?你接下来有什么计划?你目前对人工智能有什么想法?是的,你提到这一点很有趣。所以现在,我目前正在研究的论文实际上是对深度伪造的一种技术评估,如果你愿意的话。所以,你知道,人们不断谈论的一件事是,哦,好吧,创建或使用GAN来传播虚假信息很容易。
我总是笑,因为如果有人真的玩过GAN,并且,你知道,创建了一个模式崩溃的系统,对吧?就像,你知道,GANs并不是他们经常被描绘的那样,设置好就不用管的系统。所以这篇论文试图做的是说,让我们看看技术文献,试图回答一些非常基本的问题,比如,你知道,生产NVIDIA风格的合成面孔需要多少钱?对。
对。需要多长时间?你需要什么设备?这些信息非常有用,仅仅是因为它实际上并没有成为围绕这些技术的国家安全讨论的一部分,但对于评估你认为谁将使用这项技术、他们将如何使用它以及威胁在哪里非常重要。因此,这篇论文再次试图将技术研究与这些更广泛的政策关注点联系起来。
我明白了。这很酷。我认为这是某种黑魔法。这是对人工智能研究人员隐藏的知识,我们不一定把它公布出来,因为这不是我们的激励。所以看到这篇论文将会非常酷。酷。是的。谢谢。是的。我认为我们可以就此结束。非常感谢你加入我们的这次采访,Tim。
这是SkyNet Today的Let's Talk AI播客。如果你喜欢这个节目,请在任何你收听的地方给我们评分,并收听我们未来的剧集。