斯坦福人工智能实验室的博士生Andrey Kurenkov和Sharon Zhou讨论了本周人工智能领域的主要新闻,涉及人工智能在2020年的困境、中国的人工智能监控、对抗人脸识别的工具等等! 查看此处讨论的所有新闻以及更多内容,请访问www.skynettoday.com 主题:深思熟虑 Kevin MacLeod (incompetech.com) </context> <raw_text>0 大家好,欢迎收听Scan Today的Let's Talk AI播客,在这里您可以听到人工智能研究人员对人工智能实际情况以及哪些只是耸人听闻的标题的看法。我是Andrey Krenkov,斯坦福视觉与学习实验室三年级的博士生,我的研究主要集中在机器人操作的学习算法上。和我一起的是我的联合主持人。我是Sharon,机器学习小组的三年级博士生,与吴恩达一起工作。
我的研究方向是生成模型,改进神经网络的泛化能力,并将机器学习应用于应对气候危机。和往常一样,我们将在本集中讨论上周人工智能领域的主要新闻。本周我们有很多故事,有几个不同的主题要讨论。所以我们直接进入正题。我们的第一个主题是在2020年的背景下讨论人工智能,这是非常不寻常的一年
并且令人不快的一年,我们的第一篇文章标题为《人工智能正在努力适应2020年》,来自TechCrunch。这篇文章基本上指出,由于今年情况发生了如此剧烈的变化,我们都开始戴口罩了。我们很多人开始在家工作,孩子们在背景里等等。
总的来说,很多事情都变了。事实证明,我们现在做人工智能的方式难以跟上。虽然我们作为人可以很容易地理解所有这些东西,但在某些方面,当前的人工智能却跟不上。特别是,让我们以人脸识别为例,它在适应戴口罩方面存在困难。或者在场景分类方面,一些人工智能可能会说
你知道,如果我在背景中展示,即使它实际上是某人在家工作的图像,也可能说正在进行一场戏剧。因此,这是一篇很好的概述文章,指出人工智能有点反复无常,也许不像我们那样适应性强。Sharon,你对此有什么想法吗?你还有什么其他例子说明人工智能可能难以跟上吗?
是的,文章中一个有趣的事情是,面部经常被检测为两张脸。一个是脸的上半部分,另一个是戴着口罩的整张脸。我觉得这很有趣。而且也有一些……
也有一些基于此的担忧,那就是创建没有偏差的健壮数据集。我认为现在我们知道我们现有的数据集可能有点偏差,至少有点偏差,也许我们的新数据集可以减少偏差,我们可以升级一点。但是,我认为升级这些数据集是一个非常具有挑战性的时期,因为文章指出,
摄影师或一般人可能只能接触到他们自己以外的社区,无法真正使他们的拍摄对象多样化。所以这会比较困难。当然,我们并不一定依赖摄影师来获取这些数据集。有时它们是从Flickr上抓取的,例如。但是,是的,我认为这引发了一系列问题,也引入了一种新的范例和新的社会和文化转变,希望这将使我们能够升级我们的数据集,例如给予……
给予这个,将这个变成那种机会。但肯定存在挑战。是的,完全正确。你实际上已经看到一些公司开始采用人脸识别来进入建筑物,而不是使用钥匙卡或需要用手操作的东西。
因此,随着人工智能技术的更多采用,我们发现我们实际上需要调整和重新训练它们以处理口罩和其他事物。因此,正如你所说,谨慎行事并以对各种人都同样有效的方式进行操作,并且不带有偏见或,你知道,
尤其对白人有利,这在以前的人工智能技术中一直是这种情况,这似乎是一个非常好的主意。与今年相关的还有我们的下一篇文章,标题为《人工智能不会神奇地提供冠状病毒疫苗》。这篇文章是关于哈佛-麻省理工学院的一个小组如何
使用人工智能识别具有抗生素特性的化学化合物哈利辛,对抗耐药菌株。这是以这种方式发现的第一个化学化合物,希望它能以某种方式用于冠状病毒。但这只是创建药物的第一步。
机器学习通常非常昂贵,这也是一个问题,机器学习无法缩短随后的任何步骤,例如临床试验或保证药物的安全。对此有什么想法吗,Andre?是的,是的。我认为这是一篇很好的文章,突出了人工智能可以提供帮助的一些方式,以及它受到限制的一些方式。
我不知道你们中有多少人相信人工智能会神奇地提供疫苗,但在本文中,关于它如何提供帮助以及已经提供的帮助,有很多更详细的说明,但它不会给出答案的所有方式,它需要实验和测试以及所有通常的过程,而人工智能实际上无法神奇地提供答案。
因此,关于人工智能,一般来说应该记住的一件事。它有助于所有这些过程,但在这种情况下,它不会消除所有的人工工作。接下来,另一个与2020年相关的主题以及关于人脸识别的众多文章。
这里的第一篇标题为“全景监狱已经存在”,来自《大西洋月刊》。总的来说,它是关于人脸识别如何在中国的应用以及我们在那里开发的所有系统和技术以及它的应用方式。它对系统和整体景观监控进行了深入探讨,特别是人脸识别在那里是如何使用的。
所以非常有趣的阅读。我们不会深入探讨所有内容,因为有很多细节,但我们将在这里讨论一些事情。因此,这篇文章中的一大信息是,中国已经拥有多少监控和人工智能监控能力,以及如何
特别是,因为很多人经常使用手机,很多传感器,这些数据直接发送到正在处理它的算法。因此,该国现在拥有超过10亿部手机,这些手机拥有大量正在被处理的数据。但即使对于农村社区的偏远地区,事实证明,也有一些倡议是为了扫描人们的面部以换取数据
炊具。因此,实际上正在积极努力为几乎任何人收集数据,并拥有与所有监控相关的政府身份证。所以非常,非常热门,真的。获得这个完整的描述很有趣,有点可怕,有点反乌托邦,绝对值得了解,如果你不把它推向另一个方向的话。
你对此有什么想法吗,Sharon?是的,我认为推动中国采取行动的一些最大因素是每个人手机都与
与他们的身份紧密相连。不仅仅是手机,很多数据都与身份紧密相连。因此,他们不必进行太多聚合或去噪。所以他们非常了解你一直在做什么。在美国,情况并非如此。我认为它更加孤立。由于隐私法,数据更加混乱。我认为在中国,
大型公司与政府密切合作,甚至在某些情况下是作为政府的一部分,而在美国,情况肯定并非如此,我们看到这些公司与政府有些分离,可能不会移交数据,或者可能不会。
为了用户的利益而维护数据的隐私等等。我认为苹果公司也这样宣传。是的,是的,完全正确。关于政府身份证以及手机数据与其关联方式的细节在这篇文章中非常有趣。我还发现它触及了脑力这个话题也很有趣。因此,学习人工智能并进行人工智能研究和开发的人
据指出,历史上中国一直难以留住这些研究人员和人才,他们实际上去了美国部门攻读博士学位,就像我们一样,并在那里工作。并且它指出,现在随着特朗普政府使中国学生在美国学习更加困难,这种情况可能正在改变,
并加剧了他们不受欢迎的整体感觉。它还引用了谷歌的一位领先的机器学习研究人员的话说,签证限制是我们集体研究生产力的最大瓶颈之一。因此,在某种程度上,你甚至可以说,这种对外国学生、对中国人才的敌意正在鼓励,你知道,
在中国进行的工作和更多监控的开发,而不是我们可能在美国鼓励的事情,即人工智能的非监控应用,希望是更积极的应用,诸如此类的事情。所以值得注意的是。我认为我们都在斯坦福大学近距离看到过这种情况,人们都受到了政府这些行动的影响。
绝对的。在人脸识别主题之后,我们下一篇文章来自The Verge,标题为“使用这款人工智能隐私工具隐藏你的照片以欺骗人脸识别”。一个名为Fox(F-A-W-K-E-S)的应用程序,
由芝加哥大学声音实验室创建,实际上对你的图片进行小的改动以欺骗人脸识别系统,他们称之为“隐身”。基本上,它对图像中的像素进行非常非常小的微小更改。突然之间,这就可以欺骗你的人脸识别,你的开箱即用的人脸识别算法。芝加哥大学声称对最先进的人脸识别系统具有100%的成功率。
这已经作为免费软件发布到Windows和Mac上。现在已经有超过10万次下载。但采用率低,但许多不同的应用程序实际上已经收集了你的照片,这是文章提出的批评。我想这主要可以帮助隐藏你将来发布到网上的图像。
是的,我认为这里的批评是,你知道,现在已经有这么多标记的图像了,即使是10万次下载,考虑到有多少人在使用智能手机并自拍等等,这也不是很多,
但另一方面,这是一个良好的开端。也许我可以想象在未来,我们的手机上甚至可能会有应用程序,可以自动为你拍摄的每张照片执行此操作。因此,如果你希望任何新照片都不能用于人脸识别,可以在后台运行此过程。希望我们可以
你知道,在更大程度上拥有匿名性,并且不容易通过我们生成的所有数据找到。这绝对是一场猫捉老鼠的游戏。因此,随着这样的系统改进,人脸识别系统也将改进,也许你可以将其视为进攻性的,然后随着时间的推移,防御性也会改进。
我认为文章提出的另一个令人担忧的问题,这是一个非常好的观点,那就是100%的成功率。我认为这有点夸大了这款人工智能的功能。当人们这样做时,我确实会担心,因为它会给用户带来负担,让他们意识到,你知道,这可能有什么问题。这确实会损害某些用户的利益,某种类似的产品。我看到这与特斯拉说非常相似,
我们的自动驾驶仪有效。是的,除此之外,这是一个问题。另一个问题是,再一次,你知道,人们首先必须意识到这项技术。
将其加载到你的台式机或笔记本电脑上,然后一直处理你的所有照片,这是一件非常麻烦的事情。文章确实说,Fox团队承认,为了让它产生真正的影响,它必须更广泛地发布并更容易使用。他们没有计划这样做,但它确实表示他们希望Facebook等公司可能会集成类似的技术。
因此,希望有一天我们会有一个小的设置框,上面写着“自动匿名化我的照片”,而不是让它完成。当然,我认为不仅仅是一个研究团队,更大的群体需要在某个时候承担起这项工作,才能变得可行。
在欺骗人脸识别方面,我们有来自《技术评论》的下一篇文章,标题为“可以让人脸识别认为其他人是你黑客攻击”。是的,这里的风格有点相似。其想法是你可以更改一张图像,而不会改变太多,只是稍微改变一下,但这足以让人脸识别
人脸识别系统认为它不是你,用语言来说,而是其他人,正如标题所说。这是关于McAfee公司的一个团队发布了这种方法。所以这里非常相似。它在某种意义上有点不同,它不仅仅是无法识别你。它实际上是识别其他人。
我不知道那里的应用是什么,但看到另一种方法还是很有趣的。对此有什么想法吗,Sharon?是的,绝对的。这让我想到我在隐私课上学到的第一个原则之一,那就是保持隐私的最佳方法实际上不是试图删除你的信息,而是伪造它。
所以要拥有关于你的信息,但要让它自相矛盾,让它成为虚假的。所以这有点像这样,
你的数据存在最安全的方式实际上不是不存在,或者说,或者试图让它保持离线状态,因为这行不通,这就是论文的论点,而是用其他东西来掩盖它。所以这确实让我想起了这一点。我还发现McAfee或McAfee非常有趣,
这家通常制作防火墙软件的公司,我相信,正在进入这个领域并关注这个领域。所以我觉得这也很有趣。
是的,我同意。文章指出,McAfee的研究人员表示,他们的最终目标是证明这些人工智能系统的固有漏洞,并明确表示人类必须参与其中。从某种意义上说,我认为这与安全相关,对吧?从某种意义上说,这些人工智能系统并不安全。你可以用这些技巧来攻击它们。
是的,我认为这是一个我们都应该意识到的好例子,特别是那些试图使用这些技术的人,这些类型的攻击可能会越来越多地被开发出来。
从人脸识别来看,我们的下一篇文章是关于如何解决这个问题的,标题为“认识这位让大型科技公司退却的计算机科学家和活动家”。Joy Bualamwini发表了关于人脸识别中性别和种族差异的研究。这为亚马逊、微软、IBM等公司最近暂停或停止销售人脸识别奠定了基础。
Joy创立了算法正义联盟,这是一个非营利组织,在其开始的所有工作基础上建立。现在,这个力量背后有一个更大的团队。
确实,是的。我们在讨论人脸识别时,这里和那里都提到了算法正义联盟。这是因为这项关于性别阴影和其他项目的工作确实清楚地表明了人脸识别的局限性和问题。这在某种程度上与明确指出即使是正在运行和可用的产品也类似
来自亚马逊、IBM和微软的产品实际上在某些方面存在严重缺陷,这些缺陷是,你知道,几乎令人震惊。所以这是一项非常有影响力的工作。而且,嗯,
看到它在这些新闻报道中获得更多认可,这非常酷。文章还指出,该组织现在正在启动其最雄心勃勃的倡议,即算法漏洞赏金项目,这是一个工具集,将帮助人们报告人工智能造成的偏见和危害,类似于用于查找软件安全漏洞的漏洞赏金计划。
我第一次听说这个代数漏洞赏金项目,并且允许人们报告各种人造成的危害和偏见的想法
似乎非常直观,而且在我看来,现在需要这样做,因为我越来越多地部署。你对这项新倡议有什么看法,Sharon?我认为这太棒了。我听说过针对普通错误的漏洞赏金。
各种网站,这种情况经常发生。但对于偏见而言,我认为这太棒了,我认为这是必要的。我想知道抓取某些Twitter页面是否也会到达那里。但我认为绝对应该激励人们发现这些偏见并对其进行众包。完全正确。是的,他们指出
他们希望发现这些偏见和问题的这项工作由代表历史上受到此类系统伤害的人的个人和社区组织领导。这些人可能是低收入人群,也可能是传统社区以外的人群。因此,拥有一个项目似乎很有意义
主动接触并使他们更容易指出人工智能对他们的问题,而像谷歌或亚马逊这样的公司可能没有那么多地主动接触,并且没有注意到这些社区和这些人中的这些问题。
但关于人脸识别就足够了。上周有很多这样的故事。接下来,我们还有另一个关于人工智能的热门主题,那就是Deepfakes。这里的第一篇文章来自《连线》,标题为“廉价易用的Deepfakes越来越接近真实事物”。
所以它基本上指出了该领域的进展。正如标题所说,它变得越来越容易和便宜。作为一个具体的例子,它说FireEye公司的Philip Tully在一个安全会议上制作了汤姆·汉克斯的恶作剧图像,以展示开源软件如何轻松地适应具体的虚假信息宣传活动。
从某种意义上说,这很容易,因为它只需要一堆汉克斯的照片,这当然很容易。而且获得软件运行的成本不到一千美元或不到一百美元。它并不惊人,但足以误导和产生真正具有误导性的东西。
文章还指出,乔治城大学的Tim Huang表示,即使是现在,骗子使用Deepfakes也没有直接的威胁。还有很多其他途径可以传播虚假信息。但随着它变得越来越便宜和容易,我们应该为此做好准备,并准备好让它变得超级容易、超级便宜以及由此带来的影响。
所以谈到Deepfakes,一个热门话题。你对这篇文章、这个例子或目前Deepfakes有什么反应吗,Sharon?
我并不感到惊讶,基本上就是这样,除了可能一百美元。我没想到云计算现在这么便宜,但我可以想象他们正在使用什么技术……我的意思是,这令人担忧,我想我们都在关注选举,这可能是目前对美国最令人担忧的地方。嗯,是的。
我想这只是一个发展中的情况。我们已经了解这些东西一段时间了,到目前为止,似乎还没有真正出现虚假信息造成灾难性后果的情况。但有一些例子,你知道,有一种感觉,就像,是否会在某个时候有人真的将其用于一些重大的事情?我想我们会看到的。
有趣的是,这篇文章确实指出,Tim Huang提供了一份上个月发布的报告,该报告研究了这个问题,并表示它并没有构成严重和迫在眉睫的威胁,但我们确实需要为此做好准备。
它指出,我们可以通过让公司和学术实验室创建Deepfake动物园来做好准备,这些动物园收集示例,并基本上收集所有以廉价方式制作Deepfakes的可能方法,以便我们可以检测它们并做好准备。绝对的。与Deepfake图像相关的是,我们的下一篇文章是关于Deepfake文本的。
另一篇来自《连线》的文章,标题为“人工智能生成的文本是所有Deepfake中最可怕的”。因此,最近出现的人工智能生成的文本模型GPT-3能够生成令人震惊的人声文本。Deepfakes很糟糕,但可以被检测到。
基本上,我们正在努力改进它。特别是从FireEye想要建立的存储库来看,可以从这些图像中存在的伪影中检测到它。但是,当它是文本时,没有什么可以与之比较或进行事实核查的。这要困难得多。在图像本身的像素中找到这些细微的奇异之处、细微的伪影要困难得多。
因此,提高人们对各种奇异之处或人工智能生成文本各个方面的认识,将使人们能够识别假图像和视频,并希望也能识别合成文本。
文章指出,合成文本尤其令人担忧,因为你可以生成大量的合成文本。这可以通过微妙地扭曲信息环境来打开闸门。对。是的,所以我想这篇文章的重点是
Deepfakes很可怕。你可能听说过视频Deepfakes,也见过音频Deepfakes,这令人印象深刻。但是如果你仔细想想,文本Deepfakes,真正像人一样由GPT-3等工具生成的文本,可能是所有Deepfakes中最可怕的,这有点
也许有点危言耸听,但文章似乎提出了一些很好的观点,我认为。我肯定在某个地方读到过,2PT3输出的内容,你所说的内容大约95%可能与它输出的内容相似。所以……
是的。因此,如果文本使用非常常见的单词和短语,那么检测文本可能非常困难,而这正是GPT-3会做的。另一方面,实际上,我们刚刚在Sky News Today上发布了一份新的简报。所以我帮助撰写了一篇讨论GPT-3的文章,
与我们一起撰写的一些其他研究人员一起,我们将其命名为GPT-3,一项人工智能突破,但不会抢走你的工作,基本上指出GPT-3仍然有很多局限性。虽然它可以制作出在高级别上看起来似乎合理的东西,例如你可以阅读文本,如果你没有寻找它,它看起来像是人类可能写出来的。
但对于任何复杂的事情,任何真正重要的事情,你都会开始意识到,你知道,在更大的信息背后没有真正的想法。没有一致性。事情开始以你可以意识到的方式崩溃。
所以很难看出这种Deepfake有多危险或可怕,但这只是需要考虑和准备的另一个例子,也许应该了解我们应该如何应对它。
绝对的。我想说的是,OpenAI的首席执行官实际上也同意这一点,这让我们想到了我们在Medium上的最后一篇文章。随着其GPT-3模型震惊世界,OpenAI的首席执行官表示,“炒作太多了”。
所以人们正在用GPT-3做很多不同的事情,但许多其他人并不怎么印象深刻。所以GPT-3可以编写很多代码,回复论文,也许不像人类代码那样有实质性。
但警告不要过度炒作这一点。甚至OpenAI的首席执行官Sam Altman也警告不要过度炒作。我认为这与Skynet Today的文章非常一致。完全正确。是的,这是一篇关于
Sam Altman的推文的小文章,我认为它写道人工智能将改变世界,但GPT-3只是一个非常早期的瞥见。我们还有很多东西需要弄清楚。所以,是的,
再次提醒,GPT-3有一些令人印象深刻的演示,而且通常情况下,你会对人工智能进行非常令人印象深刻的演示,但随后你必须真正深入研究并意识到
不要从这个演示推断出更像人的东西。有很多限制,以及系统在许多方面无法做到我们能做到的事情。这种情况将持续一段时间,直到解决许多剩余的挑战。
就这样,非常感谢收听本周Skynet Today的Let's Talk AI播客。你可以在skynetoday.com上找到我们今天在这里讨论的文章,并订阅我们的每周通讯,其中包含类似的文章。无论你在哪里收听播客,请订阅我们,如果你喜欢这个节目,请不要忘记给我们评分。请务必收听下周的节目。