您好,欢迎收听SkyNet Today的Let's Talk AI播客,在这里您可以听到AI研究人员对AI实际情况以及哪些只是耸人听闻的标题的看法。我是Andrey Kornikov,斯坦福视觉与学习实验室三年级的博士生。我的研究主要集中在机器人操作的学习算法上。和我一起的是我的联合主持人……
我是Sharon,机器学习小组三年级的博士生,与吴恩达教授一起工作。我的研究方向是生成模型、改进神经网络的泛化能力以及将机器学习应用于应对气候危机。
我们还有上周的一系列故事要讨论。本周有很多有趣且多样的话题。所以我们将直接进入正题,从第一篇文章开始,标题是《ACM呼吁政府和企业停止使用面部识别》。这篇文章是由VentureBeat报道的。
这基本上就是ACM(美国计算机协会)的标题所表达的意思,ACM是一个非常庞大的计算机专业人士协会。所以这里指的是程序员,在某些情况下也包括计算机工程师。
该组织发布了一份声明,敦促立法者立即暂停企业和政府使用面部识别技术。这份声明于6月30日发布。如果您听过我们之前播出的几集节目,您可能已经知道原因了。面部识别技术发生过很多事情。有些公司自己决定停止使用这项技术,比如IBM和亚马逊,以及
美国公民自由联盟(ACLU)和算法正义联盟(Algorithm of Justice League)也发表了声明。因此,ACM的这份声明是在所有这些事件之后发布的。
更具体地说,这封信并没有呼吁永久禁止面部识别技术,而是呼吁暂时暂停使用,直到种族和性别表现的准确性标准(基本上是这些敏感因素),以及法律法规能够到位。所以基本上,一旦我们有了法规。
是的,这非常令人兴奋。我认为许多从事AI工作的人都在ACM工作或参与ACM。我认为,所有这些讨论、所有这些事件都在影响我们,影响研究人员和工程师。而且在这方面,整体的意识和决策非常重要。
变得越来越普遍,我认为这绝对是一个可喜的发展。让我们希望这将成为一个越来越突出和普遍的趋势的延续。
我们的下一篇文章标题是《麻省理工学院道歉并永久下线了一个大型数据集,该数据集教会了AI系统使用种族主义和厌女症的辱骂性词语》。一个辛辣的标题。总而言之,麻省理工学院实际上下线了一个被高度引用的数据集,名为“8000万张小图像”,该数据集创建于2008年。
这个数据集训练了许多AI系统,用文章中的话说,可能会用种族主义、厌女症和其他有问题的术语来描述人。
因此,训练数据集用于训练模型识别和列出静止图像中的人和物体,这与ImageNet非常相似。它包括图像和描述这些图像内容的标签。研究人员发现,数千张图像实际上都被贴上了针对黑人和亚洲人的种族主义辱骂标签。
例如,黑人和猴子的照片实际上被贴上了N字头的标签。穿着比基尼或抱着孩子的妇女被贴上了妓女的标签。身体部位则被贴上了非常粗俗的词语等等。基本上,不必要地将日常图像与辱骂和攻击性语言联系起来,
基本上将这种偏见和偏见融入未来的模型中是错误的。这非常非常糟糕。因此,这个在2008年收集的数据集可能没有经过非常清晰的筛选。如果当时筛选了,现在肯定也不行。是的,绝对的。所以这件事发生在……
这篇论文实际上发现了这个数据集中的这些问题,这项工作是由Vinay Prabhu完成的,他是硅谷一家隐私创业公司UnifyID的首席科学家,我还认为,Abiba Birhanne(我不确定怎么发音),爱尔兰都柏林大学学院的博士候选人。
实际上发布了分析该数据集并指出所有这些问题的论文。
这继之前的一件事之后,之前有一项名为“ImageNet轮盘赌”的项目,该项目强调在整个ImageNet数据集中也有一些有问题的标签。我认为这为AI社区指明了方向,即需要更加小心地构建数据集、过滤数据集,
以及今后数据集中的内容。是的,这非常非常重要,也令人担忧。我确实浏览过ImageNet数据库。我没有看到任何我认为具有冒犯性的东西,尽管我看到了一些肯定不正确或有点不恰当的东西,实际上。有些图像看起来有点不恰当。所以,是的。
是的,我认为我们需要在策划数据集方面更加小心,我相信根据上周的节目,Jan LeCun也建议这样做。当然,我们需要做的不仅仅是这些,但看起来数据集确实存在问题,特别是如果这些数据集构成了我们构建AI模型的基础和目标。是的,我认为需要指出的一点是,
这个“小图像”数据集是2008年创建的,相对于整个数据集来说,这相当早。ImageNet大约是在那时创建的,我认为它是在2006年或2007年左右发布的。
它几乎是第一个如此规模的数据集。我认为这是第一个尝试创建一个包含数百万图像和数百万标签的数据集的尝试。它可能是第一次尝试扩展到创建这样的东西。因此,他们必须制定一个程序,这包括抓取图像和众包标注,以及
希望从那时起,随着我们创建了越来越多的新数据集,并且这在开发中变得非常普遍,希望你们能够学习如何拥有更好的最佳实践。人们已经意识到,你需要更加小心。所以,之所以会发生这种情况,部分原因可能是因为这个数据集比较旧,而且在创建这种规模的数据集之前,这并不常见。
我还认为,这里另一个积极的方面是,首先指出这个问题的论文确实发表了。因此,社区正在进行越来越多的内省,并且越来越意识到这些潜在的问题。在这篇预印本发布后,这篇论文的标题是
它的标题是《大型图像数据集,计算机视觉的PureHIC胜利》。因此,在7月1日发布之后,很快就有将数据集下线的回应。所以这确实表明,至少社区正在努力寻找这些问题并解决这些问题。
但为了转向一个稍微不那么令人焦虑的谈话,我们有下一个主题,是关于国家人工智能研究云的主题。我们正在讨论的文章标题是《AWS、谷歌和Mozilla支持国会国家人工智能研究云法案》。这篇文章来自VentureBeat。
它描述了包括AWS、谷歌和VIA在内的总共20个组织,以及斯坦福大学和俄亥俄州立大学等学校,共同呼吁建立一个国家人工智能研究云,这将允许学术界的研究人员访问目前只有谷歌等大型公司才能访问的计算资源和数据集。
存在一种奇怪的不平衡,谷歌和Facebook等公司拥有巨大的计算资源,并进行真正令人惊叹的实验。即使是斯坦福大学或伯克利大学等拥有计算资源的大型大学,其资源也少得多。
因此,这项倡议基本上是建议建立一个国家云,以便没有这些资源的研究人员能够访问这种规模并进行这种研究。
Sharon,我想知道你使用了多少计算资源?你是否尝试过扩展到任何大量的计算?或者它主要像单GPU一样吗?哦,天哪,这是一个在正确的时间提出的好问题。我实际上刚刚构建了自己的深度学习设备,因为我无法忍受计算资源的匮乏。
但是我们有100个GPU。不过,它们是五年前的,所以性能不高。我不会说它们的性能与现在的GPU一样高。所以,是的,这真的很令人兴奋。我很想知道它会如何发展。当然,我认为这听起来非常有前景。
我认为它实际上可以帮助推动研究发展,因为我认为这将在很大程度上支持来自政府拨款或信贷的研究人员以某种方式使用这个云。但是,我也有点担心
有点怀疑它如何在后勤方面以及政府创建某种云接口方面的可用性方面发挥作用,这让我感到害怕,我想知道他们将如何管理它,特别是当所有不同的云参与者都是其中一部分时,你通常会使用哪个平台,或者你会创建你自己的平台,这两种方法听起来都……
好像会有不同类型的障碍。如果政府创建自己的云,则其中一个将是技术性的,另一个听起来在不同的云提供商之间有点政治性。所以我很想知道接下来会发生什么。
是的。但文章确实说,斯坦福大学的领导人实际上与其他20多所大学一起,去年向特朗普总统和国会发送了一封关于此事的联合信函,支持这个国家研究云。
是的,从我们的角度来看,我认为值得注意的是,斯坦福大学以人为本的AI研究所的所长李飞飞博士和约翰·埃切门迪博士是第一个提出这一建议的人。我想,如果学术界、工业界和基本上需要这种云的人
推动并启动了它。希望如果它确实得到实施,那么这些参与者就会在场,使其可用并使其有用。我确实对你表示同情,因为我确实可以使用一个带有少量GPU和少量CPU的计算集群。我不得不为我的研究并行扩展到许多机器。我能够用我拥有的东西来应付,但与此同时,我也确实达到了,你知道,我所能使用的上限
我不得不自己收集一些脚本和技术来使用集群。所以,如果这件事真的发生了,也许会有一个更标准化的接口,以及对在大型云计算上启动机器学习和AI的特定方式的更多支持。是的,这可能是它。所以让我们拭目以待。我想知道截止日期附近会发生什么。是的。
是的,不,如果许多大学同时试图使用它,将会出现很多问题。你将如何尝试分配资源?即使在一个大学或一组实验室内部也很难做到这一点。所以我想,是的,让我们拭目以待。让我们希望我们能够通过一些我们可以用来进行更令人兴奋的研究的东西。
我们最后一篇文章听起来违反直觉。它来自Box,标题是《深度伪造如何真正发挥作用》。
提醒一下,深度伪造是AI生成模型,能够创建看起来很假的图像、看起来很假的视频,甚至听起来很假的音频。所以基本上,它们可以创建一个面具,并且完全是假的。它们可以根据图像创建虚假的人。
这篇文章的摘要是,车臣的LGBTQ人群实际上面临着相当严重的迫害。一部名为《欢迎来到车臣》的新HBO纪录片让幸存者能够通过使用深度伪造技术来隐藏幸存者的身份来分享他们的故事。
他们通过将志愿者的声音叠加到幸存者面向摄像机的脸上来做到这一点。因此,目标是保留正在说话的主体的感情。例如眨眼、改变下巴、微笑或非常悲伤的动作,但也传达他们正在说的话。
因此,这是一个巨大的推动,让人们使用深度伪造化身来隐藏自己。有一些初创公司正在这样做,例如DID和Aletheia AI。
这可能是合成媒体的一个新兴用例或行业,它能够实现匿名性。如果它确实可以在某种程度上用于公益,这可能会影响我们如何规范深度伪造技术。Andrey,你怎么看待这个?我认为,我的意思是,这很酷,显然。它确实说明了一些研究人员提出的论点,那就是,为什么你要开发深度伪造技术?
这项技术,或者为什么我们要使制作深度伪造的能力民主化?其中一个案例是,好吧,这项技术实际上有非常有用的应用,这些应用并非负面的。我认为这是一个很好的例子。我还很好奇或发现另一篇文章很有趣
标题为《深度伪造正在成为炙手可热的企业新培训工具》。
来自Wired,它有一个与如何公司现在将深度伪造技术用于无害用例相关的主题。例如,为营销目的创建具有更大多样性的图像,而小型公司可能负担不起,因为您必须雇用许多不同的人,诸如此类。
总的来说,我认为这些文章很有趣,它们展示了这项技术的一些积极应用,否则,让我们说,我不知道,听起来很可怕。
对。绝对的。我认为直到现在,人们都谨慎地对待深度伪造技术,显然是通过政治操纵来展示其最糟糕的一面。但我认为这些应用确实开始显现出来,因为它能够让声音说出来。但是
但也能够让人们保持匿名,特别是为了他们的安全。我认为这非常强大。显然,这是一条细线。因此,在处理这一领域的监管时,我们将考虑这一点。是的,但这非常有前景,而且……
非常高兴这绝对是一条前进的道路。实际上,在文章中,他们指出,女性已经在Snapchat上使用了虚拟面具,其中一些是由AI生成模型驱动的,当然,还有非常强大的图形模型,通过视频分享她们的性侵犯经历,而不会泄露她们的身份。我认为这也是一个非常强大的应用。
是的,是的。关于需要将这一点纳入监管,我还认为这篇文章本身也指出,目前没有联邦法律规范深度伪造的制作,尽管人们已经在研究和考虑这个问题。所以……
这篇文章引用道:“随着技术的日益普及,我们应该期待更多的人会争论合法的用例,或者至少是那些不像我们更熟悉的缺陷那样可怕的应用。这将不可避免地使我们如何选择规范它们变得复杂。”
所以是的,总的来说,这显然是积极的。它也指出了应对负面应用的困难。你不能仅仅检测到任何深度伪造并将其删除,也许是因为存在使用它的有用实例。但至少我们可以看到AI的一些积极应用,而不是像我们最近一直在谈论的那样,更多可怕的反乌托邦的东西。
对,绝对的。当然,匿名一直是一把双刃剑。所以,匿名聊天应用程序、聊天室一直……我看到对某些群体来说非常好,当然,而且……对许多人来说是一个安全的空间,但也……在互联网上造成了相当多的骚扰和虐待,而且也相当具有毒性。所以……
这绝对是一条安全和安全的细线,我会这么说。所以显然还没有法律,但这确实使这条线更加模糊。我很高兴人们正在研究这项技术的更多积极应用。
说到这里,非常感谢您收听本周Skynet Today的Let's Talk AI播客。您可以在skynettoday.com上找到我们今天讨论的文章,并订阅我们的每周新闻通讯,其中包含类似的文章。无论您在哪里收听播客,请订阅我们,如果您喜欢这个节目,请不要忘记给我们评分。请务必收听下周的节目。