We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Bias in Voice Recognition, Debates in AI, and Robotics in the Time of COVID-19

Bias in Voice Recognition, Debates in AI, and Robotics in the Time of COVID-19

2020/4/4
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Andrey Kurenkov
S
Sharon Zhou
Topics
Andrey Kurenkov:语音识别系统中存在种族差异,对白人用户的错误率远低于对黑人用户的错误率。这种偏差源于训练数据缺乏多样性,以及AI系统创建者自身的潜在偏差。此外,这种偏差形成了一个恶性循环:服务主要被白人使用,导致难以收集黑人的数据,从而服务继续被白人使用。即使收集了足够的数据,如果模型训练不当,也会导致对某些群体的识别效果较差。AI研究中的数据偏差问题现在也出现在了实际应用中。AI研究人员需要更好地沟通在部署AI系统时需要考虑的各种问题。应对深度伪造,需要技术手段与事实核查员和记者的现有技术相结合。深度伪造检测工具的设计应注重用户体验和可解释性。应对虚假信息需要多种工具,包括应对简单虚假信息的技术。不应该停止深度伪造技术的研发,而应关注其积极应用,并努力防止恶意使用。新冠疫情期间信息传播的快速性,对虚假信息检测提出了挑战。关于AI未来发展方向的争论核心在于是否需要将深度学习与经典的符号AI相结合。深度学习取得了很大的进展,但现在似乎已经达到瓶颈,需要新的创新来解决一些复杂的问题。需要尝试不同的方法来解决深度学习的局限性。 Sharon Zhou:如果AI系统的设计没有仔细考虑不同群体,可能会导致不公平的结果。即使收集了足够的数据,如果模型训练不当,也会导致对某些群体的识别效果较差。AI研究中的数据偏差问题现在也出现在了实际应用中。AI研究人员需要更好地沟通在部署AI系统时需要考虑的各种问题。应对深度伪造,需要技术手段与事实核查员和记者的现有技术相结合。深度伪造技术的民主化降低了其使用门槛,增加了恶意使用的可能性。创建深度伪造技术的民主化,需要相应的检测和过滤机制。新冠疫情期间信息传播的快速性,对虚假信息检测提出了挑战。关于AI未来发展方向的争论核心在于是否需要将深度学习与经典的符号AI相结合。深度学习取得了很大的进展,但现在似乎已经达到瓶颈,需要新的创新来解决一些复杂的问题。

Deep Dive

Chapters
The podcast discusses a study revealing significant racial bias in commercial voice recognition systems, highlighting the disparity in error rates between white and black users and the implications for privacy and performance.

Shownotes Transcript

斯坦福人工智能实验室的博士生Andrey Kurenkov和Sharon Zhou报道了商业语音识别系统中的偏见、关于人工智能未来的辩论,以及新冠肺炎对机器人技术的启示。 查看此处讨论的所有故事以及更多内容,请访问www.skynettoday.com 主题:深思熟虑 Kevin MacLeod (incompetech.com) 根据知识共享许可协议授权:署名 3.0 许可协议 </context> <raw_text>0 您好,欢迎收听Skyner Day的“让我们谈谈人工智能”播客,在这里您可以听到人工智能研究人员关于人工智能的实际情况以及哪些只是点击诱饵式标题。本周我们将关注人工智能中的偏见、虚假信息和炒作,并讨论更多关于冠状病毒和人工智能的故事。

您可以在skynetoday.com上找到我们今天讨论的文章,并订阅我们每周类似主题的新闻通讯。我是Andrey Kronikov,斯坦福视觉与学习实验室三年级的博士生。我主要专注于机器人操作的学习算法。和我一起主持的是……

我是Sharon,机器学习小组的三年级博士生,与Andrew Ng一起工作。我的研究方向是生成模型,改进神经网络的泛化能力,并将机器学习应用于应对气候危机。好吧,Sharon,我们现在正处于湾区居家避疫的第三周。感觉过去一个月就像

你知道,至少几个月,也许一年。绝对的。时间过得很慢。是的,非常超现实。你如何适应这种新的现实?

我认为我已经度过了焦虑的高峰期。所以这是新的常态——隔离。我也一直在思考,你知道,当我们看到其他国家比我们领先几周或几个月时,我们如何才能帮助减轻其中的一些影响。

想到这一点有点不祥,但我们该如何确保我们要么不陷入他们的境地,要么进入他们的位置并追随他们的脚步?是的,我认为这有点像我们作为一个国家所处的位置,在某种程度上,我们终于到了开始理解这件事的规模的阶段。

并且开始接受,事情在一段时间内将会变得奇怪和不同,这在某种程度上使它更容易适应。

但我想现在,我们将尝试谈论一些人工智能新闻,以分散我们对所有病毒事件的注意力,并专注于我们感兴趣的事情。为了开始,我们第一组文章将关注人工智能问题,其中包括偏见、虚假信息和

以及我们当前技术的缺陷。我们将讨论的第一篇文章标题为“研究人员称,语音识别系统存在种族差异”,它发表在《纽约时报》上。因此,我们已经意识到,偏见(种族偏见和其他偏见)充斥着当今正在训练和部署的人工智能系统。但这将是《纽约时报》指出的语音识别系统的一个非常具体的领域。

有趣的是,人工智能系统对不同群体采取的差异化处理甚至延伸到语音方面。根据周一发表在《美国国家科学院院刊》(PNAS)上的一项研究,来自全球五大科技公司(包括亚马逊、苹果、谷歌、IBM和微软)的语音识别系统对白人用户的错误率远低于对黑人用户的错误率。

这包括我们的亚马逊Echo,Alexa。这包括Siri。这包括OK Google、IBM Watson、微软Cortana。是的。为了更详细地说明,研究中有一段话是说,对白人来说,这些系统大约90%的时间都识别错误,但对黑人来说,错误率跃升至35%。所以差别很大。而且

有趣的是,几年前面部识别系统也显示了这一点。因此,同样的云计算公司亚马逊、IBM、微软也已经存在同样的问题,他们已经为其视觉人工智能系统减轻了这个问题,但语音识别系统仍然存在同样的问题。

相关地,单独的测试也发现了聊天机器人、翻译服务以及其他旨在处理和模仿书面和口语语言的系统中的性别歧视和种族歧视行为。造成这一切的原因是数据中的偏见。所以偏见

嗯,在我们训练人工智能系统的所有数据中,以及人工智能系统创建者本身可能存在的偏见。事实上,斯坦福大学的研究表明,领先的语音识别系统可能存在缺陷,因为公司正在使用数据训练技术,而这些数据并不像它本可以的那样多样化。他们主要从白人那里学习任务,而黑人相对较少。嗯,

有趣的是,还要认识到,不仅仅是收集正确的数据很困难。这些公司可能没有动力或激励去做,除非我们为此努力。文章还指出了另一个非常非常重要的问题,那就是公司实际上面临着先有鸡还是先有蛋的问题。如果他们的服务主要被白人使用,

他们将难以收集服务于黑人的数据。如果他们难以收集这些数据,这些服务将继续主要被白人使用。它变成了一个可能非常糟糕的积极反馈循环,尤其是在缺乏意识的情况下。我很高兴这篇论文能够指出语音识别中的这些偏见。

是的,这是一篇相当引人注目的文章。《纽约时报》刊登了这篇文章。它确实表明,如果没有仔细考虑,如果你没有真正做出有意的选择,让你的AI系统不仅适用于平均情况,还适用于不同的群体、不同的人群、不同类型的人,你可能会遇到这种问题。

我认为在这里,我们可以想到有不同口音的不同少数民族群体,对吧?

因此,即使你确实获得了足够的数据,并且你认为要包含不同的群体,如果你没有仔细训练你的模型,仅仅因为某种类型的人较少,该模型对这些类型的人就会更差。所以你真的需要小心。这不仅仅是研究。这是目前正在接触人们的AI系统的部署,今天、昨天和明天。

因为在研究中,我们的数据集往往存在很大的偏差,因为这些是我们能够收集到的唯一数据集。这是研究中一个巨大的问题。现在它在现实世界中的部署中也得到了体现。所以它实际上非常糟糕,因为它也渗透到现实世界的数据集中。是的,这很有趣。我们在前一两集中讨论过,NeurIPS会议要求提供一份影响声明

那里的想法正是针对这种情况,当你创建一个算法时,你实际上需要阐明在将其部署到现实世界时所有潜在的问题。你需要注意很多不同的东西。因此,作为研究人员,我们需要更好地沟通在开发产品时需要考虑的各种事情。想要开发产品或创办公司的人需要真正开始

开始跟踪这些事情。因为如果大型公司做错了,那么从头开始的人

我认为,甚至更难确保避免此类事情。另一方面,这可能会有一个好处,那就是保护那些声音无法被这些系统拾取的人的隐私。这是我一直在思考的事情,这是否能够保护隐私,或者这是否会加剧许多其他情况。

我一直在思考这个问题。我不知道你对此有什么想法,Andrey。是的,这是一件棘手的事情。我认为理想的世界是它对每个人都完美地工作,但如果他们愿意,每个人都可以选择退出。所以现在,许多人开始担心在拜访某人时使用Siri或Google Home,它只是在倾听你,并在后台拾取你的声音。

理想情况下,整个领域都需要发展到能够同时处理隐私和性能。但这很有挑战性。但我认为幸运的是,我不太了解你,Sharon,在我的研究中,我还不需要与人合作。我与机器人一起工作,并在模拟中训练它们。所以至少我现在可以安心,不用担心这些事情。

我认为我需要更多地考虑人类。这让我们想到了我们的下一篇文章,《研究摘要:深度伪造检测挑战:人工智能和媒体诚信的见解和建议》。

这是人工智能伙伴关系发布的一篇论文的摘要,内容是关于深度伪造检测挑战的。在一个日益自动化的世界中,我们将看到深度伪造技术的进一步使用,将恶意内容推送到人们面前

深度伪造检测挑战旨在找出有效的技术解决方案来减轻这个问题。深度伪造本质上是合成媒体。因此,任何由人工智能系统生成的或合成的媒体。之前曾出现过奥巴马的深度伪造,以及扎克伯格的深度伪造。所以基本上是一个

奥巴马和扎克伯格的假谈话头像,看起来很真实,发表了他们从未说过的话。这对媒体的完整性来说确实令人担忧。深度伪造的存在本身就导致人们对媒体的信任度下降,因为存在假新闻。人工智能伙伴关系利用其人工智能媒体诚信团队,编制了一份有用的建议清单,以改进Facebook提出的深度伪造检测挑战。

但这些经验教训也广泛适用于该领域的其他任何工作。是的。这些建议来自人工智能和媒体诚信指导委员会,该委员会由人工智能伙伴关系九个伙伴组织的代表组成,这些组织实际上涵盖了民间社会、媒体和技术。这包括亚马逊,但也包括英国广播公司(BBC)、加拿大广播公司(CBC)电台、Facebook、微软、《纽约时报》、

所以这是一种科技、媒体和民间社会的混合体,实际上相当不错。这份报告的建议有点细微差别。他们不仅仅是说我们需要更好的检测。我们不仅仅是说我们需要更好的算法来判断某事物是缺陷还是不是缺陷,因为你最终会在检测和规避之间陷入军备竞赛。

因此,他们的说法是,纹理需要与事实核查员和记者已经用来确定某事物是否真实或合成技术的现有技术相结合。我认为这篇论文中让我真正感到震惊的一点是,这项挑战的奖金中,一部分将用于从用户体验和用户界面角度进行更好的设计。

这包括可解释性标准,以便非技术用户能够理解这些干预措施,以及对虚假内容的突出显示,例如围绕操纵区域的边界框。这非常关注这种工具作为一个整体包的可用性和对公众的有用性,而不仅仅是完全依赖检测,不仅仅是运行检测算法。好的。

是的,这很有趣。它也与这里提到的一个观点相关,那就是除了深度伪造之外,你还在人工智能中看到过非常精细的深度伪造,例如,模仿某人的声音实际上会创建一个视频。你也可以拥有非常简单的虚假信息。有一个例子,政治家南希·佩洛西的视频被放慢了一点,让她看起来好像在学习她的台词,有点醉了。

这很简单。没有涉及人工智能。你只是在放慢视频的速度,但这仍然是一种虚假信息。因此,这里的组合是你不仅想要使用奇特的技术来处理这些非常先进、复杂的人工智能深度伪造。你想要拥有一套事实核查员和记者可以用于不同类型虚假信息的工具,包括这些简单的工具。

我的许多研究实际上都集中在评估生成模型上,生成模型是一类人工智能模型,基本上有助于构建深度伪造。我对此思考了很多,既在我的研究中,也在整个领域中。人们找到我询问,你知道,哦,现在我们可以创建所有这些深度伪造。这与以前大不相同。而且

让我印象深刻的一点是,我认为现在这些深度伪造的主要区别在于这项技术的民主化。对于个人来说,构建和创建这项技术比以前更容易了,因为以前使用图形技术、使用非常好的Photoshop仍然是可能的,但你需要一个专家。

现在,即使是一个不太专业的专家也可以做到这一点。这鼓励并增加了恶意使用,同时也使得预防变得非常困难。是的,我认为……

这通常在讨论中被提及,第一次看到深度伪造时,你可能会担心,哦,哇,这是一种新型垃圾邮件。我们无法分辨真假。这是真理的终结。当你更多地考虑它时,你会意识到,哦,好吧,我们已经能够创建非常令人信服的假视频、假音频或假图像有一段时间了。正如你所说,我们有Photoshop,我们有图形软件等等。

只是现在任何人都可以做到这一点,即使没有任何高级培训、高级软件。因此,我们需要能够扩展以应对大量令人误导的内容的方法,这些内容具有说服力。

我认为基本上,我们现在需要的是,由于创建深度伪造已经民主化,我们需要一个民主化的机制来检测和捕获它们并过滤它们。是的,这实际上让我想起了这一点,这与当前时刻以一种有趣的方式相关,如果你登录Twitter或Facebook,他们会有小横幅谈论了解冠状病毒的信息,因为,嗯,

我认为现在是一个非常有趣的时刻,因为每个人都正在迅速了解这个问题。有很多新闻、很多观点、很多文章正在传播。所以这是一种有趣的测试案例,看看

对于误导性信息,对于人们真正需要了解的信息。这些系统,这些平台如何处理确保人们以准确的方式获得信息?这是真的。这是真的。有趣的是,随着信息的迅速发展,谣言能够迅速传播,对吧?假新闻能够更快地传播。因此,

现在可能最有效的方法之一是Facebook和Twitter以及一些媒体平台只是发布一个横幅,说不要相信,要持怀疑态度,不要相信你所看到的一切,因为我们无法捕捉到一切。但我们可以尝试阻止你相信我们在新闻推送中向你展示的每一则新闻。

是的,这还与几周前Twitter开始推出其标记误导性内容的功能有关,他们在几个案例中已经这样做了。由于我们正处于冠状病毒疫情中,并且即将迎来美国大选,网络虚假信息的问题只会加剧。我们实际上已经看到一个使用DeFake(一种非常高级的人工智能技术)的案例,

在政治中。我们看到,我相信是一位印度政治家在竞选中使用它来生成他用不同方言和语言讲话的深度伪造视频。这是一个快速发展的局面。人工智能伙伴关系汇集了如此不同的观点来提出这些建议,这很好。我想现在他们有了这些建议,希望是

Facebook和微软和Twitter等等可以在准备应对一项技术的含义时考虑这一点。还有一件有趣的事情是,我认为大约一周前,Facebook出现了一个错误,它几乎捕获了任何关于冠状病毒的信息

信息,将其发布为虚假信息并将其标记为虚假信息。许多人对此感到非常生气。所以基本上,错误地将某事物标记为虚假信息也会激怒公众。因此,我认为小心这一点非常重要。实际上,我的几篇文章被标记了。我认为大约有四五篇。是的。

我立刻想到这肯定是一个有缺陷的算法或其他什么东西,但这很有趣。我们实际上已经看到几篇新闻文章讨论了通常进行检查的人(标记误导性帖子的那些人)——人类——现在无法上班,这在许多行业都是如此。

因此,Facebook等公司比以往任何时候都更加依赖算法。因此,他们被迫真正做到你所说的民主化和通过人工智能扩展事实核查。而且,让我们说,它有点有缺陷。

现在,在这整个讨论中需要提到的一点可能是,有时会提出这样的问题:为什么不停止深度伪造技术的发展?如果我们要处理所有这些误导性内容,为什么不停止开发GAN?在这篇文章中提到的另一件事是,实际上有很多理由要开发这项技术。所以有一些积极的应用。

GAN用于创作艺术、创作动画、娱乐媒体,许多具有社会效益的用途。因此,它确实需要在避免这些潜在的恶意用途的同时,仍然能够从技术中获益。鉴于这些模型存在积极的应用,

文章确实指出,这种多方利益相关者参与的过程应该在早期发生,以便能够纳入有意义的考虑因素,并能够适当地进行数据集设计,以应对偏见和公平问题。是的,正如你刚才提到的,偏见是语音识别和其他系统的一个问题。所以我们不希望它在这里成为一个问题。说到偏见以及我们当今人工智能算法的问题,

我们的下一篇文章标题为《人工智能专家之间的辩论显示出对该技术未来的争论》。它涵盖了3月26日在麻省理工学院技术评论年度MTech数字活动上进行的一场辩论,Gary Marcus和Danny Lang在会上讨论了人工智能应该如何发展到未来。

Gary Marcus在人工智能领域以拥有强烈的观点而闻名。他是纽约大学的名誉教授,也是Robust AI的创始人兼首席执行官。

他是深度学习的著名批评者,他去年出版的《重启人工智能》一书认为,人工智能的缺点是这项技术本身固有的,因此研究人员必须超越深度学习,并将其与经典或符号人工智能相结合。这些系统编码知识并能够进行推理。这通常被称为人工智能……

或者人们通常认为它是更老式的人工智能。是的。为了稍微退一步,深度学习在非常高的层面上,基本上是这样的想法:你有一套复杂的,嗯,

一组参数,你可以调整和微调以完成不同的事情,你可以获得大量数据并经历一个优化过程来调整这些参数或数字,然后基本上获得一个模型来完成你想要的事情,这仅仅是基于数据的训练优化,并且

在过去十年中取得了许多令人印象深刻的进展。因此,当你拥有面部识别系统时,当你拥有Siri或Google Voice之类的语音识别系统时,这些现在都是基于深度学习的,并且由于深度学习而变得更好。因此,尽管深度学习存在缺陷,正如我们之前听到的偏见和深度伪造一样,

Danny Lang是Unity的AI机器学习副总裁,他属于深度学习阵营。他凭借这项技术的承诺和潜力建立了自己的职业生涯,曾担任Uber的机器学习主管、亚马逊机器学习的总经理以及微软的产品负责人,专注于大规模机器学习。所以他在网上做过机器学习。

深度学习可能遍及许多在该领域开创不同技术的公司。在Unity,他目前帮助DeepMind和OpenAI等实验室构建虚拟训练环境,以教会他们的算法对世界的感知。是的,他采取了……

基本上说我们不一定想将深度学习与经典技术相结合。为了进一步扩展这一点,经典技术的理念是,你不仅仅拥有不同的数字和参数,你可以用数据优化来调整,而是你对推理进行硬编码或预先编写的规则。例如,你知道某事是真的,

另一件事是真的,你有一些硬编码的逻辑或符号推理技术来推断其他事情,某些说法是真是假。

因此,这里辩论的核心是Gary Marcus说我们需要更多深度学习。我们需要将其与其他不依赖数据和优化的事情相结合,而Anyline则认为我们不一定想提出主张。也许我们可以改进和修复深度学习,因为它是一个非常广泛的领域。对符号人工智能的各个方面的编码,符号人工智能实际上需要的是相当困难的。

基本上,你无法编码,你无法作为人类写下你正在思考和做的事情,以及你的神经元可能正在进行的操作。是的,我想为了说明为什么会有这场辩论,部分原因是人工智能的整个领域或其大部分领域,让我们说,已经转向主要使用深度学习。

并且有很多兴奋和炒作,因为转向使用深度学习作为计算机视觉和语音识别中各种任务的主要技术系列

在许多领域已经证明非常有效。因此,我们已经取消了使用硬编码推理算法、手写规则或任何此类内容,转而使用我们只是优化的非常灵活的权重集。

但是现在我们已经这样做了一段时间了,让我们说,近十年了,人们对我们是否能够真正超越深度学习的问题提出了很多质疑,例如,当你的数据有问题时,偏见,例如泛化,基本上就像常识一样。

或者我们是否需要人工智能中根本不同的范例才能实现这一目标。你对此有什么想法,Andrey?我认为这是一个有趣的话题。我的意思是,正如对未来的预测总是如此一样,很难说。这场辩论已经持续了几年了,而且……

甚至设定主张的界限也很复杂。在某些情况下,人们同意我们需要更多,让我们说,关于如何推理、如何注意以及如何基本上推理世界的先验知识。但人们说我们仍然可以使用深度学习工具箱做到这一点。我们只需要考虑一些新的工具和想法。

袖里乾坤。而有些人则说,不,你不能仅仅用数据优化来做到这一点。你需要符号等等。就我个人而言,我属于这样的阵营:好吧。我们已经很好地建立了两种观点。现在我们只需要尝试一些事情,并进行研究以了解什么有效,并开始从不同类型开发算法。但我确实认为多方面探索当然很好。你呢?

这听起来像一个不错的A/B测试。这就是研究,对吧?我的意思是,整个想法是我们所有人都在做随机的事情,然后有些事情实际上是有用的。

对于今年不在Nureps的听众,Gary Marcus在Nureps做了很多研讨会,我相信做了很多,嗯,各种演讲。而且,嗯,他们非常受欢迎,因为那里有一些激烈的辩论。嗯,这几年来一直是一场激烈的争论。嗯,

我认为很多投入到自我监督的工作都被冠以深度学习的名义,但我认为实际上——

实际上,有很多先验知识被嵌入到这些系统中。事实上,卷积包含各种嵌入的先验知识,它们构成了用于计算机视觉的神经网络架构的基础。是的,这是一个有趣的观点,我们的领域在某些方面处于……

我们发现了一个新的、非常强大的锤子,我们花了,让我们说,过去十年的大部分时间来弄清楚我们可以用这个锤子敲击的所有钉子。但现在我们在某些方面已经开始停滞不前,在解决偏见等真正复杂的问题以及验证模型是否总是会避免某种灾难性错误等方面。

它确实表明,人工智能并非正朝着某种失控的列车前进,朝着人类水平的智能发展。我们仍然非常需要很多新的创新,很多新的想法,甚至可能是一个全新的范例,才能继续朝着真正非常复杂的人工智能的目标取得进展。

是的,我认为在深度学习方面甚至更进一步的阵营中,有些人认为我们不仅不想完全嵌入先验知识,我们还希望我们的AI从头开始学习一切。我认为确实有一些人非常相信这一点。所以我认为这场辩论涵盖了相当广泛的观点。是的。

是的,我想让我们希望在未来几年取得进展。人们继续发表论文,最终我们将找到,让我们说,无论接下来什么有效,都需要大量的实验、大量的好奇心、大量的基础研究,现在看来是需要的。

但关于未来的推测就到这里。让我们谈谈现在。本周,机器人与冠状病毒在几篇文章中相遇,我们将讨论这些文章。其中一篇发表在《连线》杂志上,标题是《如果机器人偷走了这么多工作,为什么它们现在没有拯救我们?》

很多人被引导相信,将会发生某种机器人革命,人类将完全被机器人取代,机器人将能够完成他们的所有工作。但人工智能机器人专家和研究人员已经知道,情况并非完全如此。机器人还没有达到那种程度,当然在灵巧性方面没有,在智力方面也没有像人类那样。

有些人确实推测,这场新冠肺炎灾难实际上正在打破机器人接管的神话。是的。我们上周在美国看到,我认为,我们有荒谬的失业数字,对吧?这是一场真正的危机。数百万人将失去工作。而且

这篇文章的重点是,你知道,如果这是真的,如果机器人和人工智能足够先进,我们可以用不会被感染的机器人继续进行很多这项工作等等。但事实是,这项技术还没有达到那个程度。这些工作中的大多数根本无法自动化。现在可能需要的一些最重要的工作无法自动化,这些工作是在医学领域。

而且最近亚马逊宣布他们将招聘10万名额外的人类员工在其配送中心工作,担任送货司机。

担任送货司机,这表明即使是这家极其依赖技术的公司,其机器人技术应用也超过大多数公司,但仍然离不开人类。而且送他们走,通常与机器人一起工作,但整个工作仍然无法自动化。有趣的是,最近,我认为,

就在一两天前,亚马逊员工一直在罢工,因为他们对目前亚马逊配送中心员工的工作条件感到不满。所以你肯定能看到人类是绝对需要的,因为这次罢工对亚马逊来说相当糟糕。

是的,值得记住的是,正如这篇文章指出的那样,所有工作都将被人工智能取代的这种说法,至少在短期内,并非如此。如果我们能够用机器人来应对这场危机,取代许多必要的工人,并确保这些人的安全,那就太好了,但我们做不到。情况就是这样……

但我们也可以在许多情况下使用机器人,而且我们已经在应对冠状病毒的过程中使用了机器人。因此,下一篇文章紧随其后,名为《COVID-19 大流行促使全球机器人使用量增加》。

可以理解的是,COVID-19 大流行激起了人们对机器人、无人机和人工智能的极大兴趣,因为人们试图找出在远程和隔离期间执行各种任务的方法。因此,这篇文章回顾了在此期间提供帮助并增加了其在全球范围内使用的几种不同的机器人。

是的,我们实际上已经在之前的剧集中讨论过很多不同的机器人。例如,医院里的机器人等等。但是这里有一些非常有趣的具体例子。例如,仅引用文章中的内容,它说 XAG 已经扩大了其地面机器人的使用规模。

使用空中无人机将农业单元转换为消毒喷雾器。该公司已在中国部署了 2600 多架无人机,据说中国正在开始复苏。为了进行交付,百度已与 Neolix 合作,使用 Apollo 自动驾驶汽车向北京海淀医院交付食品和用品。百度的 AI 算法也用于追踪感染的传播。

继续这种机器人应用多样化的趋势,汉密尔顿公司提供了其 MAGEX Starlet 和 PCR Prep Starlet SA 辐射工作站。因此,机器人实际上被用于开发针对这场危机的疫苗和治疗方法。

这些不一定是自主机器人。这并不一定涉及人工智能的情况,但这些是物理臂和机器人。

关于许多这些机器人没有人工智能这一点,我们可以继续讨论来自 Wired 的下一篇文章,即 COVID-19 大流行是一场机器人为之而生的危机。这篇文章是关于我们在上周的剧集中讨论过的《科学机器人》杂志上的一篇社论,其中几位机器人研究人员和学者走到一起,基本上说

这一刻向我们表明,当我们面临像这样的危机时,我们确实需要推动先进机器人的研发,以便能够以更多的方式应用它。有趣的是,机器帮助人类完成工作的先例有很多,这是 MI2 机器人专家凯特·达林指出的。她说,自动取款机使银行能够扩大出纳服务。所以自动取款机在这里就是机器人。

排爆机器人让士兵能够与危险保持更大的距离。在某些情况下,自动化将取代人工,但机器人的真正潜力在于补充我们的技能。我们应该停止尝试替代,并开始更具创造性地思考如何利用我们的技术来实现我们的目标,而不是危及生命。

是的,这尤其是在医疗机器人概念方面提到的。我们上周提到,目前有一些公司正在开发机器人,以部署到医院中,以处理一些较简单的任务,并腾出护士的时间。

但这篇社论中提到的一件事是,我们应该大力推动医疗机器人的发展,以便机器人能够与人类一起工作,并带来极大的好处。这篇社论甚至提出了也许我们应该举办医疗机器人竞赛的想法。DARPA 曾经为自动驾驶汽车举办过著名的比赛。

大约 15 年前,此后不久,我们看到了自动驾驶汽车行业的巨大繁荣。大约五年前,我们举办了一场关于灾难响应的竞赛,这同样是机器人非常有用的一个应用。现在,我们可能想要举办一场医疗机器人竞赛,让机器人与人类一起在医院工作。

所以读到所有关于机器人的内容,我想知道,莎伦,你是否嫉妒我们这些与这些系统一起工作的研究人员,或者你是否很高兴主要与数据一起工作?我会嫉妒吗?哦,天哪,如果我能弄清楚硬件的工作原理,并且我有耐心与硬件一起工作,我会从事机器人研究的。是的。

否则,对我来说就是软件。是的,我可以作为一名机器人研究人员对此说一点。我的意思是,我们还没有到达那里是因为这非常困难。我的意思是,当你不仅仅处理软件时,你还在处理物理事物。你需要四处移动。你需要确保它有动力。你需要确保它有正确的版本。它不会撞到任何东西。它不会坏。这很复杂。因此,我们需要一段时间才能真正构建系统,并且

但好消息是,现在我们面临当前的危机,这可能会促使我们加快速度,并真正付出巨大的努力,以比我们原本可能更快地取得进展。

因此,感谢收听本周的 SkyNet Today 的 Let's Talk AI 播客。再次重申,您可以在 skynetoday.com 上找到我们今天在这里讨论的文章,并订阅我们每周类似文章的新闻通讯。无论您在哪里收听播客,请订阅我们,如果您喜欢该节目,请不要忘记给我们评分。务必收听下周的节目。