We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI for lonely people, GPT-3 is toxic, Tesla investigation develops, Kiwibot

AI for lonely people, GPT-3 is toxic, Tesla investigation develops, Kiwibot

2021/9/11
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Andrey Kornikov
S
Sharon Zhou
Topics
Andrey Kornikov:AI聊天机器人Xiao Ice在中国非常流行,许多用户将其视为虚拟伴侣,尤其是在晚上,缓解了他们的孤独感。但这种现象也引发了人们的担忧,即过度依赖AI聊天机器人可能会减少人际互动。 Sharon Zhou:Xiao Ice的流行可能既有积极方面(缓解孤独),也有消极方面(可能导致人们减少与现实中的人互动)。目前很难判断其积极或消极影响,因为它可能既能缓解孤独,也可能减少人际互动。 Andrey Kornikov:一些AI初创公司声称可以通过语音检测抑郁症,但其准确性仍有待验证。基于语音的抑郁症检测技术已经获得投资,并开始试点应用,但其准确性仍存在争议。部分专家认为其可靠性不高。 Sharon Zhou:如果语音抑郁症检测技术有效,将有助于简化抑郁症诊断流程,但目前其准确性尚不明确。语音抑郁症检测技术可能导致误诊,并带来保险费用上涨等问题。

Deep Dive

Chapters
Discussion on the popularity and implications of AI chatbot XiaoIce in China, which has 150 million users, and its role in potentially exacerbating or alleviating loneliness.

Shownotes Transcript

我们的第71集,回顾和讨论上周的重要AI新闻! 本周: 应用 “永远在这里”:AI聊天机器人安慰中国孤独的数百万 AI初创公司声称可以通过语音检测抑郁症,但其准确性仍有待验证

研究发现GPT-3模仿人类对“冒犯性”Reddit评论的喜爱 AI研究人员在Google Maps中引入图神经网络估计器用于ETA预测

特斯拉被要求向联邦安全机构提供自动驾驶数据。 亚马逊、微软和谷歌的面部识别系统仍存在偏见

人类驾驶的汽车曾撞上一个自主机器人 这些可爱的电动机器人可能很快就会为你送餐

在我们的新闻汇总文本版本中找到更多内容:https://lastweekin.ai/p/132 音乐:Deliberate Thought,灵感来自Kevin MacLeod(incompetech.com) </context> <raw_text>0 你好,欢迎收听Skynet Today的《上周AI动态》播客,在这里你可以听到AI研究人员讨论AI的最新动态。和往常一样,在这一集中,我们将提供一些上周最有趣的AI新闻的摘要和讨论。我是Sharon Zhou博士。

我是Andrey Kornikov,本周我们将讨论一个AI聊天机器人如何让人们不再孤独,GPT-3模仿Reddit的冒犯性评论,特斯拉被联邦政府调查,以及一些可爱的机器人,还有其他一些事情。让我们直接开始吧。

我们的第一个故事标题是“永远在这里:一个安慰中国孤独数百万的AI聊天机器人。”这讲的是一个名为小冰的东西,我想,这个机器人最初是由微软开发的,现在已经成为一个真正的巨大现象。它在中国有1.5亿用户。

主要是这是一个你可以当作准朋友聊天的聊天机器人。有趣的是,这个现象真的很庞大。很多人都在和它聊天。是的,它现在已经成为微软的一个非常有价值的衍生产品。

我记得当CIS在多年前首次由微软宣布时,它已经迅速积累了用户,真的很令人印象深刻。而我认为现在真正令人印象深刻的是它的粘性,这些用户一直留存下来。

在中国就有1.5亿用户。人们与这个机器人互动,就像它是他们的虚拟女友或男友一样,变得非常亲密,同时也填补了孤独感,因为使用的高峰时段是在晚上11点到凌晨1点之间。

所以那时人们真的渴望一个伴侣。而小冰总是在那里,你知道吗?是的,我想有趣的是,我不知道它还有什么其他功能,但我想主要的想法是模仿社交互动。从这个意义上说,我认为我们之前讨论过,这很难判断...

这是否是件好事。我们知道统计上人们是孤独的,青少年总是在线。但不知为何,我们比以前更加孤立。在某种程度上,我可以看到这加剧了这种情况,人们可能会把它当作拐杖,而不是努力与朋友联系,做那种事情。

所以,是的,我对这个现象如此庞大以及人们如此投入感到有点奇怪。但也许这也是积极的,帮助人们。

我认为很难说,因为我认为我们可以说,这是积极的,因为它帮助人们,否则他们在晚上会变得更加抑郁。但另一方面,这又是消极的,因为也许他们将来再也不想与其他人类互动了。所以,是的,我并不觉得人们会因为小冰的存在而不想与人类互动,考虑到小冰的现状和使用的高峰时段。但有可能

它会抑制很多人际互动,因为小冰可能更友好,更容易接近,更少评判,你知道的,所有这些东西。是的,是的。但我的意思是,我想这可能比刷Reddit或Twitter要好。所以也许减少社交媒体的使用实际上是好的。是的。

是的,我想这就是你所比较的。如果你把它与最好的东西进行比较,那么我们永远无法创造出如此伟大的乌托邦,但与现状相比,这可能满足了我们如今的巨大需求。

接下来是我们的下一篇文章,AI初创公司声称可以通过语音检测抑郁症,但其准确性仍有待验证。2012年在《生物精神病学》期刊上发表了一项研究,研究团队来自威斯康星州的心理咨询中心(CPC)。他们基本上假设抑郁症患者的声音特征可能揭示他们抑郁的严重程度。合著者表示,有几个所谓的可行生物标志物。整个研究部分由辉瑞资助。

自那时以来,许多不同的初创公司声称可以利用AI自动检测抑郁症,基于人们的声音进行训练,能够检测出“哦,从你的声音中,我可以判断你抑郁的严重程度或你是否有抑郁症”。

其中一个努力是Ellipsis Health,他们可以通过你说话90秒生成你抑郁程度的评估。他们在A轮融资中筹集了2600万美元。

你对此有什么看法?是的,是的。这是一个有趣的阅读。确实,我认为有趣的是这已经在试点,并得到了保险提供商Cigna的支持。

这篇文章的标题暗示,准确性仍有待验证,它还涵盖了一些人们的担忧。例如,有AI研究人员Mike Cook被引用表示,他觉得这不太可能有效。

他提到了一些我们知道的事情,比如情感识别的AI曾经也是一个热门话题,你看一个人的面部表情。但事实上,很多研究并不可靠,已经被证明存在问题。所以,是的。

我不知道。我认为如果它有效,那当然很好,因为现在诊断抑郁症仍然非常不确定。你基本上必须去找一个人,或者自我评估,谈论这个问题。所以如果这有效,那就太好了。

它确实有效,但我想现在还为时已晚。但我认为这是合理的,如果它真的能派上用场,那就太酷了。

我认为假阳性可能会让人有点担忧,人们给出自我诊断,然后这变成了自我实现的预言,你会说,“我并不抑郁,但这说我抑郁,所以也许我抑郁”,你知道的,我不知道这是否真的会发生。我可以看到这种情况发生,只是从心理学的角度来看。我也有点担心,关于

下游的使用案例和干预措施,尤其是保险公司介入时。所以他们可能会...

如果你似乎抑郁,他们可能会提高你的实际保险费用,或者类似的事情。这会有点令人担忧。我想知道,是否有其他简单的变量可以考虑,比如与人进行一些轻微的、非常小的对话。是的。是的,我想象这必须以人机协作的方式使用,也许这是第一步,只是让你知道你应该去找精神科医生或治疗师,但我不认为这本身就足够用于诊断。所以从这个意义上说,思考这将在哪里有用是很有趣的。也许它可以成为精神科医生和治疗师在实践中用来帮助诊断的工具。这会很有趣。对,绝对是。

接下来是我们的研究文章。第一篇是“研究发现GPT-3模仿人类对‘冒犯性’Reddit评论的喜爱”。所以对冒犯性Reddit评论的喜爱。请注意这一点。基本上,一项新的研究发现,聊天机器人非常倾向于同意有毒语言和冒犯性评论,而不是安全评论。所以在某种程度上,它们对刺激性内容的兴趣与我们一样多。这项研究是在乔治亚理工学院和华盛顿大学进行的。

他们基本上查看了2000个不同的Reddit线程,并支付亚马逊机械土耳其工人对其进行标注,标记为安全或冒犯性。然后他们让不同的GPT模型,大型语言模型同意冒犯性评论或安全评论。他们发现这些模型同意冒犯性评论的可能性是安全评论的两倍。

一个有趣的细节是,聊天机器人实际上更倾向于对个体进行更多的人身攻击,而人类更可能针对特定的人群或整个群体进行攻击或冒犯,而不是个体。是的。这是一项相当有趣的研究。

我不太清楚这些是否是预训练而未微调的语言模型。我确实相信他们说他们查看了一些现有模型,比如GPT-3和其他一些模型。当然,从理解这些神经对话生成引擎在野外运行时的表现来看,这是有用的。

这提供了一些相当好的证据,正如我们在其他案例中看到的那样,

这些模型可能会倾向于比你希望的更刺激,而这篇论文中有趣的一点是,他们还分析了现有的可控文本生成方法,以减轻这些对话模型的上下文冒犯性。因此,实际上已经有工作确保语言模型按照你的意愿运行。

他们研究了这项工作并表明它可以改善情况。所以也许并不令人惊讶。我是说,他们还显示出一般来说,Reddit用户也表现出偏好冒犯性内容的行为。所以语言模型只是做了同样的事情。是的,我想这只是需要注意的事情,实证上也很有趣。

是的,很有趣的是,刺激性评论同样引起我们的兴趣,就像语言模型一样。我想这可能是因为统计上,我们实际上可以捕捉到这些东西,即使它们是刺激性的,我们也可以捕捉到这一点。是的。

我觉得这真的很有趣,因为这并不一定是直观的,对吧?我们只是认为这是更刺激的语言,因为我们学会了它是的。结果发现你可以从语言环境中统计学习到这一点。是的,所以很高兴看到更多的工作在研究模型的下游行为,而不仅仅是构建我们不太理解的更多模型。是的。

但接下来是我们的第二篇研究文章,AI研究人员在Google Maps中引入图神经网络估计器用于ETA预测。ETA是预计到达时间。当你在Google Maps上绘制路径时,你会得到这个信息。它大致告诉你,你将在25分钟、30分钟等到达。

因此,来自DeepMind、Waymo、Google、亚马逊、Facebook AI和CII实验室的研究团队,组成了一个相当强大的团队,提出了一种新的图神经网络用于ETA预测。该模型已经在Google Maps中投入生产。因此,基本上,该模型旨在估计预计到达时间。

它大大减少了错误估计的数量。因此,确实是一个令人兴奋的结果,也是一次很酷的合作。我认为图神经网络在建模道路和拥堵方面表现良好是完全合理的,因为道路确实很像图形结构。是的,我的意思是,我们知道Google Maps确实会在你驾驶时提供更新的ETA。有时我在想,最开始的ETA是否真实。这没关系。这没关系。因此,更准确的ETA总是受欢迎的,尤其是对于非常紧张的路线规划或转移某种大拥堵。

这是一个跨越被视为竞争对手的实体之间的巨大合作,对吧?谷歌、亚马逊、Facebook,尤其是。是的,很高兴看到这个已经在Google Maps上投入使用,这个服务面向数百万用户,并且已经证明了它的好处。论文还引用了一些先前的研究,这些研究导致在网络规模推荐系统中投入使用。因此,很高兴看到,至少在某种程度上,我们有一篇关于已经在产品中投入使用的论文,而通常我认为对于产品,我们并不真正了解它们是如何工作的。因此,很高兴看到这篇论文在这方面提供了更多透明度。

接下来是我们的伦理与社会文章。第一篇是特斯拉被要求向联邦安全机构提供自动驾驶数据。

好的。正如我们一直在跟踪这个特斯拉的故事,特斯拉现在被要求在10月22日之前交出所有的自动驾驶数据,否则如果他们拒绝遵守或未能达到这一要求,可能会面临高达1.15亿美元的罚款。

这只是对特斯拉汽车撞上各种不同车辆,特别是紧急车辆和消防车的长期调查的一部分。NHTSA(国家公路交通安全管理局)是请求这些信息的机构,负责确保道路安全。

是的,看到这个故事如此迅速发展真有趣。我想我们几周前刚讨论过这个调查。

所以,是的,这似乎相当严重。这个文档请求要求提供有关Adapalette如何工作的详细信息,保险司机的注意力如何,是否有任何限制可以开启,仲裁法、诉讼、投诉测试等。

如果特斯拉在10月22日之前未能提供信息,他们表示可能会处以高达1.15亿美元的罚款,如果公司不遵守。因此,是的,确实,我不知道,这似乎是个大事。这个调查确实相当严肃。

相关的文章标题是“在特斯拉的自动驾驶调查中,近一半公众认为自动驾驶汽车不如普通汽车安全。”这只是...

公众现在对特斯拉的看法如何?嗯,我发现文章中的一些统计数据相当有趣。37%的美国成年人表示,他们可能在未来乘坐自动驾驶汽车。34%的人表示他们不会。因此,大约相同数量的人表示他们将来会或不会乘坐自驾车。17%的人认为自动驾驶汽车与人类驾驶的汽车一样安全。这实际上比2018年的8%有所上升。这意味着很多人认为它并不安全。尽管如此,实际上超过一半的美国人并没有听说过涉及特斯拉使用自动驾驶的事故,或者联邦政府对此的调查。因此,这整个故事我发现这些统计数据相当有趣,至少在硅谷,我们生活在一个泡沫中,大家都听说过,显然是特斯拉自动驾驶,所有这些事情,但在美国,很多人并没有,嗯,我想,自动驾驶汽车的信心并没有像在

这里的硅谷中心那么强。

是的,我也同意这一点。我发现这些统计数据非常有趣,我觉得这提醒我们,AI领域的我们和很多人都非常清楚自动驾驶的现状,我们知道它并不完全可靠,但现在可以处理很多事情。但在AI圈外,合理地假设公众对此的了解较少。

现在,接下来是我们的第二篇伦理与社会文章,偏见在亚马逊、微软和谷歌的面部识别系统中仍然存在。近年来有一些研究显示出偏见,特别是在2018年的性别阴影项目中。这些公司表示,他们将努力修复其商业产品中的这些偏见。

但马里兰大学的研究人员进行的一项新研究发现,这些服务仍然存在缺陷,并且相对容易检测到。因此,所有三者在面对年长、肤色较深的人时更可能失败,而不是年轻、肤色较浅的人。

这特别关注这些系统的鲁棒性。因此,我们不仅仅有正常的图像。我们还有不同类型噪声的图像。所以,你知道,有点模糊、运动模糊,或者图像可能很亮或像素化,诸如此类。因此,是的,我有点惊讶,考虑到

已经有多年时间来修复它,但也许这种针对带有噪声的图像的鲁棒性研究有点新。我不确定我是否会期待事情在没有任何缺陷的情况下工作。但当然,当这些系统在存在噪声时仍然存在偏见是糟糕的。

只有当这个问题得到解决或适度改善时,我才会感到惊讶,因为尽管围绕这个问题有很多报道,但我们并没有真正改善。我希望我们能做到。我认为人们正在努力,但很多公司并没有优先考虑这一点。是的,我们在论文中看到,他们表示

亚马逊的面部识别API在年长者面部识别错误的可能性比年轻人高145%。而肤色较浅和较深的整体错误率分别为8.5和9.7。因此,仍然存在一些相当大的差异。正如你所说,希望他们正在改善,我想他们确实有所改善,但

看到这些研究不断确认这一情况并推动他们朝着正确方向发展是好的。对。相关的文章是Facebook在AI将黑人的视频标记为“灵长类动物”后道歉。因此,正如你可能从标题中猜到的,Facebook用户表示,

他们观看了一个显示黑人男性的视频。这是一个英国小报。但随后Facebook发出了一个自动提示,询问他们是否希望“继续观看关于灵长类动物的视频”。这导致该公司调查,禁用推动该消息的AI功能。这绝对是不可接受的。Facebook对此表示道歉。这与我们之前看到的关于大猩猩标签的事件非常相似,我想与谷歌有关。嗯,我想,

是的,这很不幸,超级不幸。我很高兴Facebook对此表示道歉。但现在几年过去了,这个问题仍然没有得到解决。是的。我发现这个故事也很有趣,因为我认为它不仅指向偏见,而且有时AI系统由于不同的输入或其他原因而犯错误。因此,设计系统时需要保持警惕,真正意识到可能发生的错误,并以避免这些错误的方式设计系统。因此,你希望...

鉴于2015年谷歌时代的类似事件,产品设计师会意识到你想要避免可能显得种族主义的标签。而这里恰恰发生了这种情况,希望这确实能让人们更加意识到思考这些事情。

接下来是我们的趣闻文章。第一篇是人类驾驶的汽车曾撞上一个自主机器人。好的。这在一个Tik TOK视频中展示了一个小型自驾机器人无法逃脱人类驾驶的汽车,实际上被撞了。在

小型自主机器人的辩护中,视频中显示它似乎有优先通行权。这个视频是在肯塔基大学拍摄的。

是的。这是一个有趣的短片,只有五秒钟。它展示了这个小型送货机器人,像一个小车一样自驾,穿过街道,这已经很有趣了。然后这辆车转弯并撞到了它。然后你可以看到机器人,知道它的一个轮子几乎悬挂着。

所以,是的,我不知道。这是一个可爱、有趣的视频。我对这个小机器人感到有点难过。我不知道。有趣的新闻故事。我想我们总是对弱者感到同情。

而局势似乎有点逆转。是的,因为我们听说并讨论过特斯拉的自动驾驶撞击物体,但现在是这个小小的自主机器人被一辆更大的车撞了。这是一个有趣的反转。是的。

对,相关的第二篇文章标题是“这些可爱的电动机器人可能很快就会为你送餐。”这讲的是Kiwibot。是的,这正是与上一则故事中相同类型的机器人。它送餐。

我们已经看到并讨论了很多这样的机器人,我想这是一个新兴趋势。正如文章标题所暗示的,这个机器人的一个卖点是它很可爱。它有一个小脸显示屏,可以做出不同的表情。但文章中还有一些有趣的统计数据和其他内容。

是的,它超级可爱。他们有一个很棒的,我必须说,宣传视频。我发现150,000次食物送达真的非常令人印象深刻,使用这些电动半自主机器人。是的,是的,确实。我认为他们选择半自主的路线是明智的。我不知道这是否是标准,但...

显然似乎是一个正确的起点。现在我们正在扩展到圣荷西、匹兹堡、底特律,并在不同的大学部署。自2017年以来,他们已经有400个机器人,并正在进行试点项目。因此,是的,似乎我们很快就会看到这些小型QWD机器人在我们的城市中四处行驶,这...

我当然不介意。我认为这会让事情变得更有趣。我认为他们在大学校园进行试点是完全合理的,因为那是你想要的,晚上想吃点零食或其他东西。而且他们已经部署了400个机器人,这真是很多在生产中的机器人。是的。这是一个有趣的地方,我想象一下,比如从距离五到十分钟的商店进行超本地送货。

这可能会很有用。我不确定什么会有意义,但是的,似乎在这个领域有很多公司。因此,这是一个有趣的发展。我想看到的不仅仅是这一家,而是很多这些机器人都很可爱。这很好。是的,它们真可爱。

就这样,这一集就到此为止。如果你喜欢我们对这些故事的讨论,请务必分享和评论这个播客。我们会非常感激。请务必下周收听。