We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Mini Episode: TikTok, Cheap Deepfakes, AI in 2020, and Deference

Mini Episode: TikTok, Cheap Deepfakes, AI in 2020, and Deference

2020/8/9
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
D
Daniel Bashir
Topics
Daniel Bashir: 本周的AI新闻综述涵盖了微软潜在收购TikTok的原因、深度伪造技术的廉价化、人工智能在适应2020年事件方面的挑战以及人工智能学习何时该向人类让步。微软收购TikTok的动机在于获取TikTok的大量视频数据,用于训练其人工智能系统。这将有助于微软在人工智能领域取得进展,并使TikTok能够继续独立运营并获得更多收益。 Daniel Bashir: 深度伪造技术正变得越来越廉价易得。安全公司FireEye的数据科学家Philip Tully利用开源AI软件创建了Tom Hanks的深度伪造图像,证明了其易于被用于虚假信息宣传。虽然细节上可能存在瑕疵,但这些图像在用作缩略图时很容易被误认为真实。Tully的实验表明,个人可以轻松地利用深度伪造技术传播虚假信息。Georgetown的研究员Tim Huang认为,深度伪造目前并非迫在眉睫的威胁,但社会仍应投资于防御措施。FireEye追踪虚假信息宣传的团队负责人Lee Foster认为,虚假信息传播者可能会很快转向深度伪造技术。 Daniel Bashir: 2020年的事件(COVID-19、社会动荡等)导致了社会和文化规范的突然变化,使得人工智能难以适应。计算机视觉模型难以正确标记当今新场景和情境的图像。例如,AI模型可能将在家工作的父亲和玩耍的儿子的照片归类为休闲而非工作。更新算法的训练数据至关重要,但这可能会导致意外的偏见增加。 Daniel Bashir: 麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种AI系统,该系统可以根据人类合作者的优缺点来优化AI是否应该让步的决策。该系统使用两个单独的机器学习模型:一个模型做出诊断患者或删除社交媒体帖子的实际决策,另一个模型预测AI或人类哪个是更好的决策者。研究人员在图像识别和仇恨言论检测等任务中测试了这种混合方法,发现AI系统能够适应专家的行为并在适当的时候让步。然而,现实生活中的决策远比实验室场景复杂,因此该混合模型在处理这些情况时的表现如何还有待观察。 Philip Tully: 开源AI软件很容易被改编用于虚假信息宣传,即使预算有限,个人也能轻松创建逼真的深度伪造图像。 Tim Huang: 深度伪造技术目前虽然没有构成直接的威胁,但是社会应该提前做好防御措施。 Lee Foster: 鉴于深度伪造技术的易用性和低成本,虚假信息传播者很可能会很快采用这种技术。

Deep Dive

Shownotes Transcript

您好,欢迎收听本期SkyNet Today人工智能周报,我是丹尼尔·巴希尔。本周,我们将关注TikTok、深度伪造、人工智能适应2020年的困境以及人工智能如何学习决定是否服从人类。在美中紧张关系加剧之际,特朗普总统已下令禁止社交媒体应用TikTok和微信,除非它们被中国母公司出售。

最近,微软一直在洽谈收购字节跳动旗下的TikTok。微软似乎是一个有希望但或许出人意料的买家,因为TikTok古怪的景象与微软所熟知的那些平凡但广泛的应用相去甚远。但正如《华盛顿邮报》报道的那样,TikTok为微软提供了其竞争对手已经拥有的东西:用于训练人工智能系统的大量视频数据。

一次成功的收购可能会让TikTok继续独立运营,同时帮助它赚到比以前更多的钱。此外,它还将使微软能够使用更多视频数据来推动人工智能技术的最新发展。我们的下一个故事从一个问题开始:你为什么要把河水放进你的袜子里?因为这又快又便宜又容易。

你知道什么也变得便宜和容易了吗?深度伪造。网上有很多汤姆·汉克斯的照片,但没有一张像8月5日星期三在黑帽电脑安全会议上出现的那张照片。如果你想知道汤姆·汉克斯究竟会在电脑安全会议上做什么,你不是一个人。这些图像实际上并非真实,而是由机器学习算法生成的。

《连线》杂志报道称,安全公司FireEye的数据科学家菲利普·塔利生成了这些图像,以展示人工智能实验室的开源软件如何轻松地被改编用于虚假信息宣传活动。

虽然细微的细节可能会暴露其真实性,但如果用作缩略图,人工智能生成的图像很容易被误认为是真实的。此外,塔利只需要收集几百张汉克斯的在线图像,并花费不到100美元来调整开源人脸生成软件到汉克斯的面孔。

虽然塔利的实验表明,个人使用深度伪造来传播虚假信息是多么容易,但乔治城大学研究员黄婷说,深度伪造虚假信息的杀手级应用尚未出现。黄婷最近撰写了一份报告,报告的结论是深度伪造并不构成严重和迫在眉睫的威胁,但社会应该投资于防御措施。

领导FireEye追踪虚假信息宣传活动团队的李福斯特说,塔利的成果以及他自己在虚假信息方面的经验,让他认为他们很快就会转向深度伪造。塔利伪造的汉克斯的质量与骗子的可行替代方案相差无几。

如果你是人,或者甚至不是人,你的习惯很可能受到了2020年至今事件的极大影响,鉴于COVID-19、民权运动、美国大选和其他重要变化。TechCrunch报道称,随着社会和文化规范的突然变化,我们教给人工智能的真理不再是真理。

特别是,计算机视觉模型难以适当地标记我们今天发现的新场景和情境的描述。

TechCrunch文章举了一个父亲在家工作而儿子在玩的例子。人工智能模型通常会将此类照片归类为休闲或放松,而不是工作或办公室,这更准确地描述了新的现实。正如我们上周讨论的那样,人脸识别研究人员也希望调整他们的算法以适应新的戴口罩的规范。

TechCrunch指出,更新提供给这些算法的数据至关重要,但在创建内容时,我们可能会产生更大的无意偏差。文章举例说明,看到戴口罩的白人图像比其他种族更多。但是,虽然我们今天拥有的许多数据在其收集过程中已经包含偏差,但规范的转变或许会给我们一个机会做得更好,因为我们为我们的算法配备了与我们的新现实相符的新数据。

如果我们这次采取更谨慎的方法,我们或许有机会减轻人工智能偏差的一些负面影响。在一个人工智能变得无处不在的世界里,我们开始遇到人类和人工智能将如何互动的问题,因为两者共同作用可以胜过任何一方单独行动。

例如,在医疗领域,存在一个问题,即如何将人工智能的决策纳入最终的医疗决策中。由于人工智能旨在做出决策,如果人类能够做出更好的决策,它们应该服从人类。麻省理工学院技术评论报道称,麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种人工智能系统,用于优化关于人工智能是否应该根据人类合作者的优势和劣势而服从的决策。

该系统使用两个独立的机器学习模型:一个模型做出诊断病人或删除社交媒体帖子的实际决定,另一个模型预测人工智能或人类哪个是更好的决策者。研究人员在图像识别和仇恨言论检测等任务中测试了这种混合方法,发现人工智能系统适应了专家的行为,并在适当的时候服从。

这些实验很简单,研究人员认为这种方法最终可以应用于医疗保健和其他领域的复杂决策。但关键词是“最终”。我们应该警惕对这些结果及其适用性想得太多,而没有进行大量的迭代和测试。现实生活中的决策确实比实验室场景复杂得多,很难知道混合模型将如何处理这些情况。

本周就到这里。非常感谢您的收听。如果您喜欢这个播客,请务必评分和分享。如果您想听到更多这样的新闻,请访问skynetoday.com,在那里您可以找到我们每周的新闻摘要,其中包含类似的文章。