您好,欢迎收听本期SkyNet Today人工智能周报,我是丹尼尔·巴希尔。本周,我们将关注TikTok、深度伪造、人工智能适应2020年的困境以及人工智能如何学习决定是否服从人类。在美中紧张关系加剧之际,特朗普总统已下令禁止社交媒体应用TikTok和微信,除非它们被中国母公司出售。
最近,微软一直在洽谈收购字节跳动旗下的TikTok。微软似乎是一个有希望但或许出人意料的买家,因为TikTok古怪的景象与微软所熟知的那些平凡但广泛的应用相去甚远。但正如《华盛顿邮报》报道的那样,TikTok为微软提供了其竞争对手已经拥有的东西:用于训练人工智能系统的大量视频数据。
一次成功的收购可能会让TikTok继续独立运营,同时帮助它赚到比以前更多的钱。此外,它还将使微软能够使用更多视频数据来推动人工智能技术的最新发展。我们的下一个故事从一个问题开始:你为什么要把河水放进你的袜子里?因为这又快又便宜又容易。
你知道什么也变得便宜和容易了吗?深度伪造。网上有很多汤姆·汉克斯的照片,但没有一张像8月5日星期三在黑帽电脑安全会议上出现的那张照片。如果你想知道汤姆·汉克斯究竟会在电脑安全会议上做什么,你不是一个人。这些图像实际上并非真实,而是由机器学习算法生成的。
《连线》杂志报道称,安全公司FireEye的数据科学家菲利普·塔利生成了这些图像,以展示人工智能实验室的开源软件如何轻松地被改编用于虚假信息宣传活动。
虽然细微的细节可能会暴露其真实性,但如果用作缩略图,人工智能生成的图像很容易被误认为是真实的。此外,塔利只需要收集几百张汉克斯的在线图像,并花费不到100美元来调整开源人脸生成软件到汉克斯的面孔。
虽然塔利的实验表明,个人使用深度伪造来传播虚假信息是多么容易,但乔治城大学研究员黄婷说,深度伪造虚假信息的杀手级应用尚未出现。黄婷最近撰写了一份报告,报告的结论是深度伪造并不构成严重和迫在眉睫的威胁,但社会应该投资于防御措施。
领导FireEye追踪虚假信息宣传活动团队的李福斯特说,塔利的成果以及他自己在虚假信息方面的经验,让他认为他们很快就会转向深度伪造。塔利伪造的汉克斯的质量与骗子的可行替代方案相差无几。
如果你是人,或者甚至不是人,你的习惯很可能受到了2020年至今事件的极大影响,鉴于COVID-19、民权运动、美国大选和其他重要变化。TechCrunch报道称,随着社会和文化规范的突然变化,我们教给人工智能的真理不再是真理。
特别是,计算机视觉模型难以适当地标记我们今天发现的新场景和情境的描述。
TechCrunch文章举了一个父亲在家工作而儿子在玩的例子。人工智能模型通常会将此类照片归类为休闲或放松,而不是工作或办公室,这更准确地描述了新的现实。正如我们上周讨论的那样,人脸识别研究人员也希望调整他们的算法以适应新的戴口罩的规范。
TechCrunch指出,更新提供给这些算法的数据至关重要,但在创建内容时,我们可能会产生更大的无意偏差。文章举例说明,看到戴口罩的白人图像比其他种族更多。但是,虽然我们今天拥有的许多数据在其收集过程中已经包含偏差,但规范的转变或许会给我们一个机会做得更好,因为我们为我们的算法配备了与我们的新现实相符的新数据。
如果我们这次采取更谨慎的方法,我们或许有机会减轻人工智能偏差的一些负面影响。在一个人工智能变得无处不在的世界里,我们开始遇到人类和人工智能将如何互动的问题,因为两者共同作用可以胜过任何一方单独行动。
例如,在医疗领域,存在一个问题,即如何将人工智能的决策纳入最终的医疗决策中。由于人工智能旨在做出决策,如果人类能够做出更好的决策,它们应该服从人类。麻省理工学院技术评论报道称,麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种人工智能系统,用于优化关于人工智能是否应该根据人类合作者的优势和劣势而服从的决策。
该系统使用两个独立的机器学习模型:一个模型做出诊断病人或删除社交媒体帖子的实际决定,另一个模型预测人工智能或人类哪个是更好的决策者。研究人员在图像识别和仇恨言论检测等任务中测试了这种混合方法,发现人工智能系统适应了专家的行为,并在适当的时候服从。
这些实验很简单,研究人员认为这种方法最终可以应用于医疗保健和其他领域的复杂决策。但关键词是“最终”。我们应该警惕对这些结果及其适用性想得太多,而没有进行大量的迭代和测试。现实生活中的决策确实比实验室场景复杂得多,很难知道混合模型将如何处理这些情况。
本周就到这里。非常感谢您的收听。如果您喜欢这个播客,请务必评分和分享。如果您想听到更多这样的新闻,请访问skynetoday.com,在那里您可以找到我们每周的新闻摘要,其中包含类似的文章。