We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Mini Episode: TikTok, Cheap Deepfakes, AI in 2020, and Deference

Mini Episode: TikTok, Cheap Deepfakes, AI in 2020, and Deference

2020/8/9
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
D
Daniel Bashir
Topics
Daniel Bashir: 本周的AI新闻综述涵盖了微软潜在收购TikTok的原因、深度伪造技术的廉价化、人工智能在适应2020年事件方面的挑战以及人工智能学习何时该向人类让步。微软收购TikTok的动机在于获取TikTok的大量视频数据,用于训练其人工智能系统。这将有助于微软在人工智能领域取得进展,并使TikTok能够继续独立运营并获得更多收益。 Daniel Bashir: 深度伪造技术正变得越来越廉价易得。安全公司FireEye的数据科学家Philip Tully利用开源AI软件创建了Tom Hanks的深度伪造图像,证明了其易于被用于虚假信息宣传。虽然细节上可能存在瑕疵,但这些图像在用作缩略图时很容易被误认为真实。Tully的实验表明,个人可以轻松地利用深度伪造技术传播虚假信息。Georgetown的研究员Tim Huang认为,深度伪造目前并非迫在眉睫的威胁,但社会仍应投资于防御措施。FireEye追踪虚假信息宣传的团队负责人Lee Foster认为,虚假信息传播者可能会很快转向深度伪造技术。 Daniel Bashir: 2020年的事件(COVID-19、社会动荡等)导致了社会和文化规范的突然变化,使得人工智能难以适应。计算机视觉模型难以正确标记当今新场景和情境的图像。例如,AI模型可能将在家工作的父亲和玩耍的儿子的照片归类为休闲而非工作。更新算法的训练数据至关重要,但这可能会导致意外的偏见增加。 Daniel Bashir: 麻省理工学院计算机科学与人工智能实验室的研究人员开发了一种AI系统,该系统可以根据人类合作者的优缺点来优化AI是否应该让步的决策。该系统使用两个单独的机器学习模型:一个模型做出诊断患者或删除社交媒体帖子的实际决策,另一个模型预测AI或人类哪个是更好的决策者。研究人员在图像识别和仇恨言论检测等任务中测试了这种混合方法,发现AI系统能够适应专家的行为并在适当的时候让步。然而,现实生活中的决策远比实验室场景复杂,因此该混合模型在处理这些情况时的表现如何还有待观察。 Philip Tully: 开源AI软件很容易被改编用于虚假信息宣传,即使预算有限,个人也能轻松创建逼真的深度伪造图像。 Tim Huang: 深度伪造技术目前虽然没有构成直接的威胁,但是社会应该提前做好防御措施。 Lee Foster: 鉴于深度伪造技术的易用性和低成本,虚假信息传播者很可能会很快采用这种技术。

Deep Dive

Shownotes Transcript

Our twelfth audio roundup of last week's noteworthy AI news!

This week, we look at Microsoft's reasons for the TikTok acquisition, how depefakes are becoming cheaper, AI's struggle to adapt to 2020, and how AI is learning when to defer to humans. 

Check out all the stories discussed here and more at www.skynettoday.com)

Theme: Deliberate Thought by Kevin McLeod (incompetech.com)

Licensed under Creative Commons: By Attribution 3.0 License)