We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Mini Episode: Pentagon AI, Deep Learning‘s Limits, Discharging Patients, and Robust AI

Mini Episode: Pentagon AI, Deep Learning‘s Limits, Discharging Patients, and Robust AI

2020/7/20
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
D
Daniel Beshear
N
Nand Mulchandani
Topics
Nand Mulchandani:五角大楼联合人工智能中心(JAIC)获得了科技行业的巨大支持,并致力于与国防部合作。该中心将专注于推进军事现有流程和系统,并遵守严格的道德准则,同时拥有内部伦理团队和测试团队以确保软件按预期运行。 Daniel Beshear:JAIC在战场上使用AI,与硅谷的关系将很棘手,当前财政年度的联合作战支出超过所有其他JAIC任务计划的总支出。AI在军事中的应用必然会引发担忧和批评,因为这些流程和系统往往涉及强制和致命武力。深度学习模型的计算成本巨大,其进步依赖于计算能力的提升,未来需要更高效的深度学习方法,否则将会遇到瓶颈。明尼苏达州最大的医院系统使用AI模型辅助患者出院计划,但临床医生没有向患者说明AI系统的作用,这在法规和伦理方面是一个灰色地带。一项新的研究提出了一种训练深度学习系统的方法,使其在安全关键场景中更可靠,但需要谨慎看待其成果,避免夸大其词。 Daniel Beshear: 对五角大楼联合人工智能中心(JAIC)在战场上使用AI表示担忧,认为其与硅谷的关系将很棘手,并且当前财政年度的联合作战支出超过所有其他JAIC任务计划的总支出。同时,深度学习模型的计算成本巨大,未来需要更高效的深度学习方法。此外,评论了明尼苏达州医院系统使用AI辅助患者出院计划的伦理问题,以及一项旨在提高深度学习系统鲁棒性的新研究。

Deep Dive

Shownotes Transcript

我们对上周值得关注的 AI 新闻的第九个音频综述! 本周,我们将关注五角大楼的联合人工智能中心、深度学习的计算极限的最新研究、如何利用 AI 决定何时让病人出院以及最近关于鲁棒性 AI 研究的报告。 查看此处讨论的所有故事以及更多内容,请访问 www.skynettoday.com 主题:深思熟虑,作者:凯文·麦克劳德 (incompetech.com) 根据知识共享许可获得许可:署名 3.0 许可证 </context> <raw_text>0 您好,欢迎收听。我是丹尼尔·贝希尔,这是 Skyden 今日的 AI 周报。本周,我们将关注五角大楼的 AI 中心、深度学习如何逼近其极限、AI 如何帮助决定何时让病人出院以及关于鲁棒性 AI 最新工作的报告。

现在大家都很关注总统大选,但让我们来谈谈五角大楼。五角大楼联合人工智能中心 (JAIC) 新任代理主任南德·穆尔钱达尼声称,科技行业对与该中心和国防部合作有着巨大的支持和兴趣。

《突破性国防》报道称,穆尔钱达尼处于有利地位来宣传这一信息。他接替了陆军中将杰克·沙纳汉,后者领导了一个在硅谷制造了静态的项目。但随着已有两年历史的 JAIC 向 AI 的战场应用迈进,关系将变得棘手。穆尔钱达尼表示,在本财政年度,联合作战的支出超过了所有其他 JAIC 任务计划的支出总和。

此类 AI 应用肯定会引发大量担忧和批评。穆尔钱达尼指出,AI 仅用于进一步推进军方的现有流程和系统。但这些流程和系统确实往往涉及强制和使用致命武力。

穆尔钱达尼回应说,国防部在严格的道德准则下运作。此外,JAIC 本身拥有内部伦理团队和测试团队,以确保其软件按预期运行。这里有很多值得关注的地方,AI 系统带来的风险在作战和潜在致命应用的背景下只会成倍增加。我们将看看 JAIC 的情况如何发展。

说到 AI 系统的问题,我们一直在了解的一个问题是它们带来的巨大计算成本。正如我们在之前的播客中报道的那样,根据 2019 年《麻省理工学院技术评论》的一份报告,一个深度学习模型在其生命周期内的碳排放量相当于五辆汽车。我们看到的深度学习方法的改进依赖于计算能力的提高。

VentureBeat 报道称,来自麻省理工学院、麻省理工学院-IBM 沃森人工智能实验室、安德伍德国际学院和巴西利亚大学的一个研究团队断言,持续的进步将需要通过改变现有技术或发现新的方法来大幅提高计算效率的深度学习方法。

我们当然在这条道路上取得了一些进展。OpenAI 的一项研究发现,自 2012 年以来,训练 AI 模型在 ImageNet 上对图像进行分类的相同性能所需的计算量每 16 个月减少一半。

但目前的深度学习以其计算密集型而闻名。除非发生一些变化,无论是转向更高效的模型还是改变当前的深度学习模型,这些研究人员认为我们注定会遇到瓶颈。

现在,如果您在因受伤或疾病住院后出院,然后后来被告知一台电脑帮助决定让您出院,您会有什么感觉?自 2019 年 2 月以来,明尼苏达州最大的医院系统的数万名患者都经历了这种情况。但他们并没有被告知他们的出院计划决定是在 AI 模型的帮助下做出的。

《Stat News》报道称,该医疗系统 13 家医院中的 4 家已经推出了由硅谷 AI 公司 Qventus 开发的医院出院计划工具。

虽然医疗从业人员将 AI 系统视为与其专业知识一起使用的工具,《Stat》报道称,临床医生避免在与患者的谈话中提及 AI 系统的作用。被《Stat》询问过这种情况的患者对他们是否想了解 AI 系统的作用持有不同的意见。这些系统本身并不是治疗方法或全自动诊断工具,也不会直接决定患者可能接受的治疗类型。

这意味着,即使 AI 系统提供了信息,最终判断也留给了临床医生。就法规和伦理而言,这肯定是一个灰色地带。希望我们很快能听到更多关于这方面的信息。

最后,国际机器学习大会即将到来,随之而来的是大量新的令人兴奋的研究。最近,《麻省理工学院技术评论》报道了伊利诺伊大学厄巴纳-香槟分校的李博及其同事的一篇论文。该论文提出了一种新的方法来训练深度学习系统,使其在安全关键场景中更可靠,因此更值得信赖。

这篇文章考虑了一种场景,其中深度学习系统用于重建医学图像,但对抗性攻击可能会导致系统在一个没有肿瘤的扫描中重建肿瘤之类的伪影。虽然这项研究非常重要,但文章的标题“一种训练 AI 系统的新方法可以使其免受黑客攻击”掩盖了这样一个事实,即此类研究已经进行了很长时间,并且该领域任何关于鲁棒性 AI 系统的进步都可以用类似的词语来描述。

当然,这篇论文因其对现有方法的改进而值得称赞,但读者应该谨慎,不要成为点击诱饵的受害者,也不要认为我们找到了任何接近完美的方法。本周就到这里。非常感谢您的收听。如果您喜欢这个播客,请务必评分和分享。如果您想听到更多这样的新闻,请访问 skynetoday.com,您可以在那里找到我们每周的新闻摘要,其中包含类似的文章。