We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI News Coverage, Pseudo AI Companies, and more on COVID-19

AI News Coverage, Pseudo AI Companies, and more on COVID-19

2020/4/18
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Andrey Kurenkov
S
Sharon Zhou
Topics
Andrey Kurenkov:就科技界积极参与抗击疫情表示乐观,认为一些AI或数据科学领域的人员在缺乏医学知识的情况下参与疫情相关工作,可能会造成负面影响;在疫情期间,一些人进行自我推销是不合适的;AI新闻报道需要改进,应更深入地探讨AI伦理问题,并进行事实核查;AI新闻报道在总体上做得不错,但在具体细节方面仍有改进空间;一些公司通过雇佣人工来完成AI任务,而非真正使用AI技术,这种现象被称为“伪AI”;在AI系统开发初期使用人工并非完全错误,但隐瞒真相或存在不公平待遇则会造成负面影响;即使在疫情期间,欧洲仍在推进AI监管,这可能会影响其他国家和地区的AI公司;许多AI应用缺乏运营成熟度,例如缺乏中央数据库和数据加密措施。 Sharon Zhou:一些AI或数据科学领域的人员在缺乏医学知识的情况下参与疫情相关工作,可能会造成负面影响;AI新闻报道数量近年来急剧增加,主要关注偏见、隐私、数据保护、透明度、失业等主题,但缺乏具体细节和深入分析,建议记者咨询AI专家和伦理学家进行事实核查;许多AI新闻报道中使用的伦理框架过于简单,例如阿西莫夫的机器人三定律和功利主义,需要更新更复杂的框架来应对现实世界中的应用;AI新闻报道总体上比较中立和相关,但可以更深入地挖掘;一些公司将人工劳动伪装成AI技术,例如利用众包平台雇佣人工进行转录、预约安排等工作;Sophia机器人公司利用预先编排的对话来掩盖其技术能力的不足;虽然预先编排对话在媒体互动中很常见,但如果隐瞒了AI技术能力的不足,则具有误导性;“伪AI”公司存在低薪和隐私问题;“伪AI”现象不仅影响客户体验,也损害了公众对AI技术的信任;欧盟对AI的监管采取分级制度,对风险较低的应用采取较宽松的措施,对高风险应用采取更严格的措施;欧盟对AI的监管可能会限制AI模型的使用数据,并影响其在疫情等紧急情况下的应用能力;美国和欧盟在AI监管方面的差异,美国监管较为宽松,欧盟监管较为严格;及时的AI监管有助于AI技术的推广应用;疫情为AI技术提供了证明其价值的机会,但也凸显了对AI监管的必要性;虽然一些AI诊断项目取得了成功,但仍面临许多挑战,例如数据噪声和诊断标准的不确定性;一个AI诊断系统在中国16家医院部署成功,但其推广应用面临挑战;AI诊断技术开发面临数据获取和标注困难,以及医生诊断标准不一致的问题;AI诊断工具需要与医生的工作流程相结合,这需要AI研究人员与医疗专业人员进行合作。

Deep Dive

Chapters
The discussion focuses on the findings of a paper analyzing AI coverage in media, highlighting the increase in articles and the need for deeper engagement with AI experts and ethicists to improve specificity and ethical frameworks in reporting.

Shownotes Transcript

斯坦福人工智能实验室的博士 Andrey Kurenkov 和 Sharon Zhou 讨论了本周主要的 AI 新闻故事。 查看此处讨论的所有故事以及更多内容,请访问 www.skynettoday.com 主题:深思熟虑 Kevin MacLeod (incompetech.com) 根据知识共享许可协议授权:署名 3.0 许可协议 </context> <raw_text>0 欢迎收听 SkyNet Today 的 Let's Talk AI 播客,在这里您可以听到人工智能研究人员关于人工智能的实际情况以及哪些只是耸人听闻的标题。本周,我们将关注两篇关于人工智能新闻报道的文章,以及人工智能公司如何伪造其基于人工智能的解决方案,然后再次关注对抗冠状病毒的最新进展。

您可以在 skynetoday.com 上找到我们今天在此讨论的文章,并订阅我们每周的类似文章新闻通讯。

我是 Andrey Kronkov,斯坦福视觉与学习实验室三年级的博士生。我主要专注于机器人操作的学习算法。和我一起的是我的联合主持人。我是 Sharon,机器学习小组三年级的博士生,与 Andrew Ng 合作。我的研究方向是生成模型、改进神经网络的泛化能力以及将机器学习应用于应对气候危机。

Sharon,你实际上在上周的播客中进行了第一次采访,当时你与 Matthew Longren 教授讨论了人工智能、COVID-19 和医学。所以我很想知道,你在那次采访中发现了什么特别有趣的东西?我觉得他非常乐观,对科技界以及科技界如何积极参与应对这场危机感到高兴,这一点很有趣。

我确实听到过其他人的不同意见,也许是站在另一边的人,他们认为试图制造自己呼吸机的人可能会造成更多危害。但我喜欢他的乐观态度,我喜欢从医生的角度听到他的观点。是的,我已经看到这种相反的观点,即人工智能或数据科学领域的人试图对疾病进行建模或撰写各种相关内容

有点像门外汉专家,没有任何实际的医学知识,因此弊大于利。很高兴听到,至少在他看来,我们领域的一些人在发挥作用,而不仅仅是,你知道的,假装知道自己在做什么。对,对。在这个时候进行自我推销可能并不明智,但不幸的是,我确实看到有人这样做。是的。

我想这是可以预料的。但是,让我们不要过多地关注 COVID-19。像往常一样,我们以后会有时间讨论它。但首先,我们将更多地关注人工智能和长期趋势以及一段时间以来发生的事情。我们的第一篇文章是……

标题为《人工智能新闻报道仍有改进空间》。这篇文章来自 futurity.org。这篇文章是对撰写论文《头条新闻中的 AI:媒体对 AI 伦理问题的描述》的几人的采访,这是一篇发表在《人工智能与社会》上的论文。这篇论文基本上研究了人工智能的统计数据

在过去几年中撰写的文章。他们研究了 2013 年至 2018 年的范围,并对所做的写作类型、内容、重点进行了分析,他们还提出了一些改进建议。是的,调查结果非常有趣。近年来发表的文章数量急剧增加,特别是 2013 年至 2017 年发表的文章数量

少于仅 2018 年一年发表的文章数量,这表明公众对人工智能的讨论相当新颖。他们还发现,在 2013 年之前没有发现任何相关的媒体文章。因此,他们发现的十大最常见主题围绕偏见、隐私数据保护、透明度、人工智能造成的失业、人工智能的经济影响、人工智能决策、

责任或责任、人工智能武器化、人工智能滥用、将伦理嵌入人工智能以及安全。这就是他们如何将这些媒体文章中关于人工智能的不同问题进行分类。此外,他们还在这些文章中对其他一些推荐和人工智能类型进行了分类。我注意到,这些媒体文章中很大一部分建议都与制定伦理准则有关。

当然,随着人工智能的发展,这已经成为一个持续进行的重大讨论。他们还注意到,这些类型的人工智能报道

大多数文章都没有讨论任何细节。他们几乎广泛地讨论了人工智能领域,有时会举例说明自动驾驶汽车、聊天机器人或监控等。事实上,他们建议记者应该联系人工智能专家和伦理学家进行更多的事实核查。例如,在这些关于人工智能伦理的文章中最常引用的所谓伦理框架之一是艾萨克·阿西莫夫。

阿西莫夫的机器人三定律,这来自他著名的短篇故事。它不是一个正式的伦理框架,在关于人工智能如何以及应该如何合乎道德地行为的现实世界讨论中,它并没有什么用处。功利主义也在这些关于人工智能伦理的新闻文章中经常被讨论,但这些都相当基本,可以进行升级。我们可以应用现代化

能够应对“现实世界中人工道德主体应用的复杂性和复杂性”的伦理框架,文章引用道。他们的调查结果的这一部分与他们注意到的其他一些事情有关,那就是大多数文章的基调都是中性的。所以他们不是,比如说,夸大其词。实际上并没有太多炒作,也没有太多危言耸听,而是关注与人工智能相关的实际问题。

但他们也没有具体的建议,因此这里的结论似乎是

记者在保持中立和相关性方面做得相当不错,但他们可以通过与人工智能专家和伦理学家交谈来更深入地挖掘。说到建议,这实际上与我们去年在 Skana today 上发表的一篇文章有关,标题为《根据人工智能研究人员的建议进行人工智能报道的最佳实践》,我们在其中调查了一群人工智能研究人员,并

并将他们的建议归纳为一套供记者遵循的“应该做”和“不应该做”的指南。在这篇文章中,我们确实更关注细节。总的来说,人们往往能把事情做好,但在具体的措辞选择或需要强调和不需要强调的特定方面,还是会有一些失误。

因此,这篇文章也指出,当你深入到细节时,你可以尝试更小心一些。因此,虽然人工智能新闻报道可能还有一些改进的空间,但它确实挖掘出了一些学术界和工业界真正有趣的东西。一个最近的例子来自福布斯的一篇文章,标题为《人工智能还是人类智能?公司伪造人工智能》。

他们基本上谈论的是,我们已经看到许多人工智能公司声称或提供基于人工智能的解决方案来解决各种各样的业务问题。

但由于这非常困难,一些公司选择的方法不是缩减他们的雄心,而是利用人类来完成他们原本试图让他们的 AI 系统完成的任务。福布斯称之为伪人工智能或“伪造”。是的。

这篇文章讨论了一些例子,总体趋势是公司声称使用软件和人工智能自动化某些流程。例如转录、预约安排、个人助理工作。但为了实际实现这些功能,他们没有使用人工智能,而是通过例如众包市场将这项工作外包给人工。一个例子是亚马逊的 Mechanical Turk。

他们这样做并没有明确说明这项服务实际上是由人工提供的,而不是由一些花哨的人工智能提供的。也许你可以举一些例子,Sharon。是的,文章指出,CNBC 发表了一篇额外的文章,批评了汉森机器人公司的人工智能机器人索菲亚。

当汉森机器人公司被 CNBC 提出了一系列他们想问的问题时,汉森机器人公司反而回应了一系列他们被允许问索菲亚的非常具体的问题。因此,在后续视频中,CNBC 质疑这个机器人是用来研究人工智能的,还是仅仅是一个公关噱头。

甚至汉森机器人的老板也公开表示,大多数媒体见面都是有剧本的。我要在这里说,我可能会站在汉森机器人公司一边,因为大多数媒体见面都是有剧本的,因为对于公司来说,这些都是非常微妙的情况,可能会成败攸关,无论是他们的股票、用户群还是其他什么。嗯,这是一个非常快速的了解。所以人们试图表现出他们最好的状态,嗯,

我认为很多仅仅是人与人的采访也是有剧本的,他们希望问他们非常具体的问题。但说到这一点,我认为剧本本身不一定是问题。我们实际上在 Sky News Today 上发表了一篇关于索菲亚的文章。

人们经常发现有问题的不仅仅是它是有剧本的,而且暗示索菲亚机器人实际上可以处理自然对话,如果它不是有剧本的话。事实是,这项技术还不存在。所以他们把它描绘成非常先进的,拥有根本不存在的能力。

这不仅仅是准备充分和润色,我们作为研究人员也试图这样做,对吧?所以我们准备演示来展示我们在受控环境下的算法。但是在这里,没有真正的算法。他们实际上是在回放音频,而不是拥有他们声称拥有的 AI,或者他们使用的是一个更简单的软件系统。

所以这就是某些事情可能会产生误导性的地方,而这些事情通常可能不会那么糟糕。

其他例子包括流行的日历安排服务 X.AI 和 Clara Labs,你们中的一些人可能在使用。人们发现这两家公司都在使用人工来安排约会和日历项目,而不是纯粹的人工智能解决方案。再说一次,我会说对此我并不感到惊讶。我认为我唯一会

会对很多事情提出异议的是,他们如何支付这些人工,大部分情况下,他们以非常低的工资支付他们。此外,我还担心隐私问题。我听说过一些隐私问题,实际上一个人工标记者开始试图找到他们正在标记数据的人,因为他们爱上了他们或者类似的事情。所以我认为在人工智能解决方案背后的人的隐私和公平工资方面肯定存在担忧。

但安德烈,你对此有什么看法?

是的,我认为这是一个很好的观点,总的来说,使用人工作为解决方案的一部分并不一定是不对的。事实上,这里有一个战略组成部分,当这些公司正在开发他们的 AI 系统时,他们需要数据来为其提供动力。存在一个“先有鸡还是先有蛋”的问题,如果你没有数据,你就无法提供 AI 服务。所以这是一个巧妙的技巧,首先使用人工提供服务并为其提供动力,因为你收集数据并构建系统。

所以这并不一定是不对的,但如果你对此进行误导,如果你夸大其词,并且如你所说,没有披露隐私问题或……

或者没有公平地支付人工员工的工资,那么这可能会导致对这类公司以及对人工智能公司投资的巨大幻灭,可能会导致对拥有真正令人兴奋的人工智能解决方案的公司投资无法实现,公众也会对人工智能普遍持谨慎态度。

因此,我认为,如果一开始没有披露它不一定是算法化的,那么伪人工智能就会有很多问题。是的,我认为这篇文章指出的一个非常有趣的观点是,伦理的重要性不仅在于提供满足客户和用户期望的解决方案,还在于增强人们对这项技术的信任,而有些人仍然对此非常警惕或怀疑。

所以对于未来,也是对于企业家来说,这不仅仅是对于公司本身,也是对于人工智能的品牌来说。归根结底,如果这是其他人需要的信息,那么隐瞒它当然是有问题的。但在某些情况下,你并不一定需要披露你的解决方案的所有内部细节。

好了,我们已经讨论完了这两篇关于人工智能趋势的有趣文章,让我们回到你们都喜欢的主题,那就是更多关于 COVID-19 的讨论。我们在这里关于这个主题的第一篇文章的标题是

即使是疫情也无法阻止欧洲推动人工智能监管。这篇文章来自彭博社。这篇文章是关于欧洲多年来一直在制定许多与人工智能相关的法规。首先是 GDPR,即通用数据保护条例。2018 年,他们再次发布了关于欧洲人工智能的沟通,其中提出了一套伦理和法律准则,

以确保人工智能在欧洲以某种方式发展。然后,今年在欧洲宣布,将推出更多规范人工智能发展的法律。这篇文章基本上讨论了即使现在病毒危机仍在继续,但这并没有被阻止。那么,企业为什么要关注这一点呢?

企业以前也见过这种情况,欧盟如何“发挥超出其自身重量的影响力”作为国际规则制定者。它关于隐私的全面法律迫使谷歌和 Facebook 改变了他们收集用户数据的方式,这已经设定了一个全球标准,影响其他国家效仿。现在人工智能领域也可能如此。好的。

美国和中国是最大的商业人工智能公司所在地,包括谷歌、微软、北京的百度和深圳的腾讯。但如果他们想向欧洲的客户、欧洲的企业销售产品,他们可能不得不再次彻底改革他们的运营。

是的,所有这些都来自这篇文章,这篇文章还阐述了这项拟议中的人工智能立法的一些细节。对公司来说,好消息是欧盟已经规划了一种分层的人工智能立法方法,这意味着不同风险级别有不同的规则。这对公司来说是件好事,因为对于风险较低的系统,例如基于人工智能的停车收费表,

欧盟建议采取力度较小的措施,例如自愿贴标签,这并不难遵守。而对于可能危及人们安全或法律地位的高风险应用,例如自动驾驶汽车或手术等。

VAU 概述了强制性法律要求,这当然需要更多工作来完成。例如,谷歌等大型公司可能被迫在部署系统之前对其系统进行测试,他们可能不得不实际

我们在欧洲使用不同的数据集训练我们的系统和算法,以保证用户的权利符合法规。具体来说,DeepMind 一直在进行关于冠状病毒的研究。很多研究都是使用来自世界各地的开源数据进行的。

世界各地,但这会将这些人工智能模型限制为仅使用欧洲数据,这将严重限制它们在当前危机中的能力。当然,这在正常情况下也适用于人工智能。

欧洲对人工智能的这些检查也可能导致欧洲落后于一些“支持创新”的经济体,这还可能激励公司迁移到法规障碍较少的其他市场,当然。但当然,

欧洲方面和欧盟方面,欧盟科技事务专员玛格丽特·维斯塔格表示,布鲁塞尔坚持这一立场,她的计划是围绕这项技术及其部署方式建立信任,以便人们更愿意接受这种创新。这是一个非常不同的视角。当然,在双方,

每个人都说,哦,我们希望人们更多地采用人工智能,但一种是通过信任,另一种是通过增加全球化。

是的,我认为在美国,我们并没有采取这种方法。监管相当宽松,现在才开始讨论可能采取类似于 GDPR 或面部识别等措施。Sharon,你认为我们是否应该已经制定更多立法?或者让公司现在快速发展,然后再制定一些法律更好吗?

我认为监管可能非常有帮助,但我认为,从历史上看,美国在制定监管标准方面并不出色。仅仅是因为这里的隐私法或一般法律的制定方式,我听说它有点像瑞士奶酪,你

你,你有一个自由市场,当然。然后你就像在这个非常具体的例子中,如果你需要保护隐私。嗯,欧盟实际上采取了相反的立场,那就是我们想要全面保护隐私,并且对这种隐私有一些例外。所以我确实,也许这只是一个 AB 实验。你可以这样认为,但是,嗯,

我会说美国通常对推出监管更加谨慎。我会说我认为欧盟对此进行了更深思熟虑的讨论。

当然,这场讨论非常有用。在某些情况下,例如自动驾驶,在技术推出之前,这几乎是必要的组成部分。我认为没有任何公司会在不知道政府对其服务有何期望的情况下试图提供服务。因此,越早明确,这些服务就越早能够广泛提供。所以让我们希望这种情况能够很快发生。

在过去几周中,我们已经介绍了人工智能在对抗冠状病毒方面有许多有用的应用。彭博商业周刊关于此主题的一篇新文章提出一个有趣的观点,我们将在关注人工智能使用的背景下提及。标题为

病毒给了人工智能一个证明它可以成为一股向善力量的机会。

其中指出,“疫情为科技行业带来了巨大的机遇,同时也突显了人们对人工智能创新的呼吁,这些创新发展速度快于监管机构制定规则以保护公民权利的速度”。

是的,我们上周已经讨论过这个问题了。您可以访问我们之前的剧集以了解更多详细信息。我们现在将继续讨论我们的下一篇文章,这篇文章来自 ZDNNet,标题为《人工智能在 COVID-19 诊断中遭遇大数据问题》。这篇文章更详细地介绍了人工智能在 COVID-19 中的一种特定应用。

这种特定应用与诊断有关,特别是使用计算机视觉从肺部 X 光片或 CT 扫描图像中诊断某人是否患有 COVID-19。

在中国,已经流传了一些文章,描述了众多类似人工智能诊断项目的惊人成功。这些项目来自不同的公司,包括中国软件制造商 Infravision、中国平安的医疗保健部门、中国搜索巨头阿里巴巴以及中国科技初创公司 Deepwise Technology 和 iFlyTech。

文章指出,现实情况略逊于预期,尽管取得了一些成功,但许多努力实际上面临着相当多的挑战,尤其是在这种新疾病面前。尤其是在这种新疾病面前,区分特征的存在并不总是具有决定性意义。因此,当我们认为我们看到了阳性的证据时,它可能实际上并不具有决定性意义。所以那些

标签本质上是嘈杂的。文章还谈到,一个由 30 多名研究人员组成的团队能够构建一个深度学习系统来读取 CT 扫描,他们将其部署到中国 16 家医院,包括 COVID-19 危机中心武汉的一家医院,每天的筛查率达到 1300 次。

因此,最初的成功是令人难以置信的,但它面临着这样一个现实,即使用这项技术在其他国家推进可能很困难。是的,文章继续详细介绍了开发这项技术的一些困难。其中之一实际上是获取用于训练算法的数据。因此,显然你需要

由实际医生注释的 X 光片或 CT 扫描图像及其从图像中得出的结论。这非常耗时且难以获得。人工智能研究人员实际上无法自己做到这一点。

因此,文章详细介绍了这在该领域中的一个困难。当然,由于要应对这场危机,医生们已经非常忙碌了。因此,现在这使得事情更加困难。在这个领域工作了一段时间后,我还可以评论说

医生的注释并不一定一致,这意味着一个医生可能不会将一张 X 光片视为阳性,这意味着一个医生可能会将一张 X 光片或 CT 扫描视为阳性,而另一个医生可能会将其视为阴性。而且,即使在医生中,阳性和阴性的定义也大相径庭,或者这里的阳性和阴性的定义也不是很确定。

医务人员,它很难定义,而且它在不断发展,这使得我们在对其进行建模训练时尤其具有挑战性。这指出了另一个挑战,那就是你实际上希望将这个 AI 工具与放射科医生或医生的工作流程集成,这本身就并非易事。因此,理想情况下,AI 系统不会仅仅输出答案。它将提供初步筛查或以某种方式协助

实际的医疗专业人员做出决定,但这随后需要人工智能研究人员实际与医疗从业人员交谈以了解他们的需求。

除了缺乏数据外,在上个月的一篇论文中,来自世界卫生组织、联合国全球脉搏和蒙特利尔米拉人工智能研究所的学者调查了人工智能应用的范围,从诊断到潜在的治疗方法,包括 X 光和 CT 扫描软件。他们的结论是,虽然人工智能可以在对抗 COVID-19 的过程中提供帮助

许多,许多不同的方式。许多正在开发的系统缺乏运行成熟度,这意味着没有中央数据库来托管不同的东西。这些数据没有加密以保护隐私。这篇文章在此基础上进一步指出

现在是人工智能努力成长并处理这种非常关键的环境的时候了,在这种环境中,获取数据并不容易,而且它并不容易,但这将有助于该领域和技术的成熟,并最终使人工智能在该环境和未来的危机中发挥作用,希望如此。

接下来我们将结束本周的节目。非常感谢您收听 Skynet Today 的 Let's Talk AI 播客。您可以在 skynettoday.com 上找到我们今天在此讨论的文章,并订阅我们每周的类似文章新闻通讯。订阅我们。好的。无论您在哪里收听播客,请订阅我们,如果您喜欢这个节目,请不要忘记给我们评分。请务必收听下周的节目。