您好,欢迎收听SkyNet Today最近更名为《上周AI》的播客,您可以在其中听到AI研究人员讨论AI的最新动态。没错,这个播客不再是《让我们聊聊AI》,现在是《上周AI》,这与我们大多数剧集的主题一致。我们只是觉得,为什么不改名呢?
除此之外,这个播客将完全一样。因此,在本集中,我们将再次提供对上周一些最有趣的AI新闻的总结和讨论。我是Andrey Karenkov。
我是Sharon Zhou博士。本周,我们将讨论埃隆·马斯克在AI日上发布的Tesla Bot。我们将讨论使用合成语音帮助Val Kilmer恢复声音。我们将讨论斯坦福大学发表的一篇重要论文,以及AI如何让人们在证据不足的情况下入狱。
最后,我们将以一些关于AI和艺术(特别是音乐)的有趣话题结尾。让我们开始吧!让我们开始吧!首先,我们有关于应用的文章,首先是Tesla Bot。
所以,如果您想查找文章,我们正在阅读埃隆·马斯克发布Tesla Bot,这是一种拟人机器人,它将由特斯拉的自动驾驶AI制造。是的,这在上周的AI日上发布,埃隆·马斯克在AI日上
基本上介绍了这个Tesla Bot项目。这是一个通用型拟人机器人,它并非为任何特定用途而设计。马斯克表示,原型机可能在2022年推出。
我实际上参加了AI日。如果您观看录音,我确实问了一个问题,典型的我,关于模拟器,无论是什么生成模型。
我真的很,实际上我认为这是一个玩笑,但事实并非如此。它真的会发生。我认为这是朝着构建安全的AGI或某种更通用的AGI的方向发展,埃隆已经谈论了很长时间。我认为这是朝着那个方向迈出的一步,他通过他的公司之一特斯拉来做到这一点,这可能是最有意义的一家公司。
并采用与特斯拉汽车自动驾驶相同的技术,用于这款人形机器人。是的,这很有趣。这里的想法是它将被设计用来完成无聊、重复和危险的工作。其中一张幻灯片上说它会很友好。
许多机器人专家和其他新闻媒体对这一声明作出了非常严厉的回应。因此,出现了诸如“埃隆·马斯克的Tesla Bot是一个垃圾帖子”之类的文章。
别想太多了,埃隆·马斯克的Tesla Bot是个玩笑。埃隆·马斯克根本不知道他在用Tesla Bot做什么。这是因为这些目标非常非常非常崇高。我的意思是,从机器人的角度来看,我可以告诉你,仅仅开发硬件就极其复杂。我们离任何能够让这样的机器人做任何有用的事情的AI都还差得很远。
所以,这确实看起来像马斯克那种他说可能会做但最终没有做的事情之一,他有过这样的历史。但我的意思是,这是一个很有趣的模型。如果我确实做了一个原型,我很期待看到它。是的,我认为这确实感觉有点像是一种转移注意力的行为,因为特斯拉的许多最后期限都还没有达到。但是,是的,
你知道,与此同时,还有大型诉讼正在发生,也许这是故意转移注意力的。也就是说,我认为他显然非常有能力执行并完成许多最初被认为是笑话的崇高目标。所以我有点期待看看事情会如何发展。没错。是的,我的意思是,你已经看到了太空和电动汽车,
自动驾驶还没有那么成功,但他们确实拥有一支全明星团队,并且在这个领域做了很多工作。事实上,我发现这一点很有趣,这个AI日,你知道,大部分时间,这是一个关于团队使用的想法和
技术的相当详细的演示。其目的是说服人们加入特斯拉。这是一种招聘活动。所以它技术含量很高,而且大部分都是为了这个目的。我想,大约有80分钟左右。
然后在最后,有一个6分钟的部分,他做了这件事。所以我认为这也有点像,你知道,吸引眼球。马斯克确实说过,他过去做过一些噱头来获得免费的营销。所以我认为其中有一个因素,但这对他们来说确实很有意义。我认为两者兼而有之。是的。
是的,绝对的。这是一个相当技术性的会议,这很有趣。嗯,比如软件方面的内容,了解他们实际正在做的事情是很好的,嗯,学习他们实际正在具体做的事情。我想说的是,他们不是,我的意思是,他们确实做了一些很酷的事情,嗯,但这实际上并没有,感觉不像超级最先进的,嗯,就研究的实际情况而言,但这很有意义,因为他们需要将其部署并实际投入生产和运行,嗯,尤其是在边缘,呃,
我认为,嗯,更先进的是硬件。嗯,他们对它的看法非常有趣,特别是Dojo。嗯,我绝对建议你去看看。嗯,但关于硬件的一个有趣的看法,嗯,他们自己设计了芯片。嗯,这是一个非常有主见的方案,感觉他们是在追求一些能够,嗯,
能够更好地处理边缘计算,更好地处理更小的批量大小的东西。所以对于这个视觉任务来说,这可能是有意义的,而且至少对我来说,它与英伟达和谷歌在处理更大的批量大小方面所做的工作以及OpenAI在许多NLP任务方面所做的工作,存在明显的差异。
是的,我认为我的印象是,对边缘的关注较少。我的意思是,这是一个长期讨论的问题,但我认为这只是利润较低的事情。谷歌和Facebook更关注数据中心等等。
所以,是的,看到这个硬件问世将会很有趣。看到Facebook、谷歌和现在特斯拉都有自己的硬件,这也很酷。所以这似乎越来越成为大公司通常的做法。接下来是我们的下一篇文章,AI让Val Kilmer恢复了声音,但批评人士担心这项技术可能会被滥用。
好的。演员Val Kilmer在2015年因为喉癌手术而失去了声音。
但是,Sonantic公司,这是一家位于英国的软件公司,它使用深度伪造技术来为不同的演员和工作室克隆语音,能够仅使用非常少的音频(不会违反任何许可)来重现他的声音。所以他现在基本上又有了声音,它可以再次使用,并且
我认为遵守这些许可限制非常令人印象深刻,因为当然,我们已经看到很多人在音频和语音方面没有这样做。但是,是的,安德烈,你对此怎么看?是的,这非常有趣。
好消息。这是继一个月前我们报道的Anthony Bourdain新闻故事之后,他们将其用于一部纪录片。但在这种情况下,有趣的是,Val Kilmer的团队去年12月联系了Sonantic,提出了恢复他声音的这个项目。根据新闻稿,
基本上,Val Kilmer拥有一个模型。他可以将其用于个人用途或专业用途,仅此而已。这是一个很好的例子,说明这项技术如何发挥积极作用。我的意思是,当然,可能还有许多其他人也有失去声音的问题,原因各不相同。而且我可能,你知道,这似乎是
一件大事,你知道,瓦尔·基默这么说。而且我,这很有道理,这是一件很有价值的事情,它将极大地改变他的生活。这是积极的。所以,是的,非常酷。当然。
接下来是我们的研究文章。第一篇是100多名斯坦福大学研究人员发表了一篇200多页的论文,论述了大型模型带来的AI范式转变。这篇论文的标题是《关于基础模型的机会和风险》。因此,这是斯坦福大学的100多名不同的研究人员,
安德烈和我都很了解,我们认识很多人,包括Fei-Fei、Percy Liang等等。他们专门讨论基础模型,或将这类大型模型定义为我们从中构建的基础模型。这包括我们最近看到的大量大型NLP模型。
是的,它非常像一篇综述论文,讨论并定义了这是什么。它并没有实际的,你知道,真正的创新。但他们确实讨论了这些基础模型的一些有趣的行为,例如涌现。比如创新的涌现。
你知道,我们没有预料到的行为,或者我们没有明确地放入或构建的行为。而且,你知道,我发现这非常有趣,因为我想知道它是否与智力有关。比如,我们人类是否也拥有涌现行为?或者我只是将其解释为,你知道,不是在我们的基因代码中明确构建的二阶或三阶行为等等。
是的,我认为这篇论文引起了很大的轰动。是的,正如你所说,我认为最重要的点和最有趣的点是,它论证了我们需要将基础模型作为一种独特的类别。他们提出了涌现和同质性的论点。
所以我发现有点,好吧,我知道这种情况正在发生。所以,你知道,这不是一个大新闻,但我发现围绕它的讨论有点意思。特别是,我认为有一些
批评性的看法,关于为什么我们要定义这个类别?我一直在想,我们是否真的需要一个单独的基础模型类别。这里的命名是,这些是其他事物的基础,这些模型可以在以后用于许多不同的任务。
对我来说,我的意思是,这并不新鲜,对吧?我们在ImageNet微调中很早就发现了这一点,ResNet 50非常流行,其他NLP模型也是如此。而且在这些情况下,你可以用这些特性做很多不同的任务,对吧?所以我觉得……
我多少能理解一些论点,基本上来说,这是一个巨大的、巨大的模型。这意味着没有多少组织能够做到这一点。因此,访问权限受到限制。但从这个意义上说,我认为这可能不是对我来说最好的类别定义。我不确定这一点。你怎么看?
我可能会附和这些想法。命名它似乎没有必要,尤其是用这个特定的名字,我想。感觉这不是最好的名字。我不知道什么更好,但我认为基础模型不是我一定会考虑的方式。
但它确实,你知道,我们已经有了这些模型一段时间了,就像你说的那样。研究围绕它的行为很有趣。我觉得在这个意义上,它不一定是技术上的新事物。更多的是……
这几乎是我们人类如何看待这些模型的社会科学。所以也许在那里有一些HCI工作。是的,是的。所以这篇论文将其作为一个调查,介绍了这些模型可以用于什么以及应用。
以及对社会的一些影响。所以我认为这是这项倡议的一部分。事实上,斯坦福大学有一个新的中心,斯坦福大学基础模型研究中心。所以我认为这篇论文是对该中心的介绍。然后以后,他们会真正提出新的研究。而且我认为这些模型肯定很重要
一件大事。我们在GPT-3中已经看到了这一点,并不是每个人都能做这项研究。所以我可以理解我们需要,但我认为,说实话,这些都是巨大而昂贵的模型,据我所知,不一定是基础模型。
接下来是我们的下一个研究故事,DeepMind开源了Perceiver I/O,这是一种通用的深度学习模型架构,可以处理各种各样的数据和任务。这是关于论文《Perceiver I/O:一种用于结构化输入和输出的通用架构》的。
它介绍了DeepMind的Perceiver,这很酷,因为你可以基本上使用相同的neural net模型来处理许多不同的输入模式。你可以将其用于音乐、图像。
几何形状,而无需对模型本身进行很大的改动,其结构通常并非如此。通常,不同类型的输入和输出会有不同的神经网络架构。而他们引入了一种通用的东西
然后这个PerceiverIO是一种后续工作,它不再将模型的输出限制为基本上是标签,而不是像图像或声音这样大的东西,而是将其泛化,以便输出也可以是任何东西。是的,现在代码是开源的,是的,我认为这非常令人兴奋。莎伦,你怎么看?是的。
耶,多模态模型,无论如何,多模态模型。太棒了。我认为,我的意思是,我们已经看到了这种趋势,只是,你知道,模型朝着这个方向发展,因为我们,你知道,征服了技术。
嵌入本质上是表示图像、文本、语音和所有这些不同的模式,将它们放在一起完全有意义,就像clip和DALL-E稍微做了这种过渡一样。
我认为这也是接受更大输入到模型中的一个过程。这也与OpenAI一直在研究的问题有关。所以这两个都是我们正在进行的或社区中许多人正在进行的各种任务流。
同样有趣的是,你知道,它消除了许多数据所需的预处理。所以我们不再需要嵌入这些明确的归纳偏差,比如将文本标记化。这真的很令人兴奋。我认为这是,你知道,通往这些非常通用的模型的道路。当然,我相信DeepMind认为这是通往AGI的道路。是的。
是的,是的。我认为它建立在这一趋势之上,这一趋势在过去几年中非常令人兴奋,而且我认为有点令人惊讶,其中Transformer已经超越了该领域。起初,它们只用于自然语言处理。但是后来人们发现你可以用Transformer来处理图像,对吧?
现在你可以用Transformer来处理图表。所以Transformer似乎非常通用。现在,你知道,这个Perceiver模型更是一个例子,它是一个Transformer,只需要很少的调整就可以用于各种输入。
为什么这有用呢?因为人们研究Transformer并构建,你知道,代码库。现在你真的只需要研究这种模型,就可以在许多不同的事情上获得很多好处,而不是,你知道,研究单个不同的模型,然后,你知道,事情无法转移。所以,是的,我认为这是一个很酷的进步。
而且是一件大事。接下来是关于社会影响和伦理的文章。我们的第一篇文章是《Reddit用户反向工程了他们认为是苹果用于标记儿童性虐待的解决方案》。
好的,所以本月初,就在不久前,苹果宣布它将在其整个生态系统中引入一项新的儿童安全功能。因此,它可能需要扫描,或者它正在使用设备上的边缘计算机器学习来扫描iCloud和信息的内容。好的,它主要这样做是为了检测儿童性虐待材料(CSAM),这
你知道,有点争议,因为人们认为这可能是对隐私的重大侵犯。所以很快,一个Reddit用户实际上是在玩弄这个,你知道……
与之相关的隐藏API,并据称找到了或反向工程了用于该儿童性虐待材料的神经哈希算法。基本上,他所做的,或者他们所做的,也许不是他在这里,他们所做的是,他们找到了映射到或选择映射到相同哈希的图像的哈希
这会造成冲突。这不好,因为如果你有一张与有问题的图像相似的图像,他们仍然可能会查看你的苹果,仍然可能会查看你的图像。当然,这可能会侵犯隐私。我对有人这么快就破解了这一点印象非常深刻。
是的,这是一个发展非常迅速的故事。苹果基本上引入了扫描所有人的照片、试图检测特定类型照片的想法,这与他们对隐私的担忧有点相悖,这一点很有趣。
所以,我认为,这就是引起很多批评的原因,也是人们担心AI模型会错误地标记正常的图像并导致问题的原因。所以这就是人们用这些哈希值证明的。这仅仅意味着,并非相同的图像最终被……
被算法匹配。这意味着,潜在地,你将被列入苹果的监视名单。但苹果回应说,首先,这个反向工程的东西并不是他们最终会使用的。他们还表示,这里有多个步骤,这是一个算法,还有一个算法,然后是一个人工验证算法。
是的,所以现在我认为冲突的事情火上浇油了。但我认为,你知道,苹果,我认为,无论如何都会继续这样做。绝对是一系列有趣的事件。而且我认为对这种事情还没有什么先例。
你对这种神经哈希系统以及苹果的想法有什么看法?你认为这是件好事还是坏事?哦,我认为政府向他们施压了,或者其他什么原因,因为他们想要实际访问数据,而隐私问题在大科技公司面前站不住脚。是的。与此同时,我确实觉得
至少这个应用是一个不错的选择。我想人们生气的原因是,Facebook已经在这么做了,然后各种公司,谷歌也在这么做。所以我想现在的问题是,他们将扫描你设备上、iCloud和信息中的内容。
但是,是的,也许我不太理解愤怒的原因,因为你上传到云端的任何内容已经在被这些算法处理了。而且我认为,错误标记的担忧并不现实。我认为不太可能发生这种情况。所以我认为有点争议是没有根据的。但对隐私的担忧,当然,是的。
我认为我听到过很多不同的公司用它作为借口,嗯,以前侵犯过隐私,包括Clearview。嗯,所以我认为这就是我认为人们最反感的原因。嗯,我认为这与我们下一篇文章有关,即《AI技术如何让人在证据不足的情况下入狱》。有可能,呃,这个人,迈克尔·威廉姆斯,他于去年8月入狱,呃,
实际上并没有杀死一个年轻人,但他被指控杀害了一个向他请求搭车的邻里年轻人。所以没有,你知道,
足够的证据。主要的证据来自一段无声的监控视频片段,该片段显示一辆汽车穿过一个十字路口,以及一个由监控麦克风网络拾取的巨响。所以这是又一个案例,是另一个案例,一个人在这个案例中在法官驳回案件之前被关押了将近一年。
是的,所以这个案子的检察官说,一家名为ShotSpotter的公司的一个AI算法检测到传感器检测到的一些信号表明威廉姆斯枪杀了这个人。所以这是关于这个AI技术,正如标题所说,是导致
他入狱的原因。他在法官驳回案件之前被关押了一年,法官说因为证据不足。
所以,是的,绝对是,你知道,一个悲惨的案例,一个人在证据不足的情况下被关进监狱,可能又是由于一个有缺陷的算法。我以前不知道这件事,但显然ShotSpotter在很多地方都有。他们在110个美国城市。
其想法是,你知道,他们放置不同的麦克风、摄像机和传感器,他们对1400万个声音进行分类以检测枪声或非枪声。执法部门表示,这有助于让警官更快地到达犯罪现场,并更快地更好地部署资源。
但是现在发生了这个案子,美联社的调查还发现使用ShotSpotter作为证据存在缺陷。例如,Valgruba会犯错误。所以,是的,我认为这是我以前不知道的事情,这似乎是一个相当糟糕的趋势,以及AI如何产生负面后果的另一个例子,以及
被用于扩大监控和扩大警务使用,这导致了这些糟糕的案例。我发现真正成问题的一点是,我们实际上是如何使用AI加人类的,就像人类法官一样。基本上,法官驳回案件的延迟,这个人被关押了一年,这真的很糟糕。
我只是觉得人类,我们不应该与AI合作。就像这个AI一样,哦,我认为你做错了什么。所以你被关进监狱一年,直到它被驳回。我喜欢,如果有一种自动驳回它的方法,或者像一种更快的方法。我觉得它会,这会受到更少的批评,双关语,但它,是的,这真的很不幸。这种合作不会带来好的结果。
是的,我们还讨论过并看到过这样的案例,警察使用了面部识别结果,却没有进行后续研究、后续调查,这导致了几起错误逮捕。
所以这种人类和AI的结合,如果一个人不理解算法并可能滥用它,那么这会加剧已经存在的问题。所以这绝对令人担忧,而且除了面部识别之外,现在看来我们也需要意识到并反对这一点。
但是为了稍微改变一下气氛,你知道,让我们继续讨论我们轻松愉快的有趣文章。首先是菲利普·格拉斯谈论人工智能和艺术。著名作曲家菲利普·格拉斯,以其极简主义作品而闻名,他谈论了,你
一个用他的音乐训练的OpenAI模型来创作菲利普·格拉斯风格的音乐。有一次长达半小时的讨论,他听了一些模型的输出,并发表了他的想法。这很有趣,也很有趣,可以听到他的回应。他批评了模型的缺点,
如果你听的话,它的保真度很高。它没有任何人工制品,显然是一首音乐作品。但他批评了模型的一些缺点。而且,你知道,作为一个非作曲家,这可能看起来像他的音乐类型,但他确实深入探讨了它与众不同的地方。是的,这是一个有趣的谈话。如果你喜欢他的作品,我相信这对你来说会很有趣。
我认为他说,你知道,这是有希望的。不过,我想,他从采访中引用的一句话很有意思,就像,这就是我们喜欢艺术的原因,它的人性部分,而它并不在这里。然而,这里有很多想法。这可以变成一件有趣的作品,但机器不会做。至少那台机器不会。
我认为这是一个非常有趣的引言,因为他基本上说,你知道,我们需要更多的人性方面的东西。他可以分辨出这是机器制造的,有很多想法。就像他说的,有很多东西,也许可以对一些东西进行修剪或提取,以创造更有意义的东西,这可能会在机器和人类之间进行某种合作。但就目前而言,他并不认为它已经完全准备好或模仿他
是的。早期,他还说,
或者问这是为了什么而制作的,这很有趣,因为,你知道,它不是为了任何东西而制作的。神经网络只是像往常一样输出这首随机的音乐。我还觉得这一点很有意思,即神经网络方面没有任何灵感或方向。所以,是的,这确实指出了一个方向,即研究模型可以为这类艺术家提供想法
和方向。然后他们可以使用它来创作艺术。而且我认为需要某种,你知道,人类的信息,人类的灵感才能真正创作艺术。但AI可以成为一种工具,你知道,某种意义上的缪斯。所以,是的,很高兴看到这场讨论,我认为我还没有看到很多类似的文章。
对。我认为这将我们带到了我们的最后一篇文章,《布巴-基基效应和CLIP中的声音象征主义》。好的。好吧,我们一直在谈论如何,你知道,没有多少目的被注入到那个OpenAI音乐模型中。但是在这里,你知道,有了我们已经看到的CLIP和BQGAN,你可以输入一个自然语言单词并得到一些输出。最近人们一直在说,
用生成布巴或基基来做这件事。布巴-基基效应是一种现象,人类表现出对形状与其对应声音之间某些映射的偏好。所以布巴看起来像这样爆炸,你知道,尖锐的爆炸物。而且……
或者,其中一个是布巴,一个是基基。其中一个图形看起来像这个尖锐的爆炸物,另一个看起来更像是一个边缘或尖刺更弯曲的斑点。是的,看到这些模型也进入这种有点荒谬的事情的领域很有趣,但是……
在某种程度上,对我们许多人或我们许多说英语的人来说也是有意义的。是的,是的。所以布巴与某种模糊的形状相关联。它通常产生这些圆圈。基基与尖锐的东西有关,对吧?
还有线条之类的东西。这之所以有趣,是因为,你知道,这是一种沉浸式属性。这并没有被编程进去。这个模型剪辑是在单词上训练的,你知道,不是像布巴和基基这样的虚构的东西,但因为它是在某种亚水平的东西上训练的,你知道,音素,
这种东西自然而然地出现了。而且很有趣的是,你知道,声音象征及其影响被意外地复制了。模型学习过程只是导致了它。所以,是的,我认为这是一个有趣的发现,也是一个有趣的发现。因此,您可以查看这篇文章中的图片并自己查看。
我认为这完全符合我们如何标记输入的方式,特别是因为有些,你知道,像标记确实对应于,我想,可能看起来不同的东西。这就是我们本集的全部内容。如果您喜欢我们对这些故事的讨论,请务必分享和评论播客。我们将不胜感激。现在,请务必多留几分钟,以便从我们自己的新闻播音员丹尼尔·巴希尔那里快速了解一些其他很酷的新闻故事的摘要。
谢谢,桑德拉和莎伦。现在,我将回顾一些我们尚未涉及的其他有趣的故事。我们的研究故事涉及人工智能和医疗保健。长期以来,人们一直认为深度学习模型能够自动化放射科医生工作的一部分。
多年来,这些承诺并没有完全实现,但根据北美放射学会的一份报告,这些模型似乎确实能够在未来实现人工智能辅助诊断。
尽管仍有许多改进要做,但经过充分验证的人工智能算法可以帮助预测乳房X光照片中的乳腺癌、测量乳腺密度和筛查肺癌等领域。但这些都只是潜在的陈述。哈佛医学院放射学教授、马萨诸塞州总医院乳房影像主任康斯坦斯·莱曼博士一直在研究这个问题。
她和来自马萨诸塞州总医院的同事与麻省理工学院的计算机科学家合作,开发和研究使用人工智能预测乳腺癌风险的方法。她说,他们专注于如何识别特定问题,然后在其他人群中开发和验证人工智能模型。但最后一步是最重要的:对临床实施的模型进行严格评估。
我们的第一个商业故事带我们来到中国。中国最大的搜索引擎百度认为,它必须做更多的事情才能领先于竞争对手。正如CNBC报道的那样,百度刚刚推出了其第二代人工智能芯片、其第一款机器人汽车和一个重新品牌化的无人驾驶出租车应用程序。
这款名为昆仑2的芯片旨在帮助设备处理海量数据并提高计算能力。它被设计用于自动驾驶等领域,并已进入量产阶段。虽然目前还没有关于它是否会量产的消息,但这款机器人汽车突出了百度在自动驾驶领域的雄心壮志。
特斯拉在上周末举行了其人工智能日活动,展示了其在该领域的自身工作。在关于特斯拉在计算机视觉、导航和人工智能硬件方面工作的密集演示之后,马斯克带出了一位穿着氨纶服装的舞者——一个尚未实现的特斯拉机器人的版本。
据马斯克介绍,人形特斯拉机器人身高5英尺8英寸,体重125磅,拥有与人类水平相当的双手,并将消除危险、重复性和枯燥的任务。马斯克的介绍方式是,特斯拉机器人是特斯拉自动驾驶工作的自然下一步。
幸运的是,如果您担心机器人革命,特斯拉机器人每小时只能跑5英里。这种不同寻常的演示,虽然对于马斯克来说可能并不完全离谱,但却受到了广泛的关注。但功能齐全的人形机器人可能还需要很长时间。据The Verge报道,马斯克的说法放在上下文中听起来确实很离谱。
即使是制造世界上最先进的两足机器人的波士顿动力公司,也从未将其机器描述为除研发以外的任何东西。
在我们关于人工智能与社会的最后一个故事中,德克萨斯大学奥斯汀分校的一个委员会建议不要使用人工智能软件来监督学生的在线测试,因为这会给学生造成心理负担,并给机构造成经济损失。
据《注册》报道,在德克萨斯大学奥斯汀分校的案例中,该系统侵入性造成的学生焦虑并不值得他们使用该系统获得的小好处。
该报告建议采用其他方法来监考学生,例如对小型团体使用Zoom。非常感谢您收听本周的《天网今日:让我们谈谈人工智能》播客。您可以在skynetoday.com上找到我们今天讨论的文章,并订阅我们的每周新闻通讯,其中包含更多内容。如果您喜欢这个节目,请不要忘记在您收听播客的任何地方订阅我们并留下评论。在我们下周回归时,请务必收听。