We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode #91 - DeepMind Mafia, DishBrain, PRIME, ZooKeeper AI, Instant NeRF

#91 - DeepMind Mafia, DishBrain, PRIME, ZooKeeper AI, Instant NeRF

2022/3/31
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Andrey Kurenkov
Topics
Andrey Kurenkov 和 Daniel Beshear 讨论了 DeepMind 众多前员工创办 AI 公司的现象,这些公司涉及气候、加密货币等多个领域,体现了 DeepMind 强大的 AI 人才储备和其技术在不同领域的应用潜力。他们认为,这种人才分散有助于 AI 技术在更多领域得到应用和发展。 Andrey Kurenkov 和 Daniel Beshear 详细介绍了 NVIDIA 推出的新一代 H100 芯片和 EOS 超级计算机,这两款产品旨在显著提升 AI 计算速度。他们分析了 H100 芯片的各项改进,特别是针对 Transformer 模型的优化,以及其在 AI 训练和推理方面的性能提升。他们认为,这是硬件行业对 AI 技术巨大投入的体现,也是 AI 技术发展对硬件需求变化的反映。

Deep Dive

Chapters
The episode discusses the rise of startups by former DeepMind employees, highlighting the diversity of applications and the impact of their expertise in AI.

Shownotes Transcript

我们第 91 集总结并讨论了上周重要的 AI 新闻! 提纲: 应用与业务 认识 DeepMind 帮派:谷歌 AI 研发实验室的这 18 位校友正在为他们自己的初创公司筹集数百万资金,从气候到加密货币 英伟达推出加速 AI 的新技术,推出新的超级计算机 克罗格和英伟达合作,利用 AI 和数字孪生模拟“重塑购物体验” 包括 Richard Socher 在内的顶级 AI 高管启动 AIX Ventures 研究与进展 Cortical Labs 的研究人员开发了 DishBrain:一个具有生物神经元的 神经网络 谷歌 AI 和加州大学伯克利分校的研究人员介绍了一种名为“PRIME”的深度学习方法,该方法通过借鉴现有蓝图和性能数据来生成 AI 芯片架构 通过机器学习的视角观察难以捉摸的磁效应 人工智能证实了显而易见的事实:疫情让大家心情低落 社会与伦理 斯坦福大学的一份报告显示,在持续的技术战争中,美中在人工智能论文上的合作减少 使用人工智能的银行很容易受到俄罗斯破坏活动的影响 自动化将在大多数蓝领工作之前消除“知识型工作”:未来今日研究所首席执行官 乌克兰使用面部识别技术识别遇难的俄罗斯士兵,部长说 软件供应商正在推广通常不可靠的“可解释 AI” 趣味与简洁 育碧展示了用于模拟动物的机器学习工具 英伟达展示了 AI 模型,该模型可以将几十张快照转换成 3D 渲染场景</context> <raw_text>0 您好,欢迎收听 SkyNet Today 的《上周 AI 快讯》播客,您可以在其中听到 AI 研究人员聊聊 AI 的最新动态。像往常一样,在本集中,我们将对上周最有趣的 AI 新闻进行总结和讨论。您也可以访问 lastweekin.ai 查看我们的《上周 AI 快讯》通讯,了解我们在本集中未涵盖的文章。我是您的主持人之一,Andrey Kurenkov。

我不是 Sharon Zhou 博士,我是 Daniel Beshear,来代班的。

本周,我们将讨论关于应用和业务方面的几篇文章。我们将关注 DeepMind 帮派创建的新兴公司。我们还将了解英伟达的一些新技术。在研究和发展方面,我们将研究一个具有生物神经元的神经网络,以及一种用于生成 AI 芯片架构的新型深度学习方法,

在社会和伦理方面,我们将研究美中在 AI 论文上的合作,以及使用 AI 的银行容易受到攻击和破坏的弱点。最后,我们将看看育碧用于模拟动物的新型机器学习工具,以及英伟达可以将 2D 快照转换成 3D 渲染场景的 AI 模型。

好的,这是一集有趣的节目,很高兴 Daniel 来代班。我认为他从播客一开始就参与其中了。所以,是的。在我们开始之前,只是为了好玩,我们在 Apple Podcasts 上收到了一些新的评论。所以我想大声念出来。

是的,是的。而且它们非常好。其中一个标题是完美的,快速、清晰、广泛的见解。所以非常积极。评论说,虽然这不是我的领域,但我感觉 AI 是我应该了解一点的东西。然后它继续说,我们介绍了大量关于 AI 工作的真实案例。

并使人们能够对正在发生的事情有所了解。是的,这很棒。这就是我们的目标,特别是对于 AI 领域之外的人,让他们了解正在发生的事情,也让那些身处其中的人能够从不同的角度看待问题,而不仅仅是研究。

是的,让我们开始吧。首先是应用和业务方面,我们有《认识 DeepMind 帮派》。谷歌 AI 研发实验室的这 18 位校友正在为他们从气候到加密货币的初创公司筹集数百万资金。

正如标题所说,这是一篇调查文章,调查了许多由以前在 DeepMind 工作的人(通常是那里的杰出研究人员)创办的公司。这是在商业内幕网站上发表的。只是为了给您一些细节,我们不会一一介绍,但 DeepMind 现在相当庞大。他们现在有 1200 名员工。

而且它现在已经相当成熟了,或者至少从 2014 年左右就存在了。所以很多人加入并在那里工作过。因此,这些正在创办新公司的人,种类繁多,其中包括 DeepMind 的原始联合创始人,他的姓氏是 Suleiman。

他们正在与另一位联合创始人创办这家名为 Inflection 的初创公司,这还是一家非常新的公司。关于它的细节不多,但这刚刚被报道出来。还有前 DeepMind 员工 Jack Kelly 创办的 Open Climate Fix。还有工程师 Miljan Mardik 和 Peter Toff 创办的无网络风险企业 Cosnet Labs。

还有更多。例如,个人助理 Saiga 公司。实际上还有一个名为 Africa I know 的非营利组织,以及 AlphaFold 团队创始成员创建的 Inductiva AI。所以,有很多不同的公司,应用 AI 的方式也不同。是的,看到所有这些做过很多令人兴奋的工作的人继续

发展将衍生出来并做很多有益事情的新公司,这真是太酷了。是的,这很好,而且我认为这并不令人意外,因为 DeepMind 集中了很多 AI 人才。但它很好,因为我觉得就整体影响而言,它感觉像是可以从 AI 中受益的不同领域

比,你知道,拥有这种集中的人才分散一点并启动所有这些新企业要好得多。所以我期待着这一切将走向何方。是的,我同意。我认为 DeepMind 越来越多地从事 AlphaFold 那样的应用工作,他们解决特定任务。但仍然存在某种以通用 AI 研究实验室为中心,基本上在各个方面推进 AI 的发展。

因此,这些人,例如 AlphaFold 团队的创始成员 Hugo Penedones,显然在这些领域拥有丰富的专业知识,让他们继续前进,然后真正专注于这些问题,我认为这非常令人兴奋。我们只需要拭目以待,看看这一切将走向何方。

对于我们在这方面的第二篇文章,我们将研究英伟达最近推出的一些新技术。对于所有这些创新,重点

正如您所料,是加快 AI 的速度。第一个是新的 H100 芯片。这是英伟达之前顶级 A100 芯片的替代品。它以 Grace Hopper 的名字命名,实际上是英伟达自收购 ARM 的交易破裂以来发布的第一款基于 ARM 的芯片。它还推出了一款名为 EOS 的新型超级计算机,据称这将是世界上最快的 AI 系统。

但我认为对于许多人来说,H100 芯片现在是一件非常重要的事情。

首席执行官 Jensen Huang 将 H100 称为 AI 基础设施的引擎。另一件非常有趣的事情是,尽管 H100 已经发布,但实际上还没有发布。因此,生态系统中的许多其他公司实际上都在想知道英伟达在这里玩的是什么游戏。也许他们试图垄断市场,很难说。但是

就 H100 相对于其前代产品所提供的功能而言,我想指出一些有趣的事情,因为我认为它们证实并评论了最近在 AI 领域发生的许多发展,无论是在软件方面还是硬件方面。

一个特别有趣的部分是他们引入了一些名为 Transformer 引擎的东西,这实际上只是硬件的一个特定部分,它专门专注于优化 Transformer。因此,他们声称在集群上进行训练时,Transformer 模型的速度提高了多达 9 倍。他们还具有稀疏性功能,

但对于 Transformer 引擎来说,另一件很酷的事情是它如何管理不同数据类型之间的操作。同样,我们说他们声称 AI 训练速度提高了 9 倍,以及 AI 推理速度比 A100 快 30 倍。

关于 H100 的性能有很多非常有趣的预测。时间会告诉我们事情会是什么样子,但这确实让人感觉像是对硬件行业目前在 AI 上进行的大量投资的验证,我想也是一种体现。所以我认为这是一个非常有趣的公告。

是的,我也是。我认为我们显然已经看到巨型模型越来越普遍的趋势。我的意思是,通常来说,模型规模一直在增长的趋势,但最近更是如此。因此,我认为显然需要这种先进的硬件。而且他们正在添加这些专门针对 AI 的优化,这

很有意义,对吧?因为现在像谷歌、Facebook 和 OpenAI 这样的公司确实将大量的云基础设施和计算基础设施专门用于 AI。而且,你知道,我的意思是,谷歌已经用他们的 TPU 芯片或系统做了这件事,这些芯片或系统是,你知道,张量什么什么的,对吧?

我认为这是一个处理单元。是的,是的,是的。所以他们已经在创建自己的硬件这条路上走了。我认为 Meta 或 Facebook 也做了这种事情。因此,显然存在这种需求,而且看到英伟达(如果有人不知道的话,英伟达的 GPU 为大多数公司、大多数研究人员等的 AI 提供动力)

看到他们朝着这种更优化的方向发展,这令人兴奋。当然。我认为这是一个非常有趣的发展,而且现在似乎几乎每家大型公司,包括亚马逊,都将大量的筹码投入到这些加速架构中。嗯哼。当然。

现在进入我们的闪电轮,我们将快速回顾一些我们没有时间总结的其他故事。首先,我们有使用机器学习的机器人外骨骼来帮助行动不便的用户。在这里,他们使用机器学习来让外骨骼基本上猜测用户的意图,从而使其更具反应性和易于控制。接下来,我们有

克罗格和英伟达合作,利用 AI 和数字孪生模拟重塑购物体验。这里没有太多细节,但基本上存在某种战略合作。克罗格是一个大型购物连锁店,如果你不知道的话,它遍布美国大部分地区。所以看到这一点很有趣,而且看看他们实际开发的东西也很酷。

绝对的。接下来,我们有包括 Richard Stocher 在内的顶级 AI 高管正在启动一个名为 AIX Ventures 的价值 5000 万美元的专注于 AI 的风险投资基金,我认为这应该非常有趣,尤其是在现在如此多的风险投资涌入 AI 的情况下。但我很好奇,当那些在 AI 研究领域投入大量时间的人开始创建自己的基金时,情况会是什么样子,以及这将走向何方。

最后一个是梅奥诊所与 Epic 和谷歌合作启动了一个 AI 初创公司项目。这被称为梅奥诊所平台加速器。这是一个为期 20 周的计划,旨在帮助其首批参与的四家公司做好市场准备。是的,像往常一样,业务方面有很多活动。

现在让我们来看看 AI 研究和发展的新闻。首先,我们有来自 Cortical Labs 的研究人员开发的 DishBrain,这是一个具有生物神经元的神经网络。这家澳大利亚公司 Cortical Labs

正在将神经元集成到数字系统中,基本上试图利用生物神经元的处理能力来构建合成生物智能。

因此,他们研究了从小鼠和人类细胞中生长出的神经网络。然后,他们开发了 DishBrain,这是一个通过在结构化环境中使用这些神经元的内在适应性计算来展示自然智能的系统。因此,他们专门制作了这个生物神经网络

玩类似于 Pong 的游戏。因此,在这个生物神经网络(他们称之为 BNN)中,一系列电极根据游戏状态被触发,传递感觉输入,然后其他电极控制桨的上下运动。所以基本上他们,你知道,培养了一个小大脑,听起来像是,来玩 Pong

是的,我认为这很有趣。我认为,你知道,我确实认为我们对传统计算范式所能做的事情可能存在限制。即使我们不断扩展,也可能存在限制。因此,如果我们实际上可以进行生物神经网络训练,那将是一件大事。尽管这显然还处于非常早期的阶段。

是的,这绝对处于非常早期的阶段,但是……

我也很高兴人们仍在探索合成智能的其他方法,而不仅仅是基于软件的神经网络范式。我认为这现在似乎只是让我们走上了这条路:让我们创建越来越大的模型,并向其中投入更多荒谬的数据和计算能力,这确实很有趣,看看这些模型会产生什么样的新能力

缩放规律。但与此同时,这有点令人厌倦,你真的会想知道,好吧,如果我们回想一下 AI 领域开始的时候,人们当时试图达到的目标,这是我们想要走的道路吗?所以我很高兴人们仍在推动不同的方法。我希望我们会看到更多这样的成果。

是的,我认为在过去的几十年里,人们对所谓的类脑芯片也充满了兴奋或进行了大量的工作,这种芯片结合了这项工作和我们现在在 AI 中所拥有的东西,即旨在模拟的芯片设计

神经元活动,从人类大脑或动物大脑的工作方式中获得更直接的灵感,但在某种程度上仍然是基于更传统的硅基激活,你知道,使用晶体管等等,是的,到目前为止,许多团队仍在努力,GPU

在一定程度上取得了更大的成功,部分原因在于它们是通用的、易于编程和易于使用的。但我可以看到,随着架构变得越来越重要,在未来几十年里,市场将会发生变化。正如我们所看到的,英伟达已经创建了这种更优化的 AI

芯片,而且类脑架构最终可能会在长期内带来更好的进步。这很有道理。我认为这将是软件和硬件之间相互作用的结果,对吧?因为在某种程度上,软件、模型、该领域以及计算领域中正在发生的新发展将对

对开发的硬件产生重大影响,正如我们今天在 AI 的发展以及特定领域的加速器中所看到的那样。但与此同时,你会看到相反的趋势,即可用的硬件确实限制了实际构建的算法类型,对吧?仅仅因为某些类型的计算,例如 GPU 上的并行计算,将在这些计算上运行得更好。所以

我认为未来将是这种来回博弈。但我也很想知道,如果类脑架构开始进入游戏,以及如何进入游戏。因此,我们在这方面的下一个故事实际上将我们带回了旧的 AI 芯片场景。这是关于谷歌 AI 和加州大学伯克利分校的一些研究人员开发的一种名为 Prime 的新型深度学习方法。

这实际上是通过借鉴现有蓝图和性能数据来生成 AI 芯片架构。现在,这实际上是在一些最近的工作之后,我认为这些工作也来自谷歌 AI 等地方,他们在那里实际上正在使用强化学习来进行芯片规划。因此,这绝对不是人们第一次尝试弄清楚,好吧,我们如何才能更好地利用 AI 来设计硬件?

现在,这当然着眼于硬件加速器。当您想要在计算和内存资源以及通信带宽之间找到这种平衡时,满足设计限制有点困难。因此,Prime 提供了这种数据驱动的优化方法,该方法通过使用日志数据来生成 AI 芯片架构,而无需进行进一步的硬件模拟,这实际上也节省了大量时间。

而且,这也很酷的一点是,他们声称这允许以前实验的数据以零样本的方式重复使用,即使您针对的是不同的应用程序集。他们还声称了一些特别有趣的结果,尽管他们没有训练 Prime 来减少芯片面积,但它实际上增加了 Edge TPU(一种以前的方法)的延迟。

2.69 倍,芯片面积减少 1.5 倍。所以……

我认为我们在这里看到的是机器学习技术的引入,不仅用于硬件,还用于硬件本身的创建。我们看到的结果表明对现有硬件的改进确实很有趣。我认为我们将来会在这一方面看到更多工作,而不仅仅是在芯片规划方面,

还有用于 AI 加速器等的实际机器学习编译器?

是的,没错。我认为当我们讨论使用强化学习进行芯片设计的故事时,这已经非常令人兴奋了。我认为那时谷歌曾表示,他们实际上已经将这些设计发现整合到他们的 TPU 中,并提高了它们的性能。

是的,这些结果再次非常引人注目。我的意思是,在这里将芯片尺寸减少 50% 或将延迟减少近两倍。这些都是重大的变化,重大的改进。

几乎,你知道,也许有点好得令人难以置信。目前还不清楚这些东西有多直接可用。但是

即使它不像结果中那样有效,我认为它仍然可能产生非常重大的影响。而且我认为,在未来,电气工程师(从事芯片设计的人)将从一开始就使用这些 AI 工具,你知道,真正优化这些东西。而且,嗯,

你知道,我们的计算机将会更快,希望如此。这将是一件好事。是的,我同意。所以除了你提到的性能改进(例如减少延迟)之外,还有这样一个事实,即你知道,你可以了解,嗯,

在无需进一步硬件模拟的情况下生成这些 AI 芯片架构,以及这些方法本身也节省了时间这一事实。因此,你知道,希望我们不仅会有更好的硬件来训练 AI 模型,而且能够更快地迭代和获得它,这真是令人兴奋。是的,是的,我同意。所以在这一领域非常酷的新结果。

进入我们的闪电轮,我们在这里看到第一个故事是通过机器学习的视角观察难以捉摸的磁效应。因此,麻省理工学院的一个团队将 AI 集成进来,以促进对一种有趣的材料现象的检测,这种现象可以导致无能量耗散的电子产品。

很酷。然后我们得到了牛津大学的机器学习研究人员提出了一种前向模式方法,无需反向传播即可计算梯度。对于不太了解的人来说,这里有很多术语,但基本上这种事情可能会帮助更快地优化神经网络,这可能是件大事,如果,你知道,

这被证明是优化神经网络的更好方法。令人兴奋。对于我们的接下来的几个故事,首先,机器学习可以预测风能效率。最近发表在《能源》杂志上的一篇文章介绍了使用机器学习方法进行高效风力发电预测的比较研究,这绝对是我从未想过将机器学习应用到的领域。

另一个领域是机器学习技术将冰川建模速度提高了 1000 倍。这些模型可以成为评估冰川未来对海平面上升的潜在贡献的非常有价值的工具。

是的,像往常一样,有很多事情正在发生。让我们来看看社会和伦理方面的故事。首先,我们有根据斯坦福大学的一份报告,在持续的技术战争中,美中在 AI 论文上的合作减少。这是来自南华早报的报道。

这篇文章的基础是最近发布了 AI 指数报告,我们在之前的剧集中讨论过一些内容。这是由斯坦福大学以人为本的 AI 研究所发布的。报告显示,

去年,大约有 9600 篇论文是由与美国和中国机构相关的研究人员共同撰写的,比前一年的一万多篇有所下降。因此,这篇文章基本上推断,这种合作下降是持续的技术战争造成的。

一些在美国的中国研究人员被指控窃取知识产权,一些美国学校,包括麻省理工学院,也与华为等中国科技公司建立了研究联系。

所以这些说法,我不知道,很有趣。在过去的几年里,围绕这些争议,我猜,关于

中国的科技公司及其与美国的关系,有很多紧张关系。与此同时,值得注意的是,斯坦福大学 HAI 他们自己的文章名为《中国和美国在人工智能方面不太可能是合作伙伴》。它强调,中国和美国之间在人工智能方面的合作领先世界。自 2010 年以来,它增加了五倍。

他们之间产生的 AI 论文数量是英国和中国之间其他国家 2.7 倍。所以仍然有很多合作。中国和美国是 AI 会议论文的最大出版国之一。所以……

也许不出所料,有很多合作。所以我想说一些混合信号,但这是值得注意的事情。是的,这绝对有点不出所料,但仍然非常有趣。只是在许多人所说的情况下,美国和中国之间在 AI 研究或发展或其他方面的竞争,

有时会有一些非常尖锐的言辞。我认为这只是说明了我们的技术生态系统在多大程度上相互关联。即使我们真的想与中国脱钩,我认为

由于许多原因,这确实很难。而且,你知道,这不仅仅是对一般情况的评论,当你关注 AI 领域时,例如,你看看美国从中国吸引了多少人才。看看机构研究人员之间的合作,以及许多美国公司在中国也拥有相当大的研究中心。所以我认为这种混合

高度的合作是我预计会持续下去的事情。我真正感兴趣的是,在紧张局势可能比现在更高的情况下,情况会是什么样子。是的,是的,我们将拭目以待。这很有趣。

我可能会想象,这种公开合作可能与那些一直存在争议的大型科技公司有关。例如,华为一直被指控利用其网络技术进行信息收集和间谍活动。

众所周知,现在很多 AI 研究来自工业界,而不是学术界。所以我认为,合作减少可能与来自工业界的行业和研发有关,而不是学术界内部的合作。我认为学术界通常,你知道,这些技术战争之类的事情并不重要。

所以我并不太担心,但看到这些社会政治或经济和政治紧张局势对研究合作产生影响,这绝对很有趣。

当然。是的。而且我想补充一点,值得注意的是,媒体经常讨论中国和美国在 AI 研究或发展或其他方面取得胜利的竞争。

这是一个简单的说法,你知道,它真的把美国和中国描绘成对手,其中一方可以在 AI 主导地位方面获胜。这过于简单化了。有很多原因可以解释为什么这种说法基本上是错误的。正如我们在这里看到的,大量的合作就是一个例子,你可以看到它不一定是某种对抗关系。

绝对的。我很高兴你指出了这一点。我认为很多报道都相当简单化,并且确实将我们描绘成不共戴天的敌人,但实际上情况要复杂得多。所以我想继续我们的下一个故事,这涉及到最近在新闻中出现很多的一个国际行为者。

因此,专家们开始警告说,利用人工智能的银行和其他金融机构可能特别容易受到俄罗斯的报复性网络攻击。

现在,人们担心这一点的原因是,银行和全球金融机构在针对俄罗斯的制裁制度中发挥了非常重要的作用。因此,他们阻止了俄罗斯银行的资金流动,拒绝他们进入国际市场,甚至冻结了普京的资产。

有趣的是,与此同时,银行也开始更多地使用 AI 系统,这些 AI 系统中存在许多重大且在许多这些金融机构中被广泛忽视的漏洞。

现在,这有很多方面。例如,AI 系统可能受到数据投毒攻击的影响,在这种攻击中,你可以通过感染输入到模型中的数据来破坏模型的预测。你也可以在那里做很多不同的事情。人们担心输入到 AI 模型中的数据的隐私,以及

然而,令人担忧的是,这比某些方面的软件漏洞要难得多。机器学习漏洞无法像修补其他软件那样进行修补。因此,当针对 AI 系统进行攻击时,潜在的攻击实际上可能会持续更长时间。

我认为许多人都指出了这些安全弱点。因此,像拜登总统这样的政府领导人担心,随着制裁持续造成损失,俄罗斯可能会开始使用网络攻击来打击这些金融机构。所以,看看俄罗斯会做什么,如果有的话,将会很有趣。

在攻击这些金融机构方面。但我认为那里有很多紧迫性,尤其是在他们开始尝试部署这些应用程序时。是的,我认为目前这似乎相当推测性。我不确定银行在多大程度上使用 AI。当然,他们并没有使用它来代替核心安全方面,你知道,AI 做出任何决定

但至少这是一个非常值得注意的话题,因为越来越多的公司将 AI 神经网络集成到不同的东西中,例如垃圾邮件检测或网络监控等。

你可能无法从那里入侵以获取密码或窃取资金,但我认为你可以干扰并中断操作。所以,而且我认为,这是一个非常新的领域,网络攻击的类型以及由此产生的影响尚不清楚。所以是的,

对于像俄罗斯这样的国家行为者来说,他们会在其网络战争能力上投入大量资金,这将是一个他们进行大量研发并尝试在这些漏洞为人所知之前找到这些漏洞,并基本上找到新的攻击方式的领域。所以……

当然,我认为目前我并不太担心,但这确实提出了我认为需要注意的一个话题,特别是对于这些公司来说,显然在未来十年需要牢记这一点。这是一个很好的提醒,这是一个相当推测性的担忧。但我确实认为,

正如你所肯定的那样,未来这种情况可能会变得更糟,这绝对是有效的。我认为银行和金融机构已经表现出很大的兴趣,开始在日常运营中使用人工智能模型。他们中的许多人甚至对GPT-3等大型模型感兴趣,并将其用于不同的用途。所以我想

我想,即使这是一个相当早期的担忧,希望,你知道,也许随着银行开始考虑更多地将这些AI系统用于越来越重要的运营,他们会非常小心地这样做,以及如何集成它们以及围绕它们的安全性实践。嗯哼。

是的,我想值得注意的是,在研究方面,在过去也许五年中,有很多工作都集中在人工智能系统的安全性和出口上。已经发现了很多奇怪的出口,其中

一个值得注意的例子是,如果你拍摄某个物体或某种动物(如熊猫)的图像,只是稍微改变一个像素或一堆像素,以至于它在人眼看来仍然完全相同,神经网络就会被愚弄。是的,这些不同的漏洞

和漏洞已经在学术界被发现。因此,我当然认为,人工智能将导致可能受到攻击的新方式,这是一种意想不到的方面。而且已经有关于如何抵制我们已知的一些攻击的研究,但是已经有这些形式的攻击的例子,并且

当然,根据这一点,有一些理由相信这些担忧。绝对的。

接下来是我们的闪电轮。首先,紧随我们刚才讨论的内容,有一个名为“入侵乌克兰已经损害了俄罗斯的人工智能雄心,甚至中国也可能无法提供帮助”的故事。这是一篇更具评论性质的文章,文章指出,这很可能会严重损害该国成为人工智能领导者的雄心。

相当推测性,你知道,也许不是,但鉴于目前的形势,这是一篇有趣的文章。接下来,我们看到自动化将首先消除知识型工作,而不是大多数蓝领工作,这是未来今日研究所首席执行官的观点。所以

这基本上是引用未来今日研究所首席执行官艾米·韦伯的话,她说高技能职业更容易被人工智能取代,这也是先前关于此类研究和报告的结论。所以我想许多人认为低技能工人的工资较低。但事实上,目前的预测更多的是中等阶级或

中等收入的工作更容易被取代?是的,我认为早期的麻省理工学院未来工作报告或其中一个特别工作组得出了非常相似的结论。对于我们的下一个故事,我们看到乌克兰实际上一直在使用面部识别软件来识别在战斗中丧生的俄罗斯士兵的遗体。

然后他们追踪他们的家人以告知他们死亡的消息,我想这是一种使用这项技术有趣且可能人道的方式。我们闪电轮中的最后一个故事是软件供应商正在推广可解释的人工智能,而这往往并非如此。这实际上是继许多关于可解释人工智能的担忧之后出现的。这里真正发生的事情是

随着越来越多的人使用人工智能系统,无论是在公司内部还是公司外部的买家,都开始质疑,“嘿,这些系统到底是如何工作的?”我们有一个专门致力于弄清楚“好的,你如何向人们解释这些系统的工作方式?”的整个研究领域。

不幸的是,可解释性缺乏标准。而且,为这些可解释性目的而开发的许多现实生活中的工具实际上似乎并没有实现它们的目标。已经有许多研究表明了这一点。

不同的解释方法实际上只是让人们相信他们理解他们正在查看的人工智能系统,而实际上他们根本不理解。所以这对我们来说并不是什么新鲜事,但很高兴看到这个问题得到了更多报道,希望

我认为对我来说,一些正在推广可解释人工智能的供应商可能会稍微清醒一点,他们会开始关注这些实践,并开始推动一些更合理的东西,并真正努力实现他们的目标,确保人们真正理解这些人工智能系统,而不是仅仅将可解释的人工智能作为一种营销工具。

是的,完全正确。这非常有趣。它涵盖了发表在《柳叶刀》医学研究出版物上的一篇较旧的论文。这篇论文的标题很有趣。“当前可解释人工智能方法在医疗保健中的虚假希望”。正如你所说,我认为很好

我们有研究人员正在研究和分析这些情况。事实上,这篇文章还引用了一篇关于可解释机器学习中分歧问题的较新论文。所以它实际上是对这类研究的概述。我们之前也看到过研究指出,这些部署的面部识别模型等存在偏差。所以很高兴看到很多这种批判性审查。

接下来是我们的有趣故事。首先,育碧展示了用于模拟动物的机器学习工具。在一条推文中,育碧(一家视频游戏公司,如果你不知道的话)展示了Zoo Builder AI工具,该工具实际上是在一条推文中发布的视频中展示的。

所以它有点像一部迷你纪录片。在三分钟内,它介绍了他们是如何构建这个旨在帮助动画动物运动的工具的。所以……

如今,视频游戏中人类的动画很大程度上依赖于动作捕捉,即让真实的演员四处走动,因为这比动画生成的更逼真的动作。但是对于动物来说,你知道,动作捕捉并不容易,特别是对于野生动物。所以它们是手工动画的。

而这个AI工具基本上承诺获取动物在其环境中移动的视频,然后使用AI将其转换为动画。它通过跟踪动物的关节状态,然后将这些关节状态转换为某种可以复制该运动的动画模型来实现这一点。

所以是的,看看这篇文章。他们在文章中嵌入了推文,所以你可以观看视频。看到这只猎豹或狮子四处走动,然后你可以将其用于数字动物,这很有趣。这仍然是一个原型,所以它没有用于游戏开发,但很容易看出它将来会如何使用。

看到这项工作能够提升我们在游戏中看到的事物的真实性,这绝对非常棒。我们的Nexo Reacts与我们刚刚阅读的这篇有很多共同之处。因此,英伟达最近发布了一个AI演示,它有一个名为Instant Nerf的工具,可以快速将几十张2D快照转换为3D渲染场景。

这种方法的工作方式是查看不同2D照片的颜色和光强度,然后生成数据以连接来自不同视角的这些图像。从那里,它渲染一个完成的3D场景。真正酷的是,它可以用来为虚拟世界创建化身或场景,或者训练机器人和自动驾驶汽车通过捕捉2D图像来实际理解现实世界物体的尺寸和形状。

它还提到你可以捕捉视频会议参与者及其环境的3D图像,我对这一点不太兴奋。但它是一个非常令人印象深刻的工具。英伟达的研究人员表示,他们能够在短短几毫秒内以1920 x 1080的分辨率导出场景。他们还发布了该项目的源代码。所以如果你想玩弄它,重新实现他们的方法,所有这些都为你准备好了。

是的,是的,这实际上非常令人兴奋。同样,如果你访问我们的文章,你可以查看一个小视频,它真正展示了这里的潜力。或者你可以访问上周的.ai,在那里,在我们对新闻的文本摘要中,我们也将其嵌入其中。因此,为了更多背景信息,这篇文章还介绍了这个东西,NERF,神经辐射场,

它于2020年首次推出,此后在人工智能领域得到了广泛应用和发展。它可能是最近人工智能领域最重大或最令人兴奋的发展之一。

而这个Nerf的局限性实际上是快速生成这些3D场景,因为你需要基本上逐场景优化,或者我不知道。我不会深入技术细节,但这确实令人印象深刻地解决了主要限制之一。

是的,我认为很多人预测类似Nerf的技术将对很多事情产生巨大的影响。看到这种进步令人难以置信。早些时候,如果你回顾2020年,最初的结果非常酷,但存在各种限制。而仅仅两年后,就取得了巨大的进步,这真正展示了

人工智能研究界以令人难以置信的速度推动事物前进的能力。这确实令人印象深刻。每当人工智能社区对某个问题真正感到兴奋时,你都能看到这种令人惊叹的进步。而且也值得注意的是,在工业界,工业实验室中,这也很令人兴奋,

他们很多时候的运作方式与学术界相似。他们公开发表这些论文,并开源他们的代码。人工智能社区能够如此快速发展,很大程度上是因为人们共享代码,共享训练好的模型,保持论文免费,而不是隐藏在付费墙后面,所有这些事情。所以很高兴看到英伟达在这种情况下也这样做。

这是一个很好的趋势。是的,我认为我们过去已经看到过很多例子,人们查看了发布的某些研究,例如《自然》杂志,并意识到,“嘿,这实际上就像谷歌的营销一样”,因为他们并没有真正发布任何。

任何可以帮助人们复制他们的实验的东西。所以我认为,在允许这种可重复性方面,人工智能领域仍然不完美。但我确实认为,这种文化已经发生了相当大的转变。而这是人们现在似乎更关心的事情。

是的,同意。再次,你可以在lastweekend.ai上查看与这些故事相关的视频,我们有一个新闻通讯,这也是这个播客的来源。所以为你提供一些历史背景。

就是这样。非常感谢收听本周的SkyNet Today的Last Week in AI播客。再次,你可以在lastweekin.ai的文本新闻通讯中找到与我们讨论的内容类似的文章。一如既往,我们感谢积极的评价,正如你所看到的。我们非常喜欢阅读我们在节目开头谈到的评价。

听到你们的反馈真是太好了,这使得这项努力非常值得。所以我们确实很感激,而且我们确实从中获得了很大的兴奋。所以如果你喜欢这个播客,那就留下一个简短的评价,我们将不胜感激。

感谢丹尼尔帮忙。很高兴有你加入。莎伦,我想我们很快就会回来,但很高兴我们能做这一集,你能帮忙。是的,感谢你今天让我担任联合主持人,安德烈。能做这件事真的太好了。好了,就是这样。一定要收听下周的Last Week in AI。