We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 883: Blackwell GPUs Are Now Available at Your Desk, with Sama Bali and Logan Lawler

883: Blackwell GPUs Are Now Available at Your Desk, with Sama Bali and Logan Lawler

2025/4/29
logo of podcast Super Data Science: ML & AI Podcast with Jon Krohn

Super Data Science: ML & AI Podcast with Jon Krohn

AI Deep Dive Transcript
People
L
Logan Lawler
S
Sama Bali
Topics
Sama Bali: 我在NVIDIA领导AI解决方案的市场推广工作。GTC大会盛况空前,吸引了众多开发者和数据科学家。大会上展示了大量的创新成果,甚至有人凌晨6点就开始排队等候主题演讲,这体现了AI技术发展的热潮。NVIDIA RTX Pro Blackwell GPU的一大特点是GPU内存翻倍,达到96GB,为本地运行大型模型和应用提供了强大的支持。企业客户越来越需要本地化的AI计算能力,以满足学习和实验的需求,因为云和数据中心资源日益稀缺。NVIDIA AI Enterprise是一个端到端的软件开发平台,它不仅能加速数据科学流程,还能帮助构建新一代AI应用。NVIDIA将AI软件作为微服务提供,是为了方便开发者快速替换和更新模型,适应AI技术快速发展的现状。NVIDIA Nemo可以帮助构建、训练和微调模型,并添加模型护栏以确保应用按预期使用。CUDA(计算统一设备架构)通过支持NVIDIA GPU上的高效并行计算,显著加快了AI模型的训练和推理速度。RapidSCUDEF等CUDA库能够在无需代码更改的情况下,显著加速数据预处理等任务。未来AI将更加普及,并融入日常生活,简化人们的工作和生活。AI正从生成式AI向代理式AI发展,未来将出现更多能够学习、感知和行动的AI代理,并与物理世界深度融合。 Logan Lawler: 我领导戴尔Pro Max AI解决方案团队。戴尔Pro Max电脑专为应对高强度计算工作负载而设计,将服务器级别的AI能力带到了桌面。GTC大会信息量巨大,建议与会者提前制定计划,才能更好地利用时间和资源。戴尔Pro Max GB10和GB300工作站专为数据科学家和开发者设计,预装了NVIDIA软件,开箱即用。NVIDIA AI Enterprise软件可以无缝连接戴尔Pro Max电脑和服务器,方便模型的部署和扩展。GB10工作站体积小巧,可以与Windows系统配合使用,实现工作效率的提升。戴尔Pro Max GB300工作站采用Grace Blackwell超强芯片设计,拥有强大的计算能力和内存,能够满足高强度AI工作负载的需求。戴尔Pro Max GB10工作站价格适中,适合学生或小型企业使用;GB300工作站价格较高,但性能强大,适合大型企业或需要高性能计算的用户。未来AI将更加普及,并融入日常生活,简化人们的工作和生活。

Deep Dive

Shownotes Transcript

继“AI超级碗”NVIDIA GTC之后,Sama Bali和Logan Lawler与Jon Krohn探讨了他们在科技巨头NVIDIA和戴尔各自的工作。Sama和Logan讨论了下一代Blackwell GPU及其与戴尔合作推出的Pro-Max PC(专为处理繁重的计算工作负载而设计),以及GB 10和GB 300工作站令人难以置信的性能,以及AI开发者工具和模型日益普及的现状。

(14:01) 对于刚开始训练和部署AI模型的人来说,为什么Nvidia的Blackwell GPU是一个不错的选择 (36:47) 数据科学家何时应该从基于Unix的系统切换到基于Windows的系统 (46:33) Logan和Sama对AI的预测 </context> <raw_text>0 这是第883集,嘉宾是来自NVIDIA的Sama Bali和来自戴尔的Logan Lawler。本期节目由ODSC(开放数据科学大会)和Adverity(对话式分析平台)赞助。

欢迎收听Super Data Science播客,这是数据科学行业收听率最高的播客。每周,我们都会为您带来有趣且鼓舞人心的人物和理念,探索机器学习、AI和相关技术的尖端领域,这些技术正在使我们的世界变得更好。我是您的主持人John Krohn。感谢您今天的收听。现在,让我们化繁为简。

欢迎回到Super Data Science播客。今天,我们邀请了两位杰出且互补的嘉宾。Sama Bali是NVIDIA的AI解决方案领导者,专门负责将AI产品推向市场。在加入NVIDIA之前,她在AWS担任机器学习解决方案的角色。她专注于教育数据科学家和开发者了解AI创新,并在企业中有效地实施这些创新。她拥有圣何塞州立大学工程管理硕士学位。

Logan Lawler领导戴尔ProMax AI解决方案。如果您以前没有听说过ProMax,我们将在本期节目中介绍。在戴尔的16年任职期间,Logan曾在商品服务、营销和电子商务等职位工作。他拥有德克萨斯州立大学管理学MBA学位。今天的节目将特别吸引动手实践的数据科学、机器学习和AI从业者。

但这并非特别技术性,因此任何人都可以欣赏。在本期节目中,Sama和Logan详细介绍了为什么数据科学家们会凌晨6点就来参加NVIDIA的GTC大会。他们讨论了NVIDIA下一代Blackwell GPU的杀手级规格,戴尔和NVIDIA如何联手将服务器级的AI能力带到您的桌面上,以及微服务如何彻底改变AI的开发和部署。好了,准备好收听这精彩的一集了吗?让我们开始吧。

欢迎收听Super Data Science播客。很高兴今天节目上有两位嘉宾,而不仅仅是一位。Logan Lawler,你今天从哪里打电话进来?嗨,John,感谢你邀请我。我从……好吧,我说是德克萨斯州奥斯汀,准确地说是德克萨斯州朗德罗克,戴尔的公司总部。非常好。我们还有Sama Bali。Sama,你从哪里打电话进来?嗨。

嗨,Joan。我从旧金山湾区打电话。与Logan不同,我实际上是在家。很好。对于我们的YouTube观众,他们可以欣赏Sama美丽的背景。太棒了。就像……你知道的,在我们节目的嘉宾中,它属于第99百分位数,就……而言,它非常平静,但也略带办公室气息。颜色非常漂亮。我喜欢。

而且是NVIDIA的绿色。是的,是NVIDIA的绿色。你不喜欢那里的地毯颜色吗?地毯颜色?还不错。Logan在一个隔间里。看起来非常正式。看起来他是在德克萨斯州奥斯汀的一个隔间里。是的,没错。而且我确实在。你周围有什么有趣的同事吗?你喜欢……用Nerf枪之类的东西在隔间里射他们吗?

说实话,在我职业生涯的早期,戴尔有很多这样的事情。比如有很多恶作剧和滑稽行为。我想说的是,随着我的职业发展和年龄的增长,这些恶作剧已经消失了,这有点……你知道的,让我有点难过,因为我非常喜欢它。嗯。

太可惜了。我记得我上次在有隔间的办公室工作时,有些人有遥控的……不是Nerf品牌的,但它和发射完全无害的带吸盘飞镖的想法一样。但他们有可以遥控的炮塔,安装在他们的隔间顶部。我确实想念它。这是我怀念的东西。

关于那种公司设置。无论如何,我们今天不是来谈论办公桌安排的。我们今天要谈论的是令人惊叹的创新。因此,在录制本期节目时,距离NVIDIA GTC刚刚过去一周,这是世界上最大的科技会议之一。我不知道你们是否有一些数据。也许它确实是最大的。所以,跟我们说说那次经历吧。也许我们先从Sama开始,因为你以前在NVIDIA工作,

所以,跟我们说说GTC吧。对于……来说,那是什么样的体验?我本人实际上并没有去过GTC,而且我敢打赌很多听众也没有去过。那是什么样的体验?我们在社交媒体和新闻上看到了很多关于它的报道。亲身体验是什么样的?

它被描述为“AI超级碗”,我认为没有人能更好地描述它了。圣何塞是我的大学城。所以看到我们用所有的创新把整个城市都涂成了绿色,这让我非常兴奋,这些创新不仅来自NVIDIA,也来自我们的合作伙伴,从云合作伙伴到企业再到初创公司,所有这些。

看到这一切真是太棒了,而且我们在硅谷的中心,但是看到这种创新变成现实,

对我来说是一次很棒的体验,我会这么说。你可以看到各种各样的开发者,挤满了数据科学家、从业者,大量的机会与在这个时代从事各种科技公司工作的人们建立联系。一些令人惊叹的、令人惊叹的……我的意思是,我从未想过在我的生活中会与这么多机器人进行对话,仅仅是在这五天里。是的。

但那确实发生了。所以,我最喜欢的时刻,虽然我们会看到Jensen,他是我们NVIDIA的CEO,会

在Denny's的餐车里,我从未想过世界上还有Denny's的餐车。确实有一个。他在演讲之前正在提供食物。所以那绝对是我最喜欢的时刻。我也是一个书呆子,我看到人们在苹果公司发布新款iPhone产品时,会在……露营。

在我的一生中,我第一次看到人们为了进入主题演讲会场而露营。人们早上6点就排队了,这在我看来真是太疯狂了。所以,我会说它绝对是圣何塞的一个节日。

非常好。Logan,你有什么亮点吗?你知道的,我认为你……我认为Sama或多或少地涵盖了这一点。我的意思是,我……这是我第一次参加GTC。我认为有很多东西。当我这么说的时候,这是为了表达积极的意思,但在学习、教育、展位设置方面,

所有选择,都有些让人不知所措,对吧?我认为关键是带着计划去,比如,“这是我想完成的事情。这是我想要遵循的学习路线,无论我是数据科学家还是……等等”,要有这样的计划,因为很容易站在贸易展会场地的中间,四处张望,然后就惊叹地呆上几个小时。但我喜欢它。很棒。人流量很大,人满为患。这并不一定是我的风格,但是,嘿,我们去了。

太棒了。听起来这是一次令人惊叹的体验。我必须在未来的某一年去看看。也许NVIDIA或戴尔的某个人会邀请我,也许我将来可以以某种方式做出贡献。我不知道。我以前没想过,但这可能会很有趣。好吧。所以,对你们两位的工作来说,

戴尔上周在GTC上发布了Pro Max PC。那么它们是什么呢?而且……我的意思是,也许这只是……我不需要有一个结尾。什么是Pro Max PC?好的。所以我们……当我说是我们的时候,我的意思是戴尔……我们有点预……我不会说发布,但我们在CES上宣布了这些,对吧?总的来说,让我快速介绍一下背景,戴尔……你知道的,今年和过去几年都有……

你知道的,很多不同的品牌,对吧。从专业用途到个人用途,从Precision到OptiPlex再到XPS,等等。所以,真正的品牌重塑从这里开始,那就是我们的客户如何购物?这实际上分解为我们推出的新品牌命名法,即戴尔,也就是……你知道的,

用于家庭和基本工作。你有戴尔Pro,想想你传统的消费者或你传统的专业人士,你知道的,知识型员工的工作流程之类的东西。然后是戴尔Pro Max,这是我支持的,它实际上是为繁重的ISV型工作负载而设计的。想想……是的,ISV,比如独立软件供应商。所以想想……

你知道的,CATIA或Adobe之类的软件,它专为各个行业中真正依赖于强大的GPU计算和加速才能完成工作流程的特定工作流程而设计。嗯,我们在CS上宣布了它们,我们在GTC上推出了它们,

说实话,更像是一个ISG类型的展会。我对……的数量感到非常兴奋,你知道的,媒体报道,还有……你知道的,反馈,因为我们一直在……

你知道的,支持数据科学家。我们一直在支持……那是我们之前的Precision系列,但是随着戴尔Pro Max的推出,我认为关键是要记住,我们仍然拥有我们的传统产品,你知道的,我们的塔式机,你知道的,我们的移动设备,这并没有改变,你知道的,所有这些都由Blackwell GPU加速。不同之处在于我们做了,我知道我们将会讨论这一点,所以我不会……你知道的,跳得太远,但是我们推出了两个专门为……设计的系统

数据科学家和开发者,采用Grace Blackwell设计的片上系统,这实际上是一种区别。我认为戴尔和市场都认识到这一点,说,我们知道市场的发展方向。我们需要为数据科学家提供一种用途明确的设备,它易于使用,并且能够将服务器的强大功能带到桌面上,我知道说这话听起来很疯狂,但这确实是正在发生的事情。所以这就是一个重要的公告,我们稍后会详细介绍。

很酷。所以,我想之所以在GTC上宣布这一点,是因为戴尔Pro Max PC系列中包含了NVIDIA GPU。是的,我的意思是,绝对如此。我的意思是,我们是伟大的合作伙伴。我的意思是,这是从……我不会说AI的起源,但在过去几年中,你知道的,戴尔AI工厂与NVIDIA一直是我们进入市场和实现AI的关键。所以这非常有意义,因为工作站非常依赖GPU。这是唯一一个拥有ProViz卡的产品线。所以,在GTC上发布非常有意义。酷。那么,Sama,从NVIDIA的角度来看,你对这些Pro Max PC有什么参与呢?

我在NVIDIA领导我们的AI解决方案进入市场。所以我的工作是看看……你知道的,当我们与戴尔这样的合作伙伴一起将这些新的GPU推向市场时,完整的解决方案是如何组合在一起的?一旦你真正地添加了NVIDIA AI软件这一层,它就变成了一个解决方案。

对吧?这就是真正成为NVIDIA、戴尔AI工厂与NVIDIA的原因。我们拥有戴尔的整个硬件产品线,但与此同时还有NVIDIA AI软件,它是一种一致的体验。如果您是从工作站开始,转移到服务器,转移到您的数据中心,再转移回您的工作站,那么它就是真正帮助您的一层软件,首先,利用GPU的强大功能,因为这整个软件层都经过了优化。

因此,您的数据科学家、您的开发者实际上不必在他们使用的软件或AI模型与当时的硬件之间进行微调。

所以,我的工作就是真正讨论和管理戴尔Pro Max PC以及我们的NVIDIA AI软件的完整解决方案的上市。太棒了。所以,我们稍后会谈到软件方面。首先,Logan,我认为,主要应该由他来指导这一点。让我们花一些时间来谈谈硬件。所以,为我的听众解释一下……

关于……实际上,你知道的,我不确定这是否一定是针对Logan的,但是……你知道的,解释一下NVIDIA最新GPU的情况,以及制造像Pro Max PC这样的产品,使其成为AI开发者如此成功所需要的不同类型的芯片。是的。我会……我会参与一部分。我的意思是,我知道Sama可能会提供比我更多、也可能更好的细节,但我认为我们……

当谈到……你知道的,戴尔Pro Max时,你知道的,Blackwell的加速,对吧?卡是核心。

以及任何数据科学工作流程,加速,取决于使用了什么库,是pandas还是Polaris还是其他什么,这实际上是关于你能在GPU上加载多少数据?GPU的工作速度有多快?最终,你能多快运行该工作流程?当然,还有一些围绕着它的东西,我的意思是,GPU是核心,但在戴尔Pro Max中还有其他一些东西,你知道的,也增加了体验,并增加了加速工作流程的能力。我的意思是,我们的T2塔式机,即使它是在上周发布的,今天才上市,我的意思是,

人们可能不会觉得这很有趣,但该塔式机的尺寸增加了一点,而占地面积并没有增加多少,因此您可以添加例如更多硬盘用于数据存储,您可以添加额外的卡,如果您想运行多个显示器之类的东西,并且还可以做一些其他的事情,能够运行不同的应用程序,无论是否是数据科学,能够运行某种新型英特尔处理器,以大约250瓦的

持续工作负载,这在业界非常独特。因为以前确实不是这样。所以,你知道的,所有这些实际上都是专门构建的,就像你使用戴尔Pro Max中的“Max”一词一样,这意味着将一切合法地推向最大值,对吧?比如,我们能把这个东西推到多远?这就是戴尔Pro Max的概括。

很酷。所以,让我们更详细地谈谈GPU。我当然明白CPU的重要性。听起来好像有一些CPU比以往任何时候都消耗更多功率。所以,你的Pro Max系列有功率要求。

让我们具体谈谈GPU。Blackwell与之前的GPU有什么区别?为什么对于训练或部署AI模型的人来说,拥有NVIDIA的Blackwell GPU比之前的GPU更有帮助?我可以先开始,Logan,然后我很确定我会错过很多东西。你会没事的。你会做得很好。你很棒,Salma。请说。

我会补充的。谢谢。完美。我认为我们谈到的一件事是,当我们与内部的许多数据科学家以及我们的客户群进行交谈时,我们开始

很快意识到,在过去几年中,很多AI开发都在云端、在数据中心进行。但AI现在正在成为主流,对吧?现在每个人都试图微调模型。Logan和我都不是技术人员。我们在产品营销方面工作。或者猜猜看?我们现在正在微调我们自己的模型。我们现在也在本地运行这些模型。

我们很快意识到,我们正在使用的系统,您仍然需要在系统中拥有更多一点的马力,这样您才能真正地

拥有这些本地运行的数据集,拥有这些本地运行的模型,拥有微调的能力,也许只是为了自己运行一个小型拖放模型等等。我记得去年夏天与一位数据科学家交谈,他当时说,任何时候他试图完成一项工作,他们实际上必须……他们有一个Slack频道。他必须写下自己的名字,然后他必须排队等待一个实例,这样他才能真正运行他的数据集。

所以我们认识到,现在许多企业客户都在努力获得更多马力。仅仅为了学习、仅仅为了实验而放弃云和数据中心是不可能的。

而且AI的演变很有趣,对吧?几乎每天都会出现一个新的模型,你想尝试一下。有一个新的技术,你想尝试一下。所以你需要拥有一个本地的沙盒体验,在那里你可以进行学习、实验。如果我是一个正在构建基于AI的应用程序的开发者,我可能希望继续进行所有测试,因为获取数据中心资源变得越来越稀缺。

所以,这就是NVIDIA RTX Pro Blackwell GPU的思路。然后,我们为您提供了台式机和笔记本电脑格式的完整产品线。但对我来说,最大的特点是我们使GPU内存翻倍了。所以我们从每个GPU的48GB增加到了96GB。你实际上可以在一个工作站中拥有四个这样的GPU。所以,在你的桌面上有很多内存。哇。你正在运行任何本地运行的模型,微调该模型,任何你想运行的推理应用程序。你在这些GPU本身中拥有强大的功能,以及我们通常会随着GPU的改进而改进的功能。但是,能够本地运行这些东西的大型内存容量已经改变了游戏规则。是的。

很高兴地宣布,我的朋友们,第10届年度ODSC East(开放数据科学大会East),2025年你不想错过的唯一一场会议,将于5月13日至15日重返波士顿。我将在那里主持一个为期四小时的关于使用Python设计和部署AI代理的实践研讨会。

ODSC East为期三天,内容丰富,包括动手实践课程和对尖端AI主题的深入探讨,所有课程均由世界一流的AI专家讲授。此外,还有许多绝佳的社交机会。ODSC East绝对是我最喜欢的会议。无论您的技能水平如何,ODSC East都将帮助您获得AI专业知识,从而将您的职业提升到一个新的水平。不要错过。在线特别折扣即将结束。了解更多信息,请访问odsc.com/boston。

是的,所以496GB内存。所以,几年前,我有点在说老黄历了。我上次构建服务器的时候,我买的是1080Ti,NVIDIA 1080Ti GPU,当时它们根本买不到。每个人都用它们来进行比特币挖矿。所以,比如,我必须打车。住在纽约,我必须打车去布鲁克林某个偏远的仓库去买一个

NVIDIA 1080 Ti GPU,他们会说,“每位顾客最多只能买一个”。然后我必须尝试在其他地方寻找一个,这样我才能在我的服务器中有两个。那些有13GB的RAM。所以我可以在这台我构建的服务器中获得26GB。有一段时间,实际上,随着模型的大小……

即使是在大型语言模型时代的早期,我自己以及一个由三位数据科学家组成的团队,我们四个人都可以共享。我最终构建了两台这样的服务器。

这对于我们来说已经足够了。而且它会……你知道的,与尝试在我们只有CPU的笔记本电脑上运行某些东西相比。你知道的,这太疯狂了,太疯狂了。你说的速度提升了10000倍。所以现在你描述的范式很有趣,

正在被逆转,因为现在有人可以在本地拥有自己的……你知道的,在我刚才描述的那种系统中,你知道的,我们是一家规模较小的AI公司,数据科学团队规模相对较小,但我们没有选择购买我们可以微调自己模型的个人机器。所以我们共享了几台服务器,因为大型语言模型不像现在这样庞大,所以这已经足够了。但正如你所描述的,随着……

随着LLM变得越来越庞大,获得分配的云计算资源来……训练或部署AI模型变得非常困难。所以对我来说,现在可以拥有一个只属于你自己的本地盒子非常有意义。你可以运行任何你想要的实验。你可以在上面学习。但是你也可以进行非常繁重的工作,特别是当你谈论像……这样的东西时,所以如果你每个Blackwell芯片都有96GB,你可以在Pro Max中安装四个。你说的将近400GB。我在这里让你们当场回答,但你们是否碰巧知道这在LLM的模型权重方面相当于什么?我会给你一个大致的数字,只要你不追究我,而且没有听众来追究我。但作为一个一般的经验法则,模型中每10亿个参数需要2GB。

所以这本质上是……说大约80亿个参数。对。有一些东西,量化,你运行的精度是FB 64还是FB 4,所有这些都略有不同。但我认为你指出了一个非常重要的点,那就是模型的大小,模型的大小是

你知道的,比如Llama 3、4、0、5,比如以前,在工作站上实际上是不可能的。并不是说它不想,或者没有这个愿望。只是技术还不成熟。我认为你指出了一个很好的观点,那就是技术之间……你知道的,戴尔Pro Max以及视频Blackwell GPU正在让人们做一些事情。

这就是GTC的一个收获。你将能够做以前从未做过的事情,我认为这超级酷。这真的很酷。很有趣。这是一个完整的循环。我的意思是,我甚至在想……

回到我攻读博士学位的时候,那是在最近的AI时代之前,我的博士学位于2012年完成,当时由于AlexNet(多伦多大学杰夫·辛顿实验室发布的机器视觉模型)的出现,人们对深度学习的兴趣激增。然后,学术界和工业界的所有人都开始注意到深度学习。实际上,很高兴在这次电话会议上有NVIDIA的人,因为这是……

来自Jensen Huang或当时NVIDIA任何人的见解,说,“哇,我们正在为渲染视频游戏图形或允许编辑器进行视频编辑之类的事情而构建图形处理单元。但我们将投入巨额资金……”

资金、时间和招聘,专门从事这场似乎即将到来的深度学习革命。所以我将要讲的故事,我将很快总结一下。但那时,在AI时代之前,

我记得我在牛津大学工作。我们会有很多服务器,我们会争夺它们。现在想想,在同一个实验室里,人们可以购买……我的意思是,在我的博士学位期间,我非常慷慨,我可以花大约2万英镑,也就是大约2.5万美元购买硬件。所以我可以在线购买一台或多台这样的工作站。

并且完全控制我想做的任何LLM相关的事情。所以我们所处的世界非常酷。然后我想回到NVIDIA在那个时候的故事,以及NVIDIA所做的事情以及其股价的反映所体现出的这种有远见的本质。

这就是这样的想法,好吧,深度学习将会非常庞大,或者让我们假设深度学习将会非常庞大。所以让我们构建一个软件生态系统,回到你之前说的,Sama,支持这一点。所以是的,所以跟我们说说CUDA、TensorRT之类的东西吧,也许是一些历史,以及为什么它们在这个GPU生态系统和这个AI时代如此重要。

是的。我实际上将首先从NVIDIA AI Enterprise开始,对吧?只是为了完成我们如何做事情的故事,特别是使用戴尔Pro Max AI PC。所以想想NVIDIA

NVIDIA AI Enterprise是我们端到端软件开发平台的版本,它不仅可以帮助您加速数据科学管道,还可以真正帮助您构建下一代。它可以是生成式AI应用程序。它可以是计算机视觉应用程序。它可以是语音AI应用程序。它有很多组件。我们有NIM微服务。这是

我们如何将各种AI模型作为容器化微服务交付的方式。所以,从字面上看,想想世界上任何其他AI模型。我们与开源合作伙伴、专有合作伙伴合作。我们也有我们自己的NVIDIA AI模型。我们将这些AI模型中的每一个都放入一个容器中,然后添加我们的……你知道的,

我不会说秘密武器,因为每个人都知道Tensor或TLLM和各种服务,这些服务实际上可以帮助您在NVIDIA GPU上获得最佳推理效果。我们将它们作为微服务提供。原因是,而且您很快就会从NVIDIA的角度看到这一点,我们正在将几乎所有AI软件都作为微服务提供,是因为

情况变化很快。我今天是一个使用Llama 3构建应用程序的开发者,猜猜看?两个月后,Llama 3.1出现了,再过两个月,3.2出现了。所以我们希望让人们能够尽可能快速地交换模型,而不会真正破坏整个管道。

所以这就是NIM微服务。我们已经获得了各种模型,如果您想构建一个数字人,实际上是构建与语音相关的应用程序,现在我们也有用于推理AI模型的NIM微服务。所以这是NVIDIA AI Enterprise的第一个组件。在……之前快速说一下……

在“AI 超级碗”——NVIDIA GTC 大会之后,Sama Bali 和 Logan Lawler 与 Jon Krohn 畅谈了他们在科技巨头 NVIDIA 和 Dell 的工作。Sama 和 Logan 讨论了下一代 Blackwell GPU,以及他们与 Dell 合作推出专为处理繁重计算工作负载而设计的 Pro-Max PC,以及 GB 10 和 GB 300 工作站令人难以置信的性能,以及 AI 开发工具和模型日益普及的现状。

(14:01) 为什么 Nvidia 的 Blackwell GPU 对于刚开始训练和部署 AI 模型的人来说是一个不错的选择 (36:47) 数据科学家何时应该从基于 Unix 的系统切换到基于 Windows 的系统 (46:33) Logan 和 Sama 对 AI 的预测 </context> <raw_text>0 对于你们两位,以及我们的许多听众来说,微服务的概念肯定显而易见。但是,能否为那些不了解微服务是什么以及为什么重要、为什么有帮助的听众定义一下?我实际上没有微服务的定义。好吧,我不会给出教科书式的定义,而是会给出一个实际的定义。好。假设您是一位数据科学家,您已经创建了……

让我们假设一个使用 Llama 3 的聊天机器人。您在没有微服务、没有 NVIDIA NIMH 的情况下创建了它。

就像 Sama 说的那样,每次模型更新、安全问题等等,您都需要做大量的,我不喜欢这么说,但是是大量的繁琐的后台工作才能将其部署。而当事情发生变化时,例如,如果您没有,这就是 NIM 微服务的核心所在,您可以用一行代码加载它,LLM 部分的工作实际上已经为您完成了。

它是容器化的,打包好的,随时可以使用。因此,数据科学家可以专注于如何自定义它或构建围绕它的应用程序包装器,而不是“哦,我需要在这里更新代码才能使其连接”。这就是 NIM 的意义所在:我可以用一行代码多快地利用 LLM、视觉模型等的强大功能。这就是 NIM 的强大之处。

它也可以在工作站上运行。它可以在 Dell Pro Max 服务器上运行。它几乎可以在任何地方运行。是的,我的观点是,这些 NIM 微服务的关键在于,您不必确保 AI 模型已针对 GPU 进行调整,我们已经为您完成了所有这些工作。因此,一旦您在 Dell Pro Max PC 上本地下载它,它就已经了解它正在运行的 GPU 类型了。您唯一需要确保的是

您知道,您下载的模型适合您的 GPU 内存大小,但是有了 96GB 的内存,您就拥有了整个世界。很好。在我说话的时候,我一直试图快速在线查找 NIM 的含义。我似乎找不到任何容易找到的含义。它听起来像……我要泄露秘密了。它实际上代表 NVIDIA 推理微服务,但我们也使用 NIM 微服务。这就像奶茶一样。

它们意思相同。土豆土豆。是的,土豆土豆。土豆牌土豆。没错。奶酪 Queso。我会这么说。我去餐馆,我会说,我要奶酪 Queso。然后我妻子总是取笑我。但是是的,奶酪 Queso。很好。是的,我现在完全明白了。感谢您提供这些见解。这很有趣。它不是公开的东西。所以人们真的得到了 NIM 的内部消息。是的,对于我们的听众来说,它的拼写是 N-I-M,

想知道我们说的是哪个词的人。它听起来就是这样。而且我全部大写。当然,我会在节目说明中添加指向它的链接。无论如何,我打断了您。哦,请继续。哦,我还在讨论 NIM 微服务这个话题。我想说的是,我们有一个名为 build.nvidia.com 的网站。我们在这里托管所有这些 NIM 微服务。

这是一个不错的网站,不仅可以尝试这些不同类型的 AI 模型,您还可以直接在网站上进行原型设计。完全免费。您可以看到各种合作伙伴(包括 NVIDIA 模型)的模型。它们按您使用的行业或您尝试构建的用例进行分类。因此,很容易浏览并找到您想要使用的确切模型。

然后,当您想要下载它时,我们已经简化了流程。如果您真的注册了我们的 NVIDIA 开发者计划,我们实际上允许您下载这些模型,然后继续进行测试和实验,完全免费。完全没有费用。因此您可以继续。作为一名开发者,我想尝试不同的模型,看看哪些模型适合我的应用程序。因此,我们也允许您这样做。

准备好将您在机器学习和 AI 方面的知识提升到一个新的水平了吗?加入 Super Data Science,访问不断增长的超过 40 门课程和 200 小时内容的图书馆。

从初学者到高级专业人士,Super Data Science 都为您量身定制了课程,包括大型语言模型、梯度提升和 AI 方面的内容。通过 17 条独特的职业发展路径来帮助您学习课程,您将始终专注于您的目标。无论您是想成为机器学习工程师、生成式 AI 专家,还是只是想将数据技能添加到您的职业生涯中,Super Data Science 都能满足您的需求。立即开始您的 14 天免费试用,网址为 superdatascience.com。

太棒了。这是一个很好的总结。我想说的是,我很高兴您对 NIM 微服务有更多补充,因为我的过渡将是,上次我打断您时,您正要开始讨论 AI 企业的其他方面。现在我让您继续。

因此,除了微服务之外,我们还有 Nemo,它可以帮助您构建、训练和微调您自己的模型,还可以让您为模型添加护栏,以便在部署应用程序时,确保应用程序完全按照您想要的方式使用。

我们有 AI 蓝图。可以将其视为参考 AI 工作流程。我们使您能够构建不同类型的 AI 应用程序。可以将其视为食谱。您拥有构建应用程序的分步过程。有一个参考架构,

但我们也使您能够向其中添加自己的数据。这就是每个公司获得自身优势的方式,对吧?您想添加自己的数据,这是您目前的区别所在。因此,您可以构建不同类型的应用程序。我们还有什么?哦,我们还有不同类型的框架和工具。因此,我们实际上确实支持不同类型的 AI 框架,例如 PyTorch、TensorFlow。我们还有我们的 CUDA 库。我认为现在是讨论 CUDA 的好时机。

它实际上代表计算统一设备架构。我不知道。我已经使用这个词十年了。谢谢。

因此,它通过在 NVIDIA GPU 上实现高效的并行计算,在 AI 开发中发挥着至关重要的作用,对吧?所以其整个架构实际上可以帮助您更快地训练不同类型的模型,这意味着在某些情况下,您可以将训练时间从几周缩短到几天,对吧?

它还可以帮助您获得越来越好的推理。由于这种并行处理架构,您会在 NVIDIA GPU 上看到更高的推理性能,如果您将其与仅 CPU 平台进行比较的话。我们现在有,我需要查找我们有多少 CUDA 库的正确数字,但是我们有……

大量的 CUDA 库,这些都是 GPU 加速库。我将给您举一个 RapidSCUDEF 的例子,对吧?所以这个想法,Logan 之前也提到了这一点,是

RapidSchoolDF 的工作方式是它倾向于模仿许多数据框架(如 pandas、polars)的 API。因此,如果您在数据科学工作流程中预处理数据的过程中,它实际上可以通过我们的 6000 个 GPU 将整个过程加速 100 倍。

无需更改任何代码。这就是它的妙处,作为数据科学家,我所做的只是添加一行 API 代码,然后它实际上

将整个过程加速 100 倍。所以这对数据科学家来说是巨大的时间节省。在 GTC 上,我们宣布了 QML,它也是我们的 CUDA 库之一。这也有助于您加速机器学习任务。因此,如果您使用的是 Skitlearn,您可以将 ML 任务的加速提高到 50 倍。因此,每个库,正如我所说,我们现在有很多这样的库,

但是根据您正在执行的数据科学任务,所有这些都旨在将工作卸载到 GPU,以便您可以看到巨大的加速。很好。QML 对我来说也是一个新的库。我正确地推断出 Q 不是字母 Q。它是 CUDA 的开头。所以它是 C-U-M-L。是的,我会在节目说明中添加指向它的链接。看起来真的很酷。GPU 加速机器学习算法。

专为我们的听众设计,专为数据科学任务设计。Sama,感谢您对 NVIDIA 在软件方面为训练和部署 ML 模型的人们所做的所有令人惊叹的事情的介绍。Logan,您能否告诉我们这与您参与的 Pro Max 系统有何关系?

是的,我的意思是,绝对的。所以,我们之前谈到了,对吧?所有新的 NVIDIA Blackwell GPU 架构,从 6000 开始,实际上是为 Dell Pro Max 量身定制的。它有点超越了 Dell Pro Max,但让我举一个完美的例子。就像,你知道,Sama 谈到了 AI 企业,对吧?这实际上是任何数据科学工作流程的核心。那么,Dell,我们

我们销售 PC,但也销售服务器,它真正适合并结合的地方有两个方面:一方面,如果您使用的是例如 Dell Pro Max T2,您可以使用 AI Enterprise 来完成这项工作,您可以清理数据集、优化、进行一些微调和实验,所有这些都可以利用 QDF 等工具来完成,但是假设您想部署它,这就是它使用 AI Enterprise 从 Dell Pro Max

到内部服务器进行部署,或者将其用于更大的实验,变得非常无缝的地方,对吧?这实际上是连接我们从桌面端到数据中心的所有内容的层,这使得它非常无缝。但是,如果我不谈谈我们谈到的、可能还会谈到的 Dell Pro Max 系统,那就太疏忽了,这些系统是专门为开发人员和数据科学家设计的,即 GB10 和 GB300。这些是,

在那里,如果您要购买 Dell Pro Max T2,那么 AI Enterprise 有一定的成本,对吧?但是如果您查看这两个系统,所有这些系统都预装了所有 Nvidia 软件,随时可以使用。因此,开箱即用,您只需将其插入即可开始使用。这与其他 Dell Pro Max 系统非常不同,我可能会说,也许不是太技术性,但假设这里有人是某个娱乐公司的数 据科学家。他们存在。

如果您正在做任何数据科学以外的事情,您将希望使用传统的 Dell Pro Max 系统。

但是如果您只做数据科学,那么您应该选择 Dell Pro Max GB10 或 GB300。因为,例如,Creative Cloud 实际上不适用于 Linux。它根本不是为此设计的。因此,您必须真正区分这一点。但是该软件包是从桌面端到部署的连接粘合剂,无论您是在服务器、云端等上进行部署。好的,让我们开始。哦,对不起。请继续,Saba。我要做你的部分,John。我要请 Logan 描述一下 GB10 的样子。

就像,你会死多少一样。酷。是的,让我们这样做。但我有一件事想先说。在我们开始讨论这些特定的 PC 之前,您举了一个创意套件的例子。您不能在 Linux 上运行的是什么?是的,完美的例子。Adobe Creative Cloud,也就是,你知道,Premiere Pro、照片编辑、视频编辑,所有这些都是……

这很独特,因为我们之前的所有精密工作站或一般工作站都可以进行数据科学,或者可以进行任何其他传统类型的媒体娱乐工作流程、视频编辑等。但是有一条界限,我认为,

这可能会让这次电话会议上的大多数开发人员和数据科学家感到非常高兴,这是一个专用系统,人们必须考虑,“嘿,如果我只做数据科学,我们真的需要倾向于 GB10 或 GB300;如果我除了数据科学之外还做其他事情,那么我确实需要这样做,因为您必须考虑,因为该系统只带有 Linux,例如 NVIDIA GDXLInux

GB10、GB300 是 Dell Pro Max 的型号,我们稍后会讨论,这些都是基于 Linux 的系统。听到这个真是很有趣。我脑子里开始出现的问题是,我个人长期以来一直在基于 Unix 的系统上编程或进行数据科学。这是一个有趣的问题……我想问的是,实际上,所以这里仍然有一个我认为

对许多听众来说都非常有趣,对我来说也绝对有趣的问题是,为什么我应该考虑从基于 Unix 的系统切换到基于 Windows 的系统作为数据科学家?好吧,

我的意思是,有几件事是您不必使用 GB 10 和 GB 300,因为那是基于 Linux 的。这就是原因,对吧?归根结底,我们知道,我的意思是,我不是数据科学家,从未声称自己是数据科学家,但你们都使用 Linux,这很好。它运行良好,加速效果也很好。我是 Windows 用户。我一直都是 Windows 用户。

嗯,有一些优化,我们不能真正讨论 WSL 2。它使这种无缝过渡稍微好一些。我个人喜欢 Windows,我不是想改变你的想法,但如果你正在做任何其他事情。

根据您实际使用的应用程序以及从兼容性的角度来看,它有时确实更容易在 Windows 上运行。但是是的,如果您是一位数据科学家,您喜欢 Linux,这就是 GB10 和 GB300 的全部原因,您喜欢它,它有效,您习惯了它。就是这样。我会说您甚至不必选择,尤其是对于 GB10,因为……

我要在这里抢先一步,Logan。它实际上可以放在你的手掌里,John。这是一个非常小的盒子。Logan 实际上可能有一个手机。好吧,我有一个。我从 GTC 带了一个回来,但这是一个具有代表性的例子。可能实际上更大。一盒纸巾?大概切掉三分之一。没错。我的意思是,真的……

鉴于我们的听众大多数只是听众而不是 YouTube 观看者,这实际上可能更有用。您拿出一盒纸巾并切掉大约三分之一,这实际上让我们的音频听众了解了这一点。是的,但回到我的观点,您实际上可以使用运行 Windows 的 Dell Pro Max AI PC 来运行所有生产力应用程序,并将 GB10 连接到它

如果您正在训练小型模型,您可以将其放在一边,对吧?您实际上可以将两个这样的设备串联在一起。因此,如果您是一个移动性强的人,您实际上可以拥有一个 Dell Pro Max 笔记本电脑,并拥有两个通过网络连接在一起的 GB10。我不能,是 NVIDIA X Connect 还是其他连接?Connect X。是的,Connect X,是的。因此,您实际上可以拥有两个,而且它比我们销售的几乎所有台式机塔式机都小。

这使您能够不必选择。如果您习惯使用 Windows,您可以继续在 Windows 上执行所有生产力工作流程。然后,如果您还在执行数据科学或开发人员任务,则可以通过将两者的优势结合起来轻松地在 Linux 上执行这些任务。很好。所以这类似于我之前描述的情况,我当时谈到的是,“嘿,你知道,几年前我手工构建了这些带有 NVIDIA GTX 1080 TI 的服务器。

我们数据科学团队的四个人将通过终端登录。所以这里有一个类似的想法,您可以使用您在笔记本电脑上键入时想要的任何操作系统,但是当您想使用 LLM 时,

您打开一个终端窗口,一些访问该机器的窗口,然后从那里运行。好的,这真的很酷。所以现在我们了解了 GB10,你可以用它擤鼻涕,而且它非常紧凑。告诉我们关于 GB300 的信息,另一种基于 Linux 的。所以 GB300 你不会用它擤鼻涕,因为它是一个——

我没有一个具有代表性的例子,但它是一个传统的、你知道的、大小合适的塔式机。什么,我认为这令人兴奋的是,嗯,

首先,它运行在 Grace Blackwell 超级芯片上。当我们说 GB Grace Blackwell 时,对吧?所以这是一种片上系统设计,具有 784GB 的统一内存,其中 288GB 专用于 GPU。496GB,希望我的数学是正确的,是 CPU 内存和 GPU 内存。

Tops 方面。我知道这是一个听众可能听说过也可能没听说过的术语,但它基本上是每秒万亿次运算,在 FP4 上。那是 20,000 Tops。

让我给你一个具体的背景,那就是在 RTX 卡、Blackwell 卡中,单个 6,096GB 大约是 4,000 Tops。对吧?所以这是一个非常非常强大的服务器级系统,它是为……我的意思是,你真的可以把它放在数据中心,它可以像服务器一样工作,但它是在桌面上的,并且具有强大的功能

我的意思是,整个事情和整个设计,我认为最终不会适合所有人。对吧。但是对于那些在企业中从事繁重数据科学工作的人来说,这将是您的首选系统。只是,

我的意思是,说实话,它的马力非常强大,完全诚实地说。我实际上看到团队使用它,他们可以轻松地同时访问多个用户。John,你谈到如何拥有一个小型 AI 开发人员和数据科学家团队,他们可以同时使用它,插入,完成他们的工作。但它再次是在桌面上,它是在本地部署的。您可以将您的数据保存在那里。

没错。我想补充一点,因为这是一个很好的观点,那就是,你知道,它的多个实例,这非常重要,因为从我获得的知识来看,归根结底,当你看到那些,你知道,已经开始,你知道,已经开始走上 AI 方法的企业时。

你知道,路径或旅程,对吧?通常是规模较大的公司,因为你知道,与之相关的成本。这需要时间和人才,我认为,然后一般来说,我不是服务器专家。我从未做过服务器方面的工作。这并不是说它们不好。我只是不太了解它们。对吧。那是我不具备的一项技能。嗯,每个人都有一个客户端。

你知道,桌面,你知道,技能。我真的认为,正如 Sam 指出的那样,GB 300 将会带来的是,如果您可能在一家规模较小的公司,您更像是一个中端市场,并且您没有服务器,并且不想处理它。这使您能够真正地将 AI 带入您的公司,无论它是 RAG 模型、微调某些东西、弥补一些差距,无论您想做什么。而您不必外出购买机架、冷却系统以及服务器附带的所有其他东西。

本期节目由 Adverity 赞助,Adverity 是一个集成数据平台,用于大规模连接、管理和使用您的数据。想象一下,能够像询问同事一样向您的数据提问,并立即获得答案。无需再挖掘仪表板、等待报告或处理复杂的 BI 工具。只需您需要的见解,即可立即获得。

借助 Adverity 的 AI 驱动的对话式数据分析,营销人员终于可以用简单的英语与他们的数据对话,获得即时答案,做出更明智的决策,更轻松地进行协作,并将报告时间缩短一半。您将提出什么问题?要了解更多信息,请查看节目说明或访问 www.adverity.com。网址是 A-D-V-E-R-I-T-Y dot com。

太棒了。这实际上正是我接下来要问的问题,是关于成本以及何时使用服务器或这种系统的。所以你刚才说对了。我不知道其他人是否要补充关于这一点的内容,你知道,这建立在我之前提出的观点的基础上,关于这种转变,你知道,当我回想起我的博士学位在 2012 年结束时,有

有很多事情我可以至少在本地进行测试。也许我会说,“好吧,现在我要在一个更大的数据集上扩展它,所以我将使用超级计算集群或其他什么东西。”但是在我们现在所处的世界中,这是一个完全不同的世界,我不能在我的笔记本电脑上拥有一个巨大的 Llama 模型并用它做任何事情。这是不可能的。所以这是一个有趣的世界,是我们现在所处的完全不同的世界。所以我们经历了从

能够在笔记本电脑上本地完成许多数据科学工作,到习惯于在云端完成许多事情的转变。现在像你们两位这样的人正在带来新的解决方案,一种新的范例,您可以拥有一个纸巾盒或一个台式机塔式机,它可以增强您自己使用所有尖端 AI 模型的能力,而无需

无需等待其他人。所以我想,我想我刚才总结了很多要点,但我不确定你们是否要补充关于谁是这个解决方案的理想用户,你知道,就公司或个人而言,你知道,特别是关于成本或效率方面。好的。

我的意思是,我会尝试一下。所以 GB 10 纸巾盒,我们称之为纸巾盒。我的意思是,这可以缩小到学生,也可以扩大规模,你知道,放在 Dell 里。我个人会买一个并使用它。你知道,GB 300 是,你

你知道,真的,你知道,无论企业规模如何,都是那些处理非常非常繁重的工作负载的人,对吧?我的意思是,这是一个服务器问题,价格尚未确定。所以我可能会惹上麻烦。让我们假设 NVIDIA 以及他们的,你知道,Spark DGX Spark 产品,我认为是 3000 到 4000 美元,Sama?是这样吗?好的。我认为

Dell 的纸巾盒的价格可能也在这个范围内。GB 300 的价格尚未公布,但考虑到您从 1000 AI Tops 一直提升到 20,000 AI Tops,它会更贵,但不会像服务器那么贵。

酷。这是一个很好的方法,可以让我免受麻烦。让我免受麻烦的好方法。是的,你真的,真的很好。是的,我想知道我们是否会讨论具体的定价,我认为这已经足够有方向性了,这对我和我们的听众都有帮助。好的。所以最后一个关于你们两个的大型技术问题。

你们正坐在 AI 的最前沿。你们参加了像 GTC 这样的会议,我还应该再次澄清一下,对于听众来说,在节目中任何时候有人说上周或今天,他们指的是录制时,也就是本期节目发布前大约一个月。所以你们没有时间扭曲。GTC 是,无论如何,五周前,而不是你们收听本期节目时所说的上周。

但是,鉴于你们两人都密切关注着 AI 的发展,你们认为,试图展望未来,我意识到用快速发展的 AI 来预测未来是非常困难的。但是,如果您能尝试对成为数据科学家或 AI 开发人员,或者甚至只是生活会是什么样子做出一些预测,

在未来几年,未来几十年?我很想听听你们的看法。这是一个很大的问题。我不知道谁想先来。你可以直接进入这个话题。我的意思是,我会尝试一下。我的意思是,我对世界在 AI 出现后可能是什么样子有疯狂的理论。我不认为这将是机器人接管世界,对吧?我不相信是这样。我相信的是,如果你仔细想想,

你知道,任何类型的技术或软件,都会有一些,你知道,一个开创性的时刻,就像你想想,你知道,你第一次把手机放在手掌里,对吧?就像,是的,有AI和不同的应用程序等等。我认为你将开始看到的是两种,两种大的转变,那就是一种,你会看到AI掌握在更多人的手中。我的意思是,而且我将要

我不是开发者。我的意思是,萨玛可以证明,大约一年前我被聘用时,我的水平并不高,但我能够出去学习,自我教育,从GitHub和其他地方下载不同的SDK,然后去训练我自己的用于动画工作室的模型。我能够做X、Y、Z。我认为你会看到这种情况会变得。

你知道,随着时间的推移,更容易获得、更容易使用和更受欢迎。然后我认为你将开始看到的另一件事是,人工智能正在进入我们的日常生活。例如,

太疯狂了。但我妈妈,我妈妈有点老派。他们大约70岁,但她有一本食谱,就像这些小食谱卡片一样。我说:“妈妈,你知道你有的那个南瓜派食谱吗?我真的很想得到它。”她说:“哦,让我找找卡片。”我的意思是,有成千上万张卡片,伙计。就像我一样,没有,没有按字母顺序排列等等。我说:“哇。”就像如果我妈妈有一个所有

她所有食谱的模型,她所要做的就是输入它,然后说南瓜派。它就会提供并能够告诉你。我们可以去设置它吗?我可以为她设置它,但这将是工作。我认为你将开始看到其中一些技术和类似的东西

进入主流,它将简化我们的生活。你知道我的意思吗?我认为这就是你随着时间的推移将开始看到的。我将重复詹森在他的主题演讲中所描绘的那幅图景,即我们已经从生成式人工智能的年代

到现在进入代理人工智能的世界,对吧?你有一个代理,一个由人工智能驱动的代理来处理一切。所以,比如说,在一个工厂环境中,你有一个人工智能代理,它负责管理你进入的原材料以及有多少原材料正在进入。假设你获得的原材料较少。因此,这个人工智能代理正在告诉那个管理车间的人工智能代理,猜猜怎么了?我们获得的原材料较少。因此,你的最终产品也会减少。并且

然后这个人工智能代理本身正在告诉运输部门,我们获得的原材料较少,今天不需要那么多卡车,对吧?所以你有了,我们肯定正在进入这样一个世界,其中许多推理人工智能模型也正在成为人工智能代理,你可以构建这些能够学习、感知,然后也能行动的系统。

我认为未来的一切都与物理人工智能有关,对吧?你现在有很多这样的自主系统,它们能够再次学习、感知,然后相应地行动。但这就在我们自己的物理世界中。所以如果你想到自动驾驶汽车,

我在海湾地区,我经常看到很多这些无人驾驶汽车,但每周我都会看到它们做得越来越好,因为它们正在学习,它们正在感知道路的不同条件,如果它们也看到有人在街上行走。所以我肯定认为人工智能可以与我们的物理世界很好地整合。

作为个人意见,我希望有很多防护措施和法规,只是为了让每个人都能更安全地使用它。做得很好。我意识到,你知道,你正在使用

你知道,英伟达的首席执行官,这是一家在全球范围内非常重要的人工智能公司。所以,你知道,我真的很感谢你带来这些见解。它使我们能够清楚地看到我们的去向。我认为你们两个在这方面做得非常完美,不仅是在这个问题上,

而且在整个剧集中,我都非常喜欢这个。太有趣了。我希望我很快能再次邀请你们两位参加一期节目。是的,深入探讨另一个话题真是太好了。是的,很好。我们成功了。在我让你们离开之前,我总是要求我的客人推荐一本书。你们有推荐的吗?也许萨玛先来,因为我认为我之前看到你举起了一本书。

是的,这绝对是我最喜欢的书之一。它叫做《魔法森林》。作者是一位印度作家,名叫奇特拉·班纳吉。我强烈推荐这本书。它基于罗摩衍那,围绕它的神话故事。它很棒,尤其适合任何……

我想说的是,任何领域中试图创造自己职业的女性。它也让你对自己充满信心。但我确实喜欢加里·盖内蒂,如果他正在听的话。我是一个非常非常大的粉丝。他的书很棒。它们让我又哭又笑。所以我非常喜欢加里·盖内蒂。我喜欢他所有的书。

这些将是我的推荐。我相信著名的作家加里·盖内蒂是超级数据科学播客的听众,毫无疑问。我相信他听到这个消息后会非常高兴。感谢你的精彩推荐,萨玛。洛根,你有什么推荐吗?你知道,我考虑过这个问题,

我不是一个狂热的读者。我更喜欢说话。如果你没有,你知道,你看不到这个,但我有一本我的戴尔GB,我的XB网络摄像头的入门手册。嗯,你知道,它读起来引人入胜。不,我只是开玩笑。我的意思是,已经有一段时间了。我承认,嗯,一本我确实,嗯,

嗯,没有像萨玛那样放在我面前,但我真的很喜欢,虽然它可能很老套,但它是孙子写的《孙子兵法》,就像在商业的背景下,你知道,我已经读过它了

几次,你知道,我只是,我喜欢它,因为它确实与商业有关,并且谈论了战略的重要性以及在你开始处理事情之前考虑你正在做什么,以及谈论,嘿,我想要做事情的一种战术方法是什么,或者考虑,嘿,当我处于困境时,我该如何处理?并且

不是在宣传战争或任何类似的事情,而只是在商业的背景下,它非常有趣。在我的职业生涯中,我肯定已经使用了这本书中的一些要点,当然了。太棒了。很好的推荐。我已经读过一些摘录,它确实看起来,它不是一本很长的书。我的意思是,我也听说过。它大约是关于戴尔Pro Max网络摄像头的。它说得很接近,不是非常薄,像纸巾一样。如果我们保留在纸巾盒上,它大约是一张纸巾。是的。

一个GB 10能装多少本《孙子兵法》?大概三本平装本。是的。很好。

太棒了。非常感谢你们两位。如果人们想听到更多来自你们的见解,或者只是想笑一笑,也许吧,因为你们两位今天在节目中都非常有趣和幽默。人们如何关注你们?萨玛,你想先来吗?我认为最好的方式是领英。你可能在那里只会找到我一个萨玛·巴利。所以这是最好的方式。给我发消息。我很乐意与你联系。很好。是的,我们将在节目说明中提供你领英的链接,也许还有洛根的。

是的。我的也是。领英是最好的。嗯,那是我最活跃的地方。嗯,它只是,你知道,洛根·沃勒。我的意思是,非常简单。我认为我实际上是唯一一个,知道还有其他几个,这令人震惊。嗯,我是那个,嗯,是的,戴尔公司的那个人,他的个人资料上写着戴尔Pro Max。

是的。对于我们的音频收听者来说,你知道,找到领英个人资料,听起来是这样的。是的,没错。没错。完美。嘿,约翰,还有一件事我想在结束之前谈谈,我们非常感谢你邀请我们参加节目,那就是对于所有正在收听的人来说,我正在制定一个计划。最简单的描述方法是,我们正在寻找那些拥有重工业知识和经验的数据科学家,来帮助我们做两件事。一个,

帮助我们测试产品,对吧?就像GB 10、GB 300,以及,你知道,在我们的产品设计过程中,对吧?我们在戴尔公司,我们直接与ITDM合作,但我们一直在寻找实际使用工作流程的最终用户,无论是在数据科学、M&E还是工程领域,这并不重要。能够理解影响他们的工作流程,他们每天做什么以及他们需要什么

戴尔Pro Max。所以我很好地开始了一个开发者咨询委员会。所以我们说,如果你对此感兴趣,想了解更多信息,嗯,

我正在提出这个提议。我很乐意聊天。我回复邮件非常快。它只是[email protected]。约翰,我认为他会把它包含在节目说明中,但联系我。我很乐意听到它。我很乐意见到你,了解你正在做什么。如果它是一个合适的匹配并且有意义,那么我很乐意让你成为委员会的一员。喜欢这个。这是一个很好的行动号召,适合我的听众,这应该非常适合这种事情。好吧,这就是我需要他们做的,因为这不是我。是的,这很完美。谢谢洛根。当然。

好的。所以,嗯,非常感谢你们两位参加节目。嗯,正如我已经说过的,我真的很享受。嗯,希望很快能再次见到你们。谢谢你的邀请。谢谢,伙计。感谢约翰,这是一段美好的时光。

与萨玛·巴利和洛根·沃勒一起度过了一段有趣而富有信息量的时光。在今天的节目中,他们介绍了英伟达的Blackwell GPU,以及它们如何提供高达每GPU 96GB的空前内存容量,并且能够在一个工作站中安装4个GPU,提供近400GB的GPU内存,足以运行参数约为2000亿的LLM。

他们还谈到了英伟达AI Enterprise软件如何在工作站和服务器之间创建一个无缝的生态系统,其中包括NIM(英伟达推理微服务),允许一行代码实现AI模型,而无需手动调整GPU。他们详细介绍了戴尔Pro Max PC,以及它们是如何专门为需要GPU加速和基于Unix的操作系统的繁重计算工作负载而设计的。

他们谈到了GB10工作站如何小巧到可以放在手掌中,但却功能强大到足以处理重要的AI工作负载,而GB300则提供了服务器级的性能,拥有20000个AI TOPS和近800GB的统一内存。最后,我们谈到了AI的民主化是如何加速的,因为像这样的技术使小型组织和个人能够获得强大的AI能力,而无需企业级的服务器基础设施。