We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode EP 438: AI News That Matters - January 13th, 2024

EP 438: AI News That Matters - January 13th, 2024

2025/1/13
logo of podcast Everyday AI Podcast – An AI and ChatGPT Podcast

Everyday AI Podcast – An AI and ChatGPT Podcast

AI Deep Dive AI Chapters Transcript
People
J
Jordan Wilson
一位经验丰富的数字策略专家和《Everyday AI》播客的主持人,专注于帮助普通人通过 AI 提升职业生涯。
Topics
Jordan Wilson: 我将讨论 NVIDIA 在 CES 上发布的令人印象深刻的 AI 产品,包括新的 RTX 50 系列 GPU、Project Digit 个人 AI 超级计算机以及 Cosmos 和 Nemotron 模型系列。这些产品将极大地改变我们工作的方式,使强大的 AI 计算能力能够在本地运行,并推动企业级 AI 解决方案的发展。 此外,我还将分析微软和 Google 在 AI 战略上的调整。微软发布了开源的 Phi-4 模型,同时计划裁员,这反映了科技公司在 AI 投资和人才竞争方面的策略转变。Google DeepMind 则正在组建一个新的 AI 研究团队,专注于开发世界模型,以期在 AGI 领域取得突破。 最后,OpenAI 重建机器人部门的消息也值得关注,这标志着 AI 技术在机器人领域的应用将进入一个新的阶段。OpenAI 还发布了一份文件,强调美国需要投资和监管来保持其在 AI 领域的领先地位。

Deep Dive

Chapters

Shownotes Transcript

这是Everyday AI Show,一个日常播客,我们简化AI,并将它的力量带到您的指尖。每天收听,获取提升您的职业、业务和日常生活的实用建议。

微软是否因为AI而裁员数千人?英伟达的一个小盒子如何改变了未来的工作?谷歌刚刚宣布的重大AI改革是什么?为什么OpenAI要涉足人形机器人?大家,现在你们脑海中可能盘旋着许多AI问题。我们有你们的AI答案。所以,

每周,每天,你都可能花数小时试图解答这些问题,对吧?更重要的是,它们如何影响你的公司、你的职业、你的发展。别这么做。别每天花数小时试图跟上,试图担心它。加入我们。这就是我们所做的。好吧,我们每天都做,但在周一,我们会带给您重要的AI新闻。

大家好!我的名字是Jordan Wilson,欢迎来到Everyday AI。这是您的每日播客直播和免费每日新闻通讯,帮助像你我这样的普通人不仅跟上AI的步伐,而且还能成为公司里最了解AI的人,发展您的公司和职业。所以,如果这就是你正在做的事情,对吧,试图跟上,试图领先,试图成为公司里最了解AI的人,欢迎。这是你的新家。

好了。所以,如果您还没有,请访问youreverydayai.com。在那里,您可以注册我们的免费每日新闻通讯。在每日新闻通讯中,我们不仅会回顾每周一到周五的每一个播客/直播,还会分解您需要了解的AI世界中发生的一切。此外,如果您还不知道,我们的网站上还有大约430个播客。

您可以收听来自AI领域一些最聪明的人的往期节目,所有节目都按类别排序。如果您关心法律、技术、企业、营销等方面,请点击该类别,您可以免费收听世界领先专家的讲解。好了。所以我很高兴宣布这一点,在我们进入重要的AI新闻之前。下周。好了。从1月20日开始,整整一周,

我们为您准备了一些特别的东西。所以我们有2025年AI预测和路线图系列。连续五天,五个精彩的节目。各位,我无法告诉你们我对此有多兴奋。所以我在去年做了这个。实际上,我在12月份做了关于2024年AI预测的节目。

在10月、11月,也就是节目播出后9到10个月,我仍然收到人们的来信,说它有多么有用。所以我们决定做得更深入,不仅要关注预测,对吧?这并非重点,而是真正的路线图以及如何规划和利用所有这些预测。所以我们将进行25个,

这些,每天五个简短的节目。我们将保持它们。对于那些在遛狗或在跑步机上收听节目的朋友们,它们不会持续一个小时。所以它们应该会很快节奏紧凑。我等不及了。所以现在就标记您的日历。如果您是播客的听众,请确保收听每一个节目。所以那是下周,从1月20日星期一开始,

到1月24日星期五。请关注这一点。好了,闲聊到此为止。让我们进入本周1月13日重要的AI新闻。嘿,直播观众,感谢大家的收听。Michael加入了YouTube,Brian、Jackie、Christopher、Zofia、Gene、Joe、Michael,今天阵容强大,Tim。让我们开始吧,Michael说。好的,让我们开始吧。所以

英伟达,英伟达,英伟达。好了。今天会有很多关于它的内容。所以当Open AI和谷歌在12月份进行了一场直接的激烈竞争,最终将改变我们的工作方式时,

英伟达说,好吧,大家,让我来试试AI。英伟达在首席执行官黄仁勋在CES(消费电子展)上的主题演讲中直接行动起来,

在拉斯维加斯。所以现在这似乎是旧闻了,但它发生在我们上次“重要的AI新闻”节目后的周一晚上。所以我们一直在我们的新闻通讯中报道很多这些内容,但我们必须在我们的“重要的AI新闻”节目中向您介绍它,因为它有很多重要的AI新闻。

有些有点呆板,有些则不然。首先,让我们谈谈GPU,好吗?如果您不知道,GPU是AI世界中运转一切的关键,对吧?所以大型公司,对吧,那些运行您的AI聊天机器人或运行贵公司使用的任何AI的公司,它们都在使用GPU,然后

本地的人们,对吧?例如,如果您想运行本地模型,如果您想在您的计算机上拥有最好的技术、最好的硬件来利用这个AI,您可能实际上需要英伟达的GPU之一。所以英伟达在年底推出了备受期待的RTX 50系列GPU。

所以新系列包括RTX 5090、RTX 5080、5070,入门级新GPU的价格从549美元起。

好了,这些GPU拥有相当令人印象深刻的速度提升,由于一些更新的技术,如DLSS4,有望将它们前代产品的性能提高一倍。该系列采用更紧凑的设计,也使小型PC能够使用高性能GPU。

所以英伟达正在将其RTX 50系列扩展到笔记本电脑。是的,您不必拥有大型家用电脑。而且该产品的上市时间是3月份。所以基本上是这样的,他们的新款549美元RTX 50系列GPU。

550美元。太疯狂了。因为它提供的性能与他们之前的英伟达4090 GPU几乎相同,而4090 GPU的价格为1600美元。好了。您可能想知道,好吧,这怎么可能呢?好吧,我不知道。英伟达是一家什么样的制造商。

我不知道,那里有一群巫师在跑来跑去。但有一点是他们现在正在使用生成帧。对于GPU和游戏、视频、动画等所有这些东西来说,这将是一个越来越大的趋势,那就是生成帧。所以本质上,你可能

以前,您可能需要更多板载电源来生成更多内容,但现在我们使用生成式AI来生成帧之间或升级帧。这就是这甚至可能的原因之一,也是我们能够在更小的设备上获得这些功能强大的GPU的原因之一。很多英伟达Digits。

我对此非常兴奋。我个人没有3000美元可以挥霍,但我可能不得不找到3000美元来挥霍。这是因为这是新款英伟达Project Digit的价格标签。这也是在CES上宣布的。这本质上是英伟达的首款个人AI超级计算机。

起价为3000美元,旨在将AI超级计算能力带到桌面,使其能够为开发人员、数据科学家和小型组织所用。这款新设备由英伟达的GB10驱动,这是其新的Grace Blackwell超级芯片,它将强大的Blackwell GPU与20核Grace CPU相结合。好了。所以本质上是一堆

一堆疯狂的硬件技术都集中在一个盒子里。如果您像我一样是技术宅并且关心这些东西的话,它有128GB的内存。它还拥有1拍的AI性能。是的,那是1拍。我们进入了一个新时代。

一个新的flop级别,显然。我们现在处于拍级别。所以这实际上允许用户在本地处理复杂的AI任务和大型语言模型。这里的大事是,我们以前仅限于更大的超级计算机。所以是的,例如,你把两个这样的东西放在一起,因为你可以将它们连接起来,互连起来,你可以运行例如Llama 405B。

对吧?一个4050亿参数的模型。理论上,在其中一个上,你可以运行GPT-4.0。是的,让我再说一遍。理论上,在一个这样的设备上,你可以运行GPT-4.0。世界上,可能是世界上排名前两名、前三名最强大的大型语言模型之一。显然,你无法下载像OpenAI的GPT-4.0这样的专有模型。但这意味着

我认为大型语言模型,尤其是开源模型,并没有变得更大。它们实际上正在变小。因此,将不会有大型语言模型,开源的,你无法在这个Digits的第一个版本上运行。这将是这东西有史以来最糟糕的状态。一两年后,它会更便宜。它会更强大。但这就是这代表的意义。这改变了我们的工作方式。

这里还有一件重要的事情需要注意,我认为很多人都在忽视这一点,因为现在,是的,Project Digits可以作为一个独立的基于Linux的工作站运行。所以是的,你可以,你知道,插入键盘和鼠标以及所有这些东西。呃,

但它也可以连接到不同的主计算机,以获得当前机器的额外AI计算能力。因此,您不必在英伟达的基于Linux的操作系统上运行。您可以将其连接到您的计算机、公司的计算机等,它可以与任何Windows或Mac计算机一起运行。

所以如果您只是将其作为自己的计算机运行,它会在英伟达的DGX操作系统上运行,就像我说的那样,它是基于Linux的,但它可以运行并扩展您当前的Mac或PC系统。这是人们有点忽视的事情。但是大家想想这个。我每天都谈论AI。是的,我是英伟达的忠实粉丝。好了。我两年前告诉你们,

当几乎没有人听说过英伟达时,我说他们是世界上最重要、却无人知晓的公司。对。他们显然已经声名鹊起。有时,你知道,他们通常排名前三。但有时他们是按市值计算的世界第一大公司。从相对默默无闻到世界第一大公司。我告诉你们那会发生。好了。这是因为每个公司,每个人都需要GPU。未来工作的重点是生成式AI、大型语言模型。你需要GPU。

力量。你需要GPU。这就是为什么这个Digits非常令人印象深刻,对吧?直播观众,有人会花3000美元买这个吗?Michael说英伟达需要给你寄一个。是的。嘿,英伟达的朋友们,我知道你们中的一些人在听。是的。你们有我的地址。继续寄给我一个。我会在节目中对此进行评论。但这太疯狂了。我该如何......

你理解这一点吗?两三四年以前,没有人会认为这有可能在本地运行,理论上它有能力在本地运行世界上最强大的大型语言模型,这样你就不用太担心数据安全,将所有内容发送到云端,呃,推理时间延长,因为你正在自己的机器上运行一切,对吧?我认为

我认为即使边缘AI或设备上AI在一年前或两年以前更是一个热门话题,也许我们当时谈论的是小型语言模型,对吧?我们当时谈论的是迷你版。现在,至少对于您可以下载的开源模型,我们具备了这种能力,对吧?所以当我们谈论Meta的Llama或英伟达的Nemotron时,我们稍后会谈到这一点,在本地运行它。哇。好了。

更多英伟达新闻。Cosmos。所以英伟达推出了Cosmos。好了。它旨在增强人形机器人、工业机器人和自动驾驶汽车的功能。根据英伟达的说法,Cosmos能够生成物理世界的图像和3D模型,这与更侧重于文本生成的语言模型不同。所以Cosmos

黄仁勋在他的主题演讲中,如果您还没有听过这个主题演讲,我强烈建议您收听,如果您想知道AI的走向和AI的未来方向的话。所以他当时正在谈论这个,演示Cosmos在模拟仓库活动中的应用,展示其在2000万小时的真实世界镜头上的训练。让我再说一遍。Cosmos接受了2000万小时的

真实世界镜头的训练。哇。好了。Cosmos的目标是使AI能够更好地理解和更有效地与物理世界互动,而不仅仅是创建内容。Agility、Figure AI、Uber、Wave以及所有其他公司已经在使用Cosmos来推进其机器人和自动驾驶汽车技术。

英伟达还宣布对其Isaac机器人模拟平台进行了一些增强和更新,这本质上是AI机器人的健身房或锻炼场所。它们进入英伟达的云端进行锻炼和学习。所以这将有助于机器人通过生成合成数据更有效地学习任务

从有限的例子中。Cosmos的推出和Isaac的更新预计将吸引那些旨在在各种环境中开发和部署人形机器人的企业。是的,在不久的将来,我们将听到很多关于人形机器人的消息。

嘿,我是Jordan,Everyday AI的主持人。我已经在ChatGPT中花费了超过一千个小时,并且在我的免费Prime Prompt Polish ChatGPT课程中分享了我所有的秘密,该课程仅提供给像您这样的忠实听众。看看自由职业营销人员Mike对PPP课程的评价。我刚刚参加了Jordan的网络研讨会。

太棒了,价值巨大。它是现场直播的,所以您可以得到您的问题的解答。我对此非常兴奋。这是一个令人难以置信的资源。几乎所有东西都是免费的。我很乐意为Jordan发布的许多内容付费。所以如果您想知道您是否应该参加网络研讨会,只需抽出时间来参加即可。这绝对值得。每个人的提示都是错误的,而PPP课程可以解决这个问题。

如果您想要访问,请访问podpp.com。再次强调,是podpp.com。注册免费课程,并开始让ChatGPT为您工作。最后一个,最后一个英伟达新闻故事,各位。英伟达还推出了Nemotron模型。

所以他们推出了他们的新Nemotron大型语言模型系列。好了。所以以前英伟达在他们宣布或推出Nemotron的一个变体时基本上发布了一篇博客文章,但现在在CES上变得非常正式了。现在它是一个大家族了。所以,

Nemotron,您将听到更多关于它的消息,它是基于Meta的Llama基础模型构建的。这些大型语言模型旨在为强大的企业级AI解决方案提供动力。黄仁勋强调了这些新模型在软件编码方面的变革潜力,预测AI辅助将与编码成为本质上相同的东西。所以

我会离开。好吧,实际上,我稍后还有一个关于这个的新闻故事,所以我现在不会对这个发表太多我的看法。所以Llama Nemotron模型有小型、中型和大型三种尺寸,适用于在PC、边缘设备和云环境中部署。那么英伟达为什么要这么做呢?他们为什么要为设备分叉呢?

Meta的Llama模型,好吧,他们真的试图在企业AI中获得更大的份额,对吧?你知道,他们有他们的RTX平台聊天,我认为这很好,但你必须在你的电脑上只有特定的GPU才能运行它,而且它有一些限制。所以英伟达基本上说他们全力以赴地分叉Meta的Llama模型,

但我认为这是明智的,因为他们现在可以更快地使用为企业需求定制的强大工具进入企业AI领域。如果您关注模型排名、基准测试等内容,对吧?实际上,Meta的Nemotron,最初的第一个版本,其排名或得分高于其所基于的模型。

对。所以加利福尼亚州圣何塞地区的所有聪明工程师以某种方式制作了他们自己更好的Llama版本。

此外,这还增加了对其硬件的需求。所以这些AI模型,尤其是中型和大型模型,需要大量的计算能力才能有效运行。因此,使用Llama Nemotron的企业可能需要英伟达的GPU,对吧?或者例如,他们的新Digits,对吧?所以

英伟达在这里很聪明,他们真的加大了对这个开放的投资。它不是真正的开源,但它是开源的Llama变体。呃,我预计一旦我们获得基准测试结果,我预计会有一些相当令人印象深刻的基准测试结果,而且我确实希望一些企业公司看到这一点,并认为,是的,我们将,呃,

几乎立即将其放入我们的LLM堆栈中。所以英伟达尝试改进现有的开源软件是有意义的,因为如果公司抓住它,他们可能需要更多GPU。好了。我们离开了英伟达的新闻,各位。直播观众,播客观众也一样,请告诉我您的想法。

您对英伟达在CES上宣布的内容印象如何?说实话,我更震惊的是,他们将再次这样做。英伟达将在大约三个月后在其GTC大会上再次这样做,我去年参加了这次大会。我今年可能会也可能不会参加。我们将看看我的日程安排如何。但事实上,他们可能会在三个月后宣布一系列新的更新,这

我无法理解他们如何能够如此快速地创新。好了。说到创新,谷歌DeepMind正在组建一个新的AI研究团队,专注于开发世界模型来模拟物理环境,根据Tim Brooks最近的声明。Tim Brooks上周或可能是前一周在节目中谈到过,

以前是联合负责人。这就是为什么它很重要。他以前是OpenAI的Sora(他们的AI视频工具)的联合负责人。他于10月份加入DeepMind,并领导这项新计划,DeepMind更加关注世界模型,基本上试图提高谷歌的AI能力并模拟现实世界场景。

所以世界模型是AI领域最前沿的发展,试图彻底改变。是的。像电子游戏、电影和用于机器人的逼真训练环境之类的东西。但更重要的是,对于所有这些正在努力实现通用人工智能的公司来说,这些世界模型是一个巨大的挑战。

差距,对吧?本质上,所有这些大型语言模型都接受了互联网全部内容的训练,包括抓取的、受版权保护的内容,所有内容,但不是现实世界中实际发生的事情,对吧?所以本质上,大型语言模型从未走出过家门,接触过草地,对吧?我相信有些人会告诉我,在内部。他们说,Jordan,你可能应该

出去接触一下草地。你坐在电脑前的时间太多了,谈论AI的时间太多了,对吧?所以这是等价物,对吧,大型语言模型走出家门,接触草地。这是世界模型,对吧?所以是现实世界的物理学,现实世界中事物之间的关系,对吧?这就是这些世界模型的用途。

所以这项计划,谷歌新组建的团队,是他们实现通用人工智能AGI的更广泛战略的一部分,在竞争对手之前实现通用人工智能,强调了在视频和多模式数据上进行大规模预训练的重要性,而不仅仅是文本。所以这个项目与其他AI进步竞争,就像我们谈到的Sora、英伟达的Cosmos平台,就像我们谈到的,以及World Labs。

所以DeepMind的新团队将与现有的谷歌AI项目合作,包括Gemini AI模型、VO(视频生成器)和Genie(实时模拟3D环境)。

根据职位描述,DeepMind正在寻找研究工程师和科学家来应对与大规模训练以及将世界模型与多模式语言模型集成相关的挑战。还宣布,开发谷歌AI Studio和Gemini开发者API的团队将转移到谷歌DeepMind旗下。所以这里有一个脚注,但非常重要。

好了。更多大型语言模型新闻。微软发布了其开源PHY4模型。

所以微软已将其5.4模型作为完全开源项目发布在Hugging Face上。所以5.4,你知道,一定要在新闻通讯中查看。但是如果您只是想知道,如果您想查找它,它是PHI四。好了。它是一个140亿参数的模型,提供强大的推理能力,同时在资源管理方面仍然高效。

根据微软的说法,从PHY3开始的这次更新,使该模型能够为更广泛的受众所用,包括在流行的宽松MIT许可证下的商业应用。所以PHY4,

你知道,你不会看到像5.4这样的小型模型在所有基准测试中都优于谷歌的Gemini Pro、Ultra、OpenAI的GPT-4.0等世界领先的模型。但一个更小的模型已经在某些指标上与世界一流的模型竞争,更不用说这是一个开放模型了,这确实令人印象深刻。

微软决定将该模型开源,这与在AI开发中促进创新和透明度的持续趋势相一致。所以此举可能会影响AI领域,对吧?通过使更有限资源的组织更容易获得先进的AI能力。Joe说,迫不及待地想上手测试5.4。它现在已经可用。我们将在我们的新闻通讯中留下链接。您现在必须拥有一个相当强大的,呃,

设置才能在本地运行它,但它是可用的。实际上,不,它不应该那么强大。如果您有一台相当新的电脑,16到32GB的RAM,您应该能够做到。我不认为我的任何电脑都能做到。好吧,也许是我的新Copilot Plus PC。我必须看看它是否可以运行它。好了。

接下来,据报道,微软据报道计划裁员约1%,这可能导致数千个工作岗位流失。据称,这些裁员是基于绩效的,并且遍及安全部门和其他部门。

所以尽管有这些裁员,微软倾向于补充因绩效原因而空缺的职位,这意味着微软的员工总数可能会保持稳定。截至上次报告,我相信是6月份,微软大约有228名全职员工。

此举是在微软之前进行裁员之后进行的,包括在2023年1月裁员10000名员工,当时这不到其当时员工总数的5%。所以这些裁员是在微软继续大力投资新兴人工智能市场的同时进行的,旨在保持其领导地位。

据报道,微软还专注于留住关键人才,尤其是在其AI计划中,通过提供股票或现金奖励的形式提供留任奖金。所以根据报道,一份内部文件显示,微软管理人员被要求评估失去特定员工,尤其是对AI工作至关重要的员工的潜在危害。

所以关于员工对AI项目的贡献的问题据报道已添加到针对公司内特定大型群体的绩效评估中。对AI人才保留的关注突显了微软向AI的战略转变,一些员工从Teams聊天应用程序转移到Copilot等AI项目。

我们将看到这一切都在发生,各位。我不会成为AI末日论者,但我不知道。我实际上在2023年,2023年初就说过,我说2024年第四季度。此后,我说,那时裁员将开始出现。因为发生的事情是第一季度,

像微软、谷歌、亚马逊、Meta这样的大型科技公司,随着技术的进步,他们将停止招聘新员工,对吧?我认为他们不会替换离职的人,他们可能会招聘一些人。但我认为我们将看到大型科技公司,我们将看到员工总数

下降,对吧?是的。由于疫情后或疫情期间的过度招聘,他们中的许多人规模略微过大。但我确实认为我们将看到很多裁员。所以2024年是科技公司裁员创纪录的一年。我认为这种趋势将在2025年进一步延续。

不幸的是,这是一个滞后效应。所以美国其他企业界,尤其是在美国,将在今年晚些时候效仿。说到这一点......

是的。所以,呃,Meta首席执行官马克·扎克伯格宣布,Meta计划使用AI自动化中层软件工程师的工作,呃,这可能会改变整个科技行业的格局。是的。呃,

扎克伯格在过去一两个月里似乎完全来了个180度大转弯,对吧?所以Meta也在做一些人们认为有争议的事情,对吧?在内部淡化以前强调的一些计划,取消人工事实核查员,而是使用社区注释系统。但扎克伯格直接说,是的,

我们将开始自动化我们中层软件工程师正在做的许多工作。我们将使用AI来做到这一点。这里有趣的是,

他强调的是中层工程师,而不是入门级工程师,对吧?这表明构建这项技术的人知道大型语言模型能够做什么。这并不总是仅仅是低端的“入门级”简单工作。有时是中层工作。所以,呃,

据扎克伯格说,Meta和其他科技巨头,关键就在这里,他们的目标是到2025年拥有能够有效编写代码的中层工程师AI。向AI驱动编码的转变最初可能成本高昂,但扎克伯格认为,最终将导致Meta应用程序中的所有编码都由AI完成。

目前,Meta公司中层软件工程师的年薪接近六位数的中位数,并非接近六位数,而是接近六位数的中位数。这意味着他们大多数人的年收入约为50万美元。很有趣,对吧?而且我认为,正如我们所看到的,这只是我们在编码领域看到的变革之风。

对。我实际上认为是英伟达首席执行官黄仁勋在去年开始了这场对话,他说:“是的,我不会教孩子们如何编程。”对。每个人都像,“哇,你是什么意思?”对。难道不应该每个人都学习编程吗?难道编程不会变得更容易上手吗?对。这就像,“是的,但它也变得像自然语言一样。”对。你实际上可以用“代码”编写一个应用程序,即使你对代码一无所知。

你可以使用像微软的GitHub Copilot、Cursor或Lovely Windsurf这样的工具,然后说:“嘿,帮我编写这个代码”,或者“嘿,这是我使用的某个东西的截图。这是它的功能。帮我构建这个。”对。如果你知道自己在做什么,你可以一次性编写一个完整的应用程序,对。你可以克隆你需要的任何东西。这就是未来。对。而且,

我知道我已经说过一段时间了。一些科技领导者也说过一段时间了,但我认为我们必须真正关注这一点。当我们得到官方消息,以及这些公司的公司和领导者实际上说:“是的,人工智能将完成我们大部分的编码工作,即使是在中级工程师级别”,对吧?不仅仅是入门级的工作。

迈克尔说他用过Replit,它非常简单直观。丹尼斯说,正如加特纳在最近的趋势报告中预测的那样,你将开始看到知识型员工组建工会。是的,丹尼斯,我认为这种情况即将到来。顺便说一句,我认为我们将在接下来的几周内邀请一位来自加特纳的人工智能研究员参加节目。好的。

OpenAI全力进军机器人领域。几周前,我们在节目中讨论了最初的传闻,但现在OpenAI已经正式宣布了这些传闻,并宣布重启其机器人部门。

目标是开发一个通用的、自适应的和多功能的机器人舰队。根据OpenAI硬件主管的一篇社交媒体帖子,该公司计划创建配备定制传感器套件和内部开发的AI模型的机器人。招聘信息显示,OpenAI的机器人团队将专注于集成尖端硬件和软件,以探索各种机器人形态。

该公司正在寻求雇用合同工来测试机器人原型,这表明可能包含带肢体的机器人。耶。我不知道。我不。我不。我很奇怪。我并不真的想要一堆人工智能人形机器人,但这并不重要,我们是否想要它们并不重要。它们显然即将到来。

因此,OpenAI一直在探索建造人形机器人,并渴望在未来实现全面生产。机器人行业。是的,最近显然蓬勃发展,并获得了一些重大投资,去年从风险投资公司筹集了超过64亿美元,突显了人们对机器人技术的兴趣日益增长。像X、One和Figure这样的公司,

由OpenAI、英伟达以及几乎所有其他公司都在努力创造人形机器人,尽管挑战依然巨大。人工智能,并非新兴领域。机器人技术,并非新兴领域。自主人形机器人,并非新兴领域。

为什么现在很重要,这是过去几十年所有工作的交汇点,但显然随着大型语言模型的出现和能力不断增强,对吧?因此,大型语言模型不再仅仅是基于文本的,对吧?正如我之前所说,这不是什么新鲜事。

在ChatGPT出现之前,工厂里就已经使用了很棒的自主机器人。但这正是它改变的方式。它降低了成本,提高了能力,因此可能性也得到了扩展,对吧?因为这些大型语言模型在2025年及以后将默认是多模态的,对吧?

而在此之前,例如,我们来看一下GPT-4,对吧?从技术上讲,它是在幕后工作的三个不同的模型。因此,你知道,像处理照片或产生音频输出这样的事情。基本上,它的工作方式是三个不同的模型相互传递信息。这导致了更多的延迟。有时会造成滞后。

错误或幻觉率增加。因此,现在的模型默认是多模态的。这意味着在处理多模态方面,它们的速度更快、能力更强、错误更少。好的。所以如果你想知道,“好吧,这一切都与机器人技术有关吗?机器人技术是新的。”好吧,机器人技术加上多模态生成式AI是极其新的,对吧?这就是为什么这个行业正在爆炸式增长。

好的。我们今天最后一条人工智能新闻。OpenAI发布了一份名为《经济蓝图》的15页文件,强调美国需要确保投资和支持性法规,以保持其在人工智能领域的领先地位,领先于中国。

这份文件强调了芯片、数据和能源作为赢得人工智能竞赛的关键要素的重要性,并敦促立即采取行动制定全国性规则。这一声明是在候任总统唐纳德·特朗普就职之前发布的,人们预计他会组建一个对科技友好的政府。

OpenAI首席执行官山姆·阿尔特曼确实向特朗普的就职基金捐款约100万美元,就像硅谷许多领先的科技人士一样,这表明这是一个加强与新政府关系的战略举措。因此,这份蓝图(我们将在我们的免费每日新闻通讯中链接到这份蓝图)警告说,估计有1750亿美元的全球资金

已准备好用于人工智能投资,如果美国没有吸引这些资金,这些资金可能会流向中国,从而增加中国在全球的影响力。OpenAI建议对人工智能模型实施出口管制,以防止敌对国家获得可能滥用这项技术。OpenAI计划在本月晚些时候在华盛顿特区举行一次活动,进一步讨论这些提案。好的,我要说的是

今天有很多新闻报道。与我们下周推出的系列节目完美契合。好的。但感谢你们的收听,各位。我将快速回顾一下。

所有重要的人工智能新闻。英伟达在CES及其黄仁勋的主题演讲中有很多内容,我们今天报道了四个重要故事,他们的新50系列GPU、他们的新Project Digits个人AI超级计算机。他们推出了Cosmos,这是他们希望成为人工智能机器人和自动化新时代的一种新时代。然后是他们的Llama Nemotron模型,小型、中型和大型。

然后我们看到DeepMind组建了一个团队来开发AI世界模型,以及他们结构的调整。微软发布了他们的开源Phi-4模型。据报道,微软还计划在人工智能投资和内部对人工智能人才的重新关注中裁员多达1000名员工。

Meta的马克·扎克伯格表示,他们的软件工程正在向人工智能自动化发展。然后OpenAI正在恢复其机器人工作,并刚刚公布了其保持美国人工智能领导地位的战略蓝图。好的。我希望这对你们有所帮助。如果是这样,我要说的是。

标记好你们的日程,好吗?如果你们在2025年的一个大目标是更好地了解人工智能领域,也许你们想在公司加薪。也许你们正在努力找到一份新的人工智能工作。也许你们只是感到不知所措,对吧?你们想确保自己的职业生涯。你们想领导自己的部门。你们是小企业主。你们正在努力理解一切。我不知道是否有人知道这一点,但是

嗯,这就是我每天都在做的事情。好的。我已经做了很长时间了。嗯,我想超过两年了,快两年了。对。所以在节目中,我已经与来自谷歌、微软、IBM、OpenAI等大型科技公司以及小型初创公司和日常数百家企业领导者的数百位人工智能领导者进行了交谈。我从他们那里学到了很多东西。有时,嗯,

直到后来我才开始连接所有这些点,对吧?这就像我从人们那里得到这些面包屑。然后最终,随着日子变成周,周变成月,月变成季度,我开始把这些事情拼凑起来,并发现一些其他人可能没有发现的趋势,如果我说实话的话,对吧?我不是想自吹自擂,但请回顾一下我2023年12月做出的2024年预测。

它们非常准确,对吧?我做了24个预测,取决于你怎么看,大约21个预测从技术上来说是正确的,或者没有被证明是错误的,也许我在一个方面略微偏离了目标,我说2024年人工智能代理的数量将超过人类,尽管我们收到了很多报告,即使是个人也拥有数万个AI代理,我们没有看到一个官方数字,但总的来说

在预测2024年的情况方面做得非常好。好的。我确实有人在9月、10月、11月联系我,他们刚刚听过那一集,说:“这改变了我对一切的看法。”突然之间,我开始在更高的层次上理解事情,并告诉我这给他们的职业或公司带来了什么影响。所以

2025年,我正在改变它。五集。你需要收听。我不会经常这么说,对吧?或多或少,我确实经常告诉人们。人们会联系我,他们说:“哦,乔丹,我每天都听这个节目。”我说:“为什么?”对吧?我制作了这个节目。也许你们每周或每月收听两三次,这没关系。我从未说过你们需要收听每一集。不,想听的时候就听。当某些事情引起你们的注意时就收听。你们所有人,如果你们现在正在收听,

不要错过任何一集,就是这样。我会这么说。好的。如果你想在2025年取得领先地位,从字面上看,我们正在为你们制定蓝图,根据

数百次对话,数千小时的研究。我们正在为你们制定所有这些。所以,我希望这对你们有所帮助。如果是这样,请告诉别人。如果你在收听播客,请确保订阅,这样你就不会错过我们1月20日推出的新系列节目。如果你觉得它有帮助,请给我们评分。如果你在社交媒体上,请标记需要听到这个消息的人。将此转发到你的网络。我们将非常感谢。感谢你们的收听。希望明天和每天都能看到你们回来收听更多《每日人工智能》。谢谢,各位。

这就是今天《每日人工智能》节目的全部内容。感谢你们的收听。如果你喜欢这一集,请订阅并给我们评分。这有助于我们继续前进。更多人工智能魔法,请访问youreverydayai.com并注册我们的每日新闻通讯,这样你就不会被落下。去打破一些障碍,我们下次再见。