We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode #110 - We’re back! ChatGPT, ChatGPT, ChatGPT, and some other stuff

#110 - We’re back! ChatGPT, ChatGPT, ChatGPT, and some other stuff

2023/2/5
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Andrey Karenkov
J
Jeremy
领导EAA飞行熟练度中心,推动飞行员培训和安全提升。
Topics
Andrey Karenkov:BuzzFeed将利用OpenAI的AI工具来增强问答体验、辅助头脑风暴和个性化内容,但不会将其用于新闻编辑室。CNET此前秘密发布了由AI生成的整篇文章,因错误率高而引发争议,并暂停了AI撰写文章的发布。这两个案例都具有开创性意义,将加速AI技术在媒体和商业领域的应用。 Jeremy:BuzzFeed使用AI生成内容的举动具有开创性意义,值得关注其内容生成方式是内容创作还是内容策划。BuzzFeed此举可能预示着其战略转向游戏公司模式。CNET秘密使用AI生成内容事件,值得关注其发现过程和事实核查机制。 Jeremy:生成式AI应用的估值存在不确定性,其发展速度快,可能导致新产品迅速超越旧产品,出现短期的繁荣-萧条周期。微软对OpenAI的巨额投资表明,微软相信拥有这项技术并将其作为云服务提供商将使其在短期内获胜。生成式AI的投资在过去两年中大幅增长,这表明投资者对该领域非常看好。

Deep Dive

Chapters
BuzzFeed plans to use AI tools from OpenAI to personalize content, while CNET faced controversy for publishing AI-generated articles with errors. The discussion explores the implications and potential shifts in content creation strategies.

Shownotes Transcript

您好,欢迎收听 Skynet Today 的《上周 AI 快讯》播客。在这里,您可以听到 AI 研究人员和从业者们聊聊 AI 领域的最新动态。和往常一样,在本期节目中,我们将对上周最有趣的 AI 新闻进行总结和讨论。您也可以访问 lastweekin.ai 查看我们的《上周 AI 快讯》时事通讯,其中包含我们本期节目未涉及的文章。

在四个月的休整期后,我们又回来了,时间比预期的要长一些,而且我们还有一位新的联合主持人。哇!大家好,我叫杰里米。你们中的一些人可能听说过金牛座数据科学公司及其播客。我之前主持过一段时间。后来我开始从事 AI 安全方面的工作。

然后就去做自己的事情了。安德烈很友好地找到我,说:“嘿,我们想重启这个项目,想邀请你加入。”我觉得现在正是做这件事的好时机,而且还有很多其他事情要做。我认为这是一个非常酷的播客和项目。但是,有很多事情需要讨论。我认为这对于不仅仅是 AI 从业人员,不仅仅是我们这些技术宅,而是对于每个人来说都越来越重要。

所以,是的,我非常高兴能进行这次对话,能一起追踪这些技术的发展。是的,自从 ChatGPT 爆火,现在新闻比以往任何时候都多,所以很高兴能回来。你们可能还记得,杰里米实际上是我们几期节目的嘉宾。所以我觉得让他回来是一个非常酷的安排。

如果你不记得的话,我是安德烈·卡伦科夫。我是斯坦福大学的博士生,快毕业了,还有几个月的时间。是的,很高兴回来。让我们直接进入新闻。和往常一样,我们先从应用和商业开始。我们的第一个故事是关于 BuzzFeed 如何表示将使用 OpenAI 的 AI 工具来个性化其内容。

在一份备忘录中,BuzzFeed 表示将使用 OpenAI 的工具,当然,OpenAI 创建了 ChatGPT 来创建基于 AI 的内容。这包括增强测验体验、为头脑风暴提供信息以及为受众个性化内容,我认为这很有趣。

他们确实表示不会将其 AI 用于新闻编辑室。所以这主要用于影响较低的事情,在这些事情中,错误并不那么重要。与之相关的是,在此之前,有文章报道 CNET 正在秘密发布由 AI 生成的整篇文章,直到此事曝光。

然后关于他们如何做到这一点以及如何发布大约 70 篇关于 CNET Money 的文章引发了一些争议。

然后,超过一半的文章被发现存在错误。这些文章的内容包括什么是复利?你应该在 CD 中存多少钱?房屋净值贷款会影响私人抵押保险吗?所以这些都是你不想出错的信息。是的,这是 CNET 造成的一团糟。

我能问一下关于 BuzzFeed 这个故事吗?因为我认为这非常重要。CNET 的故事也很重要,因为这些都是具有开创性的举动,对吧?我认为没有人会认为这不会成为一种加速的趋势。因此,当我们看到 BuzzFeed 时,你提到他们不会将其用于新闻编辑室。他们是否谈到了具体的例子,我们是说内容策划还是内容创作?

是的,这是一份没有详细说明的备忘录。有一些例子,BuzzFeed 有很多这样的测验。我不知道你最像哪个迪士尼公主,或者你会被分配到哪个霍格沃茨学院?隐藏的新闻。我知道,是的。所以我认为最初它会更多地用于这类轻松的事情,但我可以想象,当然,随着事情的发展,他们会尝试各种不同的东西。

BuzzFeed 的股票实际上大幅上涨了。我认为我看到它的股票上涨了 50%。因此,正如你所说,这是一个重大举动,投资者很高兴看到这种情况发生。

所以我认为我们稍后会讨论投资者的思路,因为有一些文章指出了这方面非常有趣的内容。过去对初创企业的投资动态是否会延续到生成式 AI 公司?我认为这是一个非常有趣的问题。但是当我们看到这个 BuzzFeed 的事情时,BuzzFeed 显然是一家新闻公司。这就是他们一直以来的定位。

我真的很想知道,从战略上讲,这是否会将他们定位为更像游戏公司。就像我们看到 AI 地牢这样的产品问世一样,它们使用 GPT-3 来提供一种……人们过去用旧电脑通过聊天界面玩的那种西部游戏是什么?哦,对,俄勒冈小径。对吧?所以像那些……但是动态个性化的那种体验。

我很想知道。我们看到 Netflix 在玩游戏,因为他们认为他们的电影模式还不够。我很想知道这是否预示着 BuzzFeed 也将走向某种新的方向,但我猜时间会证明一切。

是的,我认为这里最有趣的是个性化内容。正如你所说,最初它将是同样的 BuzzFeed 内容,但会使用 AI。但我可以想象它会朝着更像来回的方向发展,你实际上会做出选择。然后 AI 会动态地创建新的内容,这将是一种非常不同的体验,就像你所说的那样。

哇。好吧,至少目前看来,BuzzFeed 干得不错。CNET 看起来情况有所不同。是的,我很想知道这是如何被发现的?人们是如何意识到 CNET 正在使用 AI 来生成内容的?

是的,他们正在使用 CNET Money 员工这个模棱两可的标题发布这些故事。如果你点击该署名,它会说这篇文章是使用自动化技术生成的,并由我们编辑部的编辑进行了彻底的编辑和事实核查。所以它是隐藏的,他们并没有完全秘密地这样做,而是悄悄地这样做,正如 CEO 所说的那样。

他们是否解释了事实核查具体是什么样的,或者是否如广告中所说的那样进行了事实核查?我不这么认为。是的,他们可能真的……CNET 的许多人都不知道发生了这件事,或者说实际的记者。所以这似乎是一个他们并不打算大张旗鼓的秘密实验。但他们确实表示,他们目前暂停了这项工作,但他们也会继续使用 AI。希望到时候他们会

更详细地说明他们是如何做的。对。好吧,我认为这是关于公司战略的另一件事。就像,你进去,然后说,好吧,我们将开始使用……正如许多公司不可避免地会做的那样,我们将开始使用 AI 生成的内容。你如何向你的员工传达这个消息?就像,假装你没有使用 AI 生成的内容是一回事。迈克,我

我想知道,也许告诉员工是他们将其保密的主要原因之一。因为这其中的士气影响,每个人的工作时间都开始倒计时了。他们都开始寻找出路等等。我只是对那些在董事会或战略层面的人进行的讨论会是什么样子感到非常着迷,以弄清楚这一点。但令人着迷。

是的,我认为我可以想象,记者和新闻撰稿人开始有点紧张了,就像去年视觉艺术领域的人一样。所以我相信今年这将是一件快速发展的事情。实际上,接下来我们有一个关于谁拥有生成式 AI 平台的故事,这与之密切相关。

没错。是的,这是我挖掘到的一个故事。我一直想找个借口深入研究生成式 AI 的经济学。我认为,这是目前正在展开的、最重要的单一技术故事,没有之一。比量子计算更重要,比无人机技术更重要,生成式 AI 作为一个产业,正如他们所说。所以这是一篇由 Andreessen Horowitz 撰写的一篇文章。显然,这是一家大型风投公司,他们非常了解投资,非常了解大趋势,并且非常擅长早期进入这些趋势。

他们只是在分解生成式 AI 生态系统,并提出了一个非常具有挑衅性的问题:谁将成为大赢家?因为我们知道,在其他行业,赢家并不总是出现在你认为他们会出现在的地方。

例如,如果我们看看计算,对吧?在过去,人们认为,好吧,IBM 将成为计算领域的大赢家,因为他们正在制造硬件、机器,而硬件就是你销售的东西,故事到此结束。但随后微软出现了,他们证明了在这个行业中你真正想要做的、最终要做的事情是使硬件商品化。因此,在硬件定价方面存在着一种降价竞争,并且

所有利润最终都来自软件。所以微软销售大量的 Microsoft Word、Microsoft Office 产品、游戏等等。而那里的阿尔法,回报是巨大的。因此事实证明,你必须用非常细致的范围来分析才能弄清楚收入究竟会在堆栈中的哪个位置累积。

他们在本文中将堆栈分解为三个部分。实际上,我只是……我只是向下滚动到我的笔记,因为我想确保我得到所有这些精彩的内容。所以第一个是应用程序本身,对吧?我们使用的生成式 AI 应用程序。在这里,想想访问 ChatGPT,只是那个为你提供此产品的网页。想想访问,我不知道,Midjourney 或类似的

任何你可以立即使用该产品的网站,那就是应用程序。所以有一个问题是,应用程序开发者最终会获得所有价值,还是模型提供商会获得所有价值,对吧?例如,它会是 OpenAI 吗?它会是 Cohere 吗?它最终会是谷歌吗?诸如此类。或者它是基础设施供应商,那些构建处理器、计算硬件的人?

当他们遍历堆栈时,他们提出了非常有趣的论点。我们没有时间详细介绍,但结果是,市场上似乎并没有一个单一的点具有可防御的差异化。如果你在应用程序级别,对吧?如果我决定制作,我不知道,某种根据图片告诉你年龄的应用程序,它非常有趣并且病毒式传播,其他人可以使用我使用的完全相同的模型轻松复制它。

如果我去 Stable Diffusion,我去 OpenAI 或其他地方来构建我的应用程序。其他人也可以这样做。现在,同样,我们也开始看到模型提供商层面的竞争。所以 OpenAI,当然他们有 ChatGPT。我们有 DeepMind 的 Sparrow。谷歌有 LaMDA。很快这些都会出现。就像我们看到 GPT-3 的利润率下降一样,对吧?

对吧?所以首先 GPT-3 问世了。它是唯一一种进行任何类似人类文本生成的工具,然后是 AI21 Labs,然后是 Cohere,OpenAI 不得不降低价格。因此,有人认为,那里的阿尔法可能比我们想象的要少。可能仍然足以创造大型公司,这似乎很可能,但我们会看到万亿美元的公司吗?我们会看到 10 万亿美元的公司吗?这个领域会诞生另一家 FANG 公司吗?这还有待观察。最后是那些基础设施提供商,芯片很难,这是

半导体很难。从资本支出角度来看,这是一项艰难的业务。许多新进入者也在挑战传统的 AWS GCP 类型参与者,Lambda Labs,以及其他一些在定制方面竞争的公司。所以这是一篇非常丰富的文章。如果你对所有这些事情的战略感兴趣,我强烈建议你阅读一下。是的,我同意。这是一个有趣的问题。我认为现在看来,OpenAI 遥遥领先,对吧?

仅仅因为他们已经发布了这些面向用户的应用程序,并且他们已经有一段时间了,人们已经在其之上构建了各种应用程序并拥有产品。但我认为这可能有点类似于我们在云领域看到的情况,一开始亚马逊和 AWS 是我们看到的第一个,而且非常具有主导地位。

但随后谷歌创建了他们的云服务,微软创建了他们的云服务,现在这有点像竞争,不同的公司提供不同的好处。这是一个成本效益分析。就像你说的那样,谷歌拥有这项技术,他们将开始提供它。微软将通过 Azure 提供它。

但你绝对可以看到多家公司参与其中。而且要达到这个速度,有一些护城河。所以硬件成本非常复杂,非常高。然后实际上开发必要的计算并非易事。所以谷歌讨论了 Palm,我相信,它是如何非常复杂才能真正实现

在这个超级并行计算环境中工作。所以目前,它不会移动得很快,但我确实认为,就像云一样,它将逐渐成为一个拥有许多参与者的领域,那里没有明确的赢家,只有许多具有不同优势和成本的选项等等。

是的,我认为这也有。对于我们这些像我一样关注 AI 风险的人来说,这实际上非常令人担忧,因为你在安全方面的投资,对吧,作为一个尖端的 AI 实验室,它们就像一种税。它们来自你的利润率,你的利润。你每天都面临着这样的选择。例如,我是否……我是否花费更多资金在人们可以使用我的应用程序之前对他们进行筛选,就像 OpenAI 过去对 GPT-3 所做的那样,直到什么?

直到 AI21 Labs 推出了一个没有筛选用户的竞争产品。然后人们开始跳槽到 AI21 Labs。突然之间,我们发现,哦,看看这个,OpenAI 不再有筛选程序了。真是个惊喜。因此,看到这种安全方面的降价竞争,无论是在访问方面,还是在一致性方面,都是你在听到 DeepMind Sparrow、你所说的 Palm 和 LaMDA 等等时开始考虑的事情。所以

所以一个明确的……我认为,从安全角度来看,这也是一个需要关注的宏观趋势,如果这是你的兴趣所在的话。但是,完全同意。谁也无法预测接下来会发生什么。是的,我认为这在生成式 AI 图像方面也已经有所体现,你确实有多个参与者。

其中一些具有非常强大的安全保障措施,用于你使用的数据,你可以生成什么。其他可能没有那么多。我认为我们迟早会看到这种情况如何发展。实际上,与这个故事相关的是,我们有一个

在我们的快速环节中,我们将更快地介绍一下,首先是《这就是为什么 ChatGPT 只是生成式 AI 热潮的开始》。是的。我认为这篇文章是另一种看待生成式 AI 背后宏观趋势的好方法。简单来说,当我阅读这篇文章时,我想到了一个有趣的观点,那就是,初创公司在推出新的生成式 AI 产品时是否会得到适当的估值?

我认为在这个阶段,这是一个有趣的问题的原因是新功能上线的速度。所以你推出一个新的文本生成系统,并将其应用于……或者你将 ChatGPT 应用于某种医疗诊断引擎,并且

你不知道六个月后,是否不会出现更好的系统。竞争对手是否不会能够迅速跟进。你可能在短期内会看到用户群的巨大增长,然后这种增长可能会停滞不前,甚至完全崩溃。这是……这方面的典型例子是你在 Web 2.0 革命时代早期看到的东西。我知道,Y Combinator 的 Michael Seibel 有一个关于他的初创公司 SocialCam 的故事,他们很快就获得了……我不知道有多少百万用户,但他们没有留存率。

竞争太激烈了。此外,该产品只是上市过早等等。所以它可以病毒式传播,但没有留存率。所以一个大问题是,这是否会发生在这个时代的这些产品身上?这现在是否只是初创公司运作方式的一个新特征?随着新产品的出现,它们将经历非常短暂的繁荣-萧条周期,这些新产品会随着底层模型的改进而完全超越它们。所以我认为这是一个非常有趣的问题。

是的,完全正确。我认为,简单来说,我们可以提到这已经在 GPT-3 中发生了,许多公司已经出现,尤其是在撰写营销文案方面。他们都提供相同的东西。这并不难复制。现在有了 ChatGPT,无论是谁首先构建它并获得更好的产品

都可能最终获胜。但说到这里,我们可以继续下一个故事,那就是微软将向 ChatGPT 的创造者 OpenAI 投资 100 亿美元。无论是否会立即出现估值很高的初创公司,我认为微软绝对相信拥有这项技术并将其作为云提供商

将在短期内使其成为赢家。是的。我认为这也很有说明意义,你看看微软在 OpenAI 中拥有的股权比例。这说明了什么关于 OpenAI 计划进行多少更多投资的问题,对吧?

这是一个巨大的信号,表明他们认为自己已经接近一些非常重要的事情。至少,他们认为自己已经接近某种经济起飞,就像逃逸速度一样,他们将能够赚到足够的钱,不再需要筹集资金。你当然可以猜到,OpenAI 并不是一家计划将自己完全出售并将控制权交给其他人的公司。所以

如果我是个赌徒,我会说这肯定是他们计划从外部获得的最后一笔投资。你可以从中推断出你想要的关于 AI 时间表等等的含义。但我认为这是一个相当有说明意义的数字,即 49%。是的。这并不令人惊讶,因为我可以想象他们目前在 API 上并没有赚很多钱。所以目前他们需要这笔钱来扩展规模并获得计算能力。但这可能不会持续太久。

此外,与之前的这个故事相关的是,我们有一篇非常酷的文章,讲述了生成式 AI 的资金在过去两年中是如何爆炸式增长的。所以实际上,GPT-3 是 2020 年的产物。自从我们拥有这项技术以来,至少在早期阶段,已经有一段时间了,与 2020 年相比,在 2021 年和 2022 年。

它真的爆炸式增长到所有这些初创公司超过 10 亿美元。我们看到了这个巨大的飞跃,以及过去几年中的许多公司,85 家,78 家。今年,这将是另一个巨大的飞跃,这很明显。但很明显,投资者已经对一段时间以来的事情感到非常兴奋。

是的。回到 Andreessen Horowitz 的说法,我认为他们将其称为我们正在关注的生成式 AI 的总市值。我认为,正如他们所说,它就像所有软件和所有人类努力之间的某个地方。所以当你想到投资水平时,我们看到这个级别的投资为 10 亿美元,当我们看到像 ChatGPT 这样的东西时,这可能规模较小。我的意思是,这可能甚至无法反映目前该领域的价值,即预期的价值,而将

你的数十亿美元投入这个市场是一个更棘手的问题。如果我知道的话,我将不仅仅是一个小打小闹的天使投资者。所以我不知道这将走向何方,但无论如何,是的,这是一个非常有趣的趋势。

是的,我可以想象,作为一名真正思考 AI 安全的人,需要注意的一点是,目前这些系统并不十分可靠,对吧?它们可能会产生你不想看到的输出。它们可能是事实不准确的。我认为这需要一段时间,至少……我们不会立即获得所有价值。这些工具将更像……

人类可以用来更高效地完成工作的东西,而不是自动化整个经济。十年后是否会如此,这很难说。是的,实际上,对不起,只是快速补充一下。我认为有一点是,如果你认为 AI 对齐非常重要,并且正如我们之前谈到的那样,这是一种对这些组织工作的税收,并且你担心他们可能不会支付这笔税收。

我认为 ChatGPT 做的一件事是,它向我们表明,实际上,就我们从 AI 系统中获得的价值而言,对齐现在已经成为瓶颈。ChatGPT 并不比 GPT-3 更强大。它并没有真正扩展规模。它只是对齐得更好。所以这可能会给你带来一些希望,即市场激励可能会自然地推动更多资源,至少是针对某种短期对齐解决方案,即使这并没有解决那种灾难性风险方面的问题。但无论如何,只是要提醒一下。

是的,我认为我想提到的另一件事是,对我来说,ChatGPT 最有趣的一点是,首先,当然,UI 非常重要,事实证明。但另一个真正的区别在于 OpenAI 已经拥有的这种人机交互式对齐,即 RHLF。

事实证明,这确实有效,也可能使输出更好。因此,对齐也可能导致所有这些工作的改进,但这需要一些时间。我认为对于我们的最后一个故事,我们有在

签署 OpenAI 协议后。再次,OpenAI,这就是我们一直在谈论的。Shutterstock 推出了一个生成式 AI 工具包,用于根据文本提示创建图像。所以这再次表明

事情正在慢慢进行。去年,我们已经有了使用 DALI 2 生成的图像,但它发展得很快,你已经有了 Shutterstock,一家非常大的库存图像公司,他们正在推出一个产品,任何人都可以使用它来生成图像,而不是许可图像。这里说这些图像已准备好获得许可。所以你可以想象,创建库存图像的人也可以使用 AI 来创建额外的图像

库存图像,人们可以获得许可。实际上,搜索一个符合你需求的图像比自己创建它要快得多。所以我认为这是一个非常有趣的故事,它表明这将对非常大的公司、非常大的市场产生巨大的影响。

是的,很难……就像总是很难想象这会走向何方一样。就像我们的想象力总是让我们失望一样。但是是的,你看看像 Shutterstock 这样的公司,我认为它做得很好。实际上,我从未真正研究过他们的商业模式或他们的经营状况,但肯定已经存在了一段时间了。突然之间,就像适应或死亡一样,就像一夜之间有了这个模型一样。我认为这不会减缓速度,但这确实是一个非常有趣的案例研究。完全正确。是的。

显然,关于 ChatGPT 和文本生成式 AI 有很多内容需要讨论,但让我们继续研究和发展,看看那些更遥远、尚未准备好商业化的东西。

首先是 MusicLM。这是谷歌创建的一个可以根据文本描述生成音乐的 AI,但不会发布它。所以这更像是一篇研究论文。他们实际上发布了一篇论文和一个预生成音乐的演示。

这表明该领域也在快速发展,尽管比生成式图像和文本要慢一些,在过去几年中,我们已经看到了一些论文真正展示了用户生成、扩散、OpenAI 的 Jukebox 的进展。

但这个领域更难。获取数据更难。通常,生成听起来不错的音乐很难,因为有很多方法可以让人类发现细微的缺陷。而对于文本来说,更容易跳过我们已经看到的一些奇怪之处。我认为对于任何尝试过这些先前模型的人来说,这是一个相当大的飞跃。音频质量

非常令人印象深刻。在很多情况下,很难发现它是人工生成的,部分原因是没有声乐,没有歌词。但是是的,另一件事是它可以生成非常长的内容,例如几分钟长,并且具有连贯的旋律和乐曲,这是音乐创作中另一件非常难做的事情,因为它涉及大量数据。

但是是的,这是一个巨大的飞跃。这是一个案例,再次,我们看到也许就像 2020 年一样,我们看到了一种类似 GPT-3 的飞跃。在几年内,我们将看到很多这样的模型,我们将看到朋友和作曲家开始担心这些模型以及它们将如何影响他们的工作。是的。我的意思是,在某种程度上,每个人都会成为提示工程师吗?我真的很……我的意思是……

我对这次拍摄感到好奇,因为我上次收听时——抱歉,玩了个文字游戏,完全无意——上次我收听音乐生成是在Newsnet,那是一个开场白。那是什么时候?那是2019年还是2018年?很久以前了。所以那时,已经发生了一些非常令人印象深刻的事情,但我认为生成的……

音频只有15秒左右。就你理解而言,最大的创新之处在于上下文窗口,即生成内容的长度,还是其他什么或许多方面?我认为这是一个多种因素混合的结果,其中提示的复杂性更高。你真的可以看出这是一个非常令人印象深刻的混合体,你可以用类似说唱的东西来做死亡金属。

它会非常令人印象深刻地混合这两种类型。他们有一个非常有趣的例子,你可以用绘画的描述来提示它,比如著名的《呐喊》,它可以生成——我试过了,从主题上来说,听起来还不错。它有点符合这些画作,而且它可以做很多不同的事情,在某种程度上与GPT-3类似,对吧?它结果可以很好地泛化。

是的,我认为部分原因是这种非常长的生成,部分原因是声音质量和它可以做的事情的普遍性。我觉得我几乎不需要问这个问题,因为现在是2023年,但它是基于语言模型吗?

这是一个有趣的问题,在查看论文时,我们已经看到了GPD3,所有这些模型,甚至图像生成也一样,它已经发展到只是一个大型转换器模型。所以这是一个大型模型,你向它输入大量数据,它就能工作。在这里,它是一个更复杂的设置,其中有三个不同的模型分别进行训练。

它们具有不同的功能,其中一个将音乐的不同组成部分分解成更小的块。其中一个处理要包含什么内容的决定,另一个处理最终转换回声音的过程。所以这是一个稍微复杂一点的系统,每个系统都是建立在最近的研究基础上的。所以它包括

2022年一篇之前的论文,2021年一篇论文,以及去年的一篇论文的内容。它只是将这些东西结合起来使这项工作得以实现,我认为这非常有趣。我认为这可能是我们对更长的文本生成或视频生成所需的内容,因为它不会像端到端模型那样简单,因为转换器最终很难在输入空间和输出空间方面进行扩展。

出于技术原因的输出空间。所以这有点表明,你可能需要更仔细地思考,并组合不同的模块,以使其能够生成这种更复杂的大块数据。

是的,这难道不一直是这样吗?就像这样,规模最大化主义者,比如Rich Sutton,和Yann LeCarré风格的人之间的论点核心,他们会说,哦,不,你需要像定制大脑一样的架构,有不同的模块等等。而且,

非常有趣。看看是否,特别是如果音乐成为一个早期证明点,也许是Yann Nacar风格的观点,嘿,这只是那些真正显示单一密集NAD甚至稀疏模型弱点之一的领域,但它没有自定义改编。但谁知道呢?我认为规模主义者会说,好吧,只要向它扔转换器,看看一年左右的规模会如何。

是的。我想值得注意的是,OpenAI的DALI 2也稍微复杂一些。他们不仅仅有一个大型模型。他们在那里使用了Clip,并且有一个两阶段的过程。然后最终谷歌,我认为,表明你可以真正将其简化为一个大型转换器。所以它最终可能类似于Transformer Excel。我们已经有模型

旨在处理更长的文本,或者它最终可能会像这样更难、更复杂。这只是时间问题,直到我们得到更多论文,但这将被存储,因为数据更难访问。对。计算机更大。我几乎想知道我们最终是否会得到在文本上预训练然后应用于音乐生成的语言模型作为最终解决方案。但无论如何,这是它自己的一个支线任务。

是的。关于音乐就说到这里。让我们回到Chad GPT,因为这才是真正的大新闻。所以昨天发生的大新闻是用于指示文本中AI的新AI分类器。是的,这很酷,对吧?因为我们都听说过,我们看到新闻报道,人们,尤其是教育工作者,都吓坏了。我认为有一项民意调查显示,超过80%的大学生承认使用过Chat GPT。稍后会谈到这一点。是的。对不起。我不会现在就谈论这个,但是教育工作者现在很生气。可以理解,但有一个问题是,正确的方法是说,嘿,你知道吗?我们将禁止它进入教室,我们将构建非常好的检测器并惩罚作弊者。或者我们只是说,嘿,你知道吗?这就像一个计算器。我们将接受它。它将成为工具包的一部分。每个人都需要学习如何使用。

事实上,从这个角度来看,也许教育工作者有责任介绍Chat GPP并鼓励其使用。我认为OpenAI在这方面是相当正确的。Sam A多次说过,你知道吗,你将被迫这样做,要么适应要么消亡。你不能假装这些东西不存在。我们有责任教育人们如何使用它们,而不是让他们保持清醒。

但这并不意味着我们必须一夜之间做到这一点。在此期间,我们可以从OpenAI刚刚发布的这种分类器中受益,它至少可以提供帮助。它不是决定性的。他们在发表的论文中说的一件关键事情是,它们的误报率相当高。

所以相当频繁地,大约9%的时间,这个东西会说,哦,这段文字是由AI生成的,而实际上它不是。你不想这样做,指责人们剽窃等等,并因为你的AI分类器出错而让他们退学。同样值得注意的是,只有大约26%的时间,它才会真正给你一个真阳性结果。其余时间,在这9%和26%之间,它是中性的。它不会给你输出,因为它不够一致。

所以这是一个高度不完善的工具,他们指出你应该只与其他策略一起使用来证明剽窃。所以我认为这场战斗在生成与辨别方面几乎已经输了。我认为我们不会看到一个真正好的时代

能够自信地判断AI生成的文本实际上是AI生成的文本分类器。我认为这是一个失败的事业。我认为生成可能会超过它,但我们会看到的。也许我错了,教育工作者将会有更多的时间喘息,但我们只能拭目以待。是的,是的。有趣的是,我发现最近斯坦福大学发布了另一个研究结果,称为DetectGPT。

它使用了一种完全不同的方法。OpenAI的这个东西非常有趣,因为它会稍微扰乱你的输出。你可以检测到它做了完全不同的事情,但也声称拥有它。所有这一切,我认为,与几年前我们已经看到发生的事情密切相关,其中

人们非常担心深度伪造,视频深度伪造,语音深度伪造。关于水印有很多讨论,看看我们是否可以,对于摄影,某种水印和创建某种来源的东西。好的一面是,我认为,

可以这样认为,就像我们之前讨论的那样,作为API提供商,在你的家用电脑上运行它要困难得多。你不能像一个普通人一样用你的笔记本电脑来形成ChatGPT。

所以我认为这些公司,即使仅仅是因为来自许多不同地方的压力,也完全有可能引入这些技术,这些技术会越来越好。但这将可能是一场来回的战斗,这将是今年一个非常活跃的研究领域。

是的,我认为这是另一个领域,谁知道呢,也许这不是一个失败的事业,但你可以想象人们获取他们AI生成的文本的片段,将其通过文本摘要引擎(例如不同的生成式AI)运行,并使其破坏任何类型的水印或类似的东西。我不知道。这是一个艰难的工程挑战。但对于所有这些事情,我总是发现自己说,我想我们只能拭目以待。我想我们只能拭目以待。

是的。然后让我们进入一个快速轮盘,我们将有一些更多样化的故事。第一个是Versadal机器狗以每秒三英里的速度在沙滩上奔跑。

所以我们必须回到现实世界一点。所以Keist这家公司宣布,他们的研究团队开发了这款Quadra Petal机器人,它是一种类似狗的机器人,在过去十年中你已经看到很多了。有一个有趣的视频,其中一个人在沙滩上奔跑,而机器狗可以跟上。

在这种沙质地形上,即使对于人类来说,在上面奔跑也很棘手。所以他们让这个小机器人做到这一点非常酷。是的,很酷的是,我认为这些类型的机器人,四足狗形机器人,真的开始变得非常强大,并且可能在许多领域都可用。每秒三米可不是闹着玩的。这很快。而且我不知道

我不知道。我有时会想,波士顿动力学的一些人是否真的会看《黑镜》之类的剧集,然后想,哦,这是一个好产品创意。硅谷现在是不是就是这样,伙计?

是的,我不知道。我们仍然很难将其销售给人们用于各种用途。所以还没有到那一步。机器人技术总是会有点慢,但很高兴看到在研究方面,我们看到越来越多的像这样的机器人技术。但我们必须回到Chat GPT,显然,因为这就是我们一直在谈论的。我们已经远离它太久了。是的,已经很久了。所以让我们谈谈Graph GPT。

是的,这很酷。回想起来,我认为这是一种显而易见的应用,当然,Chat GPT可以做到这一点,但这仍然让我感到惊讶。所以我看到这个repo,这个GitHub repo叫做Graph GPT。所以你去那里,它实际上也作为一个实时应用程序部署。所以你可以查看一下。基本上粘贴一些电影情节的维基百科描述。

它将生成一个图表,向你展示电影中所有角色、所有实体是如何相互关联的。基本上读取文本,然后提取。它基本上会将该文本转换为具有节点和边的图的JSON格式的东西。我只是觉得这非常有趣,因为你可以想象这在一夜之间使所有分析成为可能。

而且很多。你也可以考虑恶意使用。如果你正在进行网络分析,试图弄清楚谁认识谁等等,获取一堆人的Facebook帖子,一堆人的LinkedIn帖子,以可扩展的方式将它们输入其中。你可以做一些有趣的事情,这里不是为了给人们提供想法,但我认为这是另一个层次的事情,20分钟前还是科幻小说,砰,我们得到了它。是的,这很酷,因为在这个更结构化的知识图谱格式中,更容易做一些事情,比如事实核查

输出。而且还有一些研究是关于结合知识图谱(这只是结构化的事实,例如总统巴拉克·奥巴马出生于这一特定年份)和机器学习模型,其中知识图谱是输入的一部分。这对于AI安全来说可能是一件有用的事情,以确保事实得到保留等等。是的。

是的,这是一个关于创建知识图谱的相反方法的酷炫新结果。而且他们确实,我会说,他们实际上展示了他们为此使用的提示。所以如果你去GitHub repo,并且你对什么样的提示会可靠地导致这个输出感到好奇,请查看一下。我认为这也是它一个有趣的维度。

是的。然后我们在另一个已经发展了大约十年的领域中有一些故事。在这个领域有很多初创公司,它们开始出现。所以我们将转向医疗AI,首先是AI从头开始设计了细菌杀灭蛋白,而且它们有效。所以我们有一家生物技术初创公司,在这种情况下是Olmadani at Fluorofluid。

他们使用AI设计了数百万种新的蛋白质,然后选择其中一小部分样本进行测试,看看它们是否有效。事实上,他们开始在现实生活中进行测试,并表明它们有效。我对这方面不太了解,但我认为细菌杀灭可能是一件好事。所以是的。

是的,现在Jeremy插话了,做他的末日预言家的事情。我会说,从设计病原体的角度来看,该死,这让我毛骨悚然。实际上,我认为已经发表了一篇《自然》论文,对以下内容进行了综述:

如果你有一个损失函数,粗略地说,如何使这些蛋白质对人类更有益。你只需要在它前面加上一个减号,现在它就变成了一个杀戮机器。所以这是一个到处都是的双重用途,但非常酷。是的,这是去年的一件大事。我认为这是一个令人担忧的领域,你可以用它来设计非常有效的病毒、生物武器。但让我们保持积极,这是好的。当然。这太棒了。蛋白质组学非常棒。

人们很难理解和折叠他们的蛋白质的一个领域。看到它,尤其是在考虑阿尔茨海默病等疾病时,这真的很令人兴奋,你知道,很多人都认为它与蛋白质折叠问题有关,至少据我所知是这样。所以有些事情,谁知道呢,也许我们终于快要打破很多研究领域的瓶颈了。

是的,这与我们最后的快速轮盘故事有关,它再次处于这个医疗AI领域,机器学习识别出可能帮助吸烟者戒烟的药物

所以宾夕法尼亚州立大学和明尼苏达大学的研究团队发现,你可以测试像地西泮这样的药物,这些药物可以重新用于帮助戒烟。你可以使用机器学习方法来分析数据集中的模式和趋势。

其中一些已经在临床试验中进行测试。这是另一个积极的用例,我们还没有一种神奇的药物来帮助吸烟者戒烟。他们很容易,很多都有不良副作用。显然,这将对许多人在改善健康方面产生巨大影响。所以这似乎非常令人兴奋。

他们是否也谈论了吸烟以外的事情?因为我认为同样的脑成瘾途径可能适用于其他药物,诸如此类的事情。是的,这很有趣。我想它必须有点特定于应用程序,但可能同样的技术可以帮助解决其他类型的行为。所以就像很多医疗方面的事情一样,你可能可以为另一个应用程序创建类似的东西。

对。所以很酷。所有这些事情的另一个积极方面,惊人的医疗技术进步。我希望明年医疗技术领域也能像其他所有领域一样充满活力。很好地分享财富。是的,我认为VAT空间一直是令人兴奋的,很多事情都获得了FDA批准并进行了试验。所以它将是,这是一件很难做到的事情,但它已经开始实现了。

我们已经谈到了很多关于ChatGPT更令人担忧的事情。现在我们将继续讨论政策和社会影响,我们将进一步讨论这些问题。首先是我们的第一个故事,4chan用户采用AI语音克隆工具来生成名人仇恨言论。

所以一家名为11 Labs的AI初创公司发布了一个演示,一个免费工具,你基本上可以向它提供一小段语音样本,我认为是几分钟,你可以做的事情。然后你可以进行文本转语音,你可以让这个声音说任何你想说的话。

这是一个非常令人印象深刻的模型,正如我们之前谈到的那样,它也存在了一段时间。但是像MusicLM一样,这种语音听起来几乎是真实的。很难分辨出它不是那个人,这是一个非常重要的区别。

是的,4chan,一个著名的论坛,那里充斥着各种仇恨言论。它在那里有点病毒式传播,人们谈论它并展示他们如何使用它。然后我们得到了像艾玛·沃特森朗读《我的奋斗》片段和本·沙皮罗发表种族主义言论之类的事情。是的。

诸如此类的事情。显然不是一件好事。然后这件事就病毒式传播了。你看到了很多这样的事情,实验室,公司已经采取了行动,并表示他们现在将对谁可以这样做施加额外的限制,以防止发生这种事情。

哎呀。你想想人们不得不为这些事情临时制定的所有政策。我想这就是OpenAI在2018年使用GPT-2时所要表达的意思。他们说,好吧,我们将开始以越来越大的增量发布它。这个分阶段发布的想法。人们将不得不开始在最后期限之前进行这种思考,以弄清楚,你如何在不发布的情况下了解这些系统的恶意用途?或者,

你如何获得这些用途?无论如何,预测未来非常困难,恶意行为者显然有很多动机在你给他们模型后弄清楚这一点。是的,是的。我认为这是一个有趣的案例,

对于GPE2,也对于视频创作,人们非常担心深度伪造。例如,创建虚假事物的照片。这在2018年和2019年被广泛讨论。我们并没有真正看到深度伪造发生太多事情。有一些例子,但它们很容易分辨出来。它们不是真实的。所以那种事情并没有

真正成为问题。然后突然间,人们几年前就已经担心的事情,我们谈论了很多,

发生了,你有一个非常易于使用的公共工具,并且创建了一堆虚假语音。这篇文章还举了一个例子,总统乔·拜登说了一些疯狂的事情。显然,这是一个不仅仅是像艾玛·沃特森朗读《我的奋斗》那样明显奇怪的事情的案例,但这可能会比我们已经遇到的更容易反驳的事情更广泛地传播虚假信息

比我们已经遇到的更容易反驳的事情更广泛地传播虚假信息。所以这是令人担忧的,但希望像Eleven Labs这样的公司能够让做这种事情变得更加困难。

是的。在这个过程中,如果他们能够做到这一点,他们所做工作的优点之一是它确实有助于让政策制定者意识到这项技术的存在。我认为,像这样的技术起初过于昂贵是一件好事。就像普通人无法构建他们自己的Chat GPT一样,但他们很快就会做到,比如五年后或其他什么时间,这要感谢摩尔定律或最终适用的摩尔定律的任何版本。

可能是处理能力和软件和硬件的封装等等,它将允许人们做到这一点。所以我们得到了这些早期预警。这是有价值的。这是有帮助的。这是好的。然后人们只需要真正注意到提示并采取行动。但是

是的,完全正确。我认为这很有趣,这又是一个案例,类似于ChatGPT,它被一些人谈论过,然后突然间你有了这个公共工具,它使许多人很容易使用它。立即显示出有问题的用例。我们有,你知道,特别是你在Reddit上看到了深度伪造的色情内容,这是一个大问题。

去年,配音演员们有很多担忧,你看到了一些这种技术的用途。这个领域有一些公司来创建配音。

这是一个巨大的担忧领域,配音演员和演员有权拥有他们的声音,对吧?你可以,让某人仅仅克隆艾玛·沃特森的声音并做任何事情是不对的。艾玛·沃特森不想要那样。所以这是这家公司似乎没有考虑到的另一个大问题,你不应该能够克隆任何人的声音。这是一件非常棘手的事情,需要考虑和限制。

是的,100%。我认为配音演员现在可能是AI中最容易实现的目标之一。因为听到,我的意思是,你在我们开始录音之前向我展示了乔·拜登的事情,而且这些令人难以置信,质量令人难以置信。它已经到了你几乎可以只提供一本写好的书并获得有声书类型的东西的地步。所以——

是的,完全正确。是的,它已经开始小规模地发生了。我相信你有一些由AI叙述的有声书在Audible上出版。去年关于视频游戏配音演员有一些讨论。

是的,从某种意义上说,这与图像生成一样,非常好,因为现在作为一个小型创作者,很难负担得起配音演员和工作室。你现在可以使用这些技术让角色说话,让你的游戏更丰富。另一方面,配音演员有工作。这是他们的生计。所以总是有积极的方面和更令人担忧的方面。

是的,100%。而且对于这个来说,恶意应用程序也不难想到,对吧?你用你的声音打电话给你的银行,或者他们用你的声音打电话给你的银行并进行对话。你甚至可以想象像Chat GPT类型的机器人与这样的东西相结合。你可以在20分钟内给一千家不同的银行打电话,看看哪一家,你知道,哪一家银行的出纳员睡眠不足或其他什么,谁让你访问了他们不应该访问的东西。就像这样……

有扩大坏事的机会。是的。我记得,我相信去年我们谈到了类似的事情,当时有一次网络钓鱼企图。是的。我认为针对一家银行。所以这已经发生了。网络安全专家正在谈论网络钓鱼。

这只是AI将使某些人更加困难的另一个领域。正如你之前所说,这也是教育工作者对ChatGPT的担忧。所以让我们更多地谈谈ChatGPT。是的,我们有一篇文章,名为OpenAI的《ChatGPT的教育工作者注意事项》。

是的,这正是他们阐述许多挑战的地方。这是OpenAI自己发布的文档,因为他们也在阅读头条新闻,他们想帮助教育工作者了解如何处理Chat GPT。

是的,他们涵盖了我们所知道的关于ChatGPT能力的所有内容。他们谈论了很多它的好处,你可以使用它的方法,例如,用于简化和个性化教学。我想拥有一个导师,很多人已经在这样使用了。所以这很好。

特别是如果你有一个老师参与其中,因为然后他们可以纠正事情,对吧?如果Chat GPT教给某人错误的物理定律,好吧,也许老师可以介入并说,实际上,你知道,F=MA或其他什么。我发现关于学术不诚实和剽窃检测的部分很有趣

因为它背后的哲学以及我的猜测是大多数学术机构都将参考此文本。从某种意义上说,这是构建该系统的那些人关于如何以健康的方式与该系统共存的权威文本。他们标记的一件事是,确保你制定了不会追溯惩罚人们使用此系统的政策?因为我们不知道,就像没有人知道现在该做什么才是对的。它是否合法?它是否不合法?政策是什么?所以这是一个方面。我们之前也讨论过的事情,比如这个东西不能,不要依赖分类器来自信地告诉你一段文字是由AI生成的。通常情况下,你会得到一个误报。所以它是完整早餐类型的一部分。

然后他们谈到真实性,对吧?我们知道Chat GPT的这个问题。众所周知,它有时会生成错误的输出,相当频繁。所以你想考虑一下,你要对这个系统投入多少信任?学习过程中有多少教师监督?诸如此类的事情。无论如何,这非常有趣。顺便说一句,过度依赖是一个单独的部分,也值得阅读。然后是就业机会和前景,这在某种意义上,我发现这是最有趣的部分。他们有点说,看,

谦逊是最好的策略,伙计们。而且,我完全理解这一点。我认为这完全说得通。但这只是那些长期以来,教师的工作部分是担任就业市场夏尔巴人的事情之一。突然之间,他们不再能够做到这一点。在未来5年、10年里,哪些工作将是人类可以胜任的,这没有确定性。

因此,看到这种以书面形式的具体化是相当有趣的。最后,他们只是有一节关于披露使用ChatGPT的内容。因此,OpenAI在这里真正试图让人们更容易声明他们使用了该系统。我确信有一些自私自利的理由,因为这对他们来说是良好的营销。但是,我也绝对相信他们的论点,并且我相信他们的内心是正确的,因为他们试图让那些善意的人更容易公开使用该工具。

是的,我认为这已经是一个非常活跃的对话了。它有很多方面。

最终,这与之前的变化没有什么不同,例如,学生可以使用互联网,可以使用维基百科。很容易从资源中剽窃很多东西。现在很容易以更难检测的方式剽窃。如果不存在关于该主题的论文,那么更容易让AI为你完成工作。你也可以争辩说,你总是可以付钱给别人为你写一篇论文。所以现在这正在把这些问题摆到台前。随着这项工作变得更容易,那么再次,需要进行调整。现在,教育工作者可以专注于这项技术无法做到的事情,ChatGPT仍然无法做到的事情。你可以想象一些作业,它

GPT无法完成,你可以使用ChatGPT作为工具,但不能作为完整的解决方案。是的,很高兴看到OpenAI如此迅速地发布这份文件以回应这些担忧。是的,我认为今年我们可能会看到越来越多关于这方面的讨论。一些最终可能使每个人受益的解决方案。

非常正确。是的。在解决方案方面,我认为你是对的。非常重要的一点是,人们在这里有很大的经济激励来寻找方法来帮助,至少帮助教师应对,至少帮助教师驾驭它。我希望他们能做到,因为否则你真的无法做到这一点。我认为这对整个系统来说会有点困难。

是的。是的,让我们进入我们的快速问答环节。我们再次有一个非常相关的斯坦福大学的故事,来自斯坦福日报,标题为“调查显示,大量斯坦福大学学生在期末考试中使用了ChatGPT”。它说大多数学生使用了ChatGPT。我认为,就像你之前说的那样,是80%。

大多数人也报告说,人们使用它的方式有所不同。因此,很多都是生成,但也有一些是头脑风暴和概述。只有5%的人报告说直接提交了来自ChatGPT的书面材料,几乎没有进行编辑。

是的,这是一篇非常有趣的文章,它表明我不知道,Jet还没有出现那么长时间。期末考试是在12月中旬。但它是梅德福德,伙计。是的,是的,我想人们对AI有点精明。但是,是的,它已经表明了原因。事实上,我现在是一门课程的助教。

我们总是进行代码作业,我们总是遇到这样的情况:你在GitHub上找到这段代码了吗?你从其他学生那里复制了吗?如果你的代码与其他人的代码非常相似,我们可以检测出来。这一次我们看到了这一点,我实际上去了ChatGPT,我说,这是ChatGPT的输出吗?为什么这些学生有相同的代码?

所以这很有趣,即使我作为斯坦福大学的课程助教也受到了影响。实际上,这很有趣,然后问,我还没想过问你,我会在离线时这样做。那么,你有没有看到,比如说,你收到的提交的平均质量有所提高?你有没有看到任何宏观层面的迹象表明这种情况正在发生,或者?我不会这么说。我认为大多数学生

我认为仍然会犹豫这样做。我认为这里有一个非常强大的荣誉准则和非常敬业的学生。所以还有其他的作弊方法。老实说,GitHub上通常有解决方案。你可以谷歌搜索。所以是的,我认为它不会影响大多数学生,至少对于这种事情来说是这样。我想对于书面作业,我也尝试过,就像,这个问题的解决方案是什么?

它正确地回答了这个问题。这是一个有趣的案例,它提供了概念性方法,但你仍然必须自己实现它。所以是的,我认为当学生被阻塞并且不知道去哪里时,这可能会让他们的生活更容易。但我认为这不太可能导致学生提交的内容有很大差异。

好的,这真的很有趣。至少目前为止,它犯的错误足够多,以至于人们需要足够了解自己的知识,才能评估它是对是错。所以他们至少目前学到了一些东西。是的,对于我们的CS课程来说,这不仅仅是ChatGPT很重要的问题。我们已经有GitHub Copilot了。

它可以根据注释生成代码,甚至是整个函数。所以是的,这是一个如何做到这一点有点模棱两可的情况,但我认为我们或多或少会弄清楚的。是的,我们总是这样做的。是的,是的。

让我们转向另一个我认为可能没有被充分讨论的伦理问题领域。因此,这篇文章说,机器人什么时候可以杀人?国防部的新政策试图澄清这一点。国防部在2012年发布了关于致命自主武器的教义。

这有点模棱两可。现在他们已经改变了它,对如何安全、合乎道德地以及在监督下建造和部署这些致命自主系统做出了更明确的声明。最大的区别是,现在明确需要批准和审查任何自主武器系统。而且

是的,很高兴看到这个领域,我认为确实需要明确的指导方针,甚至需要法规和国际协议。这进展得很慢。我们去年看到联合国的一些努力。而且我确实希望最终,

随着我们看到新的武器,新的自主武器,我们已经看到了一些部分自主的武器,而不是任何完全自动化的东西。我认为这肯定也是一个令人担忧的领域。是的,绝对的。据我回忆,这篇文章也围绕国防部指令3000.09展开,这是针对,所以对于任何在国防部军事领域以及它与AI的交叉领域工作过的人来说,这是可以追溯到2012年的指导性指令。

它制定了许多这些基本规则。但是,安德烈,正如你所说,它有点模棱两可。它至少没有明确地说,嘿,需要一个审查流程。如果你进行了审查流程,你实际上可以使用致命自主武器。所以很长一段时间以来,许多人,包括国防部本身的人,都认为存在全面禁止致命自主武器的情况。

禁止致命自主武器。所以你可以认为这是一个赢家通吃的情况,这取决于你对这件事的看法。一方面,好吧,现在我们有了清晰的认识。有规则。另一方面,现在我们清楚地知道,如果你遵守这些规则,就可以部署这些系统。所以

再次,致命自主武器可能,这是一个既成事实,它们无论如何都会被使用。我认为这趟列车已经开了一段时间了。也许在这个基础上,如果你对这件事放弃了,也许这只是一个胜利。我们现在清楚地知道这些规则将得到执行。所以很好。是的,这是一个进步。是的,这类似于几年前的deepfakes,我认为,人们至少在政策层面谈论它。它还没有进入公众意识。

但只是时间问题,我们将有一些大的故事,一些大的事件真正让我们震惊。然后人们意识到,我们即将拥有真正的机器人系统,而不是终结者,而是配备了将被部署在战争中的目标系统的坦克。这显然将是一件大事。

你考虑一下那里的对齐失败意味着什么,对吧?在这种情况下发生事故,哇,那可能会变得很糟糕。是的,所以有很多讨论。有人参与的系统,就像半自主的系统一样。你需要批准事情。我认为减少歧义非常重要。所以这是个好消息。

接下来是风险较低的情况,也是机器人。我们有一个新的故事。机器人汽车正在旧金山引发911虚假警报。对我们来说是本地的。至少对我来说是本地的。你是对的。所以是的,我们实际上已经看到Cruise和Waymo

部署没有人类驾驶员的机器人出租车作为产品,作为你可以订购的Lyft或Uber之类的东西,经过十年的发展。但是,已经出现很多问题,这实际上指出,已经有一些关于反应迟钝的电话

司机。尤其是在这些汽车妨碍消防员的情况下,不仅警察和消防员不得不处理这些虚假电话,而且还发生了其他事件,机器人出租车压坏了一条在火灾现场使用的消防水带。

这些是你可能不会想到,可能不会想到的事情,但这些是长尾场景,它有点像,我们将遇到这些问题。现在我们正在真正独立地部署它们,这可能会在一段时间内成为一个艰难的阶段。

是的。即使你达到了可以修补所有这些东西并获得今天长尾的地步,明天长尾会发生什么?对吧。我们在道路上的安全问题不断变化。几年前,鸟类滑板车一夜之间出现在旧金山和其他地方。自动驾驶汽车,它们将如何应对这种情况?如果有一种新的,我不知道,一种新的赛格威滑板车或其他东西

这些事情,新的波士顿动力机器人狗。怎么样?这种事情将是一个持续存在的问题。我认为这就是为什么一些怀疑论者也说,嘿,好吧,除非我们拥有来自AI系统的完整的人类水平智能,否则我们将不会拥有完全自动驾驶的汽车。无论你对这件事有什么看法,你都可以肯定地理解这种论点,即随着技术的进步,制度的转变和围绕这些系统的环境变化,这使得它成为一个非常棘手的问题。

是的,这对监管机构来说也是一个非常棘手的问题。我们在过去十年中已经看到了Uber的情况,他们非常激进,他们规避了法规,这是一场激烈的斗争。现在,这是一个另一个高风险的场景,公司对实现这一目标有着巨大的商业利益。这显然是一个巨大的市场机会

因此,即使某种程度上可能很危险,公司也会试图推动部署这些系统。监管机构将不得不权衡其对公众的影响,这种情况并非持续存在。案例不多,但可能足以让人担忧。是的。你如何将其与人为事故进行权衡?相对影响、重要性和价值是什么?是的。是的。

好吧,我们在整个过程中讨论了很多令人担忧的事情,我们经常这样做。所以让我们进入最后一节,艺术和有趣的事情,在那里我们轻松一点。实际上,这里的第一条新闻不是新新闻。我只是想分享一些东西,那就是我上周末实际上部分使用了ChatGPT来写一个短篇故事,在那里我

我们与另一个人有一个持续的项目,叫做Stories by AI,我们每周都会在新闻通讯中发布一个短篇故事,大约一千字左右。整个想法是看看我们如何使用AI工具,生成式AI工具,将其用作合作者,作为作家使用这些短篇故事的工具。而且

ChatGPT最近出现了,我们一直在尝试使用它。在某些方面,它比我们以前使用过的任何东西都好。我这次尝试了一下,写了一些我当时的想法。这很有趣,我写了一半的故事,我试图让ChatGPT写下另一半。对我来说,这有点令人失望,因为它……

在内容方面保持了主题,但它并没有真正捕捉到我想要的声音或基调。它有点伤感,有点过于积极。它以一个非常快乐的音符结尾,这感觉不对。

所以这很有趣,我可以保留一些句子和少量对话,但最终我不得不重写大部分内容,这在某种程度上是有帮助的,因为它告诉我我不想要什么。它实际上帮助我产生了这样的想法,好吧,我不喜欢这个。我这样做怎么样?但这很有趣。我认为这些使用AI创作短篇故事的实验在以下方面非常有趣:有

很多不同的方式与它们互动,以及很多不同的方式来增强你的能力,但它们无法替代。最终,它们无法产生。你脑海中有一个你想要这个成为什么的概念。AI不会这样做,因为它不知道你脑海中有什么。所以它会做一个版本,然后你将使用它来真正做你想要的事情。

你发现,就像,你如何在提示游戏中找到它?如果你脑海中有一个想法,你会尝试通过提示来传达它,然后它就被忽略了吗?我认为这真的取决于情况。我们上周还有一个非常不同的故事,是另一个人写的,我和他们谈过,这是一个有趣的案例,其中对应该是什么没有明确的想法。

所以更多的是来回讨论,好吧,我想写这种故事,这些主题或类型,让我们集思广益一些关于这个总体想法我们可以去的地方。对。所以你会有更多这样的头脑风暴会议,然后你可以与Chajipati达成一致,好吧,这很有趣。

一种想法,这是一个粗略的提纲,比方说,好吧,开始写吧,对吧?然后它更像是一个调整的场景。而这是一个我更清楚自己想要什么的案例,我已经知道它将走向何方,我已经写了一半了。所以基本上我们告诉它,好吧,完成这个短篇故事。我字面上的提示是写下这后半部分,我提供了我自己写的那一半。结果证明,这种用例可能不如你不知道自己想写什么的时候好,你有一个大致的方向,然后ChatGPT可以以一种很酷的方式充当合作者。好的,人工改进,但生成方面,想法部分可能是目前价值所在的地方。是的,我认为是这样。有趣的是,我认为这是一个你真的,你不会认为它像说,好吧,写下一段那样简单。但事实上,

为了真正实现这些不同的用例,你需要一种不同的UI,我不得不说,另一个名为PseudoWrite的工具可能仍然比ChatGPT更好,因为你告诉它写下一段,它会提供几个选项,而不仅仅是一个生成。你可以考虑,哦,我喜欢这个比那个好,或者我可以从这个中得到一些想法。它还……

有一个选项,你可以告诉它用这种类型的方向完成写下一段,我想你也可以用ChatGPT来做,比如用这个大致的想法写下一段。这又是另一种技术。所以我认为,是的,有不同的使用方式,这非常有趣。而且我认为

今年,由于ChatGPT的出现,许多作家和作家将开始尝试。是的。是的,我毫不怀疑。是的。所以这是一个有趣的小事情。我们还使用mid-journey生成图像来说明事情。我们还有AI的叙述。所以这是一个非常有趣的项目。你可以查看它,storiesby.ai。这是一个可爱的小网址。

让我们以另一件有趣的事情结束。我认为你们很多人,我们很多人都知道,这是波士顿动力公司著名的演示之一。所以他们发布了一个新的视频,其中机器人Atlas做了一些令人印象深刻的事情。在这种情况下,它是在脚手架的建筑场景中,它的任务是向脚手架上的人递送一些工具,它抓住了工具,它走过一些木板,它把工具扔给一个人,然后做了一个奇怪的空翻回到地面。所以看到波士顿动力公司的这个东西总是非常有趣的。他们还有一个幕后视频,非常酷,因为它介绍了开发这样的东西所涉及的内容。

是的,我实际上还没有看过幕后视频。我很好奇。但我每次看到这样的演示时,我总是想知道……

这有多定制化,有多演示化?我们谈论的是演示的脚本程度如何?因为显然,我们有一个悠久的传统,尤其是在AI领域,人们走上舞台,进行这些精心策划的演示,看起来非常令人印象深刻。我记得Vicarious之前做过很多这样的事情,它或多或少地表明那里什么也没有,那里真的什么也没有,但这看起来非常令人印象深刻,因为这些都是非常精心控制的演示。我们对波士顿动力公司的这件事有什么迹象吗?

是的,我认为是这样。我认为幕后视频实际上做得很好。一般来说,这些演示当然是部分安排的。所以没有像手写动作那样做任何你想做的事情。机器人确实需要即时地弄清楚如何行走等等。但是,它需要做的事情,它不是自主的,对吧?它不会决定,好吧,我应该递送这些工具,因为人类告诉我。

这更像是预先编写的,它应该去拿工具,它应该走到这个区域,你应该把它扔掉。它实际上更侧重于展示,好吧,它可以非常稳定地行走并进行这些后空翻。或者在这种情况下,他们专注于它如何

它可以操纵其环境中的东西。所以我们还没有看到这些机器人真正搬运东西或操纵东西。所以在这种情况下,它拿着一块木板,并将其放置为行走的东西,以跨越一些空隙。

它拿起了工具箱,然后把它扔掉。所以它旨在展示他们一直在努力开发的能力。这涉及到,这实际上相当困难。所以……

就正在发生的事情而言,很大程度上是安排好的,但它展示了一种仍然令人着迷和难以置信的能力,我们已经达到了这种能力。我记得在2007年左右参观麻省理工学院博物馆,人们说,行走是一个未解决的问题,并且可能在未来50年内仍将是未解决的问题。只是超越了所有这些基准,真是令人难以置信的事情。

是的。而且在这个领域,已经进行了数十年的工作,然后波士顿大坝已经做到了。有趣的是,我认为行走部分并没有那么依赖机器学习。你不需要,是的。而在这里,他们开始做更多的感知,更多的操作,这需要更多的机器学习技术。所以内部很有趣。是的。

是的。像往常一样,我们将在上周的AI新闻通讯和播客描述中包含所有这些故事和视频的链接。所以,如果其中任何内容让你感兴趣,你可以在那里阅读完整的故事。但是,感谢收听本周的节目。我们回来了,我们很高兴继续前进。所以我们将尝试每周发布。如果你是一位新听众,你只是得到了这个链接,那么请订阅。

好的。好的。好的。是的。所以我想我们超时了。