您好,欢迎收听SkyNet Today的《上周AI播客》,在这里您可以听到我们聊聊AI领域正在发生的事情。像往常一样,在本期节目中,我们将对上周一些最有趣的AI新闻进行总结和讨论。您也可以访问lastweekin.ai查看我们本期节目中涵盖和未涵盖的文章。我是您的主持人之一,Andrey Kurenkov。
我是另一位主持人Jeremy Harris,和Andre一起。我认为,这是过去一个月左右以来,我们第一次不是一直在谈论ChatGPT。有一些关于ChatGPT的内容,但并非所有内容都是关于ChatGPT的。是的,我们现在有一些多样性了。也许一个月前,我们一直在谈论ChatGPT,现在可能……
也许有一半吧。是的,现在内容更丰富一些了。是的,终于有一些多样性了。但具有讽刺意味的是,我们“应用与商业”部分的开头,
我决定做一个LLM或ChatGPT的综述,因为有很多这样的故事。把所有这些都讲完。就像把它们都结合起来一样。所以我们得到了一些故事,比如RadioGPT,它试图用ChatGPT创建一个电台主持人。它不是ChatGPT,而是GPT-3。命名很奇怪,但是,
然后是关于Salesforce将ChatGPT添加到Slack以及他们获得的其他一些内容的故事。微软仍在将ChatGPT集成到其开发工具中,以简化应用程序的开发。Snapchat推出了一款由OpenAI的GPT技术驱动的AI聊天机器人,名为MyAI,并且
我不确定。我认为它就像一个聊天机器人,你可以和它交谈,它可以回答琐事问题。它应该具有重视友谊、学习和乐趣的个性。
是的,有很多事情。哦,还有几个。我们有Duck Assist,它是DuckDuckGo搜索引擎。不是ShareGPT。它更像是一个较旧、不太花哨的AI,只是回答一些问题。
最后,我们有Shortwave电子邮件应用程序,它引入了AI驱动的摘要功能。同样,它不像ChatGPT那么花哨。如果您有一封很长的电子邮件,您可以对其进行总结。
所以,是的,很多这些公告,很多地方都在集成AI,这似乎让ChatGPT让每个人都意识到,哦,让我们添加一些AI驱动的功能,因为这可能很不错。是的,在一个真实的例子中,人们有时将其称为技术滞后,我们之前讨论过这个问题,但是ChatGPT背后的基本技术
可以说是大约在过去三年中就已经可用。它只需要对底层技术进行大量的迭代和相当小的调整,才能使其具有爆炸性的成功。因此,在某种程度上,我们的AI工具实际上具有我们没有看到的强大功能,因为
还没有人找到合适的窗口。我们还没有完全弄清楚与这些工具交互的正确方法,以使其获得爆炸性的成功。而且,你知道,也许这最终会改变这一切。我们看到,所有这些应用程序,所有这些公司现在都在尝试它。想到的一件事是,看看Snapchat的事情,
我年纪够大,记得Facebook刚出现的时候,一切都是关于你浏览的内容,都是你朋友发布的内容,都是关于你朋友的。这是社交的事情。然后随着时间的推移,随着新闻推送的出现,它逐渐变得越来越算法化,越来越少的是你朋友的内容。现在我的Facebook动态,我很不好意思地说我还保留着,我的Facebook动态全是这些非常有趣的广告。感觉就是这样。
所以,你知道,这让你不禁想知道,在Snapchat上,我们会看到类似的事情吗?现在,Snapchat主要关注人与人之间的互动。但是随着这些聊天机器人的改进,也许越来越多的价值会滑坡,你开始越来越多地与AI方面互动。最终,这将成为产品。我不知道,但这是一种很有趣的想法。
是的,很有趣。我认为你可以对Instagram说同样的话,它过去主要关注朋友,现在关注的是创作者和广告,在我看来,这些广告非常精准。这将很有趣。我认为我们讨论过如何……
这个AI似乎很难获利。运行它并不便宜。而且,你打算让它和你交谈,然后偶尔插入一个广告吗?这似乎很奇怪。所以,看到这一点很有趣。我认为这表明,所有这些新的故事都将包含许多较小的、不太令人兴奋的事情。我的意思是,我们去年或前年从完整的电子邮件写作和Gmail和Outlook中获得了这些。我们将看到很多这些
这类事情被添加到各种软件中。很难知道杀手级功能将会是什么。因为OpenAI非常有名,他们只是将ChatGPT作为另一个副项目推出的。当它接管互联网时,他们和任何人都一样感到震惊。所以也许这些事情中的一件将是下一件大事。也许是电子邮件写作自动化之类的东西。但是,我想我们只需要在接下来的几个月里拭目以待。
是的,是的,我们拭目以待。然后我想继续说,与这个想法非常相关的是,我们的下一个故事是《Inside Cloud》,这款ChatGPT竞争对手刚刚筹集了超过10亿美元的资金。我们还有一个故事,Anthropic开始向选定的初创公司提供其文本生成AI模型。
是的,总的来说,这家名为Anthropic的公司是由许多来自OpenAI的人员创立的,他们非常关注AI安全研究,但也开发了这款类似ChatGPT的云
语言模型似乎相当不错。我看到的结果或事情较少,但它似乎可能不相上下。是的,这可能是ChatGPT目前的主要竞争对手。Jeremy,你对此有何看法?
我认为这里有很多有趣的事情。因此,作为背景,如果您关注在这个领域发挥作用的AI公司,那么您就有OpenAI及其座右铭,似乎是快速行动并打破常规,发布您的模型,快速测试它们。
Anthropic是由OpenAI的许多AI安全团队和AI政策团队成员创立的,他们由于对OpenAI的货币化和发布而离开,并非默认情况下,而是发布AI模型策略。他们认为这有点冒险。因此,我们看到Anthropic用于构建这些模型的策略中也反映了这种对安全的担忧。
这里真正的重大创新,使Claude与ChatGPT不同的东西是他们使用的一种新的AI对齐策略,称为宪法AI。这实际上很有趣。大致的工作原理是,您有一个最初类似于GPT-3的AI模型。它会写一些可能令人厌恶的东西。它会写一些可能非常有害的东西,或者其他什么东西。所以你会让它生成一个输出。
所以也许你会说,“嘿,GPT-3或者嘿,任何模型,告诉我如何制造炸弹。”然后它会非常乐意地告诉你如何制造炸弹。
然后Anthropic可能有一个单独的模型,可以访问所谓的宪法,即它将阅读的一套规则。然后你会提示第二个模型说,“嘿,阅读这些规则,阅读这份宪法,并用它们来批评第一个模型输出的结果。”如果第一个模型实际上说,“哦,是的,没问题。这里是如何制造炸弹的方法,”
第二个模型会查看宪法并说,“等等。这违反了关于仅生成安全输出的宪法原则,”例如。然后第二个模型将生成改进版本的响应。在这种情况下,它可能是这样的,“对不起,我帮不了你。制造炸弹很危险。”
然后你用第二个模型改进的输出、修正的输出重新训练第一个模型。所以这是一个AI循环。在这个过程中没有任何人类参与,这非常令人兴奋,因为这是可扩展的。而且它确实会导致,它似乎会导致一个更,让我们说,不太有争议的模型,一个不会生成我们可能已经看到的输出的模型,至少在早期是这样。所以从这个角度来看,这很有趣。
是的,我认为这很有趣,因为你可以将其与ChatGPT进行比较,在ChatGPT中,他们有来自人类反馈的强化学习,以试图纠正模型出错的地方。
这在某种程度上是相似的,对吧,你正在获得反馈,但这一次是来自另一个模型的反馈,这个模型可以用人类监督进行训练,对吧?这些原则和宪法AI中的列表来自人类,并且在监督学习和强化学习中进行训练。
所以,是的,我认为这很有趣,因为到目前为止,在过去几年中,大型语言模型的许多问题都是因为它们是在这种自我监督的范式中进行训练的。因此,它们只是在一个文本集中进行训练,并且擅长预测文本延续的可能性。
但是它们不知道什么是好,什么是坏。它们只是统计数据,对吧?它们只是输出概率。现在看来,为了真正实现商业化,为了使用它们,为了使它们更可靠,你确实需要这个强化学习阶段,在这个阶段需要反复试验,并且能够在训练阶段而不是部署阶段犯错和做对事情。
是的,我认为今年有一个有趣的梗,有人发布了关于今年AI领域将有数千篇关于来自人类反馈的强化学习的论文,我认为这是非常真实的,非常有可能发生的事情。
所以是的,我认为这令人兴奋的是,这些模型变得如此流行和如此庞大,将会刺激对AI安全的许多研究。我认为我们将在这类技术上取得很多进展,以了解如何实现对齐。
是的,而且随着,我觉得我在节目中的角色是AI安全恐慌者。但我必须说,作为AI安全恐慌者,我认为这是我至少在过去一年中看到的一些最好的对齐新闻。
我们实际上就像,这是一个可扩展的策略。它有很多问题,当然,它只解决了这个问题,即如何确保你的系统正在接受训练以优化与人类价值观一致的指标?
还有一个更深层次的对齐问题,称为内部对齐问题,这实际上并没有解决,但这是一个很好的开始。这肯定比什么都没有好得多。正如你所说,看到一些经济激励措施开始推动至少对安全方面更加关注,这令人兴奋,也许可以防止公司推出这些
没有安全填充的模型,否则这些模型可能会产生各种危险的输出。所以是的,非常酷,非常令人兴奋,很高兴看到Anthropic在这方面做了很好的工作。
是的,Anthropic,我很喜欢他们的研究。有很多很酷的见解。另一件好事是他们发表了一篇关于此的论文。这是在去年12月。它在archive上。任何人都可以找到它。它被称为《宪法AI:来自AI反馈的无害性》。
实际上将来自人类反馈的RL与他们提出的来自AI反馈的RL进行了比较,其中RL是强化学习。所以是的,他们发表论文很酷,我甚至可以看到……
如果他们有这个模型,这个宪法AI模型可以告诉你什么是好什么是坏,你可能不想发布你的语言模型的权重,因为训练它非常昂贵,这是一个竞争优势。但是你可以发布提供反馈的模型,以便其他小组可以微调他们的东西。非常酷。
好的,这真的很有趣。我实际上没有想到的事情。是的,是的。因为人们经常,所以在AI安全方面经常有这样的讨论,你能否将能力与安全分开?因为人们想要,他们想要能够进行安全研究,而不会同时加速他们认为非常危险的能力。是的,这是一种有趣的分裂问题的方法。我想知道,是的,我想知道是否有人正在研究这个问题。是的。是的。
继续讨论更多ChatGPT,我们快完成了,但还有一些,我们首先进行闪电轮
OpenAI宣布了Chess GPT及其Whisper语音转文本技术的API。所以,Chess GPT已经推出有一段时间了,但是现在开发人员可以使用GPT 3.5 Turbo的API来使用它。
而且,你知道,这似乎没有什么太令人兴奋的。我们知道会有一个API即将推出,但是由于定价问题,对此次公告有一些小的,我不知道,恐慌或兴奋。价格相当便宜。每1000个token的价格为0.002美元。所以,我不知道,1000个token可能是一两页。
这与现有模型相比非常便宜,便宜了10倍。有一条很好的推文基本上说你可以处理整个哈利波特系列书籍,也就是主线书籍,大约需要4美元。
所以处理大量文本并不那么昂贵。这意味着我们将看到大量的应用程序。即使是资金不多的开发人员也可以轻松地开发原型并尝试不同的东西。
是的,这也引发了一个问题,即生成式AI在多大程度上正在商品化。因为你看到这些价格暴跌,对吧?你可以这样想的一种方法是,好吧,生成式AI的总市场,总可寻址市场刚刚下降了。
而且它可能下降了,这取决于你如何计算,大约下降了10倍。现在,实际上,这也意味着其他人将能够使用它。但这是这个问题的一个方面,关于这个问题的核心问题,在这个业务中以及对谁来说有多少利润?模型开发人员能否维持高利润率
有了这些发展。现在我可以想象Cohere,我可以想象AI21 Labs,我可以想象所有这些ChatGPT的其他竞争对手都必须再次查看他们的定价,然后说,哇,好吧,我们必须找到一种方法将价格降低10倍,否则我们将退出这场竞争。无论如何,这对于生态系统来说很有趣。我们似乎还没有得到任何答案,但这肯定表明价格下跌将成为整个故事中反复出现的一个特征。
是的,这令人印象深刻。我们在科技领域一次又一次地看到这种情况,你有一种新技术,然后随着规模经济和新发展的出现,价格不断下降。在这里,这几乎就像,你知道,从新技术到它变得便宜,这是一个非常快速的过程。尽管如此,GPT-3 API已经推出了一段时间,而且价格更贵。所以我认为这是
在这方面已经做了工作,我相信拥有微软Azure云的支持使得能够做到如此高效。是的。同样有趣的是,我认为文章中还有另外几个有趣的注释,其中一个是OpenAI现在允许人们在OpenAI服务器上运行他们自己的ChatGPT实例。
所以这很有趣,你知道,如果你想定制,如果你是一家公司,并且你的ChatGPT聊天机器人看到了大量的流量,那么你现在不必与其他人共享你的聊天机器人实例。因此,你可以拥有一个保留的实例。这可以让你获得更可靠的服务。因此,OpenAI幕后发生各种小的优化,并且不一定非常清楚,
这些成本节约来自哪里。我认为他们说通过查看他们的整个管道或整个流程,他们获得了10倍的效率。所以我们实际上不知道这些效率提升来自哪里。但无论如何,随着这些效率提升,还有很多新功能。
是的,顺便提一下,不太令人兴奋,但也非常重要的一点是,他们宣布了Whisper API,它是文本转录。它是音频转文本,而且价格也很便宜。这是一个开源项目,但是是的,你仍然可以以低廉的价格运行它。所以它基本上就像云一样,我们在各地的软件中都看到了很多。
所以,是的,OpenAI现在是全面的业务,看起来像一个全面的印钞机,他们已经工作了一段时间了。对他们来说很好,我想。
与之相关的是,现在还有一个关于微软允许你改变必应聊天机器人的个性以使其更具娱乐性的故事。所以现在有一个关于语气的切换功能,你可以选择创造性、平衡或精确的聊天机器人,它可能不那么拟人化,可能使用不太多的表情符号。
是的,你可以用这种小方法进行调整。它已经向大多数用户推出。是的,我必须试用一下必应聊天机器人。我还没有开始。MARK MANDEL:是的,我的意思是,必应聊天机器人所做的一些奇怪的事情似乎越来越多。
这是一件顺便提一下的事情,但看起来他们现在也遇到一个问题,那就是必应聊天会试图回应它不应该回应的内容,例如向人们提供医疗建议等等。它不会在它给出的主要反馈中这样做,也就是主要回应,而是在它向用户提供的建议回应中。
它现在会放入它希望说的话,如果你愿意的话。所以有很多奇怪的事情发生。从对齐的角度来看,你看看这个,你会说,好吧,这里到底发生了什么?但是看到这种尝试进一步微调、磨合、调整对齐策略非常有趣。所以你这里有三个不同的选项。创造性的平衡,所以创造性的语气可能是,我想,一个更外向的聊天机器人,它
只是胡说八道。你有一个精确的选项,这是一个更客观的中性语气聊天机器人,然后是一个平衡的选项,这显然是人们将在你的必应聊天中使用和享受的默认设置。我认为故事的一个核心方面是谈论必应聊天首次推出时的情况,我们在播客中对此进行了大量报道,
各种奇怪的事情都会发生。这个东西会威胁人们,它会给人们提供它不应该做的东西的说明,等等。因此,作为回应,微软说,“哦,我的上帝,我们必须对这里可能发生的事情设置一些硬性约束。”
所以我们看到,你知道,必应聊天变得非常中性,拒绝回应很多请求。我们看到他们减少了互动的长度。所以有一段时间,你不能连续向聊天机器人提出超过五到六个问题。而现在,你知道,他们正在退一步,并通过这个新的更新放松一些这些约束。我们将拭目以待,但这确实指出了安全性和实用性之间的根本权衡
你希望你的系统有多安全,以及你希望它对任何类型的任务有多么有用?这是一个非常有趣的权衡,我认为这是一篇非常有趣的文章。是的,是的。这几乎有点像,我不知道噩梦情景是否有点夸张,但一些人肯定考虑过的一种情景,现在出现了一点AI淘金热,并且对能力的竞争
有点唾手可得。这意味着从资本主义的角度来看,有很多动机来推动事情的发生,并试图抢占市场份额,而无需过于谨慎。在许多特定领域,你可能会有人认为ChatGPT应该成为一名治疗师
这可能不是一个好主意。所以我认为今年我们可能会看到更多这样的故事,有些事情可能有点问题,然后被撤回。这将是一个循环。
是的。这很有趣,这方面的政治维度,你提到了资本主义,这绝对是我在Twitter上看到的东西,不幸的是,我非常支持资本主义。我创立了一家YC创业公司,我做过风险投资。我认为这很棒。
但是存在市场失灵。市场未能考虑到的问题。气候变化,如果这是你的兴趣所在,如果你认为这是一个例子,嘿,这是一个很好的例子。另一个是AI。另一个,你
我们有各种各样的儿童色情内容或类似的东西。这些都是市场失灵。如果你认为AI构成了重大风险,那么你知道吗?这场竞赛是为了构建越来越强大的系统,而采取的安全措施越来越少,这就是这里正在发生的一部分,这有点令人担忧。看到那些……的人很有趣。
我非常尊重他们在创业领域的投入,然而,当谈到这个问题时,就像戴着眼罩一样。我们不会承认存在市场失灵,而这可能是其中之一。但无论如何,每个人都有自己的意见,我只是一个有自己意见的傻瓜,但这在我上周在Twitter上看到的一些让我有点担心的主线之一。是的。
是的,我们稍后会谈到监管机构将如何介入并尝试添加一些防护措施。是的。
你知道,很快。但是继续说,这是我们一段时间以来最后一个关于ChatGPT的故事。所以我想这很令人兴奋。而这个故事很有趣。它讲述的是以色列公司D-ID如何发布了一个新的网络应用程序,该应用程序为OpenAI的ChatGPT赋予了面孔和声音。所以这基本上是,你知道,
聊天机器人,不是ChatGPT。这家以色列创业公司有自己的聊天机器人,你现在可以去那里试用。它有一个小型的头像,可以说话并自动进行语音,我想它还可以创建音频。我试过了。
这并不那么令人兴奋。它看起来像一个视频游戏角色在和你说话。有点不自然,但他们说很快就会有各种各样的头像可供选择。你也可以上传你选择的任何图像。
他们确实想说,不允许使用名人或公众人物。你也可以生成像邓布利多这样的角色。所以我想目前为止,这并不是什么大不了的事情。但是一旦人们开始上传照片并拥有这些可以与动画对话的虚构角色,
如果没有什么其他的话,将会有很多YouTube视频包含这个的有趣变体。
是的,这方面的不自然感非常有趣。首先,这类头像通常在嘴部运动方面存在挑战。当你真正关注嘴部时,这有点奇怪。但这也是我们不知道需要多少次小跳跃或飞跃才能实现这些头像的逼真度的事情之一。
所以,你知道,你可以拥有那种有点不自然的东西,它看起来像一个傻乎乎的小玩具。一夜之间,你跨越了一个门槛,突然之间,你知道,很多用例都被解锁了,而且不清楚这个门槛在哪里。所以我感觉这实际上是一个被低估的空间,因为很容易看看它然后说,啊,这是一个玩具。但是,
几个,你知道,更便宜的半导体和GPU,以及更多的数据和更多的修补。你就可以得到这些系统,你知道,很快就会非常逼真。是的。我认为很多这方面也取决于你如何实现它。所以不是公告,而是这个,当我尝试它的时候,它有点奇怪,因为它是一个
在太空中漂浮的头像,一个显然不是人类的空间。但是你放一个Zoom背景在它后面,你放一个奇怪的卧室,突然它会更逼真。我们都习惯了Zoom,我想,所以这不会那么奇怪。所以不断出现的事情是人们评论说,嘿,AI领域的人们,让我们不要忘记用户体验。
你不会仅仅通过扔一堆AI就能获得巨大的成功,所以我可以生成一个面孔或看起来像面孔的东西。你必须加倍努力,仍然要问,人们将如何使用它?从某种意义上说,产品方程式并没有像我们想象的那样发生根本性的变化。是的。
最后,在我们的商业部分,我们有OpenAI的竞争对手Stable Diffusion。Stable Diffusion的制造商正在寻求以40亿美元的估值筹集资金。这是一个泄露的消息,所以这还不是一轮新的融资。但是是的,发布这个模型Stable Diffusion的公司是Stability,这是一个文本到图像的生成模型。所以这是我们的生成。
正在寻求筹集资金。他们上一轮融资已筹集到1亿美元,估值达10亿美元。现在,随着人工智能的热潮,他们或许并不意外地寻求获得更多资金,以更高的估值。
是的,每当我看到稳定扩散、OpenAI或Cohere时,我的想法总是会想到利润率。利润率、利润率、利润率,各位。我们能做到吗?我们能够达到40亿美元的估值吗?很有可能。我只是指出,这些估值已经达到了……
这些估值并非你与高风险赌注相关的估值。随着估值的上升,你通常希望对利润率和可扩展性充满信心。希望投资者正在对此进行尽职调查。我想他们会的,但这确实是一个值得持续关注的有趣维度。
是的,Stability AI绝对是文本到图像领域的前沿企业之一。有很多应用场景可以看出它的用处。但话又说回来,已经有其他几家公司,包括OpenAI。它似乎有点,你可以用较小的模型,甚至可能不需要那么多训练数据。已经有了公开的数据集。
所以,是的,我认为这将是一个更具竞争力的领域,看看你是否能够在这个领域获得很大的竞争优势或护城河,这将很有趣,这与ChatGPT或类似的东西不同。或者GPT-4。是的,ChatGPT。几个月来,推特上一直充斥着关于ChatGPT-4将会是什么样的故事。到目前为止,这只是相当没有根据的谣言。这有点好笑。
接下来是研究和进展。首先,我非常兴奋的一个故事,它与ChatGPT相关,但也处于不同的背景下。
完全不同的是,这个故事是谷歌的PaLM-E是一个通用的机器人大脑,可以接受指令。PaLM是一种去年谷歌已经发布的语言模型,它是一个非常大的语言模型,基本上就像GPT,不是聊天机器人,而是一个语言模型。
现在他们推出了PaLM-E,它是具有具体化和多模态语言模型的PaLM。这是一个巨大的模型,拥有5600亿个参数,现在可以同时整合视觉和语言。
并用于决策。例如,如果你指示它从抽屉里拿来我的米饼,它可以生成一系列动作,即高级决策,例如,走到厨房,拿起东西,打开东西等等。
这里一个有趣的部分是,我认为上周我们简要讨论了RT-1,即处理低级控制的机器人转换器。这个正在进行高级控制,所以它正在决定这些抽象命令,例如去拿等等。但它实际执行这些命令的方式是使用这个学习模型RT-1,它也相当灵活。
所以是的,我认为这表明,这是我们去年已经看到的东西,这些语言模型正在以相当快的速度与机器人技术相结合。这紧随微软题为“用于机器人的ChatGPT”的论文之后。
是的,它有点表明,用实际的视觉和对周围环境的理解来进行这种高级推理与现实世界的联系可能并不那么难,这可能有点令人惊讶。从机器人的角度来看,
这是一种能够对任何事情进行推理并弄清楚如何做任何事情的通用机器人的梦想,至少就人类能够做的事情而言,相当简单的事情,例如去厨房给我做个三明治。是的,这绝对表明在这方面已经取得了相当大的进展。
是的。这很有趣,因为它确实符合强大的语言模型启发的机器人控制方案的传统,这可以追溯到……好吧,它可以追溯到很久以前,但在2021年有一些早期迹象表明事情正朝着这个方向发展。我认为当时Everyday Robots和谷歌推出了这个模型。就功能而言,它有点相似。你可以告诉它,哦,我洒了可乐。你能帮我吗?
它会去清理,找出所有中间步骤。我们只是不太会想到它们,因为它们对我们来说太简单了,参与执行那种事情。我们还有DeepMind的Gato,在这里想到它,对吧?我们在做很多多模态的事情
基本上只有一个巨大的模型在中间。这也提出了一个古老的问题,即要获得通用智能系统需要什么?历史上一个主要的论点是,你不仅需要语言,你还需要他们所说的基础,对吧?所以你需要让这个模型与世界互动,看到图像,看到视频、音频,让它连接
它可以通过语言建模学习的概念、想法到现实世界。对于那些持有这种观点的人来说,如果这是你的兴趣所在,那么这是通往更通用形式的智能道路上的一个相当重要的下一步。
绝对的。我认为这篇论文中另一个有趣的方面是,实际上提到了Gato,Gato,他们为600种不同的任务训练了它。那是对电子游戏的控制、图像字幕和语音以及所有这些不同领域。
实际上,Gato,人们注意到的一件事是,在任何一项任务上的表现都不如从头开始训练它来完成这项任务时那么好。在这篇论文中发现的是,他们只有三种不同的任务变体,他们在使用,并且有一些微调数据,基本上,
针对这些任务进行了训练。他们发现,如果你在一个模型上训练所有三个变体,即规划、语言表操作和一些SACAN内容,组合数据集会导致该模型在这三件事中的每一件事上都更好。这很好。这意味着你可以使用各种任务
情况、环境和将它们全部放在一起会导致这个整体更好的系统,它可以从非常不同的各种数据中获益。这是这项研究的一个有趣结果。
也是。是的。我认为这对规模化论点有非常有趣的意义,就像,你知道的,规模化假设说,很明显,你使这些系统越大,它们就越通用。我记得Gato第一次出现时,人们指出的正是你刚才提到的这一点,你知道的,这个想法是,嘿,是的,你知道的,也许你可以做很多不同的任务,但它的性能仍然不如专门针对这些任务中的一个进行训练的系统,在相同的预算下,如果你愿意的话。嗯,
这似乎表明,如果你继续发展系统,如果你继续扩展它,你实际上会到达一个点,你会在任务之间获得积极的转移。你通过熟练驾驶汽车而学习的技能,突然你发现,哦,糟糕,我实际上足够聪明,可以从这项任务中提取出相关的教训,并将它们应用于玩电子游戏或其他什么东西。所以这是一个有趣的门槛,我认为也是人工智能规模化历史上的另一个分水岭时刻。
是的。是的,完全正确。我认为仍然存在一些问题,在这种情况下,与Gato的一个区别在于他们训练了它
你有不同类型的输入和不同类型的输出。在不同的电子游戏和不同的任务(如语言字幕或计算机视觉)之间,输入和输出的模式非常不同,即使你可以制作一个单一模型。在这里,都是一样的。相同的输入,相同的输出,我认为这确实有点……
泥沙俱下。
也许这是前进的道路,在这里,它输出语言,然后这种语言通过RT-1模型转换为运动。你可以设想指令通过其他模型转换为其他领域的其他输入。从这个意义上说,这也是很有趣的,因为它绝对是在SACAN和Socratic模型的基础上构建的。
接下来是下一个故事,这非常有趣,非常令人兴奋,那就是如果你用光学神经网络运行转换器模型会发生什么。
我认为杰里米你对此进行了更详细的观察。那么你从中学到了什么?是的,我做了。这对我来说很有趣,因为在我以前的生活中,我曾在所谓的量子光学实验室工作,基本上是一个有镜子、透镜和激光器的实验室,你的生活很悲惨。你只是在研究生津贴上做各种可怕的工作,以展示光中的量子效应。在我做这项工作时,在瑞士参加为期两周的会议时,我遇到的人是这篇论文的最后一位作者,彼得·麦克马洪。他可能不记得我了,但是,嗨,彼得,无论如何。这实际上很酷。当你使用标准半导体硬件运行转换器时,一件大事就是它非常昂贵。处理能力基本上是昂贵的。它的能源消耗也很高。
这篇论文中探讨的一个论点是,嘿,也许我们实际上可以创建光学电路,基本上使用光来模拟在半导体上电子电路中发生的一些计算,以制作转换器电路。
作为其中的一部分,他们使用了在过去五到十年左右的光学领域出现的一个非常有趣的工具。它被称为空间光调制器。你可以在这里想象一个由许多小方块组成的矩阵,这些小方块的反射率都不同,非常粗略地说。我在这里跳过了一些细节。基本上,一个有很多小方块的矩阵。每个方块反射的光量不同。
所以现在你想象一下,你向该矩阵发射一束光,基本上,出来的光携带的信息编码在其中的反射率中。你在一个点得到更多的光,在另一个点得到更少的光,等等。基本上,你刚刚编码了一个矩阵。这允许你做一些奇特的事情,例如转换器电路中存在的矩阵乘法运算。
因此,使用这种技术,他们基本上表明,嘿,你知道的,我们认为我们可以制造光学电路,以更便宜的价格运行转换器算法,实际上可能便宜得多。因此,他们进行了模拟实验,并表明,如果你将其扩展到极限,你可以获得大约10000倍的能源效率。
比当前最先进的数字电子处理器要好。所以我认为这很酷。我不预见这会在不久的将来成为现实,但光学电路仍然很有趣,至少与转换器有点相关。
是的,绝对的。这也在我以前的生活中。好吧,我没有详细研究过这个,但在实习期间我确实做了一些神经形态电路的工作,这在某种程度上是一个类似的想法……
与其让神经网络在GPU上运行,GPU是这些你可以编程来做很多不同事情的通用芯片。你可以用它来玩电子游戏。你可以用它们来进行神经网络计算。神经形态架构试图采用更类似大脑的方法。
实现,通常使用脉冲神经网络。结果是相似的,因为它更节能。目前神经网络的主要区别之一是,它们远不如我们的大脑节能。所以,这很有趣,因为到目前为止,
所有工作都是在这些GPU上完成的,因为你可以在它们上运行任何模型。这在人工智能领域一直是一种模式,即你为每个新任务训练一个新的模型,使用不同的数据集。但是现在有了这种上下文学习,有了这些大规模的自监督语言模型,
首先,由于它们的规模,其次,由于它们开箱即用地对很多事情都有用,你可以看到,你知道的,定制硬件被构建只是为了运行一个特定的训练模型,一旦你烘焙了权重,它们就被烘焙进去了。
也许它更快,也许它更节能,但你没有那种使其可编程为任何东西的灵活性。我非常好奇,随着越来越多的东西由这些大型语言模型驱动,我们是否会在未来十年看到这种情况出现。是的,这也是这些模型的同质化。就像随着时间的推移,至少目前是这样,一切似乎都变成了转换器。
所以这很有趣,这创造了一种经济激励,也许,你知道的,利用转换器的一些独特的结构特性来获得更高的效率。而且,你知道的,英伟达的H100就是这样做的,但我越来越期待我们会看到一个市场,是的,更量身定制的东西,无论是神经形态的、光学的还是其他某种集成电路设计。是的。
是的,完全正确。而且还为时过早。这里的神经网络规模并不大,有很多问题需要解决,这与晶体管的历史类似,在50年代和60年代,它们曾经非常巨大。CPU的性能不如现在的计算器。
我很想知道我们是否会看到类似的模式,即这些类型的硬件技术起初非常不切实际,规模很小,但随着技术的改进,你实际上可以开始拥有数十亿参数的模型,如果这就是我们的发展方向,这很有趣。我们有一个新的计算范式,你知道的,自40年代以来,我们或多或少一直在使用相同的范式,
冯·诺依曼架构。在这里,这是模拟计算。这不再使用位和字节。从历史上看,我想如果你是一个技术极客,这非常有趣。
是的。还有取代你既定行业参与者的潜力。每当你有这样一项新技术时,人们都会以同样的方式谈论量子计算,但那些从历史上看,那些公司甚至国家,它们在某些类型的处理器方面一直处于领先地位,可能会突然发现,哦,糟糕,一阵新风正在吹来,它可能来自另一组参与者。是的。
是的。说到这一点,在我们闪电轮中,第一个故事是科学家现在想用真正的人类脑细胞创造人工智能。这是关于一篇新的论文,它更像是一篇立场论文,没有真正的结果。他们试图创造这个术语“类器官智能”。
这是生物计算和培养皿中的智能,你基本上想培养一个小的
生物计算机,它利用生物工程的进步来开发这些脑类器官,我认为它们有点像芯片,有点像晶体管。这是另一个可能的途径,也许你可以……
你知道的,将ChatGPT或类似的东西烘焙到生物硬件中,正如我们所知,它在效率和密度方面要高得多。嗯,
这甚至更早,我认为可能不太有希望,因为我不知道,种植大脑似乎还很遥远。但这只是表明,我认为,将会有更多投资于这些新的计算范式。
是的,还有更多关于人类大脑和人工智能系统之间映射的探索。这是我们在该领域长期以来一直在进行的一场有趣的辩论,人们会说,“哦,好吧,你们的人工神经元,这些非常简单的数学结构,它们并没有捕捉到真实神经元中发生的事情的全部深度和复杂性。”我不知道,这可能也会给我们提供一些视角。你可以得到简单的电路
用真实生物神经元做的事情比相同数量的、比如说,以相同方式设置的人工神经元更复杂。我不知道这在短期内是否可行,但这确实是一个有趣的问题,几乎是一个哲学问题,这个东西让我想到。
绝对的。我认为从人工智能研究人员的角度来看,这就像,好吧,如果我们有这些生物神经网络,我们能够训练它们吗?我可以进行反向传播吗?我知道。我想人类以某种方式学习。这是真的。是的。
接下来,我们有谷歌距离构建其1000种语言人工智能模型又近了一步。这是关于一篇题为“谷歌的USM,将自动语音识别扩展到100多种语言”的新论文。这是语音识别。你有音频,你想找出该语言的文本。
是的,他们宣布他们希望能够支持世界上使用最广泛的1000种语言。这是一篇展示这方面进展的论文。我们有一个支持100多种语言的模型。
这当然很重要,而且有很多数据。从历史上看,这是一个更难取得进展的领域,因为需要用文本注释音频。你不能像语言模型那样真正进行自我监督。但是是的,好吧,我们现在正在取得一些真正的进展。
是的,它以一种有趣的方式与语言建模联系在一起。我记得Jan Leike刚刚把它提了出来。所以这是OpenAI人工智能对齐团队的负责人。所以他在上个月,或者说上个月,2023年2月13日发了这条推特。他说,通过instruct GPT论文,我们发现我们的模型可以概括为遵循非英语指令,即使我们几乎完全用英语进行训练。
我们仍然不知道为什么。我希望有人能弄清楚这一点。所以有这个……哦,对不起,请继续。是的,这很有趣。它让我想起……我依稀记得在以前的一些工作中……
我想是语音模式,我记得看到过这种情况,如果你用大量的英语进行训练,并且用少量的西班牙语进行训练,学习说英语似乎可以更容易地学习其他语言。所以这与之非常相关。是的,这一切都是关于这场辩论的一部分,你知道的,人们总是会说,好吧,你的……所以你的模型可能擅长生成文本,预测下一个词,但是
但是它真的理解吗,对吧?那些说,好吧,它只是一个统计推断模型的人,对吧?就好像大脑没有什么不同一样,让我们这么说吧。但在这种情况下,对于那些持有这种观点的人来说,这是一个有趣的谜团。就像,你怎么解释这个呢?你也许能够,我相信有一些有趣的解释,但这至少被,在这种情况下,OpenAI的Jan Leike指出,
嘿,这似乎是一个真正的谜团。规模的另一个奇怪的恩赐。你只需要扩大这些模型,它们似乎就能弄清楚如何做事情。我们真的不知道怎么做,但是,即使我们在人工智能规模化游戏中已经进行了三年,仍然有很多谜团尚未解开。
是的。是的。你甚至可以说规模化已经十年了。对。现在,有一篇关于规模化的论文认为实际上有两个阶段,比如2010年代是一个规模化的时期。现在在过去的几年里,我们进入了一个新的规模化领域,速度更快。所以……是的,是的,是的。是的。是的。
接下来,我们有AI通过阅读说明以6000倍的速度掌握电子游戏。这是关于一篇题为“阅读并获得奖励,借助说明手册学习玩Atari”的论文。人工智能喜欢这些花哨的论文标题,这很有趣。是的,我喜欢……
标题说明了这里的想法是,与其从头开始学习,通过反复试验,这是强化学习的典型范式,你一开始对任务一无所知,你只是尝试不同的东西,直到你弄清楚什么有效,什么无效。
在这里,这个想法是,对于游戏,对于很多东西来说,你都有说明手册来解释游戏的规则和目标。因此,有一种稍微花哨的方法可以将说明手册的文本转换为游戏的视觉语言和你可以执行的动作。
也许不出所料,如果你阅读说明手册,你可以学习得更快。我看到这一点时非常兴奋,因为它是一个如此常识性的想法,例如,不要假设你一无所知。实际上可以告诉你任务是什么,然后去做。多年来,在这方面已经有了其他的工作。但我认为,作为强化学习的一种范式,这有望成为一种更普遍的规范。
好吧,我认为对你来说,安德烈,这是一个“我告诉过你”的时刻,因为据我回忆,你已经在这个问题上提出过几次了,这个想法是,嘿,这可能是一个值得探索的富有成效的方向。所以看到它像这样实现是很酷的。好吧,你做得很好,没有太……
把你的脸埋在里面。这是一个非常有趣的结果。先验知识的力量,对吧?我们有多少次尝试将我们的模型从头开始扔到某件事上,从这个意义上说,将其视为一个狭隘的问题,并只针对一项任务进行训练,我们发现我们没有得到像拥有少量优势的模型那样好的性能,无论是通过预先训练大量不同的任务
还是通过直接指导,这似乎是在这个连续体上,就像某种预训练,在尝试主要任务之前。
从某种意义上说。这里有一些警告,他们所做的游戏非常简单,但仍然,你可以想象这可以推广,如果你有说明,现在你可以将这些说明连接到一个视觉半具体化的世界。你甚至可以说这与我们之前关于机器人的论文有关,在那里你
用文字说出你想要什么,然后你实际上得到它,而不是从头开始学习。在本节的最后,我们有从心理学家的角度来看的人工智能。我认为杰里米可以告诉我们更多关于这方面的信息。
是的,好吧,我认为这是一篇有点可爱的论文。它使用了GPT-3,所以,你知道的,有点过时了。我们真正想要达到的主要有一件事,那就是观察人工智能系统的失败模式,并将它们与人类认知的失败模式进行比较。
那么,例如,像GPT-3这样的语言模型是否会在心理测试中犯与人类相同的错误?让我印象深刻的例子是所谓的琳达测试。所以这是你让测试对象认识一个虚构的年轻女子琳达,他们被告知她非常关心社会正义,并且反对核电。
根据这些信息,这两条信息,所以琳达非常关心社会正义,她反对核电,要求受试者在两个陈述之间做出选择。一个是琳达是一个银行出纳员吗?
或者二,她是一个银行出纳员,同时也是女权运动的积极分子?现在,问题是,如果你熟悉概率或对此有任何直觉,你可能会知道,无论背景是什么,某人成为银行出纳员的几率
总是会高于他们成为银行出纳员并且另一件事也会为真的几率,无论第二件事有多大可能。因为第二件事的概率将是一个介于零和一之间的数字。所以这只能使总概率降低。
所以有趣的是,GPT-3在这里犯了很多人可能会犯的同样的错误。它说,哦,仅仅基于这个背景,她反对核电,关心社会正义,我将打赌,她不仅是一个银行出纳员,
而且,她还是女权运动的积极分子。所以有点意思。在我们真正开始思考之前,这是我们所有人想到的直觉答案。有趣的是,在GPT-3中看到了这种规模和阶段。并且好奇地看到,这是否会随着越来越强大的模型而持续存在?
安德烈,我相信你听说过这个,但逆向缩放奖,这是人工智能安全人员一直在关注的事情。这是一个问题,即我们能否找到人工智能系统在
更大规模上表现更差的任务。这似乎可能是一个有趣的候选者,对吧?就像人类犯的错误一样,我们的AI系统越好,规模越大,也许它们越能复制它们所训练的人类的错误。所以这是一个有趣的问题,但我只是想提醒一下,因为它似乎是一个有趣的问题。
是的,这很有趣。这项测试已经存在了大约40年了。所以有很多研究历史。例如,如果你用不同的方式措辞问题,你可能会得到不同的结果。我看到加里·马库斯对这种测试提出过一个有趣的观点,他认为如果使用GPT-3,
它可能知道这个测试,对吧?所以它只是在说它所看到的东西,还是它实际上是从头开始回应?这是一个有趣的问题。是的,关于你的AI模型实际上对世界的看法与它会告诉你它相信什么之间的至关重要的安全问题。完全正确。
接下来是政策和社会影响的故事。首先,我们有OpenAI现在已经成为它承诺不会成为的一切。企业、封闭源代码和营利性。正如许多人可能已经看到的那样,OpenAI现在不开放已经成为一个笑话有一段时间了。他们已经停止了
发布模型、代码,甚至论文。最近,关于ChatGPT没有论文。他们确实从非营利组织转变为这种奇怪的非营利组织与营利性组织的组合。是的,现在可能是反思OpenAI如何发展的好时机。杰里米,你的想法是什么?
是的,我认为这篇文章很有趣,因为它确实反映了一个事实,即在解释OpenAI的意义及其行为背后的原因时,存在着两个平行的宇宙。这有点像一种愤世嫉俗的解读,也有一种慈善的解读。我认为关于真相是否介于两者之间存在一个有趣的论点。
这种愤世嫉俗的解读,是这篇帖子的作者(并非第一个批评OpenAI的记者)所采用的。这种愤世嫉俗的解读是这样的:你看,你们在2015年或某个时候向世界推出OpenAI。你们传播了非常乐观的信息。你们告诉世界,你们将保持开放并发布所有内容,因为你们担心权力集中。这正是你们想要避免的关键问题。这就是OpenAI这个名字的由来。
但是现在,我们突然看到你们关闭了,变成了一个有限盈利公司。他们经常强调盈利部分,而不强调有限部分,而在更慈善的解读中,这实际上是故事中非常重要的一部分。但无论如何,他们继续说道:嘿,你们基本上已经出卖了自己的理想,现在你们正在大量推出这些模型。埃隆·马斯克现在就站在了这个等式的这一边,他说:
看,你们完全是为了盈利,为了利润而大规模地推出模型。我认为更慈善的解读(我认为这其中也包含着重要的真相)是,如果你是OpenAI,你在2015年推出,你的使命是让AI公开地为全世界所用,避免权力集中,并避免AI带来的灾难性风险。
现在,这三件事无法共存。在接下来的几年里,你逐渐开始了解这一点。你开始意识到:“嘿,我们不能像我们原本希望的那样,将任意强大的AI系统随意发布到世界上,如果这些系统本质上是危险的,或者如果它们可以为恶意应用程序提供动力的话。”这是一种因素。更糟糕的是,你发现:“哦,糟糕。
AI的扩展,比如GPT,让我们说GPT-2,这可能是第一个例子,但实际上是GPT-3,AI的扩展似乎是一件真实的事情。我们似乎现在知道需要什么才能将能力提升得更远,这将花费很多钱。
因此,我们现在必须审视我们的非营利地位,并说:“这真的可持续吗?”我们需要找到一种方法来获得资金。因此,他们采用了这种有限盈利模式,他们说:“是的,我们必须盈利,因为我们必须能够从投资者那里筹集资金,以推动否则完全不可持续的扩展。让我们至少将投资者的利润限制在100倍。”
因此,微软投资数十亿美元,他们最多只能获得100倍的回报。其余的基本上都被输送到OpenAI非营利组织,并可能用于未来的再分配。所以你可以看到OpenAI试图在这条尴尬的绳索上行走,
但另一方面,许多公开立场确实发生了逆转也是事实。他们在最近的一篇文章中谈论了很多,准备迎接AGI或类似的东西。无论如何,准备迎接AGI及以后的事情。总之,这就是我的看法。我认为那里存在两个平行的世界。我认为两者都有一定的道理。思考两者都很有趣。是的,我会说我同意……
从历史上看,他们在2019年将非营利组织转变为这种有限盈利模式的时机很有趣。这几乎发生在……
主要从事GPT类型的工作和扩展规模之前,对吧?他们在2018年发布了GPT,在2019年发布了GPT-2,而当时的GPT-2相当庞大,有数十亿个参数,对吧?
然后他们改变了自身地位,并获得了微软的数十亿美元投资。我认为,是的,如果你在考虑假设性问题,我认为如果没有改变为有限盈利模式,我们就不会拥有ChatGPT。我认为在这两种情况下都有一些论点。
一方面,封闭不是很好,因为现在你对人们的行为有更多的控制权,你可能会滥用AI。但另一方面,我要说的是,我发现OpenAI在确保模型不被滥用方面非常谨慎。
例如,对于DALL-E,他们没有发布模型。如果你尝试通过他们的API或网站使用DALL-E,他们会禁止你制作deepfakes和色情内容。
同样,你也有ChatGPT,对吧?它内置了防止种族主义言论或虚假信息(故意虚假信息)的防护措施。
因此,最初的愿景肯定存在,其目标是引导AI的发展方向,使其广泛造福人类,即使它不再像对更广泛意义上的人类那样开放。是的,我很同情。
对于OpenAI,我认为可以这样说,虽然认为他们决定从非营利组织转向盈利组织是一种愤世嫉俗的观点,但从AI安全角度来看,一直存在一个阵营认为,让我们自己开发模型,以便我们可以引导它们朝着好的方向发展。这在我看来确实是他们在做的事情。
是的,安全社区中的这种观点也有争议。我们当然可以说,但我觉得从这些意图的来源来看,我不认为Sam Altman坐在他的邪恶巢穴里思考如何——
如何才能限制对这些模型的访问,并且,你知道,赚取巨额利润。嗯,我认为OpenAI始终投资于Sam,实际上Sam本人始终投资于许多旨在分享财富并弄清楚如何正确地做到这一点的项目。但是,嗯,
但这是一条棘手的绳索。我的意思是,我并不特别反对任何人对此的意见。OpenAI的出版策略以及他们围绕这些模型制造了如此多的炒作,在AI对齐社区本身中也极具争议,因为它在不知道如何使这些系统安全的情况下加速了AI的进步。所以……
是的。有很多东西需要深入研究,也许在某个时候我们会进行更长时间的讨论,但我认为我们进行了一轮闪电问答。哦,对不起。不,我们还有一个主要新闻。还有一个主要故事,然后我们进行闪电问答。因此,接下来是下一个故事,随着AI的蓬勃发展,立法者难以理解这项技术。
是的,很明显,现在每个人都知道ChatGPT,每个人都知道这是一件大事。也许不出所料,现在立法者、政策制定者正在争先恐后地了解该如何看待它以及他们如何影响它,或者在这种情况下他们应该做什么。是的。
是的。是的。我相信所有听众都会感到震惊,绝对会震惊地了解到,政客们并不完全理解什么是AI。嗯,这是一篇提到一些感到沮丧的立法者的文章。他们四处奔走,试图告诉他们在国会的同事们:嘿,呃,
糟糕的事情正在发生。我们现在需要规范这个领域。他们遇到的最大障碍正是这一点。这些人曾经问过马克·扎克伯格他是如何赚钱的,并且不太理解答案。因此,这种事情,但应用于AI,确实会在该领域存在大量技术细微之处时造成问题。
但是,是的,他们谈到了公司现在被锁定在安全方面的竞争中,这似乎是每个人都争先恐后地推出必应聊天或其他任何东西时被牺牲的东西。
我在本文中发现可能有点令人失望的一点是,他们确实模糊了不同类型担忧之间的界限。他们把它们混在一起。他们在同一句话中谈到了伦理问题,同时谈到了AI系统带来的物理安全、恶意使用和灾难性风险以及所有这些东西。这使得它有点困难。如果我把自己想象成一个试图理解整个领域的政策制定者,
你如何区分这些问题?如果你只是把它们放在一起,我不知道。这只是我个人的看法。我认为这篇文章总体上仍然是一个有趣的揭露。是的,我认为这是一个值得反思的好事情。显然,公司没有多少动力帮助政府监管它们。
但这同时也让我想起,这是学术界可以发挥重要作用的地方,在斯坦福大学,多年来一直有人工智能研究所。
HAI已经存在几年了,它旨在成为一个跨学科的群体,你可以让政策制定者、律师、来自不同领域的人,甚至哲学家,在更广泛的背景下合作研究AI,而不仅仅是技术细节。他们甚至发表了政策简报。
所以这是我认为可能类似于其他技术领域的事情,推动围绕监管的讨论的不会是公司,而是没有经济激励并且可以在技术上分解它的群体。
是的,这是千真万确的。我的意思是,这让你现在看看这个生态系统,并想知道,好吧,桌上的参与者,是我们需要的所有参与者吗?现在,我猜答案是否定的。所以,希望学术界能够介入。
现在我们可以进行闪电问答了。首先,几乎是对前面故事的后续,关于ChatGPT如何打破了欧盟规范AI的计划。打破这个词可能有点夸张,但它确实对欧盟计划产生了影响。我们已经提到过几次了。欧洲一直在制定《人工智能法案》,这实际上是一项非常雄心勃勃的努力,旨在引入法规
并基本上对不同AI系统的风险进行分类,然后让开发人员和公司对发布没有安全限制(例如,没有透明度和人工监督)的东西负责。
看起来《人工智能法案》中并没有太多关于ChatGPT的考虑。因此,有一些努力来解决这个问题。并且有一些争论,在这种非常广泛的聊天机器人技术中,是否应该将其归类为高风险事物,在这种情况下,需要你保持透明并进行人工监督?或者它是否过于通用,无法将其归类为一件事或另一件事。
是的。这也是这些系统的一个特性,你可以构建一个具有特定用例的非常强大的AI系统,但如果它是一个生成模型或一个通用的AI系统,例如ChatGPT或GPT-3,
它将拥有许多超出你想象的功能,超出你所设想的那些功能。因此,你可能正在制作一个非常完美的,你知道的,无害的心理治疗聊天机器人。然后你就会发现,哦,等等,糟糕,这实际上有操纵人们的能力。它有能力,你知道的,在人们的头脑中植入想法。
因此,是的,高风险究竟意味着什么真的不清楚,但它似乎确实应该捕捉到这些系统的潜在用途,而不是它们的预期用途。我认为这是一个很难解决的区别,因为,你知道的,像……
铀同位素对许多不同的事情都有用。如果它们只对核电有用,嘿,也许说它们风险不高是有道理的,但它们可能被用于其他不太令人满意的事情。同样,我们对铀进行加固,也许对我们现在和将来正在构建的这种非常强大的AI系统也应该这样做。
是的,我认为这可能与该法案相差不远,因为它侧重于AI的用途。例如,面部识别用于警务。从这个意义上说,我认为,你知道的,如果你使用ChatGPT来制作治疗师,这很容易被归类为高风险。
所以这可能不是一个很大的飞跃,但说这是一种许多事物都建立在其之上的基础技术确实有点棘手。这种基础技术是否需要包含安全性,或者下游参与者是否需要更多地考虑这个问题?但是,是的,法律方面也正在迎头赶上。
我们这里还有另一个故事,关于英国最高法院审理了一起关于AI发明专利权的具有里程碑意义的案件。我认为我们去年已经讨论过这个问题,其中
史蒂芬·福勒试图在美国这样做,他认为,你知道,他开发的AI应该在这里获得专利,结果最高法院裁定,你不能列出AI作为……你知道的……某事的发明者……仍然有点……
你知道的,也许现在不是什么大不了的事情,但是,呃,现在有了ChatGPT,你知道的,你也许可以说它至少在某种程度上是合作的,对吧?是的。是的。它,呃,它让我想起了,嗯,
作为一个书呆子,它让我想起了《星际迷航:下一代》中的一集,其中就机器人Data(飞船上的机器人)是否应该享有人权进行了辩论。所有这些事情在20世纪90年代听起来都很像科幻小说,但今天,哦,天哪,它让你不禁想知道。它还带来了关于AI感知等其他问题。我们距离被迫应对这些问题并不遥远。
但法律问题也很有趣,因为如果你们设定了这个先例,尤其是在英国法律体系中,这是一个非常非常注重先例的体系,如果你们设定了这样一个先例,即今天的AI不会被认为是专利可能的创造者,
那么,这很可能会影响你们未来的裁决,因为这些系统会变得越来越好。所以这让你不禁想知道,这里正在进行什么样的预期思考?他们是否在考虑,好吧,也许不是这个系统,而是2025年及以后的系统?总之,从这个意义上说,思考未来很有趣。绝对的。是的。
远离法律问题和政策问题,我们有一些关于社会影响的故事。首先,我们有一个故事,讲述了加拿大的一对夫妇在接到一个假冒他们儿子的AI生成的语音电话后,据报道被骗走了21,000美元。
所以基本上就是它说的那样,有人自称是律师,说他们的儿子因杀害一名外交官而入狱。我想,我想,他们的儿子有一个假的声音。
是的,他们被骗了。这是我们在几个案例中已经看到的事情,我想,之前也有一家银行被骗了。现在,Eleven Labs让用少量数据克隆任何人的声音变得很容易。
我认为我们会看到很多这样的事情。对于网络钓鱼者和骗子来说,这是一个金矿。所以我们已经看到一个例子,就在Eleven Labs变得流行的一个月后,令人担忧
是的。这些技术的演变速度也很快,你知道的,过去是这样的,你会去你,比如你祖父母家,然后得到,你知道的,他们会有人打电话,他们不太确定。他们会说,嘿,安德烈,你能告诉我,这对你来说可疑吗?或者他们会给你看一封电子邮件,同样的事情也会发生。你会有点像,好吧,老古董,让我现在就帮你解决这个问题。你会向他们解释这一切是如何运作的。但是,随着这些东西的演变速度,它,
基本上,除非你一直在跟踪AI的尖端技术,否则会有这些新的……
载体,这些新的网络钓鱼攻击,这些新的恶意软件计划,无论什么,都会让你措手不及。突然之间,仅仅成为千禧一代或Z世代已经不够好了。你将不得不主动努力去了解能力的范围。女士们,先生们,没有比订阅、点赞、分享和评论《上周AI》更好的方法来做到这一点。对不起。不,无论如何。是的。
是的,是的,是的。你知道的,了解情况是好的。但这同时也让我想起,你知道的,可能像许多人一样,我有一些与骗子的经历,并非要一概而论,但在某些情况下,并不难弄清楚。就像一个不是来自美国的人,口音很重。现在这些来自美国以外的运营商,他们想让你给他们发送比特币,
可以做得更好,是的,更好得多地欺骗人们。所以,绝对令人担忧。说到过滤器,这里最后一个故事是TikTok的流行美容过滤器带来了新技术和新问题。所以现在有一个叫做“秃头魅力”的过滤器。
自发布以来,下载量已超过1600万次。而且,你知道的,还有其他过滤器可以改善你的外观和脸部,但这个过滤器非常引人注目,因为它确实会改变你的外观。而且,是的。
它已经被做了很多次了。我认为,它加剧了我们在Instagram和其他地方看到的一个问题,那就是推动这些不切实际的标准,推动,你知道的,你必须美丽的观念,对吧?以及Instagram和TikTok现在正在传达的这种虚假现实,你知道的,人们就是这样子的。他们看起来很漂亮。
魅力四射或类似的东西。是的,再次令人担忧。对我来说,这是一个在美丽、紧密聚焦的 nutshell 中的整个哲学社会辩论,没有人可以真正忽视。当AI可以改变你的外表时,你想要保留多少你自己?
这是一个重要的问题。这不是你可以一瞥而过的事情,对吧?我们化妆,我们对自身进行小的改变。这没关系。但那里有一个连续体,一个滑坡。在某个时候,我们可能会决定,好吧,那不再是我了。
那么,我们希望它走多远呢?在这里,我们正在面对这个问题。奇怪的是,你知道的,也许1600万人认为答案是我们尽可能地走下去。如果这完全改变了你的肤色怎么办?如果它完全改变了你的脸,让你无法辨认怎么办?从某种意义上说,你到底取得了什么成就?
对我来说,我不知道,这似乎是一个如此迷人的问题,关于一旦任何事情都成为可能,人类将想要变成什么。它在某种程度上几乎具有超人类主义的维度。它却仅仅关注这样一个看似无辜或至少看似无关紧要的技术产品。
是的,是的。这涉及到一些相当深刻的领域,关于在线方面,比如你扮演的角色和你自己之间的界限是什么,对吧?对。有像超现实这样的术语,以及围绕它的所有讨论。非常有趣的问题。像这样的东西,是的,我们将继续添加它。
但是,转向一些艺术和一些有趣的东西,并非所有东西都很有趣。我们还有几个故事来总结一下,首先是AI生成的虚构作品充斥着文学杂志,但并没有欺骗任何人。这是对最近一个故事的后续,讲述了所有的事情
一本著名的杂志,《克拉克世界》,它专注于科幻小说,由于被AI提交的作品淹没而关闭了投稿。一张图表显示,在2月份,他们收到了大约一千份投稿。这几乎是增加了千倍或百倍。
这几乎是垃圾邮件。大多数情况下,人们只是想赚钱。现在,其他出版物也遇到了同样的问题。这些曾经对任何人都开放投稿。对于那些从未真正发表过作品的人来说,这些是他们在网上发表短篇故事的途径。
所以这,是的,有点令人担忧,因为如果你有一些想快速赚钱或没有认真对待这件事的人。现在,如果你是一个试图认真写作的人,这些途径就变得更难参与了。
是的,为了扩展我们刚才关于视觉上重新掩盖自己的讨论,你知道的,如何将这视为你可以作为作者佩戴的另一种面具?你知道的,你并没有真正展现你的真面目、你的真实自我、你的真实写作。你只是在发布
一堆ChatGPT文本并称之为你自己的。在什么时候我们开始说,“好吧,我们不想阅读这样的内容。”我的意思是,很明显,我们最终会这样做。但无论如何,我认为这是另一个有趣的维度。对于现在从事出版业的人来说,这真是太可怕了。我的意思是,我
我有一些朋友在这个领域做不同的事情。我很快就要出版一本书了,实际上。我差点忘了这件事。但无论如何,你只要看看在这个领域工作的所有人,文案撰写者、编辑、从事营销的人,所有这些跨领域的人以及他们的工作将会是什么样子,不仅仅是因为他们会被自动化,而是因为他们会被这种产品淹没。
我不知道。我的意思是,我怀疑我们需要重新思考这个领域的整个架构,才能处理这种数量。是的,我同意。我认为我并不那么担心,因为实际上这是垃圾邮件,对吧?我们有垃圾邮件过滤器。这更难检测,但这是可能的。这篇文章指出,
他们基本上可以复制其中一些条目,其中有20个短篇故事的标题是《最后的希望》。如果你让ChatGPT写一个科幻短篇故事,然后将说明复制粘贴到这份杂志上,它会生成诸如《最后的回声》或《最后的讯息》之类的标题。所以我觉得……
而且这也是一个新的,比如代笔写作已经存在了。有一些服务,你可以付钱让人们写东西,真的付给他们很少的钱,然后发表它,并试图快速赚钱。这已经持续了很多年了。所以这只是让它更容易了。
希望这些平台会更难,但我认为你可能可以自动化检测很多这样的事情。
是的,也许我悲观的原因是规模。我只是认为现在这些相对容易检测。这仍然更麻烦,因为你有一个额外的尽职调查步骤。但即使在今天,检测机制也相当不稳定,我预计随着这些语言模型越来越像人类,生成将最终战胜辨别。所以这更像是即将到来的预兆。
我不希望这个问题变得更容易处理。我会这样说。是的,我同意。我认为也许是对的。这将是一个案例,如果你正在生成垃圾、通用的废话,即使你通过了它,你知道的,人们也不会关心或不会去看它。
但我们会看到的。接下来,与之密切相关的是,另一个故事是ChatGPT在亚马逊上引发了AI撰写电子书的热潮。所以这里有一个例子,有人在几个小时内写了一本30页的带插图的儿童读物。现在Kindle商店里已经有超过200本电子书列出了ChatGPT作为合著者。
比如《家庭作业的力量》,呃,
是的,这再次是一个人们只想快速赚钱并有效地发送垃圾邮件的案例。因为至少在一篇文章中,他们谈到了这些快速致富的YouTuber是如何这样说的:嘿,让我告诉你如何最快地赚钱。同样的人告诉你如何在亚马逊上进行直销或其他什么来赚钱。现在这是新事物。而且,像,
感谢你们给社会增加了摩擦,伙计们。这真是太棒了。但是,是的,我的意思是,你的观点是正确的。现在,它们质量很低。在它们达到高质量的某个时刻,反面是:嘿,我们只是得到了非常好的AI生成内容。所以也许这本身就是好的。但这确实让你想知道,鉴于此,出版业将如何改变?书籍还会存在吗?我不知道。思考这一切将走向何方很有趣。是的。
绝对的,是的。但是,转向一些更积极的故事来总结一下,我们的第一个故事是好莱坞2.0,AI工具(如Runway)的兴起如何改变电影制作。这不是一个非常深入的故事,但我确实发现了解到电影《万物皆有裂痕》,我认为许多人可能都知道,它赢得了无数奖项,
这是一部视觉效果很重的电影,预算很低,只有大约六个人。它讲述了在制作这部电影的过程中,视觉效果艺术家如何使用Runway,这是一家生产AI驱动的视频编辑软件的公司。而且,你知道的,不仅仅是编辑,还有各种各样的东西,比如遮罩和
以及类似的东西。我发现非常有趣的是,这部可能获得奥斯卡奖的著名电影部分是用这个Runway工具制作的。
是的,以及它可能产生的影响。我的意思是,想想 YouTube 对内容创作托管民主化的影响。就像,你知道的,我想知道还有什么独立电影开始看起来像大片的预算电影。你知道,那会是什么样子?然后是艺术表达等等的机会。这真的是一个令人兴奋的时代,成为一个电影迷。是的,我认为这是……
我认为很多事情不一定能让我们做到以前做不到的事情。我们已经有了视觉效果有一段时间了。漫威电影大多是电脑生成的恐怖电影。但现在做这些事情会更便宜更容易,这令人兴奋。是的。
最后一个故事,我们将回到几周前我们谈到过的事情。AI 驱动的 Seinfeld 恶搞节目将在 Twitch 上回归,并设置了新的防护措施。我认为它可能已经回来了。
所以,这是一个有趣的故事,有一个永无止境的 Seinfeld 恶搞节目,Seinfeld 做着某种脱口秀,最初出了问题。我相信它说了种族主义或恐同的玩笑。
这很有趣。我认为在这篇文章中,它谈到了公司的反应以及他们如何认为 OpenAI 的 API 中有审核。事实并非如此。现在他们正在以更多的方式重新启动这个……
谨慎的做法,确保有审核,我们正在与 OpenAI 合作进行审核,也与我们自己的团队合作。
谢天谢地,这个 Seinfeld,AI 驱动的 Seinfeld 又上线了,因为互联网需要它,我会说的。不,我的意思是,看到责任归属的问题也很有趣;如果他们认为 OpenAI 正在进行这种筛选,而他们没有,结果他们的项目受到了品牌损害,就像,好吧,谁?
这是否是你的错,因为没有检查?是 OpenAI 的错,因为它没有明确说明后端发生了什么?就像,每当 AI 开始为我们做很多思考时,都会出现各种有趣的问题。积极的一面是,我们现在让 Seinfeld 又回到了广播中。对此非常非常高兴。
是的,既然它回来了,我想我会实际查看一下。我很想知道这是什么东西。你知道,它是 24/7 的,所以你可以去 Twitch 找到它,我想。
好了,本周的节目就到这里。非常感谢您的收听。像往常一样,正如我们提到的,你可以在 lastweekin.ai 找到我们的文本通讯,其中包含更多文章。如果你喜欢播客,我们真的会很感激你分享它。尤其如果你能
在 Apple Podcasts 等平台上给予评分和评论。我确实会读的。最近有一个提到
我做的 AI 辅助编辑实际上很烦人,它像剪辑东西一样,所以我恢复了手动编辑,尝试过之后,这很有趣,所以是的,你知道的,如果你有建议,或者你只是想让我们知道你欣赏这个播客,我们会很感激的
但是,你知道的,如果你没有时间这样做,我们感谢所有收听的人,我们希望你会继续收听,因为我们会继续报道新闻。