We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
People
主播
以丰富的内容和互动方式帮助学习者提高中文能力的播客主播。
Topics
主播认为AI和加密货币领域虽然相关,但应分别考虑其在政府中的角色,避免两者混淆。 参议员Peter Welch提出的新法案旨在简化AI模型训练中版权执行的流程,但可能存在过度倾斜的风险,需要在保护创作者权益和发展AI技术之间取得平衡。 艺术家团体P, R, puppet认为OpenAI的Sora早期测试计划并非真正重视艺术家的创意表达和批评,而是更注重公关和宣传,他们反对OpenAI在Sora早期测试计划中的运作方式,认为OpenAI向早期测试者施压,要求他们对Sora发表正面评价,并且未能公平补偿他们的工作。

Deep Dive

Chapters
The potential appointment of an AI advisor in the Trump White House could significantly shape AI policy in the coming years. This chapter discusses the role's potential responsibilities and the implications of having a safety-minded versus an acceleration-minded advisor.
  • Donald Trump is considering naming an AI advisor (AIS-R) to focus on public and private resources to keep America in the AI forefront.
  • The role could involve coordination across government agencies and support for new AI-enabled processes.
  • Speculation surrounds potential candidates like Max Tegmark, an MIT professor and AI safety advocate.

Shownotes Transcript

OpenAI期待已久的视频生成模型Sora reportedly泄露,引发了AI社区的热议。该视频探讨了该模型的能力、对视频创作的潜在影响以及围绕OpenAI与早期测试者之间的争议。Sora与Luma和Pika Labs等竞争对手的进展相比如何? 由以下公司提供支持: Vanta - 简化合规 - ⁠⁠⁠⁠⁠⁠⁠https://vanta.com/nlw Plumb - AI自动化,轻松实现 - https://useplumb.com/

订阅时事通讯:https://aidailybrief.beehiiv.com/ 加入我们的Discord:https://bit.ly/aibreakdown

<raw_text>0 今天,在每日简报中,似乎OpenAI的视频生成模型Sora在此之前已经泄露,头条新闻中提到总统当选人特朗普显然在考虑一个白宫职位,每日简报是一个关于AI领域最重要新闻和讨论的每日播客和视频。要参与讨论,请在我们的节目说明中关注Discord链接。

欢迎回到AI每日简报头条版,您需要的所有每日AI新闻大约在五分钟内。人们目前关注的一个大问题是总统任命可能如何影响未来几年的AI政策。现在我们有关于可能是直接影响该领域的职位的传闻,Axiom报道。

当选总统唐纳德·特朗普正在考虑任命一位AI负责人。这来自特朗普过渡团队内部的消息来源,他们向AIOC表述这个角色可能性很大,但在细节上并不确定。当然,他们的信息很少。

消息来源表示,这不会是埃隆·马斯克本人,但他与“沼泽”中的两位领导人将会在新成立的政府效率部门中发挥重要作用,决定谁将成为AI负责人。这对与埃隆有微妙关系的其他科技领袖来说有些令人担忧。越来越多的消息表明,这并不是特朗普白宫考虑的唯一人选。

彭博社上周报道,特朗普过渡团队还在为密码行业的类似角色审查CYP货币高管。消息来源还表示,AI加密角色可能会在一个新兴技术下合并。大家都非常希望这种情况不会发生。

我认为这些领域虽然彼此有关系,并且我希望看到这两个角色紧密合作,但它们在根本上是不同的,需要不同的东西。我希望看到他们在AI负责人将要做的事情上得到自己的考虑。

Axiom表示,AI负责人将负责集中公共和私人资源,以保持美国在AI前沿,这一点是在拜登总统和AI行政命令下建立的,尽管特朗普希望废除该命令,但政府机构都被命名为首席AI官,白宫的AI负责人可以在所有这些个人之间发挥协调作用。我们讨论过的另一个潜在活动领域是,政府效率部门可能不仅专注于寻找明显的方法,还要考虑如何通过新的启用流程使事情更高效。报告推测,这两个职能都可能得到AI负责人的支持。

换句话说,利用AI来根除“等待、欺诈和滥用”,同时也考虑AI如何重塑未来的流程。如果这个角色确立,他们将不得不与能源政策紧密相连,因为未来领导力的一个大约束将是能源的可用性,Axiom指出,AI负责人不需要参议院的同意,这使得这个人能够更快地开始工作。投机当然已经开始加剧。

例如,转而讨论的名字是马克斯·泰格马克,他是麻省理工学院的教授和AI安全倡导者,有报道称他在塑造特朗普对AI发展的控制方面发挥了影响力。然而,所有这些都只是猜测。更有趣的是,泰格马克提醒我们,这个角色可能会在美国的AI政策中产生多大的影响。

在追求不同政策时,持有加速思维与安全思维的人之间的差异可能是巨大的。因此,如果这真的是一个值得密切关注的事情。与此同时,政治家们继续开玩笑地制定AI政策。

最新消息来自参议员彼得·韦尔奇,他提出了一项新法案,旨在使在AI模型训练中更容易执行版权保护,称为人工智能网络的透明度和责任法案或TRAIN法案。该法案理论上增加了对数据集的透明度。版权持有者将能够监督AI模型的训练记录。

如果他们有良好的信念,认为其作品被用于训练模型,开发者只需在“足够确定”是否使用了受版权保护的作品的范围内披露训练材料。未能提供将产生法律推定,即广告开发者确实使用了相关的版权材料。韦尔奇表示,国家需要“设定更高的透明度标准”以应对AI训练。

他补充道,如果您的作品被用于训练,那么您作为版权持有者应该有办法确定它是否被训练模型使用,并且如果是的话,您应该得到补偿。我们需要让美国的音乐家、艺术家和创作者能够发现AI公司在未经艺术家许可的情况下使用他们的作品来训练模型。迄今为止,围绕版权侵权起诉AI实验室的尝试进展缓慢。

《纽约时报》对OpenAI的诉讼可能是最先进的。在该案件中,法官命令OpenAI提供其训练数据的可搜索版本供《纽约时报》审查。

我们目前不知道他们是否在这个阶段发现了任何东西,但该过程因OpenAI意外删除搜索日志而受到争议,导致该过程延迟。该法律旨在简化一些类似的过程,但当然,担忧在于它是否会过于偏向另一方。我们现在没有关于使用数据训练AI模型是否构成版权侵权的明确法律先例。

许多实验室已经签署了许可协议,以避免诉讼及相关的公关损害,但没有法院有机会对此法律问题作出裁决。该法案也没有解决法律问题。它只是引入了一个明确的法律框架,当声称存在版权侵权时。

与此同时,像吉萨、日本和新加坡这样的司法管辖区已经制定了法律,将训练数据归类为合理使用,许多AI行业的其他人将训练数据的使用视为更接近于阅读一本书,而不是复制一本书。最终,这将是我们面临的最具挑战性的平衡行为之一,一方面保护作者、音乐家和创作者,另一方面推动AI战略。

回到技术方面,Anthropic推出了一种新工具,用于将AI助手连接到外部数据源,称为模型上下文协议(MCP)。Anthropic将其提议作为数据连接的开源标准。

MCP允许任何模型,而不仅仅是Anthropic生产的模型,从商业工具、软件或内容库中获取数据。他们在一篇博客文章中写道,随着AI助手的主流采用,行业在模型能力上进行了大量投资,实现了推理和质量的快速进步,但即使是最开放的孤立模型也受到信息孤岛和遗留系统后面数据的限制。

每个新的数据源都需要其自己的定制实现,使得真正连接的系统难以扩展。云关系负责人亚历克斯·阿尔伯特提供了一系列MCP被用于连接到通用搜索引擎的示例,以展示其灵活性。他写道:“我们正在构建一个AI通过单一优雅协议连接到任何数据源的世界。”

MCP是通用翻译器,将MCP一次集成到您的客户端中,并连接任何地方的数据源。开始使用MCP。在不到五分钟的时间里,我们为GitHub、Slack、QL数据库、本地文件搜索引擎等构建服务器,像LSP为IDS所做的那样,我们正在将MCP构建为LLM集成的开放标准。

构建我们自己的服务器,为协议做出贡献,并帮助塑造AI集成的未来。即使这听起来对您来说很陌生,重要的是要知道开放连接标准在达到大规模采用后有着悠久的历史,成为强大的解锁工具,甚至像USB标准这样的东西,曾经是数十种不同的专有变体,彼此不兼容。

尚不清楚OpenAI和其他前沿实验室是否会采用开放标准,但Block、Apollo Replay、Odium Source等都在其平台中构建MCP支持。Anthropic还为Google Drive、Slack和GitHub共享了预构建的MCP服务器,该公司表示:“开发者现在可以针对一个标准协议进行构建,而不是为每个数据源维护单独的连接器,随着生态系统的成熟。”

AI系统将在不同工具和数据集之间移动时保持上下文,取代今天的碎片化集成,形成更可持续的架构。我认为这里相关的是,这表明了我们作为一个行业所处的位置。现在真正令人兴奋的并不是模型能力的巨大进步,而是这些基本的基础设施构建块正在上线,在未来几年甚至几个月内,很难想象没有它们的时代。

它们将解锁大量用例和新机会。因此,尽管相对于获得Ori或GPT-5而言,它们看起来可能微不足道,但我认为这确实是一个非常重要的消息。今天的简报头条版到此结束。接下来是主要剧集,今天的剧集由Plum提供支持,想要使用AI来自动化您的工作,但不知道从何开始。

Plum让您通过简单描述您想要的内容来创建AI工作负载。无需编码或API密钥。想象一下,输入“分析Zoom会议”。

这是一个概念,看到它在您眼前变为现实,无论您是运营领导者、市场营销人员还是非技术创始人。Plum赋予您AI的力量,而无需技术知识,并访问顶级模型。GPT-3.5组装。

不要让技术束缚您?查看使用Plum,这是“Pum”加一个“B”,以获得工作负载自动化的未来的早期访问。今天的剧集由Vanta提供支持,无论您是启动还是扩展公司的安全计划,展示顶级安全实践和建立信任比以往任何时候都重要。

Vanta自动化ISO 27001、SOC 2、GDPR和领先的AI框架,如ISO 42000和NIST AI管理框架,节省您的时间和金钱,同时帮助您建立客户信任。此外,您可以通过自动化问卷来简化安全审查,并通过面向客户的信任中心展示您的安全态势。所有这些都由Vanta的AI提供支持。

超过8000家全球公司,如Lung Chain Lead AI和Factory AI,使用Vanta来展示AI信任,实时改善安全。了解更多信息,请访问ventadour.com/nlw,这是ventadour.com/nlw。今天的剧集一如既往地由Super RNTellier提供支持。

您是否曾希望有一个完全专注于AI如何与您的公司相关的AI每日简报?您的公司是否在AI采用方面苦苦挣扎,无论是因为您正在安装,还是在弄清楚哪些用例将带来价值,或者因为正在发生的AI转型孤立了个别团队、部门和员工,无法改变整个公司。

Super Intelligence开发了一种新的中央播客产品,通过分享来自您公司内部和外部的最佳AI用例来激励我们的团队。可以将其视为AI每日简报,但仅针对您公司的AI用例。如果您想了解更多,请访问besuperdi/partner并填写信息请求表。我对这个产品非常兴奋,因此我会亲自尽快回复您。

那就是besuperdi/partner。欢迎回到每日简报。今天我们有一个火热的话题,因为互联网因OpenAI的Sora视频生成模型泄露的报道而沸腾。

现在,Sora可能是我们今年听到的最受期待的AI产品之一,但我们还没有获得。早在年初,OpenAI就让人们惊叹于他们演示Sora时的可能性,许多人因此改变了对AI视频的看法。我真的觉得视频将会迎来它的中期旅程稳定的融合时刻,并成为2024年纹理的重要组成部分。这就是发生的事情。

但这并不是由OpenAI主导的,也不是由Sora主导的。Pika Labs推出了他们模型的新版本,远比之前的版本更先进。Luma Labs的Dream Machine成为了艺术创作者的热门选择,Runway除了发布新版本的模型外,还开始与好莱坞大型制片厂如Lions Gate建立合作关系。

更有趣的是,即使OpenAI的Sora被推迟,人们仍然感到也许是因为他们想先推出它。好莱坞必须是一个通过传统娱乐行业推出的产品,而不是一种自下而上的服务。现在,有很多原因可能导致一个先进的视频模型未能发布。

首先,这是一项极其昂贵的提议。此外,当涉及到深度伪造和使用AI生成视频用于恶意目的时,存在许多安全隐患。但尽管如此,大多数人在今年下半年都在想,Sora在哪里?好吧,现在我们显然可以通过上传到Hugging Face的模型访问它。

您可以在P.R. Puppet Sora空间中生成视频,目前在录制时正面临严重的困难,显然是因为大量用户涌入而被压垮。但该团队也发布了一封公开信。

信中写道:“亲爱的企业AI统治者,我们获得了Sora的访问权限,承诺成为早期测试者、红队成员和创意合作伙伴。然而,我们相信我们实际上是被引诱进入艺术洗涤,以告诉世界Sora是艺术家的有用工具。艺术家不是你们的无偿研发人员。”

OpenAI 期待已久的视频生成模型 Sora 据报道已经泄露,引发了 AI 社区的广泛讨论。该视频探讨了该模型的能力、对视频创作的潜在影响以及围绕 OpenAI 与早期测试者之间的争议。Sora 与 Luma 和 Pika Labs 等竞争对手的进展相比如何? 由以下公司提供支持: Vanta - 简化合规 - ⁠⁠⁠⁠⁠⁠⁠https://vanta.com/nlw Plumb - 可靠的 AI 自动化 - https://useplumb.com/

订阅新闻通讯:https://aidailybrief.beehiiv.com/ 加入我们的 Discord: https://bit.ly/aibreakdown

<raw_text>0 D. 我们不是你们免费的漏洞测试者。P,R,pup。其训练数据验证令牌在数百位艺术家中提供了无偿劳动,通过漏洞测试。反馈和实验将为一家价值一千五百亿美元的公司服务。而数百人则是无偿贡献。

少数人将通过竞争被选中,获得他们的商店创建的电影屏幕,提供微薄的补偿,这与 OpenAI 所获得的可观的 P,R 和市场价值相比显得微不足道。D 正常化的十亿美元品牌正在剥削艺术家进行无偿的 R N D P R。此外,每个输出在分享之前都需要得到 OpenAI 团队的批准。

这个早期访问程序似乎更少关注创意表达和批评,而更多关注 P,R 和广告。企业正在洗白。

我们发布这个工具是为了给每个人一个机会,实验大约三百美元的免费无限访问这个工具。我们并不反对将 AI 技术作为艺术的工具。如果我们反对,我们可能就不会被邀请参加这个项目。

我们不同意的是这个艺术家项目的推出方式,以及这个工具在可能的公开发布前的形态。我们将此分享给世界,希望 OpenAI 变得更加开放,更加友好于艺术家,并在 P R 之外支持艺术。

正如你想象的那样,最初每个人都试图弄清楚这是否真实,或者更多的 blah o 权利。为什么?我认为这是真的。

这是使用 OpenAIS A A P I 点生成和下载 O S,带有硬编码的请求头和来自 h uggy f ace s pace e nvironment j ob 的 cookies 在推特上确认的权利。Open A I Sora 确实已经泄露。然而,另一方面,我担心 A I 权利。

我的意思是,如果这只是一个直接向 OpenAI 的 A,P,I 请求,它会在两到十秒内被关闭。如果没有,那就是 B S。另一个重要的讨论,当然是艺术家骑行。