We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI Daily News June 05th 2025: 🔥 OpenAI Challenges Order to Save All ChatGPT Logs  🤖Amazon Tests Humanoid Robots for Package Delivery 🔗ChatGPT Now Records Meetings and Connects to Cloud Storage ⚠️Trump Admin Cuts 'Safety' from AI Safety Institute

AI Daily News June 05th 2025: 🔥 OpenAI Challenges Order to Save All ChatGPT Logs 🤖Amazon Tests Humanoid Robots for Package Delivery 🔗ChatGPT Now Records Meetings and Connects to Cloud Storage ⚠️Trump Admin Cuts 'Safety' from AI Safety Institute

2025/6/5
logo of podcast AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Deep Dive AI Chapters Transcript
People
D
Danielle Pletka
H
Howard Lutnick
M
Marc Thiessen
主持人
专注于电动车和能源领域的播客主持人和内容创作者。
Topics
主持人:我认为政府和法律系统正在努力应对人工智能的快速发展,但技术进步的速度往往超过了规则的制定。我们看到特朗普政府对AI安全研究所的重新命名,去掉了“安全”一词,这暗示着对AI监管的转变。此外,OpenAI因用户数据问题面临法律挑战,Reddit起诉Anthropic非法抓取数据,这些事件都突显了AI发展中数据隐私和伦理的复杂性。 Howard Lutnick:我明确表示,美国政府不打算对人工智能进行监管,这反映了一种鼓励快速创新而非强制安全检查的政策导向。 Danielle Pletka:我观察到Windsurf CEO提到Anthropic限制了他们对云模型的访问,这可能与数据访问和模型控制等更大的主题相关,就像AI世界的管道系统一样。 Marc Thiessen:我认为随着AI模型成为基础设施,谁控制这些资源对建立在其之上的企业至关重要,这增加了整个复杂局势的另一个维度。

Deep Dive

Chapters
The Trump administration's rebranding of the AI Safety Institute to remove the word "safety" and Commerce Secretary Howard Lutnick's statement against AI regulation signals a potential shift towards prioritizing rapid innovation over safety checks and ethical frameworks.
  • Removal of "safety" from the AI Safety Institute's name
  • Commerce Secretary Howard Lutnick's statement against AI regulation
  • Prioritization of innovation over safety

Shownotes Transcript

欢迎来到这次深入探讨。今天,我们将深入研究2025年6月5日一天的众多更新。我们希望对目前人工智能发展的旋风式发展获得一个实时的快照。是的,内容很多。

我们收集了那天人工智能创新各个领域的消息。我们的目标实际上是尝试解开那天发生的事件。了解当时引起轰动的事件,理解其影响,并弄清楚这一特定时刻告诉我们人工智能的真正发展方向。这就像在一部快速发展的电影中冻结画面一样,对吧?试图看清所有细节。没错。而且画面感十足。感觉速度……

嗯,它正在加速,对吧?所以,解开谜团的最佳起点可能是政府和法律体系如何反应或试图反应。是的,“尝试”是关键词。感觉技术有时远远领先于规则。绝对如此。这种摩擦造成了相当大的新闻头条。6月5日一个非常值得注意的事件是特朗普政府对人工智能安全研究所的举动。对。这引起了很多关注。他们基本上对其进行了重新命名。

关键是,他们从名称中去掉了“安全”一词。直接去掉了“安全”。仅此一点就说明了很多问题,不是吗?当然。而且不仅仅是名称变更。商务部长霍华德·卢特尼克的评论也支持了这一点。他直接被引用说,我们不会对其进行监管。我们不会对其进行监管。哇。好的,这很明确。你认为其中隐含的信息是什么?嗯,这强烈暗示了一种更……

拉斯维加斯式的做法,基本上是放任自流,至少就政府对人工智能发展的这一部分而言是这样。对。将“安全”从名称中删除,并将其与反对监管的直接引语结合起来。是的。它向研究人员、伦理学家以及一直在推动设置防护措施的人们发出了非常明确的信号。其含义似乎是,你知道,促进快速创新,也许是竞争力才是重中之重。

可能超过了许多人认为目前非常重要的强制性安全检查或伦理框架。因此,它创造了一种环境,在这种环境下,公司可能会感到减少减速或实施昂贵安全措施的压力。这似乎是方向。是的。来自联邦监管方面的压力较小。好的,虽然政府的一个部门可能暗示减少监管,

但法院似乎不断地因为人工智能的影响而被卷入其中,例如这场关于OpenAI用户数据的法律纠纷。是的,这是一个非常引人入胜的事件,一个真正的焦点。OpenAI正在积极抵制法院的命令,该命令要求他们保存来自ChatGPT交互的所有用户日志。所有日志。为什么?背后的原因是什么?它出现在这些正在进行的版权侵权诉讼的中间。新闻机构正在起诉。

他们担心潜在的证据,你知道,与人工智能如何训练相关的东西可能会被删除或销毁。好的,所以新闻媒体担心证据消失,而OpenAI的回应是。OpenAI基本上表示,等等。他们有几个论点。首先,他们说命令过于宽泛。从技术上讲,这是一个巨大的负担。我可以想象。是的,他们认为遵守命令将使其难以置信地难以,甚至不可能保护所有不同用户的用户隐私。

免费用户、付费用户,重要的是,他们的API客户也是如此。数据量非常庞大。对。规模巨大,可能有数亿用户。没错。OpenAI认为,在没有真正明确的已证明需求的情况下保存所有内容

会造成全球范围内的重大隐私风险。我们谈论的是当前的聊天记录、已删除的聊天记录,以及可能通过API传递的敏感业务数据。因此,整个情况确实使这种潜在的紧张关系得到了清晰的体现,不是吗?对人工智能透明度和数据访问的需求与既定的隐私规则以及用户的期望之间的冲突。是的,一场真正的冲突。说到关于数据的冲突,Reddit也对Anthropic提起诉讼。不同的数据之争。

是的,而且这对于设定人工智能训练的先例可能非常重要。Reddit的基本说法是,Anthropic非法抓取了大量数据,超过10万页的评论,专门用于训练其人工智能模型Claude。非法抓取。所以不仅仅是使用公共数据,而且是以一种……

Reddit禁止的方式。这是核心指控,是的。Reddit声称Anthropic故意绕过了技术安全措施。例如robots.txt文件,这些信号告诉机器人去哪里,以及旨在阻止大规模自动化抓取的IP地址速率限制。嗯哼。所以是积极地绕过围栏。似乎是说法。也许更重要的是,Reddit表示Anthropic忽略了他们特定的合规API。

这是一个旨在让开发人员检查他们访问的内容是否已被用户删除的工具,以便他们也可以删除它。哇。好的,所以也忽略了用户的删除。如果属实,这听起来相当故意。Reddit想要什么?嗯,首先是钱。损害赔偿。他们认为,如果Anthropic征得许可,他们本来可以收取许可费。

但更大的要求可能是,他们希望Anthropic删除包含这些抓取的Reddit数据的任何模型和数据集。删除模型。而且至关重要的是,停止使用包含这些数据的Claude模型进行任何商业用途。最后一点听起来可能是一件大事,对吧?如果Reddit胜诉的话。

它能否迫使人工智能公司真正证明其数据的来源?也许会导致更严格的许可?绝对如此。它可能会产生巨大的连锁反应。此案确实将使用公开可用但可能已获得许可或受版权保护的网络数据来训练人工智能的伦理和合法性置于显微镜下。绝对值得关注。是的,毫无疑问。而且不仅仅是较新的AI公司遇到问题。即使是谷歌也暂停了一个功能,不是吗?

这个Ask Photos功能。没错。Ask Photos旨在让你使用自然语言搜索你自己的照片库。你知道,问一些问题,例如“显示我去年海滩旅行的照片”或“查找猫睡觉的照片”。但他们悄悄地暂停了推出。暂停的原因是什么?引用的原因是对准确性和隐私的担忧。这说得通,对吧?当你将强大的AI指向像某人的整个照片历史记录一样私人的东西时。是的,风险很高。出错

误解查询,或者更糟糕的是,让它感觉像监视,这将成为一个巨大的问题。它只是突出了当AI非常接近我们的个人数据时,用户信任是多么脆弱。

丹妮尔·普莱特卡:说得通。为了联系几个线索,还有关于Windsurf首席执行官提到Anthropic限制他们访问云模型的消息,据报道是在OpenAI收购之后。马克·西森:是的,这篇文章表面上看起来可能是一场具体的商业纠纷,但它可能与我们正在讨论的更大主题有关。数据访问、模型控制。谁可以使用这些强大的工具,尤其是在所有权发生变化或合并时?丹妮尔·普莱特卡:对。就像AI世界的水管。马克·西森:没错。

随着这些模型成为基础设施,谁控制水龙头将成为建立在其之上的企业的关键问题。这幅复杂图景的另一个维度。因此,仅从6月5日来看,你看到了美国政府暗示可能减少安全监管,公司就数据权利和隐私问题在法庭上争斗,甚至像谷歌这样的巨头也按下了暂停键。

这股旋风告诉我们什么关于管理人工智能的成长烦恼,以及这些争斗、这些政策转变,例如“安全”是否真的在名称中,这实际上会如何影响你,听众,现在使用或可能很快使用的AI工具?如果

感觉地面肯定在移动。它确实显示了这种根本性的张力,不是吗?技术积极主动地发展,速度极快,而法律和监管方面则是被动的,总是追赶不上。这些斗争基本上是社会试图在汽车已经高速行驶在高速公路上时制定交通规则。是的,说得很好。当律师和政策制定者都在努力解决所有这些问题时,人工智能的实际应用似乎正在你所看到的每一个地方爆炸式增长。绝对如此。这……

很自然地将我们带到了下一个重要领域,人工智能实际上开始工作,从实验室和法庭转移到实际的行业应用和可能改变我们生活和工作方式的工具。好的,那么我们在6月5日看到人工智能出现在哪里?

一个引人注目的合作关系是娱乐公司AMC与Runway的合作。对。AMC网络与Runway合作,Runway以其生成式AI工具而闻名,尤其是在视频和视觉方面。他们特别希望在其电视和电影制作过程中使用生成式AI。但是如何使用呢?实际目标是什么?既定目标非常明确。降低制作成本并加快后期制作工作。

你可以想象使用AI来完成诸如自动化某些视觉效果、生成背景元素,甚至帮助简化编辑流程等工作。所以这不仅仅是独立创作者了。这是主流好莱坞大型工作室认真考虑将AI用于制作电影和电视节目。这就是这种合作关系所表明的。是的。人工智能驱动的内容创作进入顶级联赛。

它确实可能开始重塑事物的制作方式、预算、时间表,甚至创造可能性。哇。好的,绝对值得关注。然后在完全不同的世界里,亚马逊正在测试用于包裹递送的人形机器人。这听起来像是纯粹的科幻小说。确实如此,不是吗?但是是的,亚马逊正在进行试验,不仅仅是在实验室里,而是在他们所谓的美国专用人形公园里,

他们使用Rivian电动货车作为设置的一部分。一个类人机器人公园。说真的,他们在那里实际测试什么?机器人做什么?所以想象一下货车停下来。他们正在测试的想法是,人形机器人能否有效地从货车中出来,抓住包裹,并将其送到门口,而人类司机可能同时在附近步行送货?

啊,好的。所以这是关于效率的,一次从一辆车送两件货。这似乎是核心目标,是的。加快关键的最后一英里递送,尤其是在人口稠密的地区。

该公园可能是为了改进机器人的动作、导航、包裹处理等方面,然后再尝试将其用于“实地考察”,送到实际的家庭。如果他们能够大规模地使其工作,那么对交付时间以及说实话,劳动力成本的潜在影响可能是巨大的。对物流网络的巨大影响,绝对如此。从送货机器人转向我们更多人可能直接使用的工具。是的。

ChatGPT获得了一些重大升级,对吧?朝着成为更重要的中央工作中心的方向发展。是的。他们在两个主要领域推出了功能。首先,与云存储的更深入集成,特别是Dropbox和Google Drive。好的。这能让它做什么?这非常强大。它允许ChatGPT搜索你存储在那里的文件以回答你的问题。等等,真的吗?所以我可以问它关于我保存在Google Drive中的报告或电子表格的内容。那是

这比仅仅搜索网络更进一步。它正在访问我的东西。没错。它可能会将ChatGPT变成你自己的数字文件的个人知识助手。第二个重要领域是关于会议的。啊,会议。有什么新东西?一系列事情。会议记录和转录,当然。还可以生成带有时间戳的笔记,这些时间戳链接回录音,根据讨论建议后续行动,让你以后查询会议记录,就像搜索文档一样。

甚至将已识别的行动项目直接转换为他们称为Canvas的结构化文档格式。好的,这些功能确实将ChatGPT进一步推向了全面的生产力工具,尤其是在企业中,对吧?简化所有会议管理和后续工作。绝对似乎旨在促进企业采用,是的。自动化通常在会议后需要大量人工的工作。有趣。与Android有点相关,

生成内容的人工智能Anthropic实际上正在使用其自身的人工智能Claude来撰写其公司的博客文章。没错。他们启动了一个名为“Claude Explains”的部分,该部分主要关注教育内容,主要面向开发人员。关键是文章是由他们的Claude模型撰写的。由人工智能撰写。是否有像人类编辑参与其中?他们确实声明在这个过程中有人的监督。是的。但最初的起草,核心内容创作来自人工智能。好的。

你认为这有什么意义?嗯,它显示出越来越大的信心,不是吗?相信他们自己的生成式AI可以在公司旗帜下制作连贯、信息丰富的面向公众的内容。确实如此。但我猜这也再次提出了关于透明度的问题,对吧?

即使由人类编辑,也应该始终清楚地标记AI提供的内容吗?这是关于作者身份和问责制的持续辩论的一部分。绝对如此。这是一个棘手的问题。只是快速列出那天的一些其他工具更新,这些更新似乎很重要。是的。还有什么?Mistral AI。他们是业内大名鼎鼎的公司,尤其是在开源和企业领域。他们发布了Mistral Code。它被宣传为企业级编码助手,捆绑了他们的几个模型,以帮助开发人员更快地编写和调试代码。

该领域的明确竞争对手。好的,用于编码的人工智能。还有什么?LumaLabs,他们用视觉效果做很酷的事情。他们推出了一些名为Modify Video的东西。Modify Video?它是什么,Modify?显然,它允许你使用AI完全重新设计现有视频。不仅仅是滤镜,而且可能在拍摄后改变整个视觉风格,甚至交换角色或背景。哇,说真的。如果效果很好,这听起来对视频编辑和效果来说可能意义重大。但是

可能,是的。创作者的强大工具。然后是AI音乐平台Suno,他们也推出了一系列新功能。啊,Suno一直受到很多关注。他们添加了什么?例如升级的编辑器以获得更多控制,干提取,这对音乐家来说意义重大,允许你分离人声、鼓等。此外还有用于微调风格的创意滑块,以及长达8分钟的上传时间,用于使用你自己的音频提示。好的,看看范围吧。我们有……

人工智能,可能改变电影的制作方式,人形机器人送货,用于编码、视频编辑、音乐创作的复杂工具,所有这些都进入市场或取得了重大进展。

感觉人工智能开始出现在一两年前你甚至可能从未想过的地方。你如何看待它意外出现?广度令人难以置信,不是吗?还有速度。但当然,所有这些惊人的应用,这些越来越智能的新模型。它们不是靠希望和梦想运行的。它们需要强大的动力和持续改进。对。

这将我们带到了6月5日新闻的第三个关键部分,关于实际为人工智能提供动力和改进人工智能的部分,即使其一切正常运行所需的基础设施和基础技术。没错。一个标题确实突出了所需基础设施的巨大规模,即Meta在能源采购方面的举动。为什么,是的,Meta的交易。他们与Constellation Energy签订了一项重大协议,不是吗?明确地与供电相关。

为其人工智能基础设施供电。能源来源是核能。是的。一个247个无碳来源,以满足其人工智能数据中心的巨大而持续的能源需求。用于数据中心的核能。

这感觉是对这种人工智能热潮需要多少能量的重大声明。绝对如此。需求非常天文数字,而且正在疯狂增长。训练和运行这些庞大的人工智能模型需要可靠、高密度的电力。Meta转向核能表明,你知道,也许仅靠传统的可再生能源甚至化石燃料是不够的,或者在某些地方对于这种持续的重负荷而言并不合适。

因此,人工智能军备竞赛不仅仅关乎芯片和算法。它实际上也推动了大规模能源生产方面的创新或至少是新的战略,甚至将核能重新带回了企业聚光灯下。似乎是这样。是的。它确实突出了支持这场数字人工智能革命的巨大物理足迹。真正强调了规模。好的,这就是电力输入。

那么如何使人工智能本身变得更好、更值得信赖呢?有关于麻省理工学院分拆的消息

Themis AI。是的,Themis AI。他们正在解决目前人工智能领域的一个非常根本性的挑战,即不确定性,有时也称为校准。不确定性,是什么意思?意思是他们正在构建工具来帮助人工智能模型理解,并且至关重要的是,传达它们不知道什么或对答案或预测的信心程度。哦,好的。

这听起来非常重要,尤其是在谈到人工智能幻觉或模型自信地编造东西时。这绝对至关重要。考虑在关键领域使用人工智能,例如医疗保健、金融和自主系统。知道人工智能何时不确定可能与知道它何时自信且正确一样重要。

MIS-AI的工作旨在将这种可靠性和风险意识融入系统。那么他们的工具实际上如何提供帮助呢?结果是什么?这些工具为模型提供了一种方法,不仅可以输出答案,还可以输出某种分数或衡量其对该答案的信心或不确定性的指标。

这可以让人类用户或另一个自动化系统知道是否信任输出,是否需要仔细检查,或者如果AI标记的置信度低,则可能只依赖于其他方法。好的,因此我们最终可以期待人工智能系统能够以某种方式更诚实地对待自身的局限性,从而在这些关键领域实现更安全的部署。这正是目标。这是一项基础性工作。

也许不如新的AI图像生成器那么引人注目,但对于建立长期信任以及使AI能够安全有效地使用(在错误确实很重要的领域)来说,这可以说是必不可少的。对。因此,当你考虑确保巨大、可靠的电力(如核电)时,你

以及这项对使人工智能理解自身局限性的深入基础研究,需要什么样的巨大基础努力才能支持我们讨论的所有这些应用,电影制作、机器人、生产力工具。这显然不仅仅是编码。哦,绝对如此。它突出了这场人工智能革命是高度多学科的。

它需要对计算进行巨额投资,是的,还需要在能源、材料科学和围绕不确定性、公平性和稳健性等方面的人工智能基础理论方面取得突破。这是一个庞大的互联生态系统。好的,那么让我们尝试将所有这些整合在一起。仅从2025年6月5日这一天来看,我们看到政府在监管和安全方面进行了艰苦的,有时甚至是相当激烈的斗争。

我们看到了关于数据、隐私以及谁拥有什么的重大法律纠纷。我们看到了大量涌现的新人工智能应用,似乎遍及各个行业。支撑这一切的是巨大的基础设施需求,例如Meta的核能交易以及Themis AI等关键的背景工作,试图使技术本身更可靠、更值得信赖。它确实描绘了一幅技术……

快速发展、不断变化的画面,但也不断与现有的规则、对隐私的期望、伦理问题,甚至能源和计算的物理限制发生冲突。这种动态张力是关键,不是吗?快速创新与治理、伦理和基础设施适应的较慢速度之间的冲突。是的。

它强化了人工智能不仅仅是一件向前发展的事情。这是一个非常复杂的生态系统,在许多方面同时发生变化,所有这些不同的力量都在推动和拉扯。这是一个令人难以置信的激动人心的时代,充满了潜力,但也需要对挑战进行认真谨慎的导航和批判性思考。绝对如此。因此,总结这次深入探讨,

6月5日的快照确实强调了这种感觉。人工智能正在以绝对惊人的速度发展,带来了令人惊叹的应用,是的,但也产生了我们才刚刚开始作为社会努力解决的真正根本性的问题和冲突。这是一个需要不断关注和对未来发展进行知情思考的领域。所以这里有一个让你思考的想法。

考虑到我们仅从这一天(2025年6月5日)接触到的所有内容,政策信号、应用的爆炸式增长、关于数据的法律纠纷、能源需求、对可靠性的追求,你认为哪一项发展或趋势在未来一年中将是最重要的关注点?你认为在这所有噪音中,哪个信号真正最重要?一些需要思考的东西。这是一个很好的问题,值得思考。感谢您加入我们,深入探讨2025年6月5日人工智能旋风。