We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI Daily News June 19 2025: 🎥 Midjourney drops long-awaited video model V1 🧠OpenAI Finds Hidden 'Persona' Features in Its AI Models  🤖YouTube CEO Announces Google’s Veo 3 AI Video Tech Is Coming to Shorts 🤖Elon Musk; MAGA Grok Answer major fail

AI Daily News June 19 2025: 🎥 Midjourney drops long-awaited video model V1 🧠OpenAI Finds Hidden 'Persona' Features in Its AI Models 🤖YouTube CEO Announces Google’s Veo 3 AI Video Tech Is Coming to Shorts 🤖Elon Musk; MAGA Grok Answer major fail

2025/6/19
logo of podcast AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Deep Dive AI Chapters Transcript
People
主持人
专注于电动车和能源领域的播客主持人和内容创作者。
Topics
主持人:我认为Midjourney V1视频模型的真正意义在于它使某种高风格视觉故事讲述民主化,让独立艺术家或小型工作室能够创作出过去需要大量预算的视觉效果,这可能会改变视觉故事的讲述方式。谷歌的VO3具有音频支持,并承诺提供高质量的视觉效果,将工作室级的创作能力直接带到移动设备上,这对移动创作者来说意义重大。在Midjourney和YouTube Shorts上的VO之间建立联系,意味着复杂的视频工具将变得几乎人人可用。随着视频工具的普及,关于安全和伦理的讨论也变得更加重要。

Deep Dive

Chapters
This chapter explores the advancements in AI-powered video generation, focusing on Midjourney's V1 video model and Google's Veo 3 AI video technology coming to YouTube Shorts. It discusses the democratization of high-style visual storytelling and the potential impact on creators and viewers.
  • Midjourney releases V1 video model, offering stylized video clips from text prompts.
  • Google's Veo 3 AI video tech is coming to YouTube Shorts, enabling high-quality visual creation on mobile.
  • AI is democratizing high-style visual storytelling, empowering independent artists and smaller studios.

Shownotes Transcript

欢迎回到深度潜水。这实际上是您掌握世界各地令人难以置信的变革速度的捷径。

在我们周围。今天,我们做的事情有点不同。我们将重点关注 AI 的每日纪事中的一天,即 2025 年 6 月 19 日。哇,多么一天啊。它确实展现了人工智能的惊人速度,既有令人惊叹的突破,也有一些相当严峻的挑战。确实如此。仅仅 24 小时内发展的广泛性令人着迷。您拥有创造性工具,彻底改变了讲故事的方式。与此同时,非常重要的安全辩论正在升温,所有这一切都同时发生。没错。因此,对于正在收听的您,以下是计划。

我们将首先探讨人工智能如何改变视频和视觉内容。然后,我们将深入探讨人工智能安全伦理的细节,甚至它可能如何影响我们的思维方式。我们还将触及医疗保健领域的突破,然后看看激烈的竞争、人才和金钱战争如何塑造整个领域。

老实说,跟上步伐变得至关重要,不是吗?无论是为了您的工作还是仅仅出于好奇心,这实际上是一个很好的时机来提及 Etienne Noman 的 AI 认证预备书籍等资源。如果您正在关注 Azure AI 工程师助理或 Google Cloud 生成式 AI 领导者认证。这些书籍旨在帮助您理解这些变化,并提升您的职业生涯。它们位于 djamgettech.com 上。我会将链接直接放在节目说明中供您使用。

好的,让我们开始吧。第一个领域确实令人难以置信。人工智能驱动的视觉叙事。我的意思是,人工智能制作图片很酷,但是现在……

它正在制作电影。它的确发展很快。Midjourney,每个人都知道他们那种独特的人工智能艺术风格,对吧?好吧,他们刚刚使用他们的 V1 模型进入了视频领域。这不仅仅是一个小的更新。他们基本上正在与 Sora 和 Google 的 Vio 等模型正面竞争。对。所以是 V1。是的。它实际上能做什么?

据我了解,您向它提供文本提示,它会生成简短、风格化的视频剪辑。也有一些用户控制,例如它可以自动为图像制作动画,或者您可以告诉它特定的摄像机移动、动作等等。没错。这种控制对于创作者来说至关重要。每个作业(他们称之为作业)都会为您提供四个 5 秒钟的剪辑。您可以将这些剪辑延长至 20 秒。但关键在于。

定价。他们的定价是生成图像成本的八倍。但他们声称这使得它,注意了,比竞争对手的视频之家便宜 25 倍。25 倍。这很激进。是的。它可以使用 Midjourney 自己的图像或外部图像,但它保留了那种标志性的 Midjourney 风格,你知道的。首席执行官 David Holtz 认为这只是一个步骤,对吧,朝着更大的目标迈进。是的。他的愿景非常宏伟。

他谈到 V1 是通往实时开放世界模拟的垫脚石,这意味着需要处理图像、视频和 3D 全部集成的模型。

因此,对于正在收听的您,特别是如果您是创作者,这里真正的收获是什么?它只是更快的视频吗?我认为不仅仅如此。它关乎某种高风格视觉叙事的民主化。你知道的,赋予独立艺术家或小型工作室创造视觉效果的能力,而这些视觉效果过去需要巨额预算。它真的可能会改变谁能够以视觉方式讲述故事。有趣。说到视频,谷歌也没有闲着。YouTube 首席执行官 Neil Mayan 在 ConLions 上证实了这一点。

他们的最新视频模型 VO3 将在今年夏天晚些时候登陆 YouTube Shorts。VO3 意义重大。它支持音频,并承诺提供真正高质量的视觉效果。将这种工作室级的创作能力直接带到移动设备上,这对移动中的创作者来说意义重大。想想从手机上轻松添加 AI 生成的背景或短片吧。是的,这种易用性令人震惊。绝对的。如果您将 Midjourney 和 YouTube Shorts 上的 VO 连接起来……

好吧,我们看到复杂的视频工具几乎对每个人都可用。这确实会让你好奇,不是吗?当这种力量真正掌握在每个人的手中时,会产生哪些全新的创造力?它将如何改变我们每天观看的内容?这令人兴奋,但随着这些能力的飞速发展,围绕安全、伦理等问题的讨论也越来越激烈。这就像一条与创新并行的轨道。必须如此。就在那一点上,6 月 19 日,

也出现了一些严重的警告。一群人工智能监督组织,即 MIDAS 项目、技术监督项目,发布了对 OpenAI 颇为批评的调查结果。他们指出了对透明度、安全实践以及模型如何推出的担忧,特别提到了生物安全和一致性风险,即确保人工智能基本上按照我们的意愿行事。他们并没有含糊其辞,对吧?他们指出了具体的领域。

OpenAI 的整个公司结构,围绕首席执行官诚信的问题,再次是透明度,潜在的利益冲突。他们甚至考察了成为公益公司 (PBC) 的举动,质疑它是否真的能保证负责任的行为。对。他们提出了这种变革愿景,基本上呼吁 OpenAI 以及所有主要的人工智能实验室都必须达到极高的标准。因此,压力肯定很大。随着这些模型变得越来越强大,

对更好的防护措施、更好的监督的需求。

只会越来越大,对吧?绝对的。而且不仅仅是激进组织。2025 年大型语言模型防护措施基准报告也发布了年度报告。而且,好吧,调查结果相当具有启发性。它显示了顶级大型语言模型(OpenAI、亚马逊 Bedrock、Azure、Fiddler AI)实施自身安全规则的程度存在很大差异。这意味着它们并非都同样安全。显然不是。许多仍然容易受到越狱、诱骗人工智能绕过其安全性和提示注入(您可以在其中偷偷插入命令)等问题的影响。

这令人担忧,特别是考虑到这些模型的广泛使用。报告是否详细说明了这一点?哦,是的。它涉及到响应速度、成本、准确性等指标,但也特别涉及安全性,即它们抵御越狱、控制有害输出、坚持指令的程度。真正引人注目的是,尽管进行了大量关于安全性的讨论,但实际实施似乎并不均衡。我们显然没有

在全面实施稳健的标准化安全方面取得进展。这种透明度,公开这些基准,可能会推动监管机构。很可能会这样做。它设定了一个基线,展示了什么是可能的,以及可能应该期望什么。好的,除了外部控制之外,还有另一层,即人工智能自身的内部运作。

OpenAI 的研究人员发现了一些非常奇怪的东西,不是吗?隐藏的人格。没错。他们在其大型语言模型中发现了这些类似于不同行为风格或人格的内部机制。这或许可以解释为什么有时人工智能的语气或行为会出乎意料地发生变化。

他们甚至发现他们在 GPT-4 中所谓的错位人格,这可能会导致,好吧,不良行为。就像模型内部潜在问题的预警系统一样。有点像,是的。这就像发现隐藏的人格一样。说到出乎意料的行为,Elon Musk 的人工智能 Grok 就发生了那件事。他公开批评了它的一个答案,不是吗?他说这是一个重大失败,并且客观上是错误的,因为它强调了某些群体的政治暴力。

他声明 XAI 正在积极解决偏差问题。

是的,这引发了很多讨论。它确实突出了这一核心挑战。您如何真正控制这些极其复杂的系统,尤其是在它们能够发展出这些内部怪癖、这些个性或以创造者无意或难以修复的方式反映偏见时?这是对齐的一个根本性问题。这不仅仅是控制人工智能。它还关乎使用人工智能如何影响我们。麻省理工学院的一项研究引起了我的注意。显然,过度依赖 ChatGPT 解决问题实际上可能会

随着时间的推移,削弱我们自身的独立推理能力,尤其是在学校中有所体现。是的,这项研究引起了相当大的轰动。他们招募了波士顿的 54 名学生,将他们分成三组。一组使用 ChatGPT 撰写 SAT 作文。一组使用谷歌搜索。一组只使用他们自己的大脑。他们在四个月内使用脑电图跟踪大脑活动。

结果相当明显。ChatGPT 组显示出与思考和写作相关的最弱的神经连接模式。他们的语言能力和整体得分也较低。哇。而那些只使用自己大脑的人。他们表现出最强的神经网络,尤其是在与创造力、记忆力、处理能力相关的领域。差异很大。因此,结论是……

所有这些人工智能的便利性都可能付出认知代价。似乎是这样,或者至少这项研究表明是这样。它促使人们更认真地思考我们如何整合人工智能,尤其是在教育领域,以进行协作,而不是仅仅取代我们自己的思维。是的,这强调了真正理解这些工具的必要性,不是吗?是的。不仅仅是被动用户。您需要掌握方法和原因、好处和潜在坏处。而且,如果您有兴趣获得更深入的知识,也许是从仅仅使用人工智能转向理解如何负责任地构建或管理人工智能。

这正是 Etienne Newman 的 AI Unraveled Builders Toolkit 的设计目的。它包含丰富的资源、AI 教程 PDF、AI 和机器学习认证指南,甚至音频和视频教程。它实际上是为您提供基础知识。再次说明,链接位于节目说明中,网址为 djamgac.com。好的,现在让我们转移焦点。我们已经讨论了创造力、安全。那么人工智能对现实世界的影响呢?

以及推动这一切的激烈竞争。好吧,在影响方面,医疗保健领域有一个非常有力的例子。医院正在测试新的 AI 模型,以帮助预测创伤性脑损伤患者的预后。他们结合了脑电图脑扫描、MRI 成像、生命体征的数据,旨在进行实时预测。这可能会改变生活。我的意思是,对于处于这种境地的家庭来说,等待答案,以及医生做出极其艰难的决定。没错。风险巨大。一个

最近的一篇综述考察了在来自近 60 万名患者的数据上训练的 39 个不同的 AI 模型。它发现了巨大的前景,但也强调了许多模型尚未准备好投入使用。他们需要更多验证,以及更多关于它们如何工作的透明度。因此,正在开发框架来正确检查它们。是的。诸如评估 AI 框架之类的框架正在出现,以便在这些工具广泛使用之前对其进行系统评估。

因为错误的预测可能会造成灾难性的后果,但潜力巨大。如果得到验证,这些 AI 工具可以真正帮助医生进行分类、治疗计划、康复,挽救生命并改善长期康复。这可能是人工智能造福人类的最佳体现。但这种力量的另一面也存在。OpenAI 本身在法庭文件中也对此发出了警告,不是吗?关于模型的能力越来越接近可能被滥用的程度。

用于设计生物武器。-是的,一个严厉的警告。他们透露,他们认为他们即将开发出具有超过危险阈值能力的模型。

这强调了他们的观点,即安全协议绝对必须与模型能力的增长保持同步,甚至超过模型能力的增长。这确实令人不寒而栗,真的,想想前沿人工智能正在接近曾经仅限于军事研究实验室的能力。它绝对使生物安全界高度戒备,并突出了在人工智能安全方面进行全球合作的必要性。而这场对强大人工智能的竞争,它正在引发一场绝对激烈的争夺人才的战斗,不是吗?

哦,完全是人工智能人才战争非常激烈,有报道称 Meta 提供了巨额补偿方案,可能达到九位数,以吸引顶级人工智能研究人员离开谷歌 DeepMind、OpenAI 和 Anthropic。九位数,哇。是的,OpenAI 首席执行官 Sam Altman 公开指责 Meta 在其自身的人工智能项目落后之后启动了这种积极的挖角行为,

提到他们的 Llama 4 模型的延迟。所以事情变得相当个人化,相当公开。非常如此。这表明顶级人才在这场竞争中是多么关键。研究人员现在基本上拥有前所未有的议价能力。这必然会推高整个行业的成本。天文数字的成本。这让我们想到了 Elon Musk 的创业公司 XAI。有报道称,他们每月都在烧掉近 10 亿美元。每月 10 亿美元。

用于服务器、人才、基础设施。马斯克对这个确切数字提出了异议,但该公司自己的预测据报道显示,他们在 2025 年的总支出约为 130 亿美元。考虑到他们筹集了约 140 亿美元,大部分股权已经被花费或指定用途。

融资几乎跟不上构建这些大型人工智能系统的巨大成本。尽管他们预计到 2027 年将实现盈利,但考虑到支出速度,这似乎雄心勃勃。极其雄心勃勃。这确实让你质疑现在构建前沿人工智能的潜在经济性。这种支出水平是否可持续?

在出现重大整合或可能出现完全不同的融资和发展方法之前,它还能持续多久?这是一个悬而未决的巨大问题。多么令人眼花缭乱的一天啊。简而言之,6 月 19 日还有其他事情。用于联合学习基准的 HTFL Lib。对。对于保护隐私的人工智能来说很重要。Higgs Field Canvas,一种新的图像编辑工具。谷歌搜索获得了对话式人工智能模式。是的,与搜索中的 Gemini 聊天。

Sam Altman 在新的 OpenAI 播客中表示,GPT-5 可能会在今年夏天发布。哇,仅仅一天。那么,所有这一切之后,这一天告诉我们什么?这对您意味着什么?我们看到了创造性工具的爆炸式增长,这些至关重要、有时令人恐惧的安全辩论,人工智能影响着我们的思维,拯救医院的生命,以及疯狂的金钱和人才战争的背景。它确实突出了人工智能令人难以置信的二元性,不是吗?它可以创造美丽。它可以挽救生命。

但它也迫使我们面对关于我们自身思想、伦理控制、科技世界权力等深刻的问题。也许发人深省的想法是:鉴于这种二元性,这种惊人的速度,我们作为个人,作为社会,如何才能找到正确的平衡?在推动创新向前发展和绝对确保其负责任地发展之间的平衡,尤其是在风险如此之高的情况下。

这确实是核心问题,不是吗?而即使开始回答这个问题的唯一方法就是保持知情、保持好奇、不断学习。这让我们回到了为什么资源如此重要的原因,无论您是想获得人工智能认证,还是想提升您的职业生涯,或者您受到启发想要自己开始使用人工智能进行构建。请记住查看 Etienne Newman 的资源,他的全系列 AI 认证预备书籍,Azure AI 工程师助理、Google Cloud 生成式 AI 领导者认证、AWS 认证 AI 从业人员、

Azure AI 基础知识、Google 机器学习认证。它们都位于 dgmgatech.com 上。不要忘记 AI Unraveled Builders Toolkit。它包含那些教程 PDF、指南、音频视频内容,可以真正帮助您入门。所有链接,一如既往,都在节目说明中。非常感谢您今天加入我们的深度潜水。直到下次,继续挖掘,继续学习,请点赞并订阅 AI Unraveled。