We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI Daily News June 20 2025 ⚠️OpenAI prepares for bioweapon risks ⚕️AI for Good: Catching prescription errors in the Amazon 🎥Midjourney launches video model amid Hollywood lawsuit 🤝Meta in talks to hire former GitHub CEO Nat Friedman to join AI team

AI Daily News June 20 2025 ⚠️OpenAI prepares for bioweapon risks ⚕️AI for Good: Catching prescription errors in the Amazon 🎥Midjourney launches video model amid Hollywood lawsuit 🤝Meta in talks to hire former GitHub CEO Nat Friedman to join AI team

2025/6/20
logo of podcast AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Unraveled: Latest AI News & Trends, GPT, ChatGPT, Gemini, Generative AI, LLMs, Prompting

AI Deep Dive AI Chapters Transcript
People
Topics
OpenAI 正在积极构建内部协议,以应对其先进模型可能被滥用于设计生物武器的风险。他们训练模型拒绝有害请求,部署始终在线的系统来检测可疑活动,并计划与政府和非政府组织举行生物防御峰会。同时,OpenAI 文件推动对 OpenAI 的治理和领导层进行独立审查和监督,以确保 AGI 的发展是负责任和可问责的。我认为,这些措施对于防止在国家安全和生物技术等领域发生灾难性滥用至关重要。

Deep Dive

Chapters
OpenAI is developing internal protocols to mitigate the risks of its advanced models being misused to design biological weapons. They are implementing refusal mechanisms, always-on detection systems, and advanced red teaming to address potential threats.
  • OpenAI's proactive steps to prevent misuse of its models for biological weapons design
  • Dual-use capability of AI models
  • Internal protocols including refusal mechanisms, detection systems, and red teaming

Shownotes Transcript

这是AI Unraveled的新深度探讨,由Etienne Newman创作和制作,他是一位资深工程师,也是一位热情的加拿大足球爸爸。请记住点赞和订阅。欢迎回到深度探讨。在这里,我们将收集大量信息文章、研究论文、我们自己的笔记,并努力将其提炼成关键见解,只为您服务。

今天,我们将深入探讨最近一系列令人着迷的AI创新。这是2025年6月当前情况的快照,我们的目标是让您快速了解AI的真正前沿,从重大深远的影响到一些老实说非常令人惊讶的现实世界应用。没错。而且速度……我的意思是,这太不可思议了,不是吗?感觉每天都在变化。我们今天将触及很多方面。从围绕AI安全协议的这些非常关键的讨论,

到正在塑造该行业的激烈人才争夺战,一直到非常实际的东西,例如AI如何改变医疗保健,甚至智能眼镜的未来是什么。这是一个非常多样化的领域。确实如此。实际上,在我们直接进入第一个主题之前,我想快速提及Etienne Newman的一些优秀资源。他非常致力于帮助您在AI领域取得领先地位。他整理了一些

优秀的AI认证预备书籍。我们正在谈论Azure AI工程师助理、Google Cloud生成式AI领导者认证、AWS认证AI从业者学习指南、Azure AI基础知识以及Google机器学习认证。您可以在djamgate.com上找到所有这些。别担心,我们会在节目说明中提供所有链接。这使得它很容易。

好的,让我们从可能让许多AI人士彻夜难眠的事情开始。安全,治理。您会看到诸如“OpenAI为AI驱动的生物武器风险做准备”之类的标题,它确实突显了这些对话的紧迫性,不是吗?绝对如此。并且它表明他们正在采取积极措施,对吧?这不再仅仅是理论上的了。从本质上讲,OpenAI正在构建这些内部协议,因为存在非常真实的担忧,即

他们的高级模型可能会被滥用,特别是用于设计生物武器。他们称之为双重用途能力。双重用途。是的。他们实际上预计,在他们的O3推理模型之后出现的模型(这是他们的下一个大模型)可能会根据他们自己的准备框架触发高风险状态,特别是对于生物威胁而言。哇。好的……

你甚至如何开始减轻听起来如此严重的事情?他们实际上能做什么?好吧,他们正在实施一些措施。一个重要部分是训练模型本身拒绝有害请求。只需

只需将拒绝内置其中。他们还在部署他们所谓的始终在线系统,旨在检测可疑活动。他们正在进行大量的先进红队演练。红队演练,就像试图自己破解它一样。没错。压力测试它以发现漏洞,然后再让其他人发现。他们不是在真空中进行的。他们计划在7月份与政府研究人员、非政府组织举行生物防御峰会。

而且不仅仅是OpenAI,Anthropic在发布其Clawed 4系列时也启动了类似的非常严格的协议。那么这里更大的图景是什么?我们应该从中学到什么?我认为关键的收获是,这些AI领导者正在超越仅仅谈论风险。他们正在积极构建护栏。他们看到AGI或接近AGI的东西即将出现,并且他们明白这是一种潜在的双刃剑。

这实际上是关于试图防止灾难性的滥用,尤其是在国家安全或生物技术等领域,在技术变得可能过于强大而难以轻松控制之前,设定一个标准,希望如此。

与该监督部分相关的是,这不仅仅是内部协议。还有来自外部的透明度推动,对吧?导致这些OpenAI文件。那是什么?是的,OpenAI文件。它基本上是由一些科技监督组织运行的档案项目。他们正在记录对OpenAI治理、领导层的担忧。

尤其是在与AGI开发相关方面。他们正在推动更独立的审查,对诸如结构性变化(记住,当他们取消投资者的利润上限时)或安全评估可能感觉仓促的情况,甚至领导层潜在的利益冲突进行更严格的审查。所以这实际上是关于问责制,与技术发展保持同步。

没错。它试图将围绕AGI的讨论从“它何时会发生”转变为“我们如何确保它负责任且可问责地发生?”。论点是,透明度和强大的监管框架至关重要,因为这项技术通常发展速度远快于公众理解甚至政府意识。

好的,让我们稍微改变一下方向。下一个可能有点令人惊讶,甚至有点令人不安。这是关于与AI互动实际上如何影响我们的大脑。麻省理工学院的一项研究调查了这个问题。是的,这项麻省理工学院的研究非常令人大开眼界。他们让学生写论文,一些学生在LLM聊天机器人的帮助下写作,一些学生没有,他们使用脑电图耳机来测量大脑活动。他们发现,嗯,非常重要。使用LLM的学生表现出明显减少的大脑活动,特别是大脑连接性。

他们使用称为DDTF的东西来测量它。学生获得的外部帮助越多,它就越小。缩小了多少?使用LLM的组显示最弱的大脑耦合,并且他们在相关的脑电图信号中看到了高达55%的减少。

这强烈表明在任务期间认知参与度降低。哇。百分之五十五。这是一个巨大的下降。它几乎让你,我不知道,犹豫是否过度依赖这些工具。对。这里是否存在效率和实际思考之间的权衡?这就是百万美元的问题,不是吗?我的意思是,这些AI工具对于提高效率无疑是伟大的。它们加快了速度。

但这项研究确实表明,过度依赖可能会付出代价。它可能会损害批判性思维能力,甚至可能损害长期的认知发展。这绝对是我们需要注意的事情,尤其是在教育方面。绝对的。这里值得思考。好的,从我们的大脑转向工作场所。人们在工作中实际上想要从AI获得什么?斯坦福大学进行了一项研究,调查了大约1500名工人。他们发现了什么?

因此,斯坦福大学的研究有一些非常有趣的发现,它实际上突出了一些潜在的脱节。主要结论是,工人们压倒性地希望AI工具来协助他们,而不是取代他们。他们非常重视透明度,了解AI的工作原理,以及与AI一起学习新技能的机会。

好的。协助,而不是取代。这是有道理的。你提到的脱节是什么?好吧,他们发现,例如,来自Y Combinator的约41%的初创公司专注于自动化工人自己认为优先级很低的领域。

嗯。那么,如果不是高优先级的事情,工人们希望自动化什么呢?主要是低价值的重复性任务。例如安排会议、数据输入,你知道,那些占用时间的乏味工作。他们的目标是腾出时间来专注于更重要、更引人入胜的工作。

研究人员甚至开发了这个叫做“人类能动性量表”的东西,他们发现,对于他们研究的近一半职业,人们更喜欢人类和AI之间的平等伙伴关系。有趣。今天有什么领域特别抵制吗?是的,也许不出所料,艺术和媒体专业人士对自动化的抵抗最强。只有大约17%的创意任务对AI辅助获得了积极评价。因此,为构建这些AI工具的公司发出的重要信息似乎很清楚。

我认为是这样。它确实强调了在工作场所中伦理AI设计必须是关于增强人类潜能,对吧?让人们更好地完成工作,提高生产力,甚至可能更充实。它不应仅仅是为了提高效率而自动化任务,尤其是在绕过工人们实际需要的东西时。

对。关注人性化的一面。好的,现在让我们从人类的影响转向AI业务和生产的高风险世界。我们最近看到了一些疯狂的交易,例如关于一家独资创业公司以8000万美元出售的故事。是的,这太不可思议了。这是找到正确利基的真正证明。这是以色列开发人员Shlomo的故事。

他创建了Base44,他称之为基于氛围的AI编码界面。基于氛围的?好的。(轻微地笑)是的,它基本上允许非程序员使用自然语言提示来构建应用程序。它只是起飞了。在三周内获得了约10,000名用户。主要只是口碑相传。而且他独自拥有整个公司。几乎是自力更生的。是的,他是唯一的股东。

这使得下一部分更加出色。当Wix收购他们时,他从这笔交易中给了他的八名员工2500万美元的奖金。哇,这太棒了。所以Wix收购了他们。是的。Wix计划将其Base44集成到其网站构建平台中。Shlomo显然认为他们是帮助扩展它的最佳合作伙伴。他只是在1月份将其作为副项目启动的。太神奇了。

那么,这样的故事告诉我们关于当前AI市场的信息是什么?好吧,它确实强调了这些较小的AI初创公司,特别是如果它们具有真正独特的用户体验或针对特定利基功能,它们正成为非常有价值的收购目标。大型企业公司正在收购它们以快速集成该专业能力。

表明创新仍然可以来自任何地方。绝对的。现在,说到大型公司采取行动,Meta似乎在AI人才争夺战中非常积极。他们显然试图以1000美元的价格收购Ilya Sutskiver的新公司。

320亿美元。这就是报告。是的。Meta显然试图收购Superintelligence,这是由OpenAI首席科学家Ilya Sutskiver共同创立的新AI企业。是的,所谈论的估值超过320亿美元。Sutskiver拒绝了。显然是这样。拒绝了收购尝试,据报道还拒绝了Meta单独努力直接将他招募到他们的团队中。那么Meta做了什么?只是放弃了吗?并非完全如此。

似乎B计划已经付诸实施。

此后,他们聘请了Safe Superintelligence的另外两位联合创始人Daniel Gross和Nat Friedman。他们还显然收购了其风险投资公司NFDG的股份。啊,好的。因此,如果您无法购买公司,那就雇用关键人员并投资他们的网络。差不多就是这样。它只是表明这些大型参与者多么决心以某种方式将顶级AI人才纳入其麾下。它确实强调了激烈的竞争,不是吗?人才争夺战不仅仅是一个流行语。一点也不。

我们看到这些针对公司或只是针对关键个人的数十亿美元的交易,特别是如果他们来自OpenAI或DeepMind等顶级实验室。对最佳人才的争夺现在绝对非常激烈。说到基础参与者,NVIDIA。我们都知道他们制造芯片,这就像AI淘金热中的镐和铲子。但他们也在建立这个安静的投资帝国,对吧?现在……

在其自身制造中使用人形机器人。NVIDIA在投资方面一直非常忙碌,支持整个AI生态系统中的数十家初创公司。芯片、机器人、基础模型,应有尽有。但这条最新消息绝对是一个转变。他们正在认真探索使用人形机器人来帮助制造他们自己需求量很大的AI硬件。人形机器人正在建造NVIDIA服务器。这感觉非常元,就像AI构建AI一样。它确实如此。

据报道,富士康(制造许多电子产品)和NVIDIA正在讨论在新工厂(位于休斯顿)部署这些人形机器人。这家工厂专门用于NVIDIA的AI服务器。这什么时候可能发生?

部署实际上可能很快就会完成。机器人可能会在明年第一季度开始工作,就在工厂开始生产NVIDIA的新GB300 AI服务器时。如果这得以实现,这将是NVIDIA产品首次使用人形机器人辅助制造。这也将是富士康首个在生产线上使用人形机器人的AI服务器工厂。那么潜在的影响是什么?这是制造复杂技术的未来吗?这可能是一个非常重大的转变。如果它有效,如果它高效且可扩展……

它可能只是开启了高科技制造的新时代。由AI驱动的机器建造的AI设计硬件,它可以彻底改变供应链。好的,让我们暂时回到可访问性方面,Adobe,

他们刚刚为其生成式AI工具Firefly推出了移动应用程序。是的,这对创作者来说是一大进步。Adobe正在直接在您的手机(iOS和Android)上提供其Firefly工具。因此,您可以在旅途中生成图像、文本效果等。因此,基本上使其更好地集成到日常工作流程中。没错。它使生成式AI更容易访问,更面向移动设备。Adobe似乎将其定位为您可以随身携带的日常创意伴侣。对。

好的,让我们进入最后一部分,AI的实际应用。看看AI在现实世界中出现的各种方式,有时非常令人惊讶。我想从一个很棒的AI造福人类的故事开始。在亚马逊深处捕捉处方错误。哦,这是一个很棒的故事。它确实展示了AI可以产生的积极影响。这是关于Samuel Andrade的故事。他是巴西偏远地区Caracarayi的一名药剂师。它很大,就像荷兰一样大,但只有大约22,000人。

那里的病人经常乘船旅行数天才能到达药房。Samuel过去总是不知所措,花费数小时只是为了交叉检查药物数据库中潜在的相互作用或错误,也许只是针对少数病人,而数十名病人仍在等待。这听起来压力非常大,并且对病人来说可能很危险。发生了什么变化?好吧,现在他得到了AI助理的帮助。它是由巴西非营利组织NoHarm开发的。

该软件基本上会为他标记潜在有问题的处方,帮助他更快地验证一切。它背后也有一个相当的故事。它是由一对兄妹Anna Helena(一名药剂师)和Henrik Dias(一名计算机科学家,也是No Harm的首席执行官)构建的。他们使用数千甚至数万个现实世界的药物相互作用、剂量错误、不良反应来训练他们的AI模型。太神奇了。那么,它对Samuel和他的病人到底产生了多大的影响?巨大的影响。

该软件可以非常快速地处理数百个处方,识别这些危险信号、相互作用、潜在的过量服用,并提供指向医疗资源的链接以支持每个警告。Samuel说它使他的能力提高了四倍。至关重要的是,自从他开始使用它以来,它已经发现了50多个错误,这些错误可能在其他情况下会被忽略。No Harm得到了谷歌、亚马逊、NVIDIA、盖茨基金会等机构的资助。

他们向巴西最贫困地区的公共卫生机构免费提供该软件。它现在大约在20个城市使用。它甚至帮助另一位农村医生避免了为那些长途跋涉来看病的病人开出危险剂量。

所以你很好地说,很多事情都逃过了我们的眼睛。该系统使我们能够更快地交叉检查信息。这确实是AI产生真正影响的一个有力例子,不是吗?绝对是。它展示了AI如何在资源有限的地方成为真正的生命线。它并没有取代药剂师的专业知识。它正在放大它,创建一个重要的安全网,在最需要的地方提高病人安全。好的,让我们再次改变方向。

到创意方面,但可能更具争议性的一面,Midjourney。

他们已经进入了AI视频生成竞赛,但他们是在一场大型法律诉讼的正中间进行的。是的,真是时机巧妙。Midjourney刚刚推出了V1,他们的第一个AI视频模型。它允许用户拍摄生成的或上传的图像,并将其动画化为一个简短的剪辑(大约5秒),可能扩展到20秒。您可以使用自动运动或提供诸如低运动或高运动之类的提示。好的,标准的AI视频内容。那么法律斗争的部分是什么?是关于他们用来训练它的数据吗?

没错。Midjourney的推出正值其正面临艺术家提起的重大版权诉讼之际。该诉讼特别将这项新的视频服务列为潜在的未来侵权问题。因此,法律挑战与其技术一起发展。那么,这对创意世界来说最大的收获是什么?我认为这是一个非常强烈的提醒,随着这项生成式视频技术变得更好和更广泛地使用,关于合理使用、版权、创意所有权等基本问题,

只会变得越来越响亮和复杂。这些法律斗争可能会塑造整个领域的发展方式。有道理。好的,现在展望未来,可穿戴设备和消费级AI。Meta正在与Oakley合作开发新的智能眼镜。似乎我们面部争夺战正在升温。同意。是的,Meta正在大力推动智能眼镜。他们已经推出了与Oakley合作的新系列,旨在将时尚与AI驱动的增强现实相结合。

有一款限量版型号HSTN,售价约500美元,其他款式将于今年夏天晚些时候推出,起价约400美元。是什么让这些与众不同?他们是否针对特定人群?他们似乎至少部分地针对运动员。

它们具有IPX4防水性能,这对于汗水和轻微雨水来说很好。他们说电池续航时间是当前Meta Ray腕带的两倍,并且可以以3K分辨率录制视频。此外,您还可以获得内置语音助手、相机功能、与Meta的整个AI生态系统的集成,而母公司依视路(Essilor Litsotica)则提供不同的镜框、镜片,甚至处方眼镜。因此,这不仅仅是一个小工具。这是一个严肃的平台游戏。绝对的。

这表明智能眼镜正成为消费级AI的主要战场。你有了Meta、苹果、谷歌,

他们都在争先恐后地将智能互联体验直接呈现在我们眼前。预计会看到更多这样的情况。好的,这里有一个来自中国的惊人数据。一对AI化身,虚拟网红,在不到一天的直播中创造了超过700万美元的销售额。这真是令人震惊,不是吗?仅仅七个小时的直播就获得了700万美元。这一业绩大大超过了许多人类网红。它确实展示了这些数字人物可以发挥的商业力量。

这对营销和人类网红意味着什么?感觉有点反乌托邦。它确实提出了一些重大问题,例如广告中的真实性问题。

如果人们不知道他们正在与AI互动,这是否可以?是的。然后是明显的潜在劳动力流失。人类网红会怎样?它迫使我们思考数字消费者心理学,人们如何与这些非人类实体建立联系。很明显,AI网红不仅仅是一个噱头。他们正在严重扰乱营销和娱乐业。是的。引人入胜且有点令人不安。

好的,另一个医学突破。来自台湾的一家公司Essar Glasses,他们推出了世界上第一张AI解剖图。没错。Sergo Glasses推出了这个使用AI可视化解剖结构的工具。它将增强现实与实时诊断数据相结合。它主要设计用于手术培训和规划。

想象一下,能够与详细的3D解剖模型(几乎就像全息图一样)进行交互,并与真实数据集成。这是一种全新的学习和准备手术程序的方式。因此,这可能会真正改变医学教育,甚至可能改变手术本身。有可能,是的。这表明医学教育甚至外科手术实践正朝着重大的数字化转型迈进。

使用空间计算、AR、AI,此类工具可以极大地提高精度、增强理解,并为学员提供前所未有的复杂解剖信息访问权限。

好的,我们的时间差不多了,但让我们快速浏览一下其他有趣的AI新闻。当然。快速地说。Perplexity现在允许您生成简短的VO3视频,并配有音频,只需在社交媒体(如TwitterX)上标记它们即可。非常整洁。OpenAI为ChatGPT推出了录音功能。它可以捕捉来自会议或头脑风暴的音频,然后对其进行总结和转录。这可以节省大量时间。哦,这听起来很有用。是的。

在药物发现方面,由NVIDIA支持的Sandbox AQ发布了一个巨大的数据集GaseAR,其中包含约520万个合成的蛋白质药物分子结构,以帮助训练AI发现新药。最后,马萨诸塞州总医院布里格姆医院的研究人员开发了一种名为AI-Seqy的AI工具。它可以非常快速地读取胸部CT扫描,以寻找钙沉积物(这是心脏病风险的指标),帮助医生更快地发现问题。

哇。好的,这是一次相当深入的探讨。我们今天涵盖了大量的领域,从AI安全和非常严重的生物武器协议,到商业方面的人才争夺战和机器人制造,一直到AI在亚马逊拯救生命、创建视频、为智能眼镜提供动力,甚至超过人类网红的表现。它确实展示了AI如何触及几乎所有事物。速度是无情的。确实如此。

AI不再仅仅是一个抽象的技术概念,对吧?它是一种极其动态的力量,正在积极地重塑国家安全。

全球各行各业,是的,我们的日常生活,其方式是极其多样化和具有影响力的。保持知情比以往任何时候都更加重要。绝对的。并且考虑到所有这些AI可能正在捕捉灾难性风险,但也可能改变我们的思维方式,AI辅助医生,但也创造虚拟名人。这让你感到好奇,不是吗?随着这些进步加速,它们如何重塑不仅仅是我们的工作或行业,而是我们对作为人类的意义以及在这个快速发展的环境中学习的意义的认知?绝对值得深思。

请记住,对AI创新的这次深入探讨是AI Unraveled系列的一部分,全部由Etienne Newman为您带来,致力于帮助您浏览这个领域。如果您正在考虑获得AI认证,提升您的职业生涯,请务必查看Etienne的预备书籍。再次强调,这是Azure AI工程师助理、Google Cloud生成式AI领导者认证、AWS认证AI从业者学习指南、Azure AI基础知识,

以及Google机器学习认证。它们都可以在djamgettech.com上找到。对。

另外,不要忘记Etienne Newman的工具包。它被称为AI Unraveled Builders Toolkit。它包含丰富的资源、AI教程PDF、更多认证指南,甚至音频和视频教程,可以真正帮助您动手并开始使用AI进行构建。书籍和工具包的所有链接都在节目说明中。可以在djamgate.com轻松找到。非常感谢您今天加入我们的深度探讨。是的,谢谢。并且请务必点赞并订阅AI Unraveled,这样您就不会错过我们对人工智能迷人世界的下一次深入探讨。

人工智能迷人的世界。