We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Ep 502: Sustainable Growth with AI: Balancing Innovation with Ethical Governance

Ep 502: Sustainable Growth with AI: Balancing Innovation with Ethical Governance

2025/4/11
logo of podcast Everyday AI Podcast – An AI and ChatGPT Podcast

Everyday AI Podcast – An AI and ChatGPT Podcast

AI Deep Dive AI Chapters Transcript
People
J
Jordan Wilson
一位经验丰富的数字策略专家和《Everyday AI》播客的主持人,专注于帮助普通人通过 AI 提升职业生涯。
R
Rajeev Kapur
Topics
@Jordan Wilson : AI 的应用具有创新性和风险性,我们需要在利用 AI 技术进步的同时,关注数据安全和治理问题,避免因不当使用 AI 而造成损失。 在使用 AI 工具时,我们需要仔细阅读服务条款,了解数据在传输和使用过程中的安全性和隐私性,并关注治理问题,而不是仅仅关注技术更新和竞争优势。 我们需要在 AI 创新和伦理治理之间取得平衡,既要利用 AI 技术的优势,又要避免因忽视伦理和治理而造成的风险。 @Rajeev Kapur : 企业需要建立跨职能的 AI 伦理委员会,制定 AI 模型审查机制,并将高管薪酬与伦理成果挂钩,以确保 AI 的伦理和安全使用。 AI 系统会继承和放大数据中的偏差,企业需要积极应对,通过定期进行第三方审计、检查训练集和模型、构建模型的可解释性以及与多元化社区合作等方式来减少偏差。 构建 AI 伦理委员会应该包括公司内部和外部的利益相关者,例如法律人士、科学家、伦理学家、技术专家和最终用户,以确保 AI 的开发和应用符合伦理规范。 企业应该将数据视为增长机遇,而非成本,并学习如何提炼和利用数据,同时保障数据隐私和伦理。 企业应该将数据隐私和伦理作为产品特性,而非成本,并通过提供透明的使用日志和用户控制功能来增强用户信任。 企业需要定期审查 AI 项目,并建立监控和反馈机制,以确保 AI 的安全和合规使用。 AI 治理需要全球合作,否则难以有效实施。企业需要自我监管,并积极适应监管变化。 深度伪造技术既有益处也有风险,需要进行监管。企业需要采取措施来防止深度伪造技术的滥用,例如添加水印等。 企业领导者应该以远见卓识、伦理道德和勇气来引领 AI 的发展,并保护消费者和最终用户的利益。

Deep Dive

AI 发展:在创新与伦理治理间寻求平衡

我最近与 Rajeev Kapur(1105 Media 总裁兼 CEO)进行了一次对话,探讨了 AI 发展中一个至关重要的议题:如何在追求 AI 创新和技术进步的同时,有效地管理其风险,特别是伦理和治理方面的风险。

我们一致认为,盲目追求 AI 的规模化发展是鲁莽的。当前,许多公司竞相扩大 AI 的应用规模,专注于获取更多数据、开发更快的工具以及进行更炫目的发布。然而,一个被忽视的关键问题是:**缺乏治理的增长并非创新,而是风险的累积。**忽视伦理道德,就如同在流沙上建立帝国,最终将面临崩塌的风险。

如何平衡 AI 创新与伦理治理? 这并非易事,但并非不可能。Kapur 强调了建立一个跨职能的 AI 伦理委员会的重要性。这个委员会不应仅仅局限于公司内部人员,还应包含外部利益相关者,例如法律专家、科学家、伦理学家、技术专家以及最终用户。这个委员会的职责是审查所有 AI 模型,确保其符合伦理规范,并对 AI 应用的潜在风险进行评估。 更进一步,他建议将高管的薪酬与 AI 的伦理成果挂钩,以此激励公司将伦理治理置于优先地位。

我们还讨论了数据在 AI 发展中的关键作用。Kapur 指出,许多公司将数据视为成本,而非增长机遇。他认为,数据是新的石油,但需要“炼油厂”来提炼和利用这些数据。 企业需要投资于数据科学,学习如何有效地利用数据,同时确保数据隐私和安全。 将数据隐私和伦理作为产品特性,而非成本, 这将增强用户信任,并成为企业的竞争优势。

此外,我们还谈到了 AI 系统中的偏差问题。AI 系统会继承和放大数据中的偏差,因此,企业需要积极采取措施来减少偏差,例如定期进行第三方审计、检查训练集和模型、构建模型的可解释性,以及与多元化社区合作。

深度伪造技术 也成为了我们讨论的焦点。这项技术既有积极的应用(例如数字孪生),也有潜在的风险(例如虚假信息和欺诈)。Kapur 认为,深度伪造技术的风险可能与核武器一样严重,需要进行严格的监管。企业应该采取措施来防止深度伪造技术的滥用,例如添加水印等。

监管方面, 我们都认为,全球合作至关重要。单一企业或国家的努力难以有效地应对 AI 发展中的伦理和治理挑战。企业需要进行自我监管,并积极适应不断变化的监管环境。

最终,Kapur 给出了一个重要的建议: 企业领导者需要以远见卓识、伦理道德和勇气来引领 AI 的发展。 他们需要认识到,在 AI 创新与伦理治理之间取得平衡并非易事,但这却是企业长期成功的关键。 那些能够有效地管理 AI 风险,并将其隐私和治理措施作为竞争优势的企业,将最终在未来胜出。 这并非仅仅是技术问题,更是领导力、责任感和远见的问题。

Shownotes Transcript

这是 Everyday AI Show,一个日常播客,我们简化 AI 并将其力量带到您的指尖。每天收听,获取提升您的职业、业务和日常生活的实用建议。利用 AI 有点像走钢丝,对吧?就像你想创新一样。你想,你知道,利用 AI 和大型语言模型提供的最新和最伟大的东西,然而……

代价是什么?有没有人在那里阅读,你知道,所有这些你和你团队想要利用的随机 AI 工具的服务条款?一旦你将数据发送给这些大型 AI 技术公司之一,你知道会发生什么吗?你关心治理吗?或者你真的只关心跟上进度、领先一步并使用大型玩家的最新 AI 更新吗?

我认为这些都是值得讨论的重要对话,而这正是我们今天在 Everyday AI 上要做的。大家好!我的名字是 Jordan Wilson,我是主持人,而这个节目,是为你们准备的。Everyday AI 是您的每日直播播客和免费每日新闻通讯,帮助我们所有人不仅跟上 AI 领域发生的事情,而且了解我们如何领先一步,发展我们的公司和职业。所以它从这个直播和播客开始,但是……

那就是你学习的地方。但如果你想利用它,你需要在我们的网站上这样做。所以,如果你还没有,请访问 youreverydayai.com。注册免费的每日新闻通讯。是的,你可以去收听、观看和阅读数百个反向链接……

我采访了一些世界领导人的剧集,主题涵盖各个领域。但我们还将回顾今天对话中宝贵的见解和要点。所以一定要去看看。技术上是预先录制的。所以,如果你正在寻找 AI 新闻,那也会在新闻通讯中。好了。

闲聊够了,各位。我很期待今天的谈话。所以请帮我欢迎来到 Everyday AI Show。我们有 1105 Media 的总裁兼首席执行官 Rajiv Kapoor。Rajiv,非常感谢你加入 Everyday AI Show。Jordan,很荣幸。我很高兴来到这里,我希望人们能获得真正的好处。

好的。我迫不及待地想谈谈这个。但在我们谈论创新和治理之间的这种平衡行为之前,Rajiv,你能先告诉我们一点,什么是 1105 Media?并告诉我们你在 AI 领域的背景。是的。所以 1105 Media,我们是一家 B2B 营销媒体技术公司。我想最好的描述方式是,我们就像 Politico,但只针对 B2B 技术。

所以我们做的事情从面对面的活动到潜在客户生成,到新闻通讯,到网络研讨会,到那些事情。我们涵盖大数据。我在 1105 旗下有一家公司。有一家公司叫 TDWI。这是我的公司之一。它是全国最大的大数据分析和 AI 培训公司之一。太棒了。所以人们可以访问 tdwi.com 并查看它。然后我们还有另一家公司从事网络和物理安全媒体……

以及另一家从事企业技术的公司的营销。所以那里的客户就像亚马逊网络服务、谷歌云或 Azure 那样的人。他们来找我们说,嘿,我们想获得更多 XYZ 的开发者。你能帮我们把产品推广给这些人吗?所以基本上,这就是我们作为中间人的角色,基本上帮助买家与卖家建立联系,这就是我们在那里做的事情。我们覆盖的一个大合作伙伴是微软,我们在做一些事情方面与他们合作。我们在微软堆栈中做了很多事情。

而且我们将在 8 月份在微软总部举办规模最大的非微软活动和微软总部活动。所以我们将在微软总部举办我们的 VS Live 活动,届时将有大约 700 到 800 人参加,围绕微软正在发生的事情。太棒了。这就是 1105 Media 网站。现在来回答我的 AI 世界的问题,我已经参与 AI 很长时间了。大约 11 年多前,实际上卖掉了……

一家小型机器学习领域的 AI 初创公司。我们正在构建用于音频技术的 AI 算法。

最初,当我成为那家公司的首席执行官时,它是由风险投资支持的。我们正在制造芯片和处理器,但我们很快发现,电视制造商、手机制造商,他们不会为了另一个芯片而重新设计他们的电路板。他们想要更少的芯片,对吧?所以我们实际上将算法从芯片中取出,构建并基本上构建了 AI 算法,我们用它来测试声音音频质量。我们称之为 3D 声音。现在你听到的是空间音频。

事实上,就像,你知道,如果你,如果你,如果你在假期在美国看到,有一个苹果的广告,女儿得到一把吉他,爸爸说,他听不见她演奏。然后他们给他新的 AirPods,他戴上后就能听到她演奏了。这就是我们构建并使用 AI 的技术。所以我的公司被卖掉了。然后我去麻省理工学院学习 AI 课程,我在麻省理工学院获得了双 AI 证书。然后,

在 1105,在过去的八、九、十年里,我们一直在关注 AI 的机器学习方面。在过去两年里,生成式 AI 显然是非常新的东西。所以我们一直在关注它。我还记得 ChatGPT 推出的那天早上,我从床上跳了起来。我还记得看着我的手机说,哦,我的上帝,这将是……

自电力以来最伟大的事情,对吧?改变世界。最初我遇到了一些人的怀疑,但我认为我已经证明自己是正确的。但是,你知道,但在短短 24、48 小时内,我想说,我要写一本关于这个的书。我写了一本名为《AI Made Simple》的书,它在亚马逊上大约七个月都是排名第一的 AI 书。我认为它是在 2023 年 5 月或 6 月出版的。是的。所以,

是的。然后我有了第二版,现在我正在制作第三版,现在还在制作另一本书,内容围绕着为高管提供提示和 AI。总之,这就是我与它的经验。而且,你知道,我是一个技术人员,你知道,我在戴尔电脑公司担任高管很长时间了。所以我的整个职业生涯都一直在科技界。在此之前,我在一家你可能记得的旧电脑公司 Gateway 工作过。所以是的。

是的。这就是我的技术和 AI 背景。喜欢。那么让我们跳到最后,然后我们可以稍微展开一下,Rajiv。但是,当我们看到这种创新和治理之间的平衡行为时,公司希望利用每一个新的模型更新,每一个角落里闪闪发光的 AI 工具,每个人都想跳进去。那么,你如何平衡跟上进度并使用所有这些 AI 模型,以及……

道德方面,治理方面?企业如何做到这一点?你知道,这是一个非常好的问题。我认为这是一个人们现在正在学习、理解和意识到他们实际上必须投入一些努力和精力的地方。一部分原因是我在一个名为 Luminova 的 AI 道德和治理公司的董事会任职。基本上,它就像看守者,监视着看守者。所以它基本上是一个主要监视 AI 的 AI 平台。但是如果你考虑……

你知道,如何将伦理视为,你知道,与确保不阻碍创新相同,你必须付出一些努力,并开始创建某种东西,无论是跨职能的 AI 伦理委员会,缺乏更好的术语,就像你如何培养团队以优化速度和规模?但是你如何使用伦理团队来保护长期运营许可证并为你的客户群创造价值,对吧?那么这会是什么样子呢?它可能包括……

法律人员、科学家、伦理学家、技术人员、你的产品的最终用户,就像一个核心解决方案一样。然后你如何着手强制审查你可能正在使用的所有不同的 AI 模型?然后一件事是,我认为一个机会可能是根据道德结果和担忧来将一些补偿与高管联系起来,而不仅仅是纯粹的基于收入和 EBITDA 的解决方案。所以我认为这是一个好的开始。另一个是,

理解和意识到,我们所知道的 AI,你所知道的,听众所知道的,它有一些偏见。你正在使用的 AI 系统、LLM 将继承并放大这些偏见。所以除非我们一直在努力对抗它,就像每一步一样,我们正在进行定期的第三方审计,我们正在查看训练集、模型,我们正在为模型构建某种可解释性。

有没有办法与不同的社区合作来观察正在发生的事情?所以这就像我认为我会从这里开始,考虑如何平衡这一点。

所以,你知道,很多时候,我们合作过的公司里的人,他们总是四处张望,然后说,谁应该在房间里?对。就像你谈论这种 AI 伦理委员会或,你知道,需要围绕那张桌子的人,因为有时,你知道,人们正在关注 IT 或 CISO,就像,你知道,有时只是,哦,C 层或人力资源、营销。

营销,对吧?当我们谈论伦理团队或需要参与就 AI 使用做出这些伦理决策的人时,谁需要围绕那张桌子?看看圣诞节期间 Sam 和 Open AI 集团发生的事情,你接到了电话,然后你回来了,你知道,所有这些事情,对吧?

如果你记得的话,那个非营利董事会,他们章程的一部分就是成为那种伦理委员会构成,对吧?现在他们没有参与这场权力斗争。但我认为最终的答案是,如果你想正确地做到这一点,你需要拥有,你必须考虑不仅仅是你公司中的利益相关者。我不是说你必须赋予这些人权力,但是你应该,你应该赋予这些人表达他们……

他们的意见、他们的担忧,无论他们是谁。也许你有一两个轮换每六个月进入这个董事会的基层用户。也许你可能会考虑,是否有你的一个客户的技术人员?这可能是有道理的。例如,如果你正在打开一只眼睛,也许你最大的客户之一是……

编造一个,比如某个大型医疗组织,对吧?然后让我们让该组织的人力资源主管参与其中,因为它是章程和所有这些事情。在医疗方面的 AI 方面有很多机会,正如你所知,这可能是有道理的。法律学者等等。所以我认为这将是公司内部的三到四名核心人员以及公司外部的三到四名人员的组合,他们可以……

可以走到一起,与首席执行官、团队和董事会(常规董事会)合作,真正理解并从那里开始。这就是如果我是我,我会如何看待这个问题。但我可以想象,并非每个人都会像我一样,所有这些。但这确实让我担心。我认为你听到越多关于深度伪造之类的事情,我认为越多……

从长远来看,我认为,你知道,我在节目开始前和你谈过。我认为长期获胜者,那些能够真正弄清楚如何同时做好这两点的人。所以我确实想稍微深入探讨一下深度伪造,但我认为值得更深入地探讨数据方面,对吧?因为我认为,你知道,说到微软,你之前提到了微软,你知道,他们的首席执行官萨蒂亚·纳德拉几个月前说,你知道,LLM 是商品,对吧?我认为……

在过去一两年里,我们逐渐意识到,使用大型语言模型、生成式 AI 不会成为你公司的护城河,对吧?就像与你正在竞争的其他人竞争一样,它实际上涉及到你的数据。那么公司如何才能真正利用他们的数据将自己与众不同,而且,我的意思是,我认为这是……

在安全措施甚至伦理以及你如何使用这些数据方面,最容易被忽视的部分之一。所以让我们谈谈这两方面。所以在过去的 20 到 24 个月里,我大概和 3000 位首席执行官谈过。在我做演讲之前,我问他们一个问题,我说,你们有多少人对自己的第一方数据有很好的掌握?不是很好的掌握,而是很好的掌握。我能数出两只手有多少只手举了起来。

对。因为我认为发生的事情是,首席执行官将数据视为一种支出,而不是一种增长机会。我认为他们看到了资本支出。我认为他们看到了现金流出。我认为他们没有看到他们如何能够,如何能够将其转化为真正有价值的东西。所以对我来说,对你来说,以及可能对你的许多听众来说,数据就是新的石油。

但缺少的是位于数据之上的炼油厂,将其转化为某种东西,对吧?你不能只用原油做任何事情。你需要炼油厂将其提炼成某种东西。

数据也是如此。你必须了解你的数据。你必须对你的数据有正确的实践。你必须关注数据隐私。然后你必须了解你如何挖掘这些数据?你如何提炼这些数据以利用它来发挥你的优势?坦率地说,如果你能弄清楚这一点,我会告诉你,仅仅通过这一步,这可能有点像机器学习,可能短期内是退化的 AI,你实际上可能只是建立了你认为你无法建立的护城河,因为没有其他人这样做。

所以,如果你没有数据科学家在职,如果你没有在弄清楚你的数据问题上花费一些资本支出,你最终会落后。所以花一些时间和精力来了解你的数据。这就是我会首先从这里开始的地方。现在,关于隐私方面,还有一件事,问题是,如果你自己这样做,而且你做得马虎,那么结果就会是垃圾进,垃圾出,对吧?你将不得不真正……

理解你如何才能做到这一点,对我来说,挑战是如何将你的隐私变成一个真正的差异化因素,现在有些人认为苹果可能是隐私方面的典范,我喜欢他们对他们的做法,当然他们的解决方案不断推出,无论如何,我宁愿他们推出它,推迟它,然后推出一些苹果智能的糟糕产品,但对我来说,我认为如果他们是黄金标准,并且 LLM 将在手机上本地运行,所有这些都会有更多安全性……

然后这会最大限度地减少数据收集。它让用户拥有更多控制权和退出能力。可能能够真正拥有真正良好的透明使用日志,我想,缺乏更好的术语理解。所以真正的机会,我认为,是如何将它变成一个特性?你如何将你的隐私和你的伦理变成你的产品的一个特性,而不是……

可能会花费你一些钱的支出?你如何将其变成一个特性,帮助你驱动一切?所以让我们,让我们更深入地探讨一下……

治理,对吧?我认为这个词有时就像,哦,你安全的 AI 宾果卡,对吧?我需要说数据隐私,我需要说安全措施,我需要说伦理。只要我说这些话,人们就会点头,就像,好吧,我们正在以正确的方式使用 AI。当我们谈论的不只是治理,而是将……

治理以一种合乎道德的方式联系起来时,这实际上意味着什么。让我们来分解一下。你还在为了弄清楚如何利用 AI 发展你的业务而兜圈子吗?也许你的公司已经使用大型语言模型一年或更长时间了,但无法真正获得牵引力来找到生成式 AI 的投资回报率。嘿,我是 Jordan Wilson,这个播客的主持人。

像 Adobe、微软和英伟达这样的公司已经与我们合作,因为他们信任我们在教育大众如何利用生成式 AI 取得领先方面的专业知识。一些美国最具创新性的公司聘请我们来帮助他们制定 AI 战略,并培训他们数百名员工如何使用生成式 AI。所以无论你是在寻找针对数千人的 ChatGPT 培训,

还是只需要帮助构建你的前端 AI 战略,你也可以与我们合作,就像世界上一些最大的公司一样。访问 youreverydayai.com/partner 与我们的团队联系,或者你可以点击我们网站的合作伙伴部分。我们将帮助你停止在 AI 领域兜圈子,并帮助你的团队领先,为生成式 AI 建立一条通往投资回报率的直线路径。

听着,我的意思是,我认为这是,你是否正在审查你的主要 AI 计划?你是否了解你的 AI 产品路线图、合作伙伴关系?你知道,他们,他们是如何联系起来的?你知道,你是否正在领导,你是否正在领导这种,我喜欢称之为开明的领导者视角,对吧?在这种情况下,这些事情很重要,你知道,我之前提到过,你有一群不同的人在房间里帮助你理解和意识到你正在部署什么样的 AI。

你知道,你是否对你的模型有真正良好的可解释性,例如?你知道,你是否对你的模型有监控和反馈?我认为所有这些事情都在那里。你知道,我认为有两件事。第一件事是,你是否真的,当你拥有你的 AI 模型时,你是否真的在进行最坏情况的测试?

我认为需要做一些这样的事情。我认为你需要添加,就像,我认为微软、谷歌会花钱雇佣黑客来攻击他们的软件。你必须基本上做同样的事情。我认为这些是一些我认为绝对有必要开始考虑治理的事情,以及你如何将其构建进去,然后……

它理解并意识到它可能永远不会完成。然后你如何继续迭代和学习,然后给予反馈循环和机制?我认为所有这些都是。我讨厌这么说,但我不知道公司,尤其是那里的 LLM,是否真的会在这方面投入大量努力和精力,除非这是在全球范围内进行的事情。因为我认为他们最不想做的事情是做一些会把他们的胳膊绑在背后的事情。

在创新方面。因为如果他们这样做,他们很可能会最终削弱他们创新的能力和增长。这可能会导致……所以再说一次,我只举一个例子。如果 OpenAI 说,是的,我们会这样做,我们将发布 AI 影响报告。我们将研究智能法规,我们将……

我不知道。我们将为人们创建我们自己的权利法案,或者为 AI 使用创建共享行业标准。我们将自己做这件事。我们将自我监管。我们将自我治理。我们将自己做。但除非 Meta、谷歌和 X/Grok 以及其他人,Hugging Face 中的一半人或其他任何人,除非他们也站出来说,去做,否则将很难做到。而且……

所以,听着,我的意思是,我和你之前谈过,就像,你知道,未来,很难。如果美国不是建立在那些说太难了的人身上,那么他们就永远不会做到,对吧?这将是困难的。如果是这样的话,如果太难了,美国今天就不会存在了,对吧?所以,你知道,那么你如何做到这一点呢?所以技术人员、首席执行官、创始人、企业家,那里有人,你知道,

你知道,他们会想出如何做到这一点,你知道,他们会想出如何接受这一点,并想出如何同时做到这两点。再说一次,我回到,你知道,人们会想出如何构建它。他们会做得更好。他们会带来道德和更聪明的人。

如果你对 AI 的黑暗面有挑战、担忧,就像我们之前谈到的那样,比如深度伪造之类的事情,那么就做点什么吧,并以一种站出来说我们正在采取行动的愿景和目标来领导。就是这样。哦,顺便说一句,我有一种感觉,第一家真正做到这一点的公司将获得很多积极的关注和反馈,他们实际上可能会看到他们的采用机会和解决方案的增长。可能会有,但我告诉你。

所以我想我们不能不谈,你知道,当谈到围绕 AI 的创新和伦理时,你不能不谈论深度伪造,对吧?因为我认为在……之间有一条非常明确的界限,你知道,你的数字孪生,你知道,人们将其用于企业用途,然后只是未经授权的深度伪造,对吧?

现在使用起来非常容易,对吧?任何拥有 10 分钟和几美元的人都可以制作出令人信服的东西,这可以真正愚弄很多人。你对数字孪生的创新方面以及企业公司已经使用它们一段时间了,以及深度伪造、欺骗、虚假信息和错误信息的缺点的看法是什么?你对这种创新与啊,这很冒险的看法是什么?

看,我的意思是,你知道,互联网是,是有风险的。互联网有好的一面,也有坏的一面。社交媒体有好的一面,也有坏的一面。人工智能的好消息是,每个人都可以使用它。人工智能的坏消息是,每个人都可以使用它。对吧?这就是事实。所以,任何时候有好东西,就会有坏东西。你知道,人生的阴和阳总是存在的。我只是认为公司……

那些真正领导这项工作的人需要做得更好,我相信他们拥有这项技术,你可能更了解一些,你刚从GTC回来,除非那里有什么东西

我认为公司有能力为深度伪造的东西加水印。当有人可以获取你的声音或我的声音10或11秒,把它放在11圈里,复制我们的声音,并说,做一些我们从未做过的事情时,我真的很担心社会。它可能会损害我们的声誉,我的,你的,听众的声誉。有人拿你女儿的脸,把它放在别人的身体上

那是不幸的,对吧?或者发生了什么事,或者你现在听到的故事,对吧?我不知道你是否听说过香港那位首席财务官的故事。所以,你知道,香港一家金融机构的员工收到了一个深度伪造的邀请,参加了Zoom会议,基本上是一个深度伪造的首席财务官和一个深度伪造的控制器,说服他汇款2500万美元,因为它看起来和听起来都像首席财务官。那是他的老板。他就像,好吧,好吧,老板,我会做的。你知道,然后你听到这个故事是怎么

你知道,中西部有一位学校校长。我不知道你是否听说过这个故事,但在中西部有一位学校校长训斥了他的一个老师。这位老师很生气,制作了一个他使用N字的深度伪造视频,说这不是他,对吧?但幸运的是,这个人与联邦调查局有某种联系,联邦调查局介入调查,他们发现这是一个深度伪造视频,他们能够追溯到被他训斥的人。所以,你知道,

不是每个人都能做到这一点。然后你听说过Character AI以及那个可怜的孩子发生了什么事,你知道,我不想深入讨论,因为它会让我难过。但是,你知道,所以这确实是一个风险和挑战。坦率地说,这方面的责任必须落在YouTube上,必须落在Meta Instagram上。它必须落在Snap或任何其他人身上,或者,你知道,X,你知道,真正监管这些事情。这对社会和人类来说更好。而且,你知道,每个人都容易受到影响。因为它非常私密,

对我来说,深度伪造可能,我用这个说法可能有点夸张,

但对我来说,我认为深度伪造可能和核武器一样糟糕。你知道,所以必须,我认为必须对深度伪造进行某种程度的监管。我的意思是,这几乎就像创建人工智能,你知道,人工智能机构用于信息追踪等等,对吧?所以,在某些时候必须有一些东西,但我们会看到。我们会看到会发生什么。我希望

我们确实有一位相当有影响力的人工智能人士与总统关系密切。所以希望他能够真正解决这个问题,我希望,我们会看到事情会如何发展。但这确实是一个令人担忧的问题,每个人都应该注意它。

好的。所以,Rajiv,我们在今天的谈话中涵盖了很多内容,从公司如何使数据成为其差异化因素,如何建立道德人工智能对齐,甚至还谈到了深度伪造。但在我们结束之前,对于试图在人工智能创新和道德方面之间走钢丝的商业领袖来说,你最重要的一个收获或建议是什么?我之前提到了,我不想回到五、六分钟前我说的话,但是

仅仅因为它很难并不意味着不应该去做。现在是时候让这个领域的首席执行官和领导者真正以一套愿景、道德和坦率地说,勇气来领导,真正反对现在正在发生的事情的常态,并真正从前面领导,因为这就是他们获胜的方式。我坚信,那些弄清楚如何管理和解决这个问题,并真正提出这个问题的公司

隐私的概念和治理的概念,真正理解和保护消费者、最终用户,我认为他们最终会在未来获胜。

我认为这是一个很好的建议,也是一个非常重要的对话,尤其是在我们周围存在所有这些发展、监管和所有这些不确定性的情况下。我认为今天的谈话很重要。所以,Rajiv,非常感谢你抽出时间参加Everyday AI Show。我们非常感谢。

我很荣幸。谢谢,朋友。嘿,提醒一下,大家,我们涵盖了很多内容。如果你错过了什么,别担心。它将在我们的时事通讯中。所以,如果你还没有,请访问youreverydayai.com。注册免费的每日时事通讯。感谢您的收听。希望明天和每天都能看到你们回来收听更多Everyday AI。谢谢大家。

这就是今天Everyday AI节目的结束。感谢您的收听。如果您喜欢这一集,请订阅并给我们评分。这有助于我们继续前进。要获得更多人工智能魔法,请访问youreverydayai.com并注册我们的每日时事通讯,这样您就不会落后。去打破一些障碍,我们下次再见。

We're sunsetting PodQuest on 2025-07-28. Thank you for your support!

Export Podcast Subscriptions