We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode How a Human-Centered Approach is Building Trustworthy AI

How a Human-Centered Approach is Building Trustworthy AI

2021/11/18
logo of podcast Smart Talks with IBM

Smart Talks with IBM

AI Deep Dive AI Chapters Transcript
People
C
Christina Montgomery
S
Seth Dobrin
Topics
Seth Dobrin: 对AI伦理和信任的关注并非始于AI技术发展初期,而是随着AI应用于真实场景中,特别是涉及到偏见和社会公平问题时才逐渐凸显的。最初对AI的信任主要关注其结果的准确性,但随着AI技术的发展和应用场景的扩展,人们开始关注AI在处理偏见、公平性等问题上的表现。例如,在抵押贷款中,基于邮政编码的算法曾导致对某些种族人群的歧视。近年来,社会正义运动的兴起也加速了人们对AI伦理和信任的关注。 Seth Dobrin: 在AI应用中,尤其是在涉及个人隐私的场景下,需要明确界定哪些行为是可接受的,哪些是不可接受的,并对模糊地带进行讨论和决策。例如,在疫情期间,使用面部识别技术检测体温,以及使用接触追踪技术,都涉及到伦理和隐私问题。IBM的AI伦理委员会在这些问题上进行了深入讨论,并制定了相应的规则和指导方针。 Seth Dobrin: AI领域需要多元化和共享责任原则,这不仅是道德要求,也是为了获得更好的AI系统结果,因为多元化的团队能够更好地理解和解决社会问题。缺乏多元化会导致AI系统产生偏见,例如,一个主要由男性组成的团队开发的招聘算法可能会歧视女性求职者。 Seth Dobrin: IBM通过开源AI技术工具包,并在此基础上构建增值功能,来促进AI技术的公平、可解释性、稳健性和隐私保护。AI与传统软件不同,它会随着时间的推移不断学习和调整模型,因此需要持续监控AI系统的公平性、可解释性、稳健性和隐私保护等方面。 Seth Dobrin: 未来AI发展趋势:神经符号推理技术将提升AI的可解释性和透明度;AI将更多地被用于增强人类能力,而非取代人类工作;AI应用将更加注重以人为本,并提升人们的工作效率和满意度。神经符号推理技术能够让AI像人类一样进行推理,从而避免AI产生有害的言论或行为。 Christina Montgomery: IBM的AI伦理委员会在她的加入后,从一个单纯的讨论机构转变为一个拥有决策权,并能整合公司各方利益相关者意见的执行机构。委员会的成员来自公司各个部门,包括法律、研发、人力资源等,这使得委员会能够从多个角度审视AI伦理问题。 Christina Montgomery: IBM在应对COVID-19疫情期间,在AI技术应用方面,并非只关注技术的可行性,更注重伦理考量和公司社会责任,例如在疫苗护照和免疫证明等技术应用上,优先考虑公司是否愿意参与,而非仅仅考虑技术上的可行性。 Christina Montgomery: 良好的AI治理机制能够加速AI技术应用,而非阻碍其发展,关键在于制定清晰的规则和指导方针,明确哪些行为可以做,哪些不可以做。IBM的AI伦理委员会制定了明确的规则和指导方针,帮助公司员工在AI应用中遵循伦理原则。 Christina Montgomery: IBM通过“设计伦理”的方法,将伦理原则融入AI的整个生命周期,从概念阶段到部署阶段,以减少偏见并确保AI的公平性。 Christina Montgomery: IBM在AI伦理方面的实践方法相对独特,它采取了一种整体的、跨学科的方法,并致力于将这种方法开源共享,以推动整个行业的AI伦理发展。 Christina Montgomery: 政府在AI监管方面正在追赶企业,但企业已经开始主动制定并实施AI伦理规范,并积极向政府提供政策建议。 Christina Montgomery: 公众舆论对AI应用的影响力日益增强,甚至超过政府监管,企业需要同时关注公众和政府的反应。IBM在AI应用中,除了考虑法律法规,也注重公众舆论的影响,并根据伦理原则做出决策。

Deep Dive

Chapters
Malcolm Gladwell introduces the episode and discusses IBM's approach to building trustworthy AI with Christina Montgomery and Dr. Seth Dobrin.

Shownotes Transcript

在 AI 中建立信任和透明度不仅仅是业务需求,更是社会责任。在本期 Smart Talks 中,Malcolm 与 IBM 首席隐私官兼 AI 伦理委员会联席主席 Christina Montgomery 博士和全球首席 AI 官 Seth Dobrin 博士讨论了 IBM 的 AI 方法,以及它如何帮助企业改变他们与公平且能够解决偏差的 AI 系统合作的方式,从而使 AI 能造福所有人,而不仅仅是少数人。这是 IBM 的付费广告。了解有关您的广告选择的更多信息,请访问 https://www.iheartpodcastnetwork.com 查看 omnystudio.com/listener 以获取隐私信息。</context> <raw_text>0 哈喽,哈喽。我是马尔科姆·格拉德威尔。我想告诉你们普希金工业公司正在推出一个关于 1936 年奥运会的新系列节目。阿道夫·希特勒的奥运会。法西斯主义、反犹太主义、种族主义、崇高的奥运理想、怯懦的私利、赤裸裸的野心、幻想、妄想,所有这些都在通往历史上最具争议的奥运会的漫长而充满争议的筹备过程中发生了碰撞。德国人上演了一场宣传秀,而美国也对此表示赞同。为什么?

本季的《修正主义历史》讲述的是奥运会背后的故事。您可以在任何收听播客的地方收听本季的《修正主义历史》。如果您想在节目公开发布之前收听,请在 Apple Podcasts 或 pushkin.fm/plus 上订阅 Pushkin Plus。

哈喽,哈喽。这是 IBM 的 Smart Talks,一个来自普希金工业公司、iHeartRadio 和 IBM 的播客,主题是换一种方式看待当今最具挑战性的问题。我是马尔科姆·格拉德威尔。今天,我将与两位 IBM 人工智能专家聊聊该公司构建和支持值得信赖的 AI 作为积极变革力量的方法。我将与 IBM 首席隐私官克里斯蒂娜·蒙哥马利交谈,

她负责监督公司在全球范围内的隐私愿景和合规战略。关注诸如免疫证书和疫苗护照之类的事情,不是我们能做什么,而是我们作为一家公司愿意做什么?我们将如何运用我们的技能、知识和公司品牌来应对可能有助于提供信息的疫情相关技术?她还担任公司的 AI 伦理委员会联席主席。

我还将与 IBM 全球首席人工智能官塞思·多布林博士交谈。塞思领导公司的人工智能战略,并负责将人工智能开发与创造业务价值联系起来。塞思也是 IBM AI 伦理委员会的成员。我们要确保 AI 背后的技术尽可能公平。

尽可能具有可解释性,尽可能强大,并尽可能保护隐私。我们将讨论创建公平且能够解决偏差的 AI 系统的必要性,以及我们如何需要关注信任和透明度才能实现这一目标。在一个拥有行业治理的开放和多元的生态系统中,未来会是什么样子?只有一个方法可以找到答案。让我们开始吧。

我很好奇的一件事是,这种对 AI 的伦理和信任因素的关注起源于何处,还是说这是后来才出现的进化性关注?大约 10 年前,当我们开始踏上利用我们今天认为是 AI 的东西来改变业务的旅程时,信任的概念就出现了,但并非在我们今天思考它的相同语境中。

信任的语境实际上侧重于:我怎么知道它给我的答案是正确的,以便我可以做出决定?因为我们没有工具来帮助解释 AI 如何做出决定,所以你往往不得不进行这些比较测试,你必须建立实验来证明 AI 至少与人类一样好,甚至更好,并了解原因。随着 AI 开始面临真正的人类状况,它随着时间的推移而发展。

我认为那是我们开始思考 AI 与偏见相关时会发生什么的时候,尤其是在大约五到八年前,抵押贷款方面出现了一个问题,尤其与邮政编码有关,但开始对某些种族的人产生偏见,你

所以我认为这些因素结合在一起,使我们达到了今天的境地。此外,你知道,过去两年的社会正义运动确实加剧了许多担忧。克里斯蒂安,我注意到你是一位律师。这是一个有趣的话题,因为它似乎是 AI 专家像塞思和律师一起工作的地方。这听起来像是一种经典的跨学科努力。你能谈谈这个吗?

它绝对具有跨学科的性质。例如,我们的 AI 伦理委员会,我是联席主席。另一位联席主席是我们的 AI 伦理全球负责人弗朗切斯卡·罗西,她是 AI 伦理领域一位著名的研究员。所以她拥有这种研究背景。所以在我在这个职位上任职之前,我们就有一个 AI 伦理委员会。

并且在许多研究人员和许多深入了解这项技术的人之间进行了许多精彩的讨论,但它没有决策权。它没有来自企业的所有利益相关者或许多利益相关者参与。

因此,当我作为一名律师和一位拥有公司治理背景的人担任这份工作时,我的任务是构建其运营方面,使其能够实施集中决策,赋予其权力,并从企业内部以及来自不同领域的人们那里获得这些观点

IBM 公司内部的重点。各种不同的背景,我们进行了非常激烈的讨论。我们还参与……

IBM 中的个人,他们要么出于倡导,因为他们非常关心这个话题,要么他们正在各自领域工作并对这个话题有想法,或者在这个领域做项目,想要在这个领域发表文章。我们有一种非常自然的方式让他们也参与其中。绝对有必要拥有这种跨学科的方面。你在回答开头提到了,你谈到了

关于激烈的讨论,一个我喜欢的短语。你们两位能否举一个关于 AI 信任方面出现的问题的例子?因此,一个例子可能是我们作为一家公司为应对 COVID-19 大流行而采用的技术。所以有很多事情我们可以做

它变成了一个问题,不是我们从技术角度能够部署什么,而是我们是否应该部署某些技术,无论是用于体温检测的面部识别,还是某些接触者追踪技术。我们的数字健康通行证就是一个很好的例子,这项技术在委员会多次讨论中出现,例如,如果我们要部署某些东西,

疫苗护照,这并非这项技术最终所呈现的样子,而是关注诸如免疫证书和疫苗护照之类的事情。不是我们能做什么,而是我们作为一家公司愿意做什么?我们将如何运用我们的技能、知识和公司品牌来应对可能有助于治愈或有助于提供信息的疫情相关技术?

COVID 是一个很好的例子,因为它突出了良好治理可以带来的价值和加速,因为

我们作为伦理委员会制定规则,也就是护栏,关于我们在 COVID 期间会做什么和不会做什么,帮助人们做事而不用担心我们需要将此事提交给委员会。它还为我们公司就以下问题制定了非常明确的规定,对于此类用例,我们需要与委员会进行对话。它还为我们公司就以下问题做出了决定

并做出基于风险的决策,好吧,这是一个有点模糊的领域,但我们认为,鉴于目前世界正在发生的事情以及此事的重要性,我们愿意承担这种风险,只要我们稍后清理所有内容即可。所以我认为这非常重要,首先,治理的建立是为了加速事情,而不是阻止事情。

其次,有明确的指导,你知道,不是不行,而是告诉你你可以做什么,你不能做什么。它帮助团队弄清楚他们如何才能以不违反我们原则的方式继续推进工作。是的。我想让听众对信任和透明度等问题如何指导科技公司可能采取的行动有一个具体的了解。

现在,一个真实的例子。因此,如果我想确保人们戴着口罩,然后只是强调在这个区域内有人没有戴口罩,而你没有识别这个人,我认为我们可以接受。我们不能接受的是,如果他们想以未经他们同意的方式识别这个人。这非常笼统。所以我将浏览一个未知人员的数据库,并将他们与这个人匹配。

所以这是不行的。而模糊的领域是,你知道,我要将这个与已知人员匹配。所以我知道这是一个员工,我知道这是他。这是我们委员会想要讨论的事情。如果这位员工没有戴口罩,我可以将他与姓名匹配,还是我只是派保安过来,因为这位员工没有戴口罩?我认为这更难,这是一个我们在 COVID 期间面临的真实例子。

是的。让我们稍微谈谈多样性和共享责任作为在这个 AI 世界中重要的原则。这些术语应用于 AI 时意味着什么?追求优化这些目标的实际效果是什么?你知道,首先,我们需要有良好的社会代表来完成影响社会的工作。所以 A,这只是正确的事情。B,大量研究表明,多元化团队的表现优于非多元化团队。麦肯锡的一份报告称,在多元化方面处于前四分之一的公司比那些没有多元化的公司表现好 35%。所以有很多好的研究。

第二件事是,如果你在桌子上没有平等的代表,你就不会得到同样好的结果。有很多很好的例子。因此,有一种招聘算法正在评估申请者并将他们推荐出去。但是,过去这家公司的大多数申请者都是男性。因此,女性被一概排除在外,在某种程度上与她们是否适合该职位无关。

我想问克里斯蒂娜,一个项目提交给委员会。因此,对话可能是你组建的团队和你正在查看的数据不够多样化。我们担心你没有捕捉到我们运营的世界现实。这是你们在董事会层面可能进行的对话的一个例子吗?

好吧,我认为看待董事会正在做什么来解决这些偏见问题最好的方法是。我的意思是,例如,我们有一个研究团队致力于值得信赖的技术。他们早期做的一件事就是部署工具包来帮助检测偏见,帮助使 AI 更易于解释,帮助使其总体上更值得信赖。但这些工具最初非常关注偏见,并且

他们将它们部署到开源中,以便可以对其进行构建和改进。对。现在,董事会更广泛地关注,不是关注单个问题和单个用例中的偏见,而是通过我们所谓的“设计伦理”在整个企业中灌输这些伦理原则。

偏见是这种设计伦理的第一个关注领域。我们有一个由伦理委员会领导的团队正在研究你问马尔科姆的问题,即我们如何确保我们在内部部署的 AI 或我们为客户部署的工具和产品是

在 AI 的整个生命周期中都考虑到这一点。因此,通过这种设计伦理,来自委员会的指导从概念阶段开始,然后应用于整个生命周期,在内部使用 AI 的情况下,一直到实际使用。在为客户部署 AI 或将其放入产品的情况下,你知道,直到那一点,

部署。因此,这非常重要,将这些考虑因素嵌入到我们公司现有的流程中,以确保不仅考虑一次,而且不只在委员会有机会审查的用例中考虑。

而是在我们作为一家公司的实践中,在我们作为一家公司的思想中,就像,你知道,我们这样做,几年前公司在隐私和安全方面也这样做过,这种设计中的隐私和安全概念,有些人可能熟悉它源于欧洲的 GDPR。现在我们正在对伦理做同样的事情。你们现在所做的事情有多不寻常?

我的意思是,如果我现在将所有大量使用 AI 的科技公司排列起来,我会在所有公司中找到类似的项目吗?还是你们自己独树一帜?

所以我认为我们采取了一种稍微独特的视角。事实上,我们最近被世界经济论坛评为在道德部署技术和负责任技术使用方面的领导者。因此,世界经济论坛和圣克拉拉大学的马库拉伦理中心对 IBM 进行了独立的案例研究。

确实承认我们在这一领域的领导地位,因为我们采取了整体方法。我认为,我们与其他确实已经建立了类似委员会的一些科技公司略有不同,因为我们的委员会具有广泛的跨学科性质。我们不仅仅是研究人员。我们不仅仅是技术专家。我们公司实际上有来自各个公司的代表

背景遍布整个公司,无论是法律、开发人员、研究人员,还是人力资源专业人员等等。

所以这让我们有点独特,这个项目本身。然后我认为我们听到客户也在思考,我该如何确保我在外部或与我的客户部署或使用的技术值得信赖。对。所以他们问我们,你们是怎么做到的?

你们作为一家公司是如何考虑这个问题的?你们的做法是什么?关于这一点,我们的首席执行官是全球人工智能行动联盟的联席主席,该联盟由

世界经济论坛发起。作为其中的一部分,我们承诺公开我们的方法。所以我们一直在谈论我们的方法。我认为它有点独特,正如我所说,但我们正在分享它,因为同样,我们不希望我们是唯一拥有值得信赖的 AI 并拥有这种整体跨学科方法的人,因为我们认为这是正确的方法。这当然是我们公司正确的做法,我们想与世界分享。它不是秘密或专有的。嗯哼。

但是如果你与服务科技行业的分析师社区交谈,他们会广泛地说,IBM 在我们实际正在做的事情方面领先,而不是谈论它,同时确保它是可执行和有效的。例如,我们正在谈论,我们审查用例,我们可以要求团队调整它们。

这很独特,对吧?大多数其他科技公司在确保其结果一致方面没有这种程度的监督。有很多好的说法,但我认为世界经济论坛在 9 月 27 日发布的用例确实支持我们领先。然后,如果你看看一般拥有 AI 伦理委员会的公司,我的经验是,与我每年与之互动的所有公司和数百位领导者一起,不到 5% 的公司已经建立了委员会。而且更少数量的公司知道他们将如何作为一个委员会运作。我想稍微谈谈政府在这里的角色。政府是领先还是落后?我会说他们正在赶上来。

我认为我们落后可能最重要,对吧?因为看,我认为在过去几年中,正如我们所讨论的,或者到现在可能已经快 10 年了,随着这些问题的出现。

公司基本上被留给自己,对他们的实践和 AI 的使用施加护栏。这并不是说没有法律来规范,例如,歧视法将适用于歧视性技术。但是独特之处,如果存在独特之处或问题被放大,

通过应用 AI 系统。政府真的只是在赶上来。因此,我们在春季时间框架内,欧盟提出了一套全面的 AI 监管框架。

我们在美国看到,联邦贸易委员会开始关注算法偏差,以及一般关注算法,以及它们是否公平等等。因此,还有许多其他倡议效仿欧盟,正在研究治理和规范 AI 的框架。我们之前提到了,我们参与了我们精确监管建议。所以我们有一个叫做 IBM 政策实验室的东西。

通过政策实验室,我们的倡导与众不同之处在于,我们试图提出具体可行的政策建议。所以不仅仅是,再次,阐述原则,而是为全球的公司和政府以及政策制定者提出真正具体的建议来实施和遵循。

例如,在我们对 AI 的精确监管中,我们的建议是监管应该基于风险。它应该是特定于上下文的。它应该查看并分配责任给

最接近风险的一方。这在 AI 系统生命周期的不同时间可能有所不同。因此,我们部署了一些通用技术,然后我们的客户随着时间的推移对其进行训练。因此,承担风险应该由在 AI 生命周期不同时间点最接近风险的一方承担。2021 年今天这个问题的一个有趣之处在于,我们现在处于这样一种情况:

像 IBM 这样的公司,我猜想,会像对政府对 AI 使用的反应一样敏感地对待公众对 AI 使用的反应。我想让你权衡一下。这是我们这个时代一个令人着迷的发展,突然之间,似乎无论公众反应采取何种形式,都可以成为一个更强大的杠杆

在推动、改变公司行为方面比政府所说的更有效。你认为这在 AI 领域是真的吗?我认为我们看到的政府监管是对公众情绪的回应。所以我完全同意你的观点,这是由公众推动的。而且,当我们在伦理委员会进行对话时,

好的,克里斯蒂娜和律师说,好的,这不是法律问题。那么下一个对话是,如果这个故事出现在《纽约时报》或《华尔街日报》的头版会发生什么?所以绝对,我们考虑到了这一点。所以我也会,我会补充一点,看,我们一直在

我们可能是,我认为是最古老的科技公司。我们已经有 100 多年的历史了,100 多年来,我们的客户一直指望我们负责任地推出新技术,对吧?并以可信赖的方式管理他们的数据,他们最敏感的数据。因此,对我们来说,这不仅仅是关于头条新闻的风险。这是为了确保我们未来有业务,因为我们的客户信任我们。

社会也信任我们。因此,我们制定的护栏,特别是围绕信任和透明度原则的护栏,或者我们在 COVID 大流行期间围绕负责任的数据使用的护栏,没有任何问题。

从法律角度来看,我们不能做得更多。没有任何规定说在美国我们不能在我们的网站上使用面部识别技术,但我们做出了原则性决定,我们做出了这些决定,因为我们认为这是正确的决定。当我回顾伦理委员会以及在过去十年中提出的分析和用例时,

两年。我可以想到很少有我们说,我们不会这样做,因为我们害怕监管影响。事实上,我无法想到任何一个,因为如果它是违法的,它就不会提交给委员会。但我们确实在某些情况下进行了改进,停止了,你知道,

实际交易,对。并且,并且解决方案,因为我们认为它们不是正确的事情。是的。是的。一个给你们其中任何一个的问题。你能,你能更深入地探讨一下这个,在现实世界的应用中?从这种对信任的关注中产生的具体事情是什么?

所以,你知道,信任如何影响我们所做工作的现实世界例子是,回到克里斯蒂娜之前所说的关于我们如何开源我们所做的大量工作的事情。因此,我们的研究部门构建了许多最终出现在我们产品中的技术。然后特别是与 AI 伦理和值得信赖的 AI 这个主题相关,

我们的默认做法是开源技术的底层。因此,我们有一堆任何人都可以使用开源工具包。事实上,我们的一些竞争对手在他们的产品中使用它们的频率与我们一样多。然后我们在这些之上构建增值功能。因此,这是我们强烈倡导的事情,伦理委员会也支持我们这样做,我们的产品团队也是如此,因为我们

价值在于,AI 是那些出错时会影响所有人的领域之一。因此,如果 AI 出现重大问题,每个人都会担心所有 AI。因此,我们要确保 AI 背后的技术尽可能公平。

尽可能具有可解释性,尽可能强大,并尽可能保护隐私。因此,解决这些问题的工具包都是公开可用的。然后,当我们将这些东西以帮助管理 AI 整个生命周期的集成平台的形式提供给我们的客户时,我们会在其之上构建增值功能。因为 AI 与软件不同,因为 AI 背后的技术是机器学习。

这意味着机器会随着时间的推移不断学习并调整模型。一旦你编写了一段软件,就完成了。它不会改变。因此,你需要弄清楚如何随着时间的推移持续监控你的 AI,以应对我刚才描述的那些事情,并将它们集成到你的安全和隐私设计实践中,以便持续监控它们。

更新并与你公司的原则、社会原则以及任何相关法规保持一致。是的。最后一个问题。给我一个关于 AI 在五年或十年后的样子预测。

是的,这是一个非常非常好的问题。当我们查看 AI 今天所做的事情时,AI 虽然非常有见地,并且帮助我们认识到作为人类我们可能自己没有注意到的东西。因此,为了增强我们的智力,它会呈现见解,并且可能会将复杂性从对人类来说几乎无限且难以理解的复杂性降低到

现在我可以根据 AI 的输出做出五个选择。AI 在今天大部分情况下无法提供上下文或推理。因此,AI 提供答案,但没有我们作为人类所认为的与之相关的推理。有一种新技术正在兴起。它们中有很多被归类为神经符号推理。

神经符号推理的含义是,它使用数学方程,即 AI 算法,以类似于人类的方式进行推理。

例如,你知道,互联网包含各种各样的东西,好的和坏的。让我们看看与我相关的东西,至少是我的犹太背景。对。你希望算法了解纳粹政权,但你不想让算法散布关于纳粹政权的言论。

今天,当我们构建 AI 时,我们几乎不可能让算法区分这两件事。使用围绕它的推理工具,你可以排除,防止算法学习不利于规范的言论。这只是一个例子。所以这些是你将在未来三到五年内看到的事情。

我认为我们将看到更多关于 AI 的可解释性和透明性。例如,你可能会看到这个广告,因为你访问并搜索了

X、Y 和 Z。你看到一个鞋子广告,因为你访问了这个网站,你知道,在某种程度上就是这样。或者会有更多透明度,你正在与聊天机器人打交道,你知道,只是当 AI 被应用于你的时候。我认为你会看到更多关于这方面的透明度和披露。然后是……

答案,不太实际,更具抱负的答案是,你知道,我们知道 AI 正在改变工作。它正在消除一些工作,它正在创造新的工作。而且我认为,希望,对,有了关于 AI 的原则,它可以用来增强,帮助人类,它以人为本,它将人放在技术的核心。是的。

它将使人们在他们所做的事情上变得更好更聪明。而且会有更多有趣的工作,对吧?所以我希望这最终将成为 AI 的产物,因为人们越来越意识到它已经在你的日常生活中被使用了,这方面有更多的透明度,这方面有更多的可解释性,最终会有更多的信任。是的,是的。

好吧,太好了。我认为这涵盖了我们的基础。这真的,真的很有趣。感谢你们加入我这次讨论。而且我希望我们作为 IBM 公司内部以及作为一个社会,将在未来几年就 AI 进行许多,许多,许多,许多更多的对话。所以我很高兴能够在这个过程的早期阶段,因为我们还没有完成这个,对吧?

还远没有结束。这仅仅是个开始。是的,这仅仅是个开始。再次感谢。是的,感谢你们的邀请。再次感谢克里斯蒂娜·蒙哥马利和塞思·多布林就 AI 周围的信任和透明度进行的讨论,以及他们对未来可能性的见解。看到 IBM 如何帮助促进行业积极变革将是一件令人着迷的事情。

IBM 的 Smart Talks 由 Emily Rostak 制作,Carly Migliore 和 Catherine Giraudoux 参与制作。由 Karen Shakerji 编辑。由 Jason Gambrell 混音和母带制作。音乐由 Gramascope 提供。特别感谢 Molly Socia、Andy Kelly、Mia LaBelle、Jacob Weisberg、Hedda Fane、Eric Sandler 和 Maggie Taylor 以及 APAR 和 IBM 的团队。

IBM 的 Smart Talks 是普希金工业公司和 iHeartRadio 制作的节目。这是 IBM 的付费广告。您可以在 ibm.com/smarttalks 上找到更多剧集。您可以在 iHeartRadio 应用程序、Apple Podcasts 或您喜欢收听的任何地方找到更多普希金播客。我是马尔科姆·格拉德威尔。下次再见。

哈喽,哈喽。我是马尔科姆·格拉德威尔。我想告诉你们普希金工业公司正在推出一个关于 1936 年奥运会的新系列节目。阿道夫·希特勒的奥运会。法西斯主义、反犹太主义、种族主义、崇高的奥运理想、怯懦的私利、赤裸裸的野心、幻想、妄想,所有这些都在通往历史上最具争议的奥运会的漫长而充满争议的筹备过程中发生了碰撞。德国人上演了一场宣传秀,而美国也对此表示赞同。为什么?

本季的《修正主义历史》讲述的是游戏背后的故事。您可以在任何收听播客的地方收听本季的《修正主义历史》。如果您想在剧集公开发布之前收听,请在 Apple Podcasts 或 pushkin.fm/plus 上订阅 Pushkin Plus。