We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Technology as a Force for Good: Salesforce’s Paula Goldman

Technology as a Force for Good: Salesforce’s Paula Goldman

2021/11/30
logo of podcast Me, Myself, and AI

Me, Myself, and AI

AI Deep Dive AI Chapters Transcript
People
P
Paula Goldman
Topics
Paula Goldman: 我在 Salesforce 的角色是首席道德与人文使用官,负责在技术开发和部署过程中考量其社会影响,避免意外后果,并制定政策以防止技术滥用。我的背景是长期致力于利用技术改善人们生活,特别关注技术如何服务弱势群体。我坚信技术可以成为向善的力量,但同时也需要建立相应的防护措施和道德框架,以确保技术被负责任地使用。在 AI 领域,我特别关注算法偏差和数据偏见问题,并致力于开发能够最大限度地减少这些问题的技术和流程。我认为 AI 伦理是一个不断发展的领域,需要技术公司、政府和民间组织的共同努力。 Sam Ransbotham 和 Shervin Khodabandeh: 我们与 Paula Goldman 的对话主要围绕 AI 伦理、技术责任和负责任创新展开。我们探讨了 AI 技术的积极潜力和潜在风险,以及如何通过技术、流程、人员和治理方面的综合努力来大规模实施道德 AI。我们还讨论了在教育和招聘过程中如何培养对技术伦理的重视,以及如何建立企业文化,鼓励员工关注技术伦理问题。 Sam Ransbotham: 作为一名教授,我关注的是如何将技术伦理教育融入到机器学习和人工智能课程中,并帮助学生理解技术对社会的影响。 Shervin Khodabandeh: 我关注的是如何将 AI 伦理融入到企业实践中,并确保 AI 技术被负责任地使用,以造福社会。

Deep Dive

Chapters
Introduction to the podcast and the importance of moving from AI ethics theory to practice with guest Paula Goldman.

Shownotes Transcript

今天,我们播出一期由我们的朋友 Modern CTO Podcast 制作的节目,他们最近很友好地邀请我作为嘉宾参加。我们讨论了生成式 AI 的兴起,技术成功的意义,以及领导者在指导技术实施工作时需要考虑的一些因素。您可以在 Apple Podcast、Spotify 或您收听播客的任何地方找到 Modern CTO Podcast。AI 伦理很容易宣扬,但很难做到。

我们如何从教育和理论转向实践?今天,当我们与 Salesforce 首席伦理和人道主义使用官 Paul Goldman 谈话时,您将找到答案。欢迎收听《我和 AI》,这是一档关于人工智能在商业中的播客。在每一期节目中,我们都会向您介绍一位在人工智能领域进行创新的个人。我是萨姆·兰斯博瑟姆,波士顿学院信息系统教授。我还是麻省理工学院斯隆管理学院人工智能与商业战略大创意项目的客座编辑。

我是谢尔文·科达班德,BCG 的高级合伙人,我与人共同领导 BCG 在北美的 AI 实践。麻省理工学院 SMR 和 BCG 共同研究人工智能五年,采访了数百名从业人员,并对数千家公司进行了调查,了解如何在整个组织中构建、部署和扩展 AI 能力,并真正改变组织的运作方式。

今天,我们与 Salesforce 首席伦理和人道主义使用官宝拉·戈德曼交谈。宝拉,感谢您抽出时间与我们交谈。欢迎。谢谢。我很高兴能进行这次谈话。你好,宝拉。你好。我们的播客是《我和 AI》。让我们从您在 Salesforce 的当前角色开始。首先,Salesforce 做什么,您的角色是什么?

Salesforce 是一家大型企业技术公司,如果我必须总结我们的工作,我们会推出许多产品来帮助我们的客户(通常是公司,有时是非营利组织等)更好地与他们的客户、利益相关者联系,无论是来自销售流程、服务、营销,等等。

数据扮演着非常非常重要的角色,例如了解、为他们提供工具来了解他们的客户及其需求,并更好地为他们服务。在其中,我的角色是首席伦理和人道主义使用官,我知道这有点拗口。这是 Salesforce 首创的职位。

我和我们的技术团队以及更广泛的组织合作处理两件事。一是当我们构建技术时,考虑该技术在世界范围内大规模应用的影响,试图避免一些意外后果,试图在我们构建技术时对其进行调整,以确保它们具有最大的积极影响,并且

其次,我们制定关于我们技术使用的政策,并确保我们设置了足够的防护措施,以确保我们的技术在世界范围内使用时不会被滥用。请告诉我们您的背景。您是如何最终担任这个职位的?假设您是一位超级英雄,您的起源故事是什么?我想,你知道,我有简短的故事和长篇的故事。简短的故事本质上是,我对技术如何改善人们的生活充满热情。

我花了很长时间思考这方面的“科技向善”方面。例如,我在 eBay 创始人皮埃尔·奥米迪亚手下工作了一段时间,致力于建立一个早期投资实践,投资于使用技术服务弱势群体的初创企业,无论是为新兴市场中原本被排除在外的群体提供金融服务、替代能源等等。

做了这么长时间之后,我认为我们开始看到技术在社会中作用的变化。

长期以来,我认为科技行业将自己视为一个局外人,一个颠覆者。然后突然之间,你可以看到墙上的字迹,科技公司不仅是你在任何你想得出的财务指数中最大的公司,而且技术也无处不在地渗透到我们生活的方方面面,而且由于 COVID-19 的原因,这种情况更加严重。

我认为我们只是看到了墙上的字迹,并看到了这条著名的格言,拥有伟大的

哦,我要搞砸了。能力越大,责任越大。与我的超级英雄起源问题完美契合,因为这是蜘蛛侠的名言。请继续。现在是时候考虑防护措施了,特别是对于像 AI 这样的新兴技术,但总体而言,要考虑这些技术在大规模应用下的作用是什么?就像任何经历成熟阶段的行业一样,我认为技术就是这样。

这就是我对此的动力。作为该角色的一部分,我领导着一个技术伦理实践。我被邀请加入 Salesforce 的伦理使用咨询委员会。通过这个委员会,他们邀请我来领导这项工作。宝拉,你的背景一直非常关注这个话题,对吧?我的意思是,甚至在 Salesforce 之前。

没错。你知道,这就是我刚才提到的内容。我花了很长时间,即使是大学毕业后,我也花了很长时间从事使命驱动的初创企业,通常是技术驱动的,目的是再次创造机会。例如,我花了很长时间在印度与一所负担得起的私立学校合作,但再次思考技术如何为这些学生创造机会,以及

很多年后,我不会告诉你多少年后,很多这些学生实际上都在该国的科技行业工作。从本质上讲,这始终是我的工作重点。技术和市场的作用是向善的。我们如何实施适当的防护措施,并考虑对技术的信任,这对于当今发布产品的任何公司来说都至关重要?

自从您在这个领域工作了一段时间,成为该领域的先驱之一以来,您认为对话的性质发生了怎样的变化?您认为对话的性质与 10 年前相比发生了怎样的变化?例如,防护措施和伦理使用与现在相比。

我想说 10 年前,让我们先给予应有的赞扬。10 年前,学术界肯定有很多领导者在思考这些类型的问题。我认为,如果你去麻省理工学院这样的校园,你会发现很多教授正在教授关于这方面的课程,并进行这方面的研究。这是一个长期存在的领域。

社会与技术、科学与技术,无论你称之为什幺,以及许多其他学科。但我认为它并没有成为公众对话中如此广泛的话题。如今,你几乎每天都能在报纸上看到关于某种技术影响的标题,无论是人工智能、隐私故事、社交媒体故事等等。当然,10 年前,很少有人会想到公司会雇用像我这样的职位的人。

当我想到这段历史时,我实际上会想到安全行业经历的事情的类比,让我们称之为 90 年代的安全问题,对吧?所以 90 年代科技行业在安全方面经历了什么。那也是一个相当不成熟的领域。作为当时的观察者,你可能会查看以前攻击技术的病毒。

并认为,你如何才能预测每一个风险并制定一个框架来领先于它,然后快进到我们现在的位置?这是一个成熟的学科。大多数公司都有围绕此的团队和一套协议,以确保他们的产品没有这些漏洞。我认为我们正处于类似演变的早期阶段,尤其是在人工智能和人工智能伦理方面,这些规范将成为标准。这是一个正在发展的专业职业。

也许让我们更具体一些。我们已经谈到了需要防护措施。人们需要担心哪些事情?如果我们特别关注人工智能,这项技术的积极潜在影响和实际实时影响是巨大的,对吧?所以想想

医疗保健。我们的一支研究团队正在研究使用机器学习来发现乳腺癌的人工智能。它被称为 ReceptorNet。这是矛尖。医疗保健领域有很多事情可以改善结果并挽救生命。我们有一个名为

的项目,该项目使用视觉来查看海滩的图像,并查看是否有鲨鱼以发出安全警告,对吧?还有许多、许多类似的人工智能应用,它们对人类有巨大的好处。与此同时,技术往往会带来意想不到的后果。

人工智能实际上是人类智能的自动化,它和它所接收的数据一样好。这些数据是人类决策的结果,这使得它不完美。这对于我们来说非常重要,我们需要提防。对于使用人工智能来自动化流程或尤其做出可能影响人类结果的决策的公司来说,这非常非常重要,无论是

单独的,还是获得工作的机会等等。我相信到目前为止,你已经多次听说过进行的研究,我认为实际上部分是在麻省理工学院进行的,关于 Joy Balamwini 和 Timnit Gabrou 等人进行的面部识别,并表明面部识别对浅肤色人的准确性高于深肤色人,如果在刑事司法环境中,这可能会产生灾难性的影响。

有很多事情需要注意,以确保特别是在开发这项技术时,对偏见的问题进行了适当的保护。关于这一点,显然有充分的理由来确保,正如你所说,了解、减轻和管理意外后果。

随着人工智能变得越来越聪明,并且会有更多的数据,这只会变得越来越复杂。你认为人工智能本身有可能推动或成为在某些过程中获得更道德的结果或更多公平性的贡献者吗?我的意思是,显然有充分的理由确保人工智能不会做一些疯狂的事情,

那么,人工智能也有可能被用来确保我们人类不做一些疯狂的事情吗?当然。我认为这是另一面,可能没有被谈论得那么多。但是,人类对谁获得贷款或谁获得工作的决定也很容易受到偏见的影响。因此,我认为如果做得正确,工作是有潜力的。

当人工智能在这种情况下与人为判断和这三件事的适当防护措施结合使用时,实际上可以一起创造更多机会。我只是举了一些用例的例子,但我认为这可能在各行各业都是如此。回到医疗保健的例子。

医生在查看癌症扫描的那天可能会感到疲倦。这就是为什么,你知道,有时我们会陷入关于人工智能与人类的这种两极分化的讨论。这不是非此即彼。这是一个“和”。并且它有一套防护措施和责任。

我想对防护措施和责任进行后续讨论。当您考虑人工智能的伦理问题时,无论是对于 Salesforce 还是更广泛地对于任何组织,您认为大规模开展这项工作的努力有多少是关于防护措施、教育、治理以及对潜在风险的更多可见性和认识?

所以它是流程和人员方面的事情,而不是技术本身。

绝对的。当您考虑这些防护措施的部分答案是技术本身时。您如何构建大规模工具来观察风险因素?这实际上是我们尝试与客户一起做的事情,对吧?因此,我们将人工智能集成到许多应用程序中。例如,我们有用于客户服务的聊天机器人,以及帮助销售人员

进行潜在客户和机会评分的人工智能,以便他们知道要追求哪个潜在客户,并且可以将大部分时间花在追求该潜在客户上。在其中,我们构建了技术保障措施和提示

其中一些只是我们构建技术的方式本身,但其中一些实际上是让技术提示人类,例如,嘿,你正在构建一个模型。您已经确定您可能不希望种族作为此模型中的变量,因为它可能会引入偏差。但是我们在这里看到您有一个字段是邮政编码,而邮政编码可能与种族高度相关。我认为您问题的答案是肯定的。

这个问题中有一个非常人性化的因素,但要大规模地解决它,实际上也需要自动化解决方案。再说一次,这又回到了我们刚才所说的将技术、人、流程、判断结合起来解决问题。

在 Salesforce,我们做的事情叫做后果扫描,它基于英国一家名为 Dot Everyone 的非营利组织提出的方法。我们已经根据自己的情况对其进行了定制。我们即将发布一个关于它的工具包。但我们在流程开始时与 scrum 团队合作。我们说,归根结底,这实际上很简单。嘿,最好的方法是什么?

你打算在这里构建什么?可能有哪些意想不到的后果,积极的和消极的?由此,我们产生了一些想法,这些想法实际上会进入该团队的积压工作中。这就是你如何影响产品路线图的方式

当然,它并非万无一失。你不会证明一切。但它正在变得更好。正如你所预期的那样,当你开始看到这些后果大规模出现,并且你开始看到社会的反弹和批评时,它就会变得更好。它总是比,你知道,一种黑白分明的图片更复杂,你知道,

修复事情可能有多简单。修复人工智能偏差并不简单,但现在也没有理由不关注它,因为它是一个众所周知的问题。宝拉,我想问你一个难题,也许是不公平的问题。你评论了该领域的过去以及技术和科技公司的发展壮大如何改变了对话。你已经谈了很多关于当前问题的事情。

你认为 10 年后的未来会怎样?你认为我们现在正在进行的这场对话,10 年前并不常见,嘿,让我们看看算法,让我们看看不公平的待遇,让我们看看邮政编码,无论是与贫困水平还是种族的相关性。你认为未来会有什么不同?

好吧,你赶上我心情不错的一天,所以我对此很乐观。但是,我真的不认为这些事情很容易扩展。在开始时并非如此,就像行业中的任何重大变化一样。我认为所有迹象都表明这项工作正在成熟。我要说的是,尤其是在人工智能或技术等更明显的地方,

加密货币或其他因为出现的问题而成为新闻的事情。我还想说,有很多监管压力,其中一些,如何发挥作用将取决于许多非常复杂的政治因素。但你不仅在美国看到它,你还在几个月前刚刚发布了人工智能法案草案的欧洲以及其他司法管辖区看到它。还有隐私立法、社交媒体立法,你

这些辩论将科技公司的责任与政府的责任以及公民社会可以发挥的作用摆在了首位。我认为……

你可以用优缺点来分析任何具体的提案,但辩论本身在很大程度上是非常健康的。我从这一点中获得了很大的希望,因为如果你问我科技公司自己会发生什么,我实际上认为它不会自行扩展,对吧?它是生态系统的一部分,其中……

公司发挥作用。公民社会团体发挥作用。这种声音非常非常重要。正是所有这些事情的结合,我必须说,实际上让我对它的稳健性感到惊讶。对话不断加深和扩大。

好吧,好的,这很棒。关于你的就足够了,但请关注我一会儿。我教一群大学生。让我们谈谈你,萨姆。我教一群大学生。这似乎是影响未来的一种方式。我们应该告诉人们什么?我的意思是,星期一早上,我有一节关于机器学习和人工智能的课。

你能间接地告诉我该告诉他们什么吗?我们应该谈论什么?好吧,你告诉他们什么了?我很好奇。它出现了吗?哦,它一直都在出现。实际上,我感觉有点消极,因为我总是开始,你知道,每一节课,即使是一门技术课,我们都从新闻中发生的事情开始。我感觉自己很邪恶,因为

新闻很多时候要么是 30 年后在实验室里可能发生的事情的光荣例子,要么是现在正在发生的事情。对。我觉得我来到了黑暗面。那么,我们应该告诉大学生或进入这个领域的人什么?

我要稍微偏离一下话题,然后回到你的问题。我认为你对新闻的评论非常贴切,它确实与关于技术的对话有关,因为现在它非常极端。所有都是错误的事情,我们当然应该谈论这些事情。然后是关于 30 年后会发生什么的夸大其词的主张,但却忽略了现在技术也带来了许多非凡的好处。我可以继续谈论这个话题,你知道,思考

COVID-19 期间技术为社会做了什么,它如何帮助企业保持运营,以及人们如何保持安全等等。我认为存在一种更细致的对话,它平衡了对谨慎和社会参与的真正需求。你知道,归根结底……

当你把这件事做好时,技术是为人们创造机会的一种非凡力量。我认为,在教育即将从事技术工作的人时,这种关于平衡的基本思考也非常重要。

我还想说,在过去几年中,看到围绕技术伦理的课程蓬勃发展,尤其是在大学环境中,我感到非常欣慰。我还记得几年前,当我还在奥米迪亚网络工作时,我们赞助了一项挑战,让教育工作者和教授将这项工作融入计算机科学课程中。我们看到它在各地蓬勃发展。所有

没错。

没错。你希望技术人员将此视为他们工作的一部分。我们看到越来越多的教授将此融入到你的技术学科的标准课程中,这太棒了。

我喜欢在课堂上做的一件事是给人们提供数据集,然后说,嘿,我知道那一列。我认为我告诉你它是 X。它实际上是种族。这如何改变你对你刚刚完成的分析以及你对基于使用该变量获得的重大结果感到多么自豪的感受?它重要吗?为什么?它有效吗?是的。

这是一个很好的教育工具。是的,我的意思是,我认为它有效,因为它说,好吧,嘿,你只是把它当作数据来处理,但这些数据实际上代表了现实世界中的一些东西,它是真实人类的属性,而不是第七行第三列中的抽象数字。这是一个非常重要的主题,对吧?在我们教学时,另一件非常重要的事情是数据是

很可能是一个人。在我们考虑收集什么数据、我们的预期用途是什么以及我们是否真的需要这些数据时,请记住这一点,这非常非常重要。这也是我们在 Salesforce 的整体技术伦理工作中花费大量时间思考的事情。因此,当你招聘人员时,你希望他们知道什么?人们需要什么样的技能?你怎么能看出某人会负责任地使用他们的权力来回到你之前的引言?

这是一个很好的问题。这是美国前首席技术官 DJ Patel 在数据科学背景下经常谈论的事情。在招聘过程中,当你问某人时,招聘过程通常会有一项练习让他们去做。

提出一个伦理问题,看看他们如何处理它,看看答案是否连贯。我认为这些类型的细微线索,它们不仅可以帮助你评估某人对这些问题的思考有多么成熟,而且这些文化线索也不容忽视。我们也对此进行了大量的思考。我们如何创造一种文化,让每个人都觉得思考这些问题是他们的责任,并且

这部分是关于为他们提供完成这项工作所需的工具和激励措施,其中包括让领导层对此进行回应。就像,你多久会遇到这些问题,无论是在面试过程中,还是在全体员工会议上,还是在与你的经理一对一谈话中?是的。

这很重要,这让我回到为什么我对这开始在大学环境中蓬勃发展感到如此兴奋的原因,在教学本身,你知道,在核心课程中。就像这些暗示很重要一样。

宝拉,这一切都非常引人入胜。我认为,如果你回到谢尔文开始提出的问题,那就是技术如何影响社会以及如何影响整个组织,而不是太多关于我们如何使用技术,而是这些技术如何影响我们以及如何影响社会。值得注意的是,这些影响可能是积极的和价值创造的,但是

或消极的。这完全取决于我们如何做出使用它的选择。感谢您抽出时间与我们交谈。我真的很享受。是的,非常感谢。非常有见地。非常有趣。感谢您的邀请。下次,我们将与 Cold Chain Technologies 的首席执行官 Ranjit Banerjee 谈话。请收听。

感谢收听《我和 AI》。我们相信,就像你一样,关于人工智能实施的对话不会始于本播客,也不会止于本播客。这就是为什么我们在 LinkedIn 上专门为像你这样的听众创建了一个小组。它被称为“人工智能领导者”。如果您加入我们,您可以与节目创建者和主持人聊天,提出您自己的问题,分享您的见解,

并获得来自麻省理工学院 SMR 和 BCG 关于人工智能实施的宝贵资源,您可以通过访问 mitsmr.com/AIforLeaders 来访问它。我们将把该链接放在节目说明中,我们希望在那里见到您。