为了部署负责任的AI并与客户建立信任,企业需要优先考虑AI治理。在本期IBM智慧对话中,马尔科姆·格拉德威尔和劳里·桑托斯与IBM首席隐私和信任官克里斯蒂娜·蒙哥马利讨论了AI问责制。他们讨论了AI监管、AI时代合规的含义,以及为什么透明的AI治理对企业有利。访问我们的网站:https://www.ibm.com/smarttalks/ 探索watsonx.governance:https://www.ibm.com/products/watsonx-governance 这是IBM的付费广告。请访问omnystudio.com/listener了解隐私信息。</context> <raw_text>0 哈喽,哈喽。欢迎收听IBM智慧对话,这是普希金工业、iHeartRadio和IBM联合推出的播客。我是马尔科姆·格拉德威尔。在本季节目中,我们将继续与新的创造者、有远见的创新者进行对话,他们正在创造性地将技术和商业应用于推动变革,但重点关注人工智能的变革力量及其作为改变游戏规则的倍增器为您的业务带来的意义。
我们今天的嘉宾是IBM的首席隐私和信任官克里斯蒂娜·蒙哥马利。她也是IBM人工智能伦理委员会的主席。除了监督IBM的隐私政策外,克里斯蒂娜工作的一个核心部分涉及AI治理,确保AI的使用符合为每个行业定制的国际法律法规。
在今天的节目中,克里斯蒂娜将解释为什么企业在使用技术时需要基本原则,为什么AI监管应该关注具体的用例而不是技术本身,并分享一些关于她去年五月具有里程碑意义的国会证词。克里斯蒂娜与普希金播客《幸福实验室》的主持人劳里·桑托斯博士进行了交谈。
劳里是一位认知科学家,也是耶鲁大学的心理学教授,她是人类幸福和认知方面的专家。好的,让我们开始采访吧。
克里斯蒂娜,我很高兴今天能和你谈谈。那么,让我们先谈谈你在IBM的角色。首席隐私和信任官究竟是做什么的?这是一个非常充满活力的职业,它不是一个新的职业,但这个角色确实发生了变化。我的角色今天比仅仅帮助确保全球范围内遵守数据保护法要广泛得多。我还负责AI治理。我担任我们IBM人工智能伦理委员会的联合主席,还负责公司的数据清理和数据治理。因此,我的角色既有合规方面,在全球范围内非常重要,也有助于企业在竞争中脱颖而出数据
因为事实上,信任是IBM的战略优势,也是一家已经为客户负责任地管理最敏感数据超过一个世纪的公司,并帮助以信任和透明的方式将新技术引入世界的竞争优势。所以这也是我角色的一个关键方面。
你于2021年加入我们的《智慧对话》节目,并与我们讨论了IBM在构建AI信任和透明度方面的方法。那只是两年前的事,但从那以后,人工智能领域似乎发生了翻天覆地的变化。因此,我很想知道自从你上次来这里之后,发生了多少变化?你之前告诉我们的事情,你知道,它们仍然正确吗?事情是如何变化的?你完全正确。在过去的两年里,世界似乎真的发生了变化。但是
我们两年前谈到的关于数据保护和负责任AI的IBM计划,其基本原则和整体治理仍然适用。从我们的角度来看,那里没有太大变化。
好消息是,我们已经实施了这些实践和这种治理方法。我们已经建立了一种看待这些新兴技术的方法,随着技术的进步。这项技术肯定更强大。基础模型,
规模更大、能力更强,在某些方面也带来了新的问题。但这更迫切地需要我们做我们一直在做的事情,并在整个企业中建立信任和透明度,对这些原则负责。
因此,我们今天的谈话真正围绕着对新的AI监管的需求展开。部分监管涉及缓解偏见。我认为作为一名心理学家,我对此思考了很多,对吧?你知道,我知道,就像我的学生和所有与AI互动的人一样,他们认为从这种学习中获得的知识是准确的,对吧?但当然,AI只和输入的知识一样好。所以,稍微谈谈,
为什么AI中会出现偏差以及我们真正面临的问题的严重程度。是的,很明显,AI是基于数据的,对吧?它用数据进行训练,而这些数据本身可能存在偏差。这就是问题可能出现的地方。它们出现在数据中,也可能出现在模型本身的输出中。
因此,在产品开发周期中构建偏差考虑和偏差测试非常重要。因此,我们IBM一直在思考和做的事情是,几年前,我们的一些研究团队提供了一些最早的工具包来帮助检测偏差,现在已经将它们部署到开源中。
我们已经为IBM的开发人员制定了一套以伦理为设计原则的策略手册。这是一种循序渐进的方法,它也充分地解决了偏差问题。我们不仅提供……
例如,这是你应该测试偏差的点,你应该在数据中考虑它。你必须在数据和模型级别或结果级别对其进行测量。我们还提供了关于哪些工具最能实现这一目标的指导。所以这是一个非常重要的问题。你不能只是谈论它。你必须提供必要的技术、能力和指导,使人们能够对其进行测试。
你最近有幸前往国会讨论AI。在你向国会的证词中,你提到人们常说创新发展速度太快,政府无法跟上。这也是我作为一名心理学家也担心的事情,对吧?政策制定者是否真的理解他们正在处理的问题?因此,我很想知道你如何应对这一挑战,即如何调整AI政策以跟上我们在AI技术本身中看到的所有进步的快速步伐。
我认为,拥有适用于你如何使用技术的基本原则,以及你是否要使用它以及你将在公司内部使用和应用它的位置,这非常重要。然后,从治理的角度来看,你的计划必须灵活。它必须能够解决新兴的能力、新的训练方法等,
这部分内容包括帮助教育、灌输和赋能公司内部值得信赖的文化。这样你就可以发现这些问题。这样你就可以在正确的时间提出正确的问题。如果尝试,我们在参议院听证会上谈到,IBM多年来一直在谈论规范使用,而不是技术本身,因为如果你试图规范技术,你很快就会发现监管将会发生。
绝对跟不上。因此,在你对国会的证词中,你还谈到了AI的精确监管方法。请告诉我更多关于这方面的信息。什么是精确监管方法,为什么它如此重要?很有趣,因为我能够在2023年与国会分享我们精确监管的观点,但这种精确监管的观点是IBM在2020年发表的。
因此,我们没有改变我们的立场,即你应该将最严格的控制、最严格的法规要求应用于技术,在这种技术中,最终用途和社会危害的风险最大。
这基本上就是它的含义。今天使用的许多AI技术都没有接触到人们。其本质上风险很低。即使当你考虑AI提供电影推荐与AI用于诊断癌症时,对吧?这两种技术的使用都与非常不同的含义相关联。
因此,精确监管的本质是,对不同的风险应用不同的规则,对吧?对风险最大的用例进行更严格的监管。然后,我们还通过要求诸如透明度之类的措施来扩展这一点。你今天在内容中可以看到,对吧?虚假信息等等,我们认为消费者应该始终知道他们何时与AI系统互动。因此,要保持透明,不要隐藏你的AI。对。
明确定义风险。因此,作为一个国家,我们需要一些明确的指导,对吧?在全球范围内也是如此,关于哪些AI用途风险更高,我们将应用更高和更严格的监管,并对这些高风险用途有一个共同的理解。并且
在这些高风险用途的情况下证明其影响。例如,在可能影响人们合法权利的领域使用AI的公司,应该进行影响评估,以证明该技术没有偏见。因此,我们对将最严格的监管应用于AI的最高风险用途非常明确。
到目前为止,我们一直在讨论你的国会证词,就你谈到的具体内容而言,但我只是很好奇,从个人的角度来看,你知道,那是什么感觉?现在感觉在政策层面,AI现在正处于一种高烧状态。你知道,有机会与政策制定者交谈并影响他们对AI技术的思考,也许是在未来一个世纪,感觉如何?
能够做到这一点,并成为第一批受邀参加第一次听证会的人之一,我感到非常荣幸。我从中了解到的本质上是两件事。首先是真实性的价值。因此,作为个人和公司,我能够谈论我所做的事情。你知道,我不需要很多预先准备,对吧?我谈论的是我的工作是什么。
IBM多年来一直在实施什么。所以这不是关于创造什么。这只是关于出现和保持真实。我们被邀请是有原因的。我们被邀请是因为我们是AI技术领域最早将
我们是历史最悠久的科技公司,我们值得信赖,这是一项荣誉。然后我得出的第二点是这个问题对社会的重要性。我认为在我经历了这次经历之后,我才没有那么重视它,并且
我收到了多年未合作的同事的联系。我收到了听到我在广播中讲话的家庭成员的联系。你知道,我的母亲、我的岳母、我的侄子和侄女以及我孩子的朋友们都说,哦,我明白了。我现在明白你做什么了。哇,这太酷了。你知道,这可能是我有过的最好和最有影响力的收获。
生成式AI的大规模采用正以惊人的速度发生,这促使世界各地的社会和政府认真对待AI监管。对于企业来说,合规本身已经足够复杂,但如果加入像AI这样不断发展变化的技术,合规本身就会成为适应性练习。
随着监管机构寻求对AI使用的更大问责制,企业需要帮助创建足够全面的治理流程以遵守法律,但又足够灵活以跟上AI发展快速变化的速度。监管审查也不是唯一需要考虑的问题。负责任的AI治理,企业证明其AI模型透明且可解释的能力,
对于与客户建立信任也至关重要,无论行业如何。在他们谈话的下一部分,劳里问克里斯蒂娜企业在处理AI治理时应该考虑什么。让我们来听听。
那么,企业在AI治理中扮演着什么样的特殊角色?为什么企业参与其中如此重要?我认为,企业了解技术可能产生的影响,这非常重要,这既能使它们成为更好的企业,又能
但这些技术可能对它们所支持的消费者产生的影响,你知道,企业需要部署符合其为其设定的目标的AI技术。这可以被信任。我认为,对我们和我们的客户来说,很多事情都归结为对技术的信任。如果你部署的东西不起作用,产生幻觉,
歧视,不透明,无法解释决策,那么你将很快就会损害客户的信任,充其量如此,对吧?最糟糕的是,你也会为自己制造法律和监管问题。因此,值得信赖的技术非常重要。
我认为,如今企业面临着快速发展和采用技术的巨大压力。但是,如果你没有制定治理计划就这样做,你实际上是在冒着损害这种信任的风险。所以,我认为强大的AI治理在这里真正发挥了作用。从你的角度谈谈这如何真正有助于维护客户和利益相关者对这些技术的信任。
是的,绝对的。我的意思是,你需要一个治理计划,因为你需要了解你正在部署的技术,尤其是在AI领域,是可以解释的。你需要了解它为什么做出它正在做出的决策和建议。你需要能够向你的消费者解释这一点。我的意思是,如果你不知道你的数据来自哪里,你使用什么数据来训练这些模型,你就无法做到这一点。如果你没有一个管理它的计划,
随着时间的推移,你的AI模型的一致性,以确保随着AI在使用过程中学习和发展,这在很大程度上使其如此有益,它始终与你随着时间的推移为技术设定的目标保持一致。
如果没有强大的治理流程,你就无法做到这一点。因此,我们与客户合作,分享我们在IBM内部如何实施这一流程的故事,还在我们的咨询实践中帮助客户使用这些新的生成式能力和基础模型等,以便以对该业务产生影响的方式将它们用于其业务,但同时也要值得信赖。所以
现在我想转向WatsonX治理。IBM最近宣布了其AI平台WatsonX,其中将包括一个治理组件。
你能告诉我们更多关于WatsonX.governance的信息吗?是的,在我这样做之前,我先谈谈整个平台,然后深入探讨WatsonX,因为我认为了解提供全套功能以获取数据、训练模型以及在其生命周期内对其进行治理非常重要。所有这些事情都非常重要。
从一开始,你就需要确保你拥有,例如,我们的Watson X.AI,
这是一个用于训练新的基础模型和生成式AI和机器学习能力的工作室。我们正在用一些IBM训练的基础模型填充这个工作室,我们正在为企业更具体地策划和定制这些模型。这非常重要。它回到了我之前提到的关于企业信任和需求的观点,你知道,需要为企业做好准备,
AI领域的技术。然后,Watson X.data是一个适合用途的数据存储或数据湖。
然后是WatsonX.gov,这是我的团队和AI伦理委员会与产品团队密切合作开发的平台的一个特定组件,我们也在首席隐私办公室内部使用它来帮助我们管理我们自己对AI技术的使用以及我们这里的合规计划。
它本质上可以帮助你通知你,如果模型变得有偏差或在使用过程中偏离了目标。公司将需要这些能力。我的意思是,他们今天需要它们来更好地交付技术。
有了信任,他们明天将需要它们来遵守即将出台的法规。我认为,当你考虑到国际数据保护法和法规时,合规性变得更加复杂。老实说,我不知道任何公司的法律团队这些天是如何跟上这些变化的。但我对你的问题是,企业如何制定战略来保持合规性并在这个不断变化的环境中应对它?这越来越具有挑战性。事实上,我今天早上看到一个统计数据
就在今天早上,公司对公司的监管义务在过去20年里增加了大约700倍。所以它确实是公司的一个巨大关注领域。你必须制定一个流程才能做到这一点。这并不容易,特别是对于像IBM这样的公司,
它在全球170多个国家/地区开展业务。有超过150项全面的隐私法规。存在非个人数据的法规。AI法规正在出现。因此,你确实需要一种操作方法。
为了保持合规性。但是,我们所做的一件事是设定一个基线,许多公司也这样做。因此,我们定义了一个隐私基线。我们定义了一个AI基线。然后,由于这个原因,我们确保偏差很少,因为它包含在该基线中。这是我们做到这一点的方法之一。我认为其他公司在这一点上也处于类似的境地。但是,
对于全球公司来说,这确实是一个真正的挑战。这也是我们主张在国际领域以及美国国内尽可能多地保持一致的原因之一,尽可能多地保持一致,以使合规性更容易,而不仅仅是因为公司希望找到一种简单的合规方式,而是因为越难,合规性就越不可能。并且
这不是任何人的目标,政府、公司、消费者,设定公司根本无法满足的法律义务。那么,你会给其他正在重新考虑或加强其AI治理方法的公司什么建议?我认为你需要从我们所做的那样,基本原则开始。
你需要开始决定你要部署什么技术,什么技术不要,你要用它做什么?你不用它做什么?然后,当你使用它时,与这些原则保持一致,这非常重要。制定一个计划,让组织内部的某个人,无论是首席隐私官,还是其他角色,首席AI伦理官,但要有一个负责的个人和负责的组织,
进行成熟度评估,找出你目前所处的位置以及你需要到达的位置,并真正开始,你知道,今天就开始实施。不要等到法规直接适用于你的业务,因为那时就太晚了。
因此,《智慧对话》节目介绍了像你这样的新创造者,这些有远见的创新者正在创造性地将技术应用于商业以推动变革。我很想知道你是否认为自己有创造力。是的,我绝对是这样。我的意思是,当你在一个发展如此迅速的行业工作时,你需要有创造力。
所以,你知道,当我加入IBM时,我们主要是一家硬件公司,对吧?多年来,我们已经对我们的业务进行了如此重大的改变,并且出现的问题
关于每一项新技术,无论是云计算,还是现在的人工智能,我们都在看到大量问题,或者你看看神经技术和量子计算机等领域的新兴问题。你必须在思考如何适应方面具有战略性和创造性
灵活地、快速地适应一个变化如此迅速的环境。随着这种转变以如此快的速度发生,你认为创造力在你思考和实施特别是值得信赖的AI战略中是否发挥作用?
是的,我绝对认为它确实如此。因为再次回到这些能力。我想,你如何定义创造力可能会有所不同,对吧?但我认为创造力是指敏捷性和战略眼光以及创造性解决问题的能力。我认为这在我们现在所处的世界中非常重要,能够创造性地解决与之相关的新的问题
每天都在出现。那么,你如何看待首席隐私官在未来随着AI技术不断发展而发生变化的角色?首席隐私官应该采取哪些步骤来领先于所有这些即将到来的变化?
我认为,在大多数公司中,这个角色正在相当迅速地发展。许多公司正在寻找准备就绪的首席隐私官,他们了解组织中正在使用的数据,并制定了计划以确保遵守要求你根据数据保护法等管理数据的法律。这是你了解AI责任的自然位置和职位。我,
因此,我认为许多首席隐私官正在发生的事情是,他们被要求承担公司的AI治理责任。如果没有承担这项责任,至少也要在AI治理方面与业务的其他部门密切合作发挥非常重要的作用。所以这确实正在发生变化。如果,
首席隐私官所在的公司可能还没有开始考虑AI。他们应该这样做。因此,我鼓励他们查看AI治理领域中已经存在的不同资源。例如,国际隐私专业人员协会,这是一个拥有75,000名成员的首席隐私官专业机构,最近启动了一个
AI治理倡议和AI治理认证计划。我担任他们的顾问委员会成员,但这仅仅象征着该领域变化如此之快的事实。
因此,你知道,说到快速变化,当你在2021年回到《智慧对话》节目时,你说AI的未来将更加透明和值得信赖。你知道,你认为未来5到10年会有什么?你知道,当你回到《智慧对话》节目时,你知道,2026年,你知道,2030年,当谈到AI技术和治理时,我们将讨论什么?
我试图做一个乐观主义者,对吧?我两年前说过这句话,我认为我们现在看到它正在实现。将会有要求,无论是来自美国,还是来自欧洲,还是仅仅来自客户对NIST风险管理框架等非常重要的自愿框架的自愿采用,
你将不得不采用透明和可解释的实践来使用AI。所以我确实看到了这种情况的发生。在未来5到10年里,伙计,我认为我们将看到更多关于信任技术的研究所,因为我们实际上并不知道,例如,如何加水印。我们正在呼吁诸如加水印之类的措施。将会有更多关于如何做到这一点的研究。我认为你会看到,是的,
你知道,专门要求这些类型事物的法规。因此,我认为,再次,我认为监管将推动研究。它将推动对这些领域的研究所,这将有助于确保我们能够以信任和可解释性的方式交付新的能力、生成式能力等等。非常感谢克里斯蒂娜加入《智慧对话》节目,与我们讨论AI和治理。非常感谢你邀请我。
为了释放人工智能可能带来的变革性增长,企业需要首先了解他们希望发展成什么样子。
正如克里斯蒂娜所说,在AI未来的最佳前进方向是企业弄清楚自己围绕使用该技术的根本原则。利用这些原则以符合其使命的道德方式应用AI,并遵守旨在追究该技术责任的法律框架。
随着AI的采用越来越广泛,消费者和监管机构对企业负责任地使用AI的期望也会越来越高。投资可靠的AI治理是企业为客户可以信任的技术奠定基础的一种方式,同时应对日益复杂的监管挑战。
尽管AI的出现确实使已经艰难的合规环境更加复杂,但企业现在面临着一个创造性的机会,可以为AI问责制的样子树立先例,并重新思考部署值得信赖的人工智能的意义。我是马尔科姆·格拉德威尔。这是IBM的付费广告。
IBM智慧对话将短暂休整,但请在接下来的几周内关注新的剧集。IBM智慧对话由马特·罗曼诺、大卫·贾、尼莎·文卡特和罗伊斯顿·贝瑟夫与雅各布·戈德斯坦制作。我们由丽迪娅·让·科特编辑。我们的工程师是杰森·甘布雷尔。主题曲由Gramascope创作。
特别感谢卡莉·米格里奥雷、安迪·凯利、凯西·卡拉汉和8 Bar和IBM团队,以及普希金营销团队。IBM智慧对话是普希金工业和iHeartMedia的Ruby Studio制作的。要查找更多普希金播客,请在iHeartRadio应用程序、Apple Podcasts或您收听播客的任何地方收听。