We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Martha Curioni - How to Responsibly Integrate AI into HR

Martha Curioni - How to Responsibly Integrate AI into HR

2025/3/6
logo of podcast HR Data Labs podcast

HR Data Labs podcast

AI Deep Dive AI Chapters Transcript
People
M
Martha Curioni
Topics
Martha Curioni: 负责任地实施AI意味着以最大限度地减少风险和负面结果的方式设计、开发和部署AI,尤其是在涉及招聘、晋升和裁员等高风险HR场景中。这不仅体现在模型选择和开发上,还包括部署阶段的额外步骤,以确保人们按照预期使用模型。负责任的AI实施需要透明性、最小化偏差影响、支持公平性,并使员工和管理者能够做出更好的决策。在实施AI之前,必须仔细检查用于训练模型的数据,确保其清洁、可靠且可信赖。在使用AI模型之前,需要进行大量的数据清洗和准备工作,并进行描述性分析以了解过去决策中的偏差。将AI整合到HR流程中需要重新设计整个流程,而不是简单地将其附加到现有流程上。在设计流程时,应考虑加入一些检查点,以防止用户过度依赖AI并忽略潜在问题。由于HR数据并非完美,AI模型可能产生不准确的推荐。因此,目标应该是让AI辅助人类做出比单独依靠人类更好的决策。可以通过数据清洗和偏差检测等方法来处理AI模型中的偏差或不良数据问题。为了确保AI被恰当地使用,需要重新设计流程、进行培训,并持续监控AI的使用情况。持续的反馈循环对于改进AI模型至关重要,这需要用户提供有关数据和模型的反馈。 David Teretsky: (主要围绕Martha Curioni的观点进行提问和补充,例如数据安全和隐私、模型位置等问题,并提出一些实际操作中的问题和顾虑,例如AI的过度依赖和成本问题。) Dwight Brown: (主要围绕数据治理、数据质量和AI模型的透明度等问题进行提问和补充,并表达了对AI模型潜在风险和用户过度信任的担忧。例如,提到ChatGPT输出结果的准确性问题,以及人们容易过度信任AI输出结果的现象。)

Deep Dive

Chapters
Responsible AI implementation in HR involves minimizing risks and negative outcomes associated with AI use in HR processes, such as hiring, promotion, and compensation decisions. It requires transparency, bias mitigation, fairness, and empowering employees and managers to make better decisions. Data quality, including data cleaning and preparation, is crucial.
  • Responsible AI minimizes risks and negative outcomes.
  • Transparency, bias mitigation, and fairness are key.
  • Data quality and preparation are essential.
  • Data security and privacy are important considerations.

Shownotes Transcript

欢迎收听HR Data Labs播客,这是您了解人力资源领域内外最新趋势的直接来源。

收听我们探讨薪酬策略、数据和人员分析如何影响您的组织。本播客由Salary.com赞助,它是您获取薪酬及其他方面数据、技术和咨询服务的来源。现在,让我们欢迎主持人David Teretsky和Dwight Brown。大家好,欢迎收听HR Datalabs播客。我是主持人David Teretsky,与我一起的是我的好朋友、联合主持人……

以及Salary.com的合作伙伴Dwight Brown。Dwight Brown,你好吗?我很好,你呢,David?我还可以。我们刚刚克服了一些健康问题,这很好,因为今天我们要采访一位我们曾在HR Data Labs播客中邀请过的最优秀的人才之一,Martha Curione。Martha,你好吗?嗨,感谢再次邀请我。我很好。最近几天阳光明媚,所以我在享受阳光。

是的,是的,我们正在进入冬天。好吧,我们实际上正在进入秋季,对我们很多人来说,秋季几乎直接就变成了冬季,中间几乎没有过渡。但对于那些不记得Martha的人,Martha和Adam McKinnon博士很久以前就来过,他们当时在和我们讨论如何利用机器学习来解决人力资源中的数据问题。

这是最受欢迎的剧集之一。我们将在节目说明中提供该剧集的链接。但我们还将提供Martha构建的代码链接。它位于GitHub上。因此很容易访问和扩展。我们今天可能会稍微谈谈这个。但更重要的是,我们将讨论另一个主题。但是,Martha,你能不能向我们的一些新听众……

介绍一下你自己?- 嗨,是的,我,让我看看,我从哪里开始呢?我在人力资源领域拥有丰富的经验,从招聘开始,然后逐步进入人才,我想,是员工队伍战略领域。不久前,或者说已经不是不久前了,时间过得真快,几年前,我决定将自己培训成一名数据科学家。所以那时我学习了如何编写代码以及构建AI和机器学习模型等等。

现在我是一名人员分析顾问。我进行高级分析。我支持人员分析工具的实施,关注人力资源组织在实施AI时所涉及的流程等等。所以这就是我今天的现状。关于Martha更有趣的一点是,Martha,你在哪里?

我在意大利,从我的口音你听不出来,因为我最初来自加利福尼亚州,但我四年前搬到了意大利。#羡慕嫉妒恨。我最喜欢的地方之一。

所以Martha,有什么别人不知道的有趣的事情吗?我不知道我是否会说没有人知道,因为知道的人很多,但在意大利作为一名外籍人士并远程工作,有些日子里我唯一与之交谈的成年人是我的配偶,我爱他,但有时你需要与其他成年人交谈。所以我决定参加一个戏剧课,全部都是意大利语。哇。

每周一次。我,你知道,这绝对让我走出舒适区,即使是用英语。然后用意大利语,这又提升到了一个新的水平。但至少我内心的外向者每周都能获得一些社交互动。所以我喜欢它。太棒了。太酷了。真的很酷。现在,Martha,你意大利语流利吗?在社交场合,是的。在工作中,是的。

我会说我的水平很高。我不会说流利,但在社交场合,是的,我可以进行对话。好吧,你现在要测试这个界限了。哦,在课堂上。是的。我的意思是,我以为你会问我一些问题。不,天哪,不会。我也在等着呢。我想,是的。然后呢?不,这就是我对意大利语的局限性。不,我们很好。我们很好。

这真的很酷。所以我们很快就会看到你获得托尼奖?我不知道。也许吧。我们拭目以待。或者意大利的等价奖项是什么。我不知道他们有什么样的奖项。实际上,它将是托尼奖,因为那是意大利语,对吧?是的。安东尼奖。嘿,安东尼。Martha怎么样?她很好。她真的很好。如果你们现在能看到两次,你们就会看到她。哦,我的上帝。

哦,今天是谁把你放出了笼子?对不起。#爸爸式幽默。现在让我们过渡到主题,因为这就是我们热爱我们所做工作的理由。我们今天要讨论一个非常酷、非常非常重要的主题。

那就是在人力资源中负责任地实施AI。

所以,Martha,让我们来谈谈这个。在人力资源中负责任地实施AI究竟意味着什么?是的,首先,让我们定义一下什么是负责任的AI,对于任何不知道或不熟悉这个术语的人来说。它本质上涉及到设计、开发和部署或实施(如果我们想互换使用这两个词),

以一种能够帮助你最大限度地减少使用AI可能发生的风险和其他负面结果的方式来使用AI。如果我们将此转化为人力资源环境,你会想到很多,所以有一些人力资源用例风险较低,对吧?也许是自动化工单等等。但是有很多人力资源用例,至少所有你在参加新的HR技术会议时听到的用例,对吧?

例如,我们应该雇用谁?我们应该提升谁?在某些情况下,如果公司想要裁员,我们应该解雇谁?

而且,你知道,或者我见过人们用它来告知薪资增长建议的薪资增长幅度是多少。所以,你知道,考虑到这些用例,最大限度地减少风险和其他负面结果我认为我们都会同意这一点非常重要。这就是为什么我认为公司真的需要采取适当的步骤来确保他们将要使用的AI以一种透明的方式实施。

最大限度地减少偏差的影响,支持公平,并真正使员工和管理者能够做出更好的决策,对吧?所以对我来说,这就是负责任的AI的含义。

这不仅意味着选择一个模型或确保模型或开发一个提供这些功能的模型,对吧?这只是设计和开发方面。部署方面则是采取额外的步骤或附加步骤来

确保人们按照预期的方式使用该模型,以确保这些事情正在发生,对吧?你不能只是将工具交给人们,然后相信他们会按照应该的方式使用它。这种情况永远不会发生。还有另一个方面,这也与你将用来训练模型的数据有关?

我们使用什么数据来达到我们之前提到的目的?它是否经过清理?我们是否相信它?我们是否信任它?使用这些数据做出的决定,是我们想要以此为基础做出未来决策的事情吗?这会影响到它吗?

当然。你知道,这成为了,你知道,一个关键点,对吧?选择模型或选择将要使用的模型和数据。有些供应商,也许他们利用自己的数据进行交易,然后他们想将其应用于你的未来决策。好吧,我不知道这是否有效。许多组织的数据并没有处于可以使用自身数据进行操作的状态。

因此最终需要进行大量的,可以说是数据清理,大量的数准备工作等等。并且真正理解,你知道,甚至在你到达那一点之前进行描述性分析来理解,你知道,也许如果我们使用晋升的例子,过去的晋升决定,我们是否看到有些群体可能,你

你知道,与他们整体员工总数的比例相比,晋升的次数较少或较多,对吧?整体人口。对。首先真正理解你的数据很重要,我敢肯定。我还要考虑的另一个因素是,模型的位置在哪里?也就是说,它是在我们的内部部署还是在云端,或者是在应用程序提供商或模型提供商的内部部署?我之所以这样问是因为

野外,对吧?将我们的数据、模型和决策放在野外,谁可以访问数据、决策和结果。这是否也是本次对话的一部分?或者这仅仅是一种,你知道,别担心,David。那是以后的事。现在还不是问题。

不,我认为绝对是。所以我认为它与我定义的负责任的AI是分开的。但是当谈到AI本身时,你知道,这绝对很重要,对吧?即使,你知道,例如,我不建议有人说,哦,让我使用我的个人账户与ChatGPT或Claude或其他什么,获取所有这些员工数据并将其上传到,你知道,并要求它为我分析数据,对吧?因为那是,

有很多风险,但这更多的是数据安全隐私方面的问题,而不是,你知道,确保数据是合适的,模型没有偏差,然后它被按预期使用。看起来,是的,数据质量的这一部分只是了解你的数据来自哪里,它从哪里提取。

你可以控制哪些数据源?你无法控制哪些数据源?当然。我认为我还要补充一点,我最近对此非常关注。每当我可以在谈话中提到这一点时,我都会提到它,那就是捕获数据的流程。我认为很多时候,流程的设计方式是,有时只是偶然形成的,对吧?

然后就是数据。很多时候,设计流程的人并没有考虑数据的影响,或者,你知道,这有点像这是流程,这就是我们正在做的事情。数据是事后才考虑的。因此这意味着,例如,如果我想查看组织的流动性,无论出于何种原因,我

但是公司内部的流动性变化并没有以一致的方式捕获,这使得我无法绘制这些变化,那么它就几乎使我无法进行这种分析。你可以将其应用于,你知道,晋升。如果晋升没有正确捕获,他们是晋升了还是申请了另一份工作?而那份工作变成了晋升,对吧?然后,如果你要利用它来告知未来的晋升决定,那么,

如果你没有一致地捕获数据,你将如何做到这一点?好吧,这涉及到Dwight最喜欢的主题数据治理,对吧?确保人力资源拥有良好的数据治理模型。就是这样,因为它确实涉及到数据信任因素。我认为AI中有点可怕的一点是

你知道,这其中很大一部分只是一个黑匣子。你不知道数据是如何组合在一起的。有时你甚至不知道你正在处理的所有数据源。所以,你知道,它确实涉及到数据信任因素。你如何获得它?我认为这是一个关键问题。是的。

对我来说,解决信任因素的一种方法是在界面或模型输出中使用可解释的AI。

所以有一些模型本身就具有这种功能,对吧?回归模型,你可以查看驱动因素分析,或者在其他情况下,你可能需要在顶部添加其他工具,对吧?所以有SHAP,有LIME,可能还有其他工具即将推出,以提供这种透明度,以便你说,好的,这个

这些,你知道,我们推荐David晋升。原因如下。以下是我们推荐他的原因。这样,用户就可以查看这些原因,然后同意或不同意,对吧?哦,关于他这一点是不对的。或者,是的,这是真的,但是……

这不是我们在这个案例中想要考虑的因素,无论是什么。但这就是你如何解决一些信任问题。然后B也,再次,它回到AI不应该做决定。人类应该做决定。通过赋予他们这些信息,这就是你确保这种情况发生的方式,这样,再次,他们按照预期使用AI。♪

喜欢你听到的内容吗?点击订阅,确保永不错过任何一期节目。本播客由salary.com提供支持。现在回到节目。为什么我们不把它作为第二个问题的部分来讨论呢?第二个问题是,对于计划实际实施某种人工智能的人力资源组织来说,他们必须采取哪些最重要的步骤才能确保它能够得到负责任的实施?

第一步是我们已经讨论过一点的内容,那就是首先检查你的模型,对吧?不要不信任你聘请的供应商或数据科学家,确保他们正在做每一件事,采取必要的步骤来确保这是一个好的模型,对吧?对。确保它是透明的。确保最终用户能够理解输出。理想情况下,它将具有可解释的AI。所以它不是Dwight提到的那个黑匣子,并自己测试模型,对吧?

运行它,看看会产生什么建议。而且,你知道,你注意到偏差了吗?你看到偏差了吗?这些建议有意义吗?你知道,这就是你在实施任何东西之前想要测试它的方式。一旦你完成了这项工作,并且你说,好的,模型很好。你知道,我很满意。我喜欢这些建议。然后你需要明确你的目标和目的,对吧?

我们将如何使用这个模型?我们期望的结果是什么?是更公平的决策吗?是为管理者节省时间吗?无论是什么,都要提前定义这些目标,以便随着时间的推移,你可以跟踪这些指标。

并决定,它有效吗?它是否达到了我们想要的结果?如果没有,为什么?我们应该继续使用它吗?因为否则你只会继续使用一些可能使情况变得更糟的东西。接下来是,这一点我再怎么强调都不为过,你需要重新设计你的流程

围绕AI。不要只是把它添加到现有流程的顶部,因为如果你这样做,存在很大的风险,即它不会按预期使用,或者根本不会被使用,如果它是你希望能够帮助做出更好决策的东西,那也是很可惜的。所以从头到尾都要考虑,新的流程应该是什么?

整合AI,整合制衡措施,确保用户,你知道,有一些点可以提示用户,确保他们不仅仅是自动点击通过等等。它实际上让我想起了,它让我想起了我听到的一个例子。我当时在听播客。哦,天哪,我不记得是谁了。但无论如何,

美国宇航局,他们建造,因为他们多年来一直在使用自动化系统,对吧?所以他们建立了这些,我想,保险库

每个人都知道它们的存在,这样你就不会进入自动驾驶状态,因为你知道会有随机的、不好的事情发生,或者是你不应该信任的事情,这样人们就不会仅仅是进入自动驾驶状态并做事。对。所以你能否构建一个包含此类内容的流程?我不知道。这是一个我想到的想法,但是你知道,用流程来设计这个流程,因为然后就会有适当的培训,对吧?

对。你不会在没有教他们如何驾驶的情况下就给别人一辆车。我不确定这一点。你可能几年没在美国开车了。理想情况下,你会教他们如何驾驶。你知道。风险。理想情况下,是的。是的。风险等等。对。如果发生这种情况该怎么办。对。

然后你进行试点。我的一项建议是,让一个小组使用该模型,另一个小组不使用该模型,然后比较结果,对吧?并了解,再次,我们是否实现了我们想要实现的目标?然后从长远来看,继续监控不仅是结果,还有人们如何使用它,对吧?尽可能多地。是的。

我认为关于这一点,我想到的一件事是,过度信任数据的情况在AI中可能更常见。因为如果你考虑AI输出,例如,如果我去Chat GPT并输入一个查询,它的输出非常糟糕。

听起来非常好。很多时候它看起来很到位,但如果这是一个我不太了解的话题,

我可能会被所有的输出和它的措辞方式所吸引。很容易忘记这种方法的潜在陷阱是什么。我认为这与你所说的内容有关,即必须有一些相关的教育。必须有一些预先存在的理解。否则,我们最终会

只是盲目地相信它。有很多研究表明,有一个研究特别让我印象深刻。我无法告诉你从哪里阅读它,但你可能可以在谷歌上搜索到它,那里有一座建筑物,有一个警报,比如火警或其他什么。他们有一个机器人,很明显它把每个人都带错了方向。人们知道正确的方向是什么,但他们仍然跟着机器人走。

所以人们对AI的输出确实会过于自信,因为他们认为,哦,好吧,这是技术。它已经过训练,它应该比我更了解什么是错误的等等。所以当然,你绝对……

有很多这样的情况。让我稍微扩展一下。我们知道并已经看到,从Chat GPT中得到的一些答案实际上是谎言,Chat GPT实际上并不知道答案。它们是在猜测,而这些猜测是错误的。学校里有一些孩子一直在逐字逐句地使用Chat GPT中出来的内容。这是错误的,因为他们,

无论它从哪里提取,都是不真实的,或者它没有足够的答案。所以它编造了一些东西。请原谅我的法语。我想在您刚才给出的六个步骤的描述中谈论的一件事是,您正在建立您的职业生涯。您正在使您的公司承担开发模型的风险。

您需要确保它正在做的事情实际上是正确地完成的。现在,您之前提到过,Martha,对不起,我有点跑题了,但您之前提到过,AI的一些实施方式是机器人执行特定任务。例如,

此表格是否已填写?没有。将其发送给合适的人员,让其填写,然后在它拥有正确信息或信息时,将其发送给另一个机器人或人员。通过这种方式,你实际上可以检查它。你知道它试图遵循哪些步骤,你可以确保它是准确的,你可以对其进行质量保证。一些更具解释性的模型,一些更复杂的模型,

您提到的步骤将非常复杂,对吧?您将不得不进行大量的质量保证工作,以确保模型实际上正在生成它应该生成的内容。是的,我的意思是,这就是可解释的AI发挥作用的地方,显然并非所有模型都具有可解释的AI,对吧?像大型语言模型,可解释的AI变得更加困难。这些往往更像黑匣子,对吧?所以如果我们,所以让我们,让我们,

首先,解决你可以拥有可解释的AI组件的模型。对于这些模型,你确保当他们获得建议时,他们也会获得

你知道,建议背后的原因。然后也许在这个过程中,有一些步骤可以确保他们正在阅读这些内容,他们,你知道,他们同意或不同意,或者他们必须添加一些评论或其他什么。你必须努力工作。我也非常喜欢以人为本的设计,对吧?所以你会与,

从业者、员工、管理者等等一起工作,了解他们认为哪种设计方式最好,这样就不会让他们感到厌烦。因为然后你最终会得到人们只是在文本框中输入一个空格来绕过它或其他什么的做法,同时还要确保你正在实现你的目标。对于这些类型的模型,执行设计这些步骤变得容易得多

嘿,让我们在此过程中加入一些检查,以确保人们理解建议,同意并知道他们有权不同意该建议。当你进入一些可解释的AI不太容易访问的更黑盒模型时,那么它就变成了,正如Dwight所说,更多的是关于教育方面的问题,对吧?帮助他们理解

你知道,它可能会犯错误,或者它可能会编造一些东西,或者其他什么。也许这就是NASA的例子发挥作用的地方,对吧?你会说,看,我们将随机给你一些错误的答案,这样你就可以,让你保持警惕,对吧?并确保你正在检查你的来源或其他什么。对此我没有所有答案。再次,你必须处理具体的用例以及你的组织、文化等等。但教育是关键。

看起来你概述的内容是,我不是想贬低它,这似乎是一个非常昂贵的过程。是的,它应该是这样的,因为我们正在引入一项新技术。但是你提到的六个步骤,不仅在实施方面,

培训、教育、试点,甚至只是技术和数据本身,都需要大量的投资。或者你认为这可能是相对较小的事情,小样本,不需要那么昂贵?我会说,对于技术、成本等等,你知道,这取决于技术。或者也许你有一个团队,一个内部团队正在构建一些东西。但是当涉及到,你知道,

重新设计一个流程,这显然需要大量的工作,正如你提到的,培训和试点。但是试点本质上应该是小规模的,对吧?所以如果你能够小规模地进行,测试你的假设,确保它有效,调整流程,因为一旦你实施它,

不可避免地,总有一些事情最终不会像你想象的那样有效。然后你进行调整等等,然后再将其推广到整个组织或组织内的业务部门。你仍然可以缓慢地扩展它,但是

但是通过在试点环境中进行,你绝对可以最大限度地降低成本。所以也许你的团队中有一人负责,你知道,这种,这些,这六个步骤,对吧?以及围绕流程的研讨会、围绕培训的研讨会等等。但最终目标是,或者我应该说,

为什么,你知道,你的目标和你的目标是什么,以及衡量这一点非常重要,因为你

你想确保它是值得投资的,并且你想确保你能够准确地衡量试点是否成功,然后再推广并开始花费更多资金,或者在某些情况下,根据用例使你的组织面临更大的风险。嘿,你是否正在收听这个节目,并心想,我希望我能和David谈谈这个?好吧,你很幸运。我们为HR Data Labs播客的听众提供了一个特别优惠。

与我进行免费的半小时通话,讨论我们在播客中涵盖的任何主题或你想到的任何事情。访问salary.com/HRDL咨询,立即安排你的免费30分钟通话。让我们进入第三个问题,对我来说,这是我们本期节目中讨论最多的内容之一,那就是

我们都知道人力资源数据,如果人们曾经收听过这个播客,嘉宾们,都知道人力资源数据远非完美。如果AI是用这些糟糕的数据进行训练的,那么就会存在真正的风险,这些风险可能会使AI生成器或告知AI生成糟糕的建议。我们刚才在第二个问题中概述的那些步骤如何帮助应对这一挑战?

听着,我认为拥有能够提供完美建议的AI会很棒,但我们都知道这是不可能的,对吧?因为我们没有完美的数据,就像你说的那样。所以我对你们两个人的问题是,甚至对听众的问题是,目标能否只是做出比人类单独做出的更好的决策,对吧?我在之前的角色中对DEI进行了大量研究,我只是……

我真的不相信人们能够做出好的决定,如果你让他们随心所欲地去做,也就是偏见,因为这就是很多时候数据如此糟糕的原因,对吧?因为过去,他们是在这些偏见等等的基础上做出决定的。

你知道,好消息是,有很多方法可以解决模型中的偏差或不良数据,对吧?你可以清理数据,可以用很多不同的方法测试它的偏差。这不仅仅是,让我明确一点,这不仅仅是,让我从模型中去除性别、种族和年龄。还有其他数据点可以作为这些的替代物。因此,采取适当的步骤来解决其中的一些问题,并且

然后你再加上可解释的AI因素或透明度因素,然后你开始拥有一个可以做出比人自己更好的建议的模型。但是

再说一次,正如我之前提到的,你需要超越模型本身去思考。你还需要考虑,人们是否按预期使用它?这就是流程重新设计和培训真正发挥作用的地方,以确保人们正在使用该模型。人机协同不仅仅是一个术语,人们实际上是在这样做。因为说实话,人们……

都很忙,而且在很多情况下都很懒惰。所以如果他们可以,你知道,接受建议,有多少人事经理管理着太多的人,因为很多公司都试图增加控制范围以及所有其他事情来节省成本。然后你使用了这个工具,它会给出建议,他们就会说,嘿,我现在甚至都不用考虑这个了。我可以,你知道,模型建议提升这些人。没错。所以,你知道,

这就是流程、培训等等以及监控其使用情况以确保其被适当地使用的地方。以及当发现有关数据的问题时,能够进行反馈的持续反馈循环,以便使用数据的人,使用

使用AI来提取数据的人,随着时间的推移,可以获得更精细的视角,因为我认为这有助于发现那些可能被忽略的盲点。是的。

一种持续进行的整体流程,而不是一个定义明确的起点和终点。实际上并没有定义明确的终点。它只是一个循环,就像使用Excel和其他一切进行数据分析一样。

哦,当然。我的意思是,这可以成为你流程的一部分,对吧?你把它定位为,嘿,我们在这里添加这一步是为了确保你不会进入自动驾驶状态。你把它定位为,嘿,这就是你给我们反馈的方式。我们推荐你,你提升了David。是的。

你看看你不同意的原因。你需要告诉我们原因,以便将来我们可以改进模型。对。对。是的。或者你同意等等。以及这个反馈循环。老实说,我不知道现在有多少工具

Chat GPT显然底部有点赞和点踩之类的功能。但在人力资源领域,仅仅考虑我使用过的工具,我不知道除了像,你喜欢这个工作推荐吗?我不知道我是否见过太多机会给出这样的反馈。所以这绝对是任何正在收听的人力资源技术供应商需要考虑的事情。是的。

好吧,我们在消费者方面接受过一些这方面的培训,Martha,因为如果你看看Netflix或其他流媒体服务,它们会点赞、点踩,这个推荐怎么样,你喜欢这个系列吗?你喜欢这部电影吗?点赞。好极了。好吧,我将推荐更多类似的电影。所以我们在消费者方面肯定得到了这一点。我认为这确实会影响反馈循环如何帮助这些推荐,并且

因为至少你得到了这个直接的反馈,这对你有所帮助吗?你是否使用了这些附加信息来做出你的推荐?

这样,我们实际上至少可以对它是否好有一些了解。但如果我们实际上能得到更多一点,比如,你在开玩笑吗?你提升了David?他是一个糟糕的表演者。你为什么要这么做?或者,是的,我认为David是一个糟糕的推荐,因为他没有这项工作所需的技能或经验。所以如果它更详细一些会更好,但至少点赞、点踩是……

我认为我们至少已经习惯了一点。不,当然。我认为根据你的例子,你知道,另一件需要考虑的事情不仅仅是把它交给经理,还要确保人力资源业务伙伴拥有相同的模型输出,以便他们也可以作为流程的一部分,让经理承担责任,以确保,你知道,嘿,你知道,Dwight没有在推荐提升名单上。所以

告诉我为什么,你知道,不要以挑战他们的方式,对吧?因为你不想让他们觉得,哦,我必须从名单上选择。但是,你知道,跟我谈谈Dwight。就像,你知道,那里发生了什么?或者根据你的例子,你知道,David,你为什么建议提升他?根据你之前对他说的其他话,他是一个糟糕的员工,我认为那是不对的,David。但为了扩展你的例子。所以当你赋能人力资源团队时,

拥有相同的信息,让他们能够进行这些对话,在适当的时候提出质疑,并,你知道,再次确保你实现你的目标。在许多情况下,这些可能是自助工具。如果经理请求一系列继任者,让我们假设是一份工作,那么人力资源业务伙伴应该获得一个控制台,告诉他们经理做了什么

请求一系列继任者。所以至少他们有很好的理解力去检查,否则他们必须事后才能发现,而不是知道,你知道,这是我的经理请求的事情的警报。结果就是这样。所以至少我可以被告知,也可以成为一个好。

他们的业务伙伴做出了这些决定,并介入以能够为该决定提供背景,如果这说得通的话。是的。而且,你知道,你可能会说,好吧,人力资源业务伙伴在哪里找到时间去做呢?但在他们的情况下,他们不必挖掘数据并试图制作该列表,他们所做的只是验证该列表并进行一些相关的对话,对吧?他们跳过了第一步。是的。

所以它可能是循环的一部分。是的。我们在六个步骤中定义的工作流程的一部分。

我们可以整天谈论这个。你还有几个小时我们可以继续吗?幸运的是,没有。我还有几分钟。我必须去喂一些饥饿的孩子。不,我只是在开玩笑。是的,我自己也饿了。所以我想我们必须这样做,Martha,如果你不介意的话,我们必须回到这个问题,因为在人力资源领域,AI将继续发展

在世界各地。我们已经谈论它很多年了,但今年尤其如此,特别是如果你听到我们从2024年人力资源技术展上的一些剧集,几乎到处都是AI。所以我想我们必须再次请你回来,如果我们可以请你回来的话,再谈谈它。不仅仅是AI的伦理性质和实施

负责任的人工智能,而且当它出错或出现其他结果时会发生什么,以及从中吸取的教训,如果可以的话。是的,我很乐意。好吧,

好吧,Dwight,非常感谢你。谢谢。感谢你与我们在一起,Martha。感谢你们的邀请。Martha,非常感谢你。你很棒。很高兴和你交谈。我总是从你那里学到很多东西。这就是为什么我们喜欢邀请你参加HR Data Labs播客的原因。谢谢。感谢大家的收听。保重,平安。

这是HR Data Labs播客。如果你喜欢这一集,请订阅。如果你认识任何可能想听的人,请发送给他们。感谢您本周加入我们,敬请期待我们下一集。平安。