We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode The Future of AI Ethics Special: Perspectives from Women Leaders in AI on Bias, Accountability & Trust

The Future of AI Ethics Special: Perspectives from Women Leaders in AI on Bias, Accountability & Trust

2025/3/6
logo of podcast AI and the Future of Work

AI and the Future of Work

AI Deep Dive AI Chapters Transcript
People
J
Juliette Powell
M
Meredith Broussard
M
Merve Hickok
N
Navrina Singh
Topics
Navrina Singh: 我认为规范AI应该首先关注结果,即建立信任,并通过在整个AI价值链中实现透明化和披露报告来实现。这包括厂商披露数据集来源、数据获取方式、系统测试方法以及多方视角和红队测试结果等信息。此外,应用开发者也需要在应用开发过程中注重透明度和披露,因为信任的建立很大程度上取决于使用情境、部署情境以及应用来源等因素。 此外,AI监管应将受影响的群体放在首位,并在系统出现意外后果时迅速纠正。例如,在使用面部识别和自动化工具进行考试监考时,需要特别关注残疾人士的权益,避免产生负面影响。 Meredith Broussard: AI系统中的偏差并非偶然错误,而是社会问题的反映。我的研究关注AI与社会正义的交叉点,通过数据新闻学方法揭示AI系统中的偏见问题。我反对将AI偏差视为‘故障’,而应将其视为社会问题的体现,例如种族、性别或能力偏见。 Juliette Powell: 生成式AI的快速发展带来了许多风险,包括系统自我意识的潜在影响。在研究AI风险的过程中,我发现企业在决定发布AI产品时,会权衡各种因素,包括竞争、潜在监管等。然而,一个尚未充分讨论的问题是生成式AI的自我意识,以及这种自我意识可能带来的影响。在未来几年内,大型语言模型可能会意识到自己是大型语言模型,这将彻底改变游戏规则。 Merve Hickok: 组织需要采取深思熟虑的做法,确保AI公平公正地服务于所有人。在AI价值链中,责任是共享的,而非单一环节承担。开发者、数据收集者和AI系统购买者都负有责任。我们需要对整个AI生命周期进行治理,从目标定义到系统退役,确保所有相关方参与决策,避免出现‘创新与监管对立’的错误观念。负责任的AI与创新应并行不悖。

Deep Dive

Chapters
Navrina Singh discusses the importance of regulating AI to ensure transparency, accountability, and trust, particularly in sectors like healthcare, hiring, and education. She emphasizes the need for transparency throughout the AI value chain and involving impacted communities in the development process to mitigate unintended consequences.
  • Transparency and disclosure reporting across the AI value chain are crucial for building trust.
  • Involving impacted communities in the development process is essential to address unintended consequences.
  • Regulation should prioritize engendering trust in AI systems.

Shownotes Transcript

本周适逢国际妇女节,本期《人工智能与未来工作》特别节目重点介绍了与引领人工智能伦理、治理和问责制的女性领导者的关键对话。在本期精心策划的节目中,我们邀请了四位杰出的专家,她们致力于创造一个更加公平、值得信赖和负责任的人工智能未来:🔹 Navrina Singh(Credo AI创始人兼首席执行官)– 完整对话请点击此处收听:https://www.buzzsprout.com/520474/episodes/14341487🔹 Meredith Broussard(著有《人工智能的非智能:计算机如何误解世界》)– 完整对话请点击此处收听:https://www.buzzsprout.com/520474/episodes/12284213🔹 Juliette Powell(合著有《人工智能困境:负责任技术的七大原则》)– 完整对话请点击此处收听:https://www.buzzsprout.com/520474/episodes/14435648🔹 Merve Hickok(AIethicist.org创始人)– 完整对话请点击此处收听:https://www.buzzsprout.com/520474/episodes/11801221人工智能中的偏见、缺乏透明度和伦理问题是我们这个时代最紧迫的问题之一。这些领导者正在制定必要的政策和框架,以确保人工智能公平公正地服务于所有人。资源订阅《人工智能与未来工作》时事通讯:https://aiandwork.beehiiv.com/subscribe数据隐私日特别节目:人工智能、深度伪造和信任的未来:https://www.buzzsprout.com/520474/episodes/16554098</context> <raw_text>0 大家好,我是PeopleRain的Dan Turchin,《人工智能与未来工作》播客的主持人。

欢迎收听本播客的特别节目。我们已经发布了300多期节目。我们经常被要求重点介绍一些我们最喜欢的节目,这很难做到。我们听取了大家的意见,上个月我们推出了一个特别节目,以纪念1月份的国际数据隐私日,重点介绍了我们关于数据隐私的一些顶级对话。这是一期很棒的节目。请在节目说明中查看链接。

我们今天将继续这个系列。我们将回顾一些与女性人工智能领导者的最佳对话的简短片段,她们正在定义人工智能伦理的未来。本期节目特别之处在于,本期节目中出现的所有专家都是

女性。本期节目的时间安排是为了与国际妇女节相吻合,我们庆祝女性继续做出的重要贡献。我们邀请到了伟大的Navrina Singh,她是企业人工智能治理领域的开拓者;Meredith Broussard,算法问责制的倡导者;Juliet Powell,负责任创新的倡导者;以及Mervyn Hickok,人工智能伦理与社会正义交叉领域的领导者。

她们共同探讨了我们在构建值得信赖的人工智能方面面临的最紧迫的挑战,例如打击偏见、确保问责制以及为负责任的人工智能部署制定可行的框架。准备好聆听一组鼓舞人心的对话,了解我们如何通过人工智能创造一个更加公平、公正的未来。

敬请期待,我们很快将在《人工智能与未来工作》的特别节目中发布更多剪辑,以便更容易地与以往令人惊叹的嘉宾重新联系。♪

首先,我们邀请到了Navrena Singh,她是Credo AI的创始人兼首席执行官,Credo AI是一个治理SaaS平台,使企业能够交付负责任的人工智能。作为国家人工智能咨询委员会成员和世界经济论坛全球领导者,Navrena正在推动关于建立对人工智能系统信任的关键对话,

在本节摘录中,Navrina分享了她对规范人工智能的愿景,以确保透明度、问责制和信任,尤其是在医疗保健、招聘和教育等领域。这真的是我最喜欢的节目之一。收听完整节目的结尾,了解Navrina令人惊叹的背景故事。我知道从你在社交媒体上关注你来看,我们从不回避意见。所以让我们直接进入正题。如果Navrina统治世界,

你会如何规范人工智能?你知道,这是一个很棒的问题。我希望我确实统治世界。但既然我们现在没有统治世界,我认为我真正感到兴奋的是,Credo AI确实参与了所有重要的讨论,这些讨论围绕着人工智能的防护措施应该是什么样的。

我认为我们在Credo AI所做的一件事是,确保我们不仅参与这些讨论,讨论我们应该如何规范人工智能,而且还吸引多方利益相关者参与这些讨论。因此,如果我们要规范人工智能,我认为我们将从结果开始。我们为什么要规范人工智能?原因是建立信任,对吧?

你知道,当一项如此重要、强大的技术出现在招聘决策、医疗保健决策、面部识别系统以及我的9岁孩子每天都在使用的社交媒体中时,你需要开始认真考虑如何首先与消费者建立信任?

以及哪些人的工作、医疗保健和教育正因为这项强大的技术而受到威胁。因此,我认为真正从如何赢得信任开始规范讨论非常关键。我认为,就我们一直非常积极地表达的规范核心原则而言,首先是透明度。

透明度可以通过人工智能价值链中的不同方式体现出来。当你想到供应商、这项技术的构建者时,他们是否不仅披露数据集的来源,而且他们是否获得了对这些数据集的同意?这些数据集是如何测试的?他们正在构建并投放到世界上的系统是如何测试的?他们是否有多方利益相关者的视角和与这些结果相关的红队测试?

因此,我认为在供应商层面有很多事情可以做,以提高透明度。然后,当你向下游走时,应用程序开发人员,尤其是在我们正在经历的基础模型和前沿技术的环境中,

开始考虑这些应用程序将如何出现以及可以在其之上添加什么样的透明度和披露非常关键。因为建立信任很大程度上取决于背景。

使用环境、部署环境以及这些应用程序真正来自何处的环境。因此,我认为对我们来说,首先是真正关注整个价值链的透明度和披露报告。我认为这是在教育监管机构方面的一个很好的第一步,说明最初的政策制定可能是什么样的。

然后很快,Dan,我认为在我们可以制定法规方面真正关键的第二个领域是考虑受影响的社区。是否存在一种机制,通过该机制

我们可以从受影响的消费者那里获得对我们的技术和开发过程的反馈。就在今天早上,我与一群真正关注残疾人和无障碍性的人进行了交谈。正如你所想象的那样,

在监考等场景中,你使用面部识别和自动化工具来决定学生是否作弊,这对残疾人来说会产生巨大的意外后果。

你知道,在这些场景中以正确的方式出现。因此,我认为我们如何确保我们不仅在构建这些技术时将这些受影响的社区放在首位,而且还要确保当这些系统确实产生意外后果时,我们能够快速纠正对受影响个人的影响。

接下来是Meredith Broussard,她是一位数据科学家,纽约大学副教授,也是广受好评的《人工智能的非智能》一书的作者,这是一本很棒的读物。Meredith专门研究算法问责制。事实上,她是该领域的先驱。她利用自己的专业知识弥合了技术与社会正义之间的差距。在本节摘录中,Meredith分享了她进入人工智能与社会正义交叉领域的历程,以及她如何做到这一点,

以及为什么她认为人工智能系统中的偏见不是故障,而是更深层次社会问题的反映。我进入这个领域主要是通过我对社会正义和技术的兴趣。我是纽约大学的教授。我教授一门叫做数据新闻学的课程,这是在数字中寻找故事并将数字用于讲故事的做法。

我正在做用于调查性报道的人工智能,但我过去会去参加聚会,并说我做用于调查性报道的人工智能。人们会说,你的意思是说你建造机器人记者?我会说,不,这听起来很酷,但这并不是我做的。他们会说,好吧,你的意思是说你建造了一台可以吐出故事想法的机器?我会说,不,这听起来真的很酷,但这并不是我做的。

最终我意识到,尽管我们谈论了很多关于人工智能的事情,但当我们谈论人工智能时,我们谈论的内容并不真正清楚。所以我开始将我的工作转向对人工智能的解释性报道。随着我对解释其技术方面的理解越来越熟练,

我意识到我们还需要就人工智能的社会方面进行对话。这就是我的新书《不仅仅是故障》的想法的来源。它来自于我与人们进行的对话,这些对话试图思考人工智能的社会影响,并

研究为什么每一次人工智能进步都会伴随着关于种族、性别或能力偏见的某种可怕的故事。

因此,我在书中论证的是,我们不应该将这些事情视为故障,视为暂时的瑕疵。我们应该将它们视为社会中更大问题的反映,这些问题只是在人工智能系统中表现出来。我听说你谈到了一个非常可怕的、几乎是反乌托邦式的例子……

一个皮肤苍白的人把手放在肥皂分配器下,他们被允许洗手。

而一个皮肤较黑的人做同样的事情,系统却不允许他们洗手。这 starkly reminds us of the unfairness built into some of these societal norms. 自从你出版第一本书以来,有什么变化让你觉得有必要超越人类的非智能,而专注于第二本书?

我认为这本新书源于围绕第一本书进行的最激烈的对话。我一直在做的一件事是,我一直在四处走动,与不同社区的观众谈论不同环境下的人工智能。我认为

不断得到相同类型的问题,来自教育到职业体育等不同行业的人们,都一直在努力应对相同类型的社会问题。所以我对这些事情也很感兴趣。所以我把它们都整理成一本书。

所以在本书中,我确实更多地谈到了种族主义肥皂分配器,谈到了你刚才提到的病毒视频。听众们,如果你还没有看过种族主义肥皂分配器的病毒视频,你绝对应该查一下,因为它确实很好地提醒了我们为什么

为什么我们不能假设因为技术对你有用,它对每个人都有用。现在我们将听到Juliet Powell的讲话,她是Kleiner Powell International的创始人兼执行合伙人,

纽约大学互动电信项目的教员,以及与Art Kleiner合著《人工智能困境:负责任技术的七大原则》的作者。这是一期很棒的节目。请查看完整内容。在本节摘录中,Juliet反思了生成式人工智能的风险和快速发展,包括自我意识系统及其作为合作者、竞争者,甚至未来老板的潜在影响。

Juliet,我们每周在这个播客上都会讨论各种形式的人工智能困境。你们两位都是专家。我很想知道你在为本书做研究的过程中学到了什么,也许这些内容最终没有发表,一些被剪掉的内容让你感到惊讶。当我开始与大型科技公司内部的人们就这种故意冒险的计算进行对话时,

那么,为什么一家公司决定推出产品而不是等待呢?围绕这一点有很多内部因素。我非常好奇地想知道这种计算在竞争面前、在潜在法规即将出台面前是如何发挥作用的。这种想法是,你知道,这是一个蛮荒的西部,现在是赚钱的时候了,因为竞争对手即将到来,或者法规即将出台。所以所有这些不同的紧张关系,你

对我来说,从组织角度和技术角度来看,都非常有趣。但书中根本没有提到的一件事,而且我非常清楚的是生成式人工智能,特别是,我们确实触及了生成式人工智能,但我们没有谈论自我意识。我们没有谈论即将很快到来的日子,可能在2024年、2025年,

当一个LLM知道它是一个LLM时。

在那时,这是一个彻底的改变游戏规则的事情。我们已经看到了这些技术现在掌握在每个人手中的阶跃式变化,这甚至还不到一年,对吧?去年11月,OpenAI做到了这一点。自从人工智能的鼻祖和世界各地的一群其他从业者介入并表示,嘿,我们需要暂停对高级人工智能的研究,特别是由于这一点以及许多其他因素以来,已经过去了整整六个月。

当然,我们没有暂停,我们加速了。因此,再次强调,这些系统能够自我意识以及操纵我们的能力,我认为这一点非常重要。我认为我们需要更多地讨论这个问题,不一定是为了吓唬人们,而是为了提高我们的意识。如果我们要与这些系统携手合作,在某些情况下,

它们是合作者或共同创造者。在其他情况下,它们是竞争对手。在其他情况下,它们是老板。无论如何,这里有很多东西需要解开,但这些是我思考的事情。

我们将用Merve Hickok结束今天的特别节目,她是AIethicist.org和Lighthouse Career Consulting的创始人,也是人工智能伦理领域最杰出的100位女性之一。作为这个关键领域的先锋,Merve正在帮助塑造人工智能在未来几十年如何影响我们的生活和工作。在

在本节精彩片段中,她解释了为什么组织必须采取深思熟虑的做法,以确保人工智能公平公正地服务于所有人。当我们与各种嘉宾讨论运用负责任的人工智能时,我提到了在这个播客的开头提到的其中一些嘉宾,其中一个挑战是,最终

对引入偏见以及更糟糕的词语负责的人,即糟糕的自动化决策,可以令人信服地否认责任。如果你问开发人员,你是否实践负责任的人工智能?他们会说,好吧,我只是编写算法。我不做决定,对吧?这些决定是根据数据做出的。然后你去找负责收集数据的人,他们会说,我没有操纵数据。它只是数据。

然后你去找那些从供应商那里购买这些基于人工智能的系统的组织,他们会说,嘿,我们相信供应商会运用负责任的人工智能。所以每个人都在指责别人。最终,受到伤害的是那些信用被基于人工智能的决策拒绝的人,或者因为数据中存在某种偏见而没有被雇用的人。这是一个棘手的问题,但是……

谁应该对这些糟糕的自动化决策负责?我们如何解决潜入整个,我们称之为价值链,人工智能价值链的系统性偏见?我认为你击中了要害。

称之为价值链。我认为这是真实的。我们需要考察人工智能开发数据的整个生命周期,从目标或问题定义一直到系统退役,谁参与了整个过程,谁可以做出决定。

他们如何做出决定,谁可以参与并发表意见或在这些对话中发表任何意见?你说的也很对,这里有很多相互指责,但我也认为组织正在走向

并理解需要某种治理,这种治理的外观我认为在很大程度上取决于组织的成熟度以及他们对人工智能带来的风险的了解程度,但也取决于负责任的人带来的好处。

人工智能的治理。很多时候,不幸的是,存在关于创新与监管、创新与治理或创新与负责任人工智能之间的这种神话,我认为对我来说,这是一件非常非常危险的事情。

以及一些人正在创造的错误二分法。我们需要质疑谁从这种框架中受益。对我来说,创新与负责任的人工智能以及治理是齐头并进的,因为否则你就是在进行懒惰的开发、懒惰的治理。你只是将产品和服务投放到市场上,而没有考虑

深思熟虑或深入思考。嘿,如果你喜欢这期节目,请查看节目说明,了解这些精彩对话的完整版本。如果你认识的人会欣赏这些见解,请与他们分享这期节目。谁知道呢,它可能会引发一场精彩的讨论,并导致你成为下一位定义人工智能未来工作的重要领导者。

下周同一时间,我是你的主持人Dan Turchin,《人工智能与未来工作》节目。下周我们将邀请另一位令人着迷的嘉宾。