We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 325: Unmasking Hidden Bias in AI—Who’s Really in Control? Data Ethics & Responsibility with Dr. Brandeis Marshall, DataedX Group CEO

325: Unmasking Hidden Bias in AI—Who’s Really in Control? Data Ethics & Responsibility with Dr. Brandeis Marshall, DataedX Group CEO

2025/3/3
logo of podcast AI and the Future of Work

AI and the Future of Work

AI Deep Dive AI Chapters Transcript
People
B
Brandeis Marshall
Topics
Brandeis Marshall: 我认为人工智能公司应该像科学实体一样受到监管,因为它们会优化人类行为。这需要与科学过程相符的监管,并且需要对数据管道中的每个人负责。数据伦理关乎数据在特定情境下的使用方式,数据不能被武器化。许多人工智能公司实际上是科学公司,它们的目标是优化人类行为,而非人工智能本身。所有人工智能都是数据问题,数据伦理关乎如何负责任地使用数据以增强人类体验。数据管道中的每个人都对数据的处理和使用负有责任,包括开发者。开发者有责任质疑数据输入方式,控制数据处理方式,并负责任地传递数据。数据处理是一个系统工程,每个参与者都负有责任。即使是编写代码的低级别人员,也有责任质疑数据和算法中的偏差。数据管道中的每个人都对潜在偏差负责,需要积极发声。我认为人工智能可以用来揭示不平等,提供证据,并增强人类沟通。人工智能可以帮助人们理解术语,从而促进更有效的沟通。人工智能可以作为专业人士的辅助工具,帮助他们更高效地工作。人工智能可以帮助神经多样化的人克服沟通障碍,创造内容。人工智能应该被视为辅助工具,而非替代工具,可以帮助神经多样化的人。如果我们能够负责任地使用人工智能,它将成为一种强大的赋能工具。医疗保健算法决策过程应该透明,患者应该能够访问自己的完整医疗记录。患者应该拥有可携带的、属于自己的医疗记录。患者的医疗记录应该包含所有相关信息,包括算法的使用情况。我成功的秘诀在于积极的父母、全女子学校的经历以及支持我的人。 Dan Turchin: 作为主持人,我引导了与Brandeis Marshall博士的讨论,并提出了一些问题,例如人工智能公司应该如何受到监管,数据伦理的含义,以及如何应对数据中的潜在偏见。我还探讨了人工智能在医疗保健领域的应用,以及如何利用人工智能来促进公平与包容性。

Deep Dive

Chapters
This chapter explores the controversial idea of regulating AI companies like scientific entities, emphasizing the responsibility of everyone involved in the data pipeline for ethical decision-making. The discussion highlights the need for oversight to prevent harm caused by AI systems.
  • AI companies should be considered scientific entities requiring oversight and regulation.
  • Everyone who handles data has a responsibility for ethical considerations.
  • AI systems should not harm people.
  • Data ethics involves understanding the context and responsible use of data.

Shownotes Transcript

Dr. Brandeis Marshall is a leading advocate for responsible data science and the CEO of Dataedx Group, a data ethics and learning development agency dedicated to helping teams identify and address discrimination in data. Previously, she was a professor of computer science at Spelman College and a faculty associate at Harvard. Dr. Marshall holds a master’s and Ph.D. in computer science from Rensselaer Polytechnic Institute (RPI).In this conversation, we discuss:Why AI-powered companies should be regulated like scientific entities—and the hidden ways they optimize human behavior.The role of data ethics in AI—how companies can prevent bias and why everyone in the data pipeline is responsible for ethical decision-making.Why most businesses struggle with AI adoption—Brandeis explains how companies can bridge the AI gap and align data strategies with real business impact.The future of healthcare data—how a patient-owned, portable medical record system could revolutionize access and transparency.How AI can be leveraged to expose systemic inequalities and provide better opportunities for marginalized communities.Why AI should be seen as a support tool, not a replacement—Brandeis shares how AI can help neurodivergent individuals and enhance human decision-making.Resources:Subscribe to the AI &amp; The Future of Work NewsletterConnect with Brandeis on LinkedInAI fun fact articleOn Using AI to Unlock Human Potential </context> <raw_text>0 我们确实应该将人工智能公司视为科学实体,因此需要一定程度的监督和监管,以符合科学过程。这很有争议。需要理解的是,接触过数据的每个人都有责任说些什么。

这并非单方面的问题。伦理道德实际上是在试图剖析背景、情境以及我们如何使用数据?我们是否以正确的方式使用它?因为数据不能被武器化,对吧?早上好,下午好,或者晚上好,这取决于您收听节目的地点。

欢迎收听人工智能与未来工作播客,第 325 集。我是主持人丹·图钦,PeopleRain 的首席执行官,PeopleRain 是一个面向 IT 和人力资源员工服务的 AI 平台。我们的社区正在不断壮大。我们经常被问到如何与其他听众见面。为了实现这一目标,我们推出了一个时事通讯。事实上,我们现在已经制作了大约 30 期。非常受欢迎。我们包含了一些未进入最终剪辑的剧集片段。

还有很多有趣的事实。请在节目说明中的链接中订阅该时事通讯。如果您喜欢我们的节目,请告诉您的朋友,并在 Apple Podcasts、Spotify 或您收听节目的任何地方为我们点赞和评分。如果您留下评论,我可能会在即将播出的剧集中分享它,就像来自马里兰州巴尔的摩的安东尼奥的这条评论一样,他是一位大学教授,在骑自行车去校园的路上收听节目。

安东尼奥最喜欢的剧集是与 BetterUp 首席技术官 Armin Bergicli 进行的精彩讨论,我喜欢那一集,主题是使用人工智能将教练与员工匹配来人性化工作。我们每周都会在节目中学习人工智能思想领袖的知识。当然,额外的奖励是,您每周都会获得一个关于人工智能的趣闻。今天的趣闻,Ron Garrier 在 CAO.com 上撰写了关于我们如何负责任地塑造人工智能未来的文章。

在文章中,他写道,与任何变革性技术一样,人工智能也存在风险,其中最主要的是延续偏见和系统性不平等。

为了负责任地指导人工智能的发展,我们需要将其不仅视为一种工具,而且视为一个正在成长的孩子。Gerriard 使用尤里·布朗芬布伦纳博士的生态系统理论来描述人工智能的演变。最直接的层面是微系统,即直接与人工智能互动的开发人员、工程师和用户,缺乏开发人员之间的多样化视角。人工智能将继续歪曲和排斥边缘化社区。我们经常讨论这个问题。

接下来是中系统,它代表关键参与者、科技公司、政府和研究人员之间的关系。Guerrier 继续使用生态系统理论描述了其他三个层次:外系统、宏系统和时间系统。我的评论,正如我之前所说,人工智能完美地设计用来复制人类的偏见。在您做出关于如何以及在哪里使用人工智能的决策时,请注意这一点,这将对您的团队以及您的客户产生越来越大的影响,有时还会产生意想不到的后果。我们将在稍后,比如说现在,继续讨论这个重要的话题。当然,我们会在今天的节目说明中链接到全文。现在让我们转向本周的对话。

今天的嘉宾是一位负责数据科学实践的积极倡导者。Brandeis Marshall 博士是 Data edX Group 的首席执行官,这是一个数据伦理和学习发展机构,致力于帮助团队了解和纠正数据中的歧视,

此前,Marshall 博士曾担任斯佩尔曼学院的计算机科学教授和哈佛大学的教员助理。Marshall 博士在伦斯勒理工学院获得计算机科学硕士和博士学位。RPI 红鹰队加油!

感谢共同的朋友和优秀的往期嘉宾 Kai Nunez 的介绍。话不多说,Marshall 博士,我很荣幸欢迎您来到“人工智能与未来工作”节目。让我们从您分享更多关于您的背景以及您是如何进入这个领域开始吧。太棒了。感谢您的邀请,丹。这将是一次精彩的对话。关于我的一些情况。

好吧,我们不要从一开始就讲起。让我们从我担任了近 15 年的教员这个事实开始吧。我决定,出于各种我们不必深入探讨的原因,我的时间最好花在学术界之外。但要知道,我的背景当然是计算机科学,我深入研究数据科学是因为数据是我的技术强项。我喜欢数据库、数据建模、数据分析。

数据工程。我只是想看到它做得更好,因为数据的影响以及它在我们社会各个方面的使用方式,对于量化和理解都非常重要。是的,这就是我进入这个领域的方式。我只是对

看到数据被滥用和误用感到沮丧,我想成为变革的一部分。我想成为解决方案的一部分,而不仅仅是指出问题。

从学术界的象牙塔过渡到实践者是什么感觉?您从学术界学到了哪些经验教训?然后,当您成为企业家时,您又不得不忘掉哪些东西呢?哦,我的天哪。丹,我们没有足够的时间来讨论所有这些,那将是一个四部分的系列节目。但我学到的最重要的一课是,作为一名学者,我是一个人的首席执行官,对吧?我有点……

我开玩笑地称自己为首席运营官,对吧?作为一名学者,我是一个人的公司。当我成为个体经营者时,这种转变非常顺利,因为我知道我必须同时参与多个方面的工作。我还认识到,当我需要帮助时。

不一定是恰当的时候。有时我做得过头了,因为作为一名学者,你倾向于不断向前推进。因此,我必须作为一个企业主学习何时该说“不,我做不到这一点。我需要为此招聘人员,或者我需要一些支持来完成这项特定活动或任务。”但作为一名学者,我认为公开演讲的实践是

使向商界的过渡变得容易得多,因为营销电话或销售电话(传统上所说的)对我来说很容易,因为我习惯于表演,对吧?我每周必须在课堂上表演三到四次,面对一群不太感兴趣的学生。是的。

谈论数据科学和计算机科学主题。因此,能够掌握一个概念并使其易于理解

这是我作为一名学者和系主任时肯定学到的一点,然后我能够很容易地将其转化到商界。我尽力帮助其他人做出这种转变或过渡,并向他们展示,如果你依靠你的教育成就,信息传递部分并不那么困难。

我之前在这个节目中说过,为了在未来的 STEM 领域成为领导者,我相信扎实的伦理学、哲学,甚至社会学或人类学方面的知识与学习硬科学一样重要。来自学术界,

我们什么时候才能将一些更软的技能或非硬科学纳入计算机科学和数据科学等学位课程中?我真诚地认为这已经在做了。现在它可能不被称作计算机科学,或者不被称作数据科学课程。但它往往涉及到有教师和学生参与。

他们现在正在提出一些批判性问题,例如这种算法的影响是什么?这个工具的应用是什么?我们如何以负责任的方式利用这些平台?我们如何远离特定平台?我们如何从一个平台迁移到另一个平台?这些作为传统课程一部分提出的批判性问题现在正在

大声疾呼并加强了围绕我们需要在科学领域拥有更好沟通技巧的讨论。这意味着什么,对吧?在过去几年里,我观察到人工智能炒作的循环(我不知道该怎么称呼它)后,我产生了一个顿悟,那就是人工智能非常科学。

但我们却把它当作最终目标来对待。事实并非如此。许多人工智能信息化、人工智能驱动的公司实际上是科学公司。人类是他们试图优化的产品。

对。他们试图了解。是的,他们试图了解人们,以便使人工智能产品更好。因此,我们确实应该将人工智能公司视为科学实体,因此需要一定程度的监督和监管,以符合科学过程。

这很有争议,它引发了很多,你知道,人们的感觉是,不,不,不。这是一门科学。这是关于算法优化的。好吧,算法包含了人。如果你包含了人,那就应该没有争议。如果你包含了人,那么你需要确保你对产品的行为不会伤害到人。这一点非常重要。

在进行人体受试者测试时,这与许多社会科学实践非常一致。是的,在开场白中,我谈到了人工智能完美地设计用来复制人类的偏见。所有人工智能都是数据问题。现在,你和我都每天都在经历这个,你是一位专家。因此,对于所有那些觉得数据和伦理之间没有交集的人来说,什么是数据伦理?对我来说,数据伦理是……

你如何负责任地使用数据,从而继续增加或增强人类的体验?这可能意味着数据

是垃圾,比如它不再好了,它已经过时了,它不再相关,它不再贴切或有用。这也可能意味着数据本身是有用的,但只在某些情况下有用,不能应用于其他情况下。因此,伦理道德在于你如何使用数据这些细微之处

以及你在哪里部署实践,以便利用数据实际上为那种情况或环境提供的见解。是的,我在这里做了很多限定词,但拥有语境很重要。我认为在许多关于数据的对话中,真正缺少的就是这一点,人们谈论数据就像一个巨大的东西

黑洞。但是,不,数据有很多形式,它需要有相关的背景。它有历史背景、社会背景、经济背景。它不是单方面的,我们不应该这样看待它。因此,伦理道德实际上是在试图剖析背景、情境以及我们如何使用它?我们是否以正确的方式使用它?因为数据不能被武器化,对吧?

绝对的。但不是以明显的方式。假设我是一名计算机科学专业的学生。我从 Marshall 博士的课程毕业,并且是一名优秀的实践者。我去找工作,商业化,编写代码,做一些我学到的东西,获得我的计算机科学学位。我不是伦理学家。我的意思是,数据就是真理,对吧?我只是在那里为某些商业目的服务,构建一些软件,构建一个算法,

你知道,提取见解,但我对数据的收集方式不应负责,然而。你是。也许你是。所以,解释一下。为什么我可能要对数据中潜在偏见造成的意外后果负责?是的,因为你正在处理数据。

每一点数据都会被转换,然后输出为新的数据。因此,作为一名开发人员,作为其他开发人员的经理,作为一名营销人员,为了解释数据和算法,你们都是一个正在创建新数据的系统的一部分,这就是原始数据的解释方式。

所以你是数据管道的一部分。作为数据管道中的参与者,你不仅有责任质疑数据是如何输入到你的,你还有责任控制数据在你这里是如何处理的。

然后你就有责任以某种能力和某种背景将数据传递给管道中的下一个人。所以你是一列火车的一部分,对吧?如果所有的车厢都没有连接在一起,火车就无法移动。所以你恰好是火车的一部分。

这列火车始于数据收集。然后移动到数据存储。然后移动到数据分析。然后移动到可视化。然后,当然,它会移动到某种类型的叙事或沟通。然后,当然,它就要出去了,对吧?所以它将成为某种产品。因此,火车的每一部分都负有责任。应该从下到上

围绕着附加到该过程每个部分的伦理是什么以及如何解决这些伦理进行对话。因此,即使你是编写代码的低层人员,你也有发言权,等等,我正在使用这个搜索算法,而这个搜索算法众所周知会做一些奇怪的事情,对吧?

或者,嘿,我现在正试图将一个人简化为一组数字来对其进行描述。因此,它将操纵人们对边缘化人群的看法与非边缘化人群的看法,对吧?你有责任说些什么,这应该附加在你交付的输出和结果上。然后,下一个得到它的人说,

拥有这些偏见,拥有这种差异理解。因此,当他们处理数据并进行操作时,他们就可以进行对话,并进行补充,然后将其传递给下一个,依此类推。因此,当它到达产品副总裁那里,然后当然到达高管那里,当然到达首席执行官那里,如果它获得了批准,那么是的,这是公司的责任。但需要理解的是,接触过数据的每个人都

有责任说些什么。希望这能解释清楚。我花了一点时间解释这个。我喜欢数据管道和所有接触数据的人,整个监管链的概念。每个人都负有责任。是的。所以,在这个播客中,我们经常讨论的一个例子是……

当人口统计数据用于做出招聘决策时,只是为了说明数据中潜在的偏见会产生意想不到的后果,如果我们依赖数据来,比如说,判断什么样的候选人在这里最成功,数据就会有,比如说,代表性不足的较贫困的邮政编码。嗯哼。

因此,它看起来像,你知道,为了在这里取得成功,你必须,你知道,在一个,你知道,所谓的富裕的邮政编码地区长大。这是一个,我的意思是,相当引人注目的例子。但你会看到很多数据集,并且,你知道,听到很多用例。还有什么其他的类似例子,听众可能不会意识到,你知道,数据中的这些盲点可能产生的影响?对。我的意思是,很多事情都发生在网上。

在地方一级,比如邮政编码,但医疗保健也在我周围的网络和圈子里经常被提及。居住在某个地区的人可能能够或不能获得某些医疗保健。因为周围没有医院或没有特定的医疗专业人员。

在他们所在地区拥有某些专业知识。所以这种情况经常发生。也发生在刑事司法系统中。但是,是的,我经常在医疗保健方面听到很多关于它的信息,在医疗保健方面听到很多关于它的信息。这取决于你居住的城镇地区,你能获得哪种类型的保险,以及你是否能够兑换你套餐中包含的服务。

对。我想要分享的一个有趣的,我不应该说有趣的。我想要分享的一个观察结果是几年前,

我的一个同事,她是一个单身女性,她喜欢进行这些公路旅行。她说,你知道吗,因为我经常独自旅行,我确保自己安全的一种方法是,每当我需要停车,比如说去洗手间等等,我从不去麦当劳。她总是停在 Cracker Barrel,因为它们就在高速公路旁,而且彼此之间的距离总是相同的。

我只是坐在那里,心想,等等,这太……但是如果你注意到,如果你考虑 Cracker Barrel 以及它们都在高速公路旁的事实,它们也位于覆盖各种邮政编码的地方。因为无论你在哪里,它可能是农村地区,也可能是城市地区,你都会看到一个 Cracker Barrel。如果我们有这种类型的连接性,那不是很美好吗?

同样地,但是是的。所以我只是想分享这个故事,就像一个小小的补充,说明我们如何能够正确地重新思考我们如何使用数据。因为我认为 Cracker Barrel 将其场所设在不仅是城市地区,而且仍然连接许多不同人群的地方。这是一种更公平的方式,以确保他们的业务在全国范围内发展,并且

不会使其反向,这将是一个只在城市地区的星巴克。

从我们第一次见面开始,我就希望我们的社区能够认识你,因为你散发着积极性,但你也是一位实用主义者和计算机科学家。很容易进行这些对话,并关注世界末日情景、机器人启示录以及数据管理不善的所有可怕后果。但另一个版本是谈论

潜在地将这些相同的技术用于善事。是的。我希望你能带我们了解对话的另一面。什么事情可能会好转?为什么有理由对这些技术在偏见领域以及打破阻碍我们文化和社会发展的某些孤岛方面所能做的事情持乐观态度?

我认为有一个很好的机会可以利用这些 AI 系统、工具和平台来指出一些差异并提供证据,对吧?因为人工智能不会忘记任何事情。它就像互联网一样,没有什么会被真正删除。因此,我特别喜欢看到人们如何回放录像带,对吧?

这些是 AI 工具可以使用的领域。比如,好吧,我们有这项工作或这个信息库,来自三年前、四年前、五年前、十年前。现在我们可以像数字电话簿一样调出它,并说,这个人说过这些话。这就是他们现在所说的。这是证据

所以,我认为实际上有一种方法可以使用 AI 工具来帮助区分这一点。我还认为,从另一个积极的方面来看,我认为有一种方法可以让我们被 AI 增强,因为有时我会坐在会议上

我相信你也有同样的问题,丹,那就是人们开始说术语。这就像术语汤一样。你只是坐在那里,心想,这到底是什么意思?因为你对它的理解是一种方式。别人的理解,因为他们来自不同的学科,有不同的解释。我使用某些方面生成式 AI 的方式是帮助我快速填补空白。

不是为了让它成为一个万能的工具,而只是为了让我知道,哦,他们可能指的是这个术语。现在,作为一名实践者,我可以问一个问题了。好吧,我正在和你谈论这个特定的话题。这是这个术语。我想确保我们清楚地了解双方对这个术语的理解。因此,

当我们讨论如何推进数据策略或实施时,我们说的都是同一件事,我们不会发出相互冲突的信号。所以我真的看到了好处。这确实意味着个人需要具备基本的背景知识,才能知道要问什么类型的问题。但我认为 AI 可以很好地帮助进行对话,并以更快的速度推进

向前发展,因为现在你有一个工具可以为你提供一点点知识,这样你就可以更高效、更有效率。

我还认为,AI 可以用于高等教育的某些方面,这将真正体现在专业方面和研究生身上。我对 K-12 和大学水平仍然有很多问题,但对于专业人士、已经获得一两个学位的成年人来说,我认为

拥有 AI 类型的导师或支持将非常有益,因为有时当你全职工作时,你正处于需要完成交付期限的过程中。

能够向 AI 快速提问将是很棒的。然后你可以得到答案。然后你可以继续你的日常工作,而不必停下来开会,进行所有这些讨论,然后回到你的工作岗位。所以我认为,正如我所说,对于已经获得一两个学位的在职成年人来说,我认为 AI 作为一种工具

同事在某些情况下可能非常有用。所以是的,我认为存在可能性。再说一次,我认为可能还有更多。我喜欢创作者空间和以某种方式创作内容。当然,我确实有一些问题,那就是缺乏对一些碰巧是黑人的创作者的认可。但是

人们有哪些方法可以不希望出现在视频中,却可以创建自己的化身,从而能够制作视频?或者,例如,那些神经多样化的人,他们正在努力将想法组合在一起,可以使用哪些方法?

AI 可以帮助他们将所有词云组合成一个连贯的句子,让其他人理解,对吧?我认为这些好处可以彻底改变我们如何变得更人性化,而 AI 是,正如我所说,支持,而不是替代。但是,再说一次,我认为……

我们的行业没有进行这种类型的对话。我认为对我来说最困难的事情是,当我从例如神经多样化的人那里听到他们因为使用 AI 工具而感到羞愧时。我说,不,我希望你这样做。如果它能帮助你并减轻你的焦虑,我宁愿你告诉我你正在使用它。因此,作为一名教师或其他什么人,我可以说,没关系。

然后你可以继续使用它,然后你可以在课程中更有信心,然后在学科中更有信心,然后能够继续前进,而不会被这些没有考虑到你的需求的传统学习环境所束缚。如果我们选择实施正确的防护措施并负责任地使用它,正如你所说,它是一个如此强大的推动器。

是的。因此,在这方面,我们最近与美国平等就业机会委员会专员 Keith Sonderling 进行了一次精彩的对话。他现在实际上是即将上任的副劳工部长。这是一次精彩的对话。他实际上,你知道,像你我一样,也是一位人工智能乐观主义者。他说雇主想要做正确的事情。其中一件事情

使用人工智能做出招聘决策的积极后果是,它揭示了人类之前做出的一些有偏见的决策。突然之间,数据揭示了我们可以如何改进。因为大多数雇主都希望招聘一个多元化的工作场所,并希望有各种各样的技能和背景。是的。

但由于文化原因,你知道,积累了几十年,他们很难做到。所以这是一个例子,说明人类想要做正确的事情可以通过负责任地使用人工智能来实现或增强。

这是否反映在你的工作中?你是否觉得人们普遍有意愿用人工智能做好事?或者你的客户会问你哪些关于如何以正确方式使用人工智能的问题?对。我的意思是,他们的许多问题都围绕着我们拥有的哪些数据实际上是有用的?因为我知道关于人工智能有很多讨论。

但我发现我的客户并不一定首先制定了数据策略。因此,他们有一些他们没有记录的数据工作流程,然后他们意识到,哦,我们在这里和这里有差距,我们需要填补这些差距才能采用某些 AI 工具。或者这就是我们采用的 AI 工具没有被优化的原因,因为我们有这些差距。

因此,很多对话都围绕着我们如何识别我们拥有的差距并填补它们?那么,我们不再需要收集哪些数据?我们应该收集哪些数据?我们应该为内部团队制定哪些原则?

因为营销团队将拥有与例如财务团队、法律团队或 DevOps 团队不同的数据输入和交换集。因此,他们都在试图了解他们接触数据的范围。这几乎就像他们有一个馅饼,每个人都在看着自己的一块。

因此,他们的问题是,好吧,现在我们明白了,有一个完整的馅饼。不仅仅是这些随机的切片。那么,我们如何确保馅饼组合在一起,并为我们提供全貌呢?这可能是令人望而生畏的。因此,有些人感到不知所措。但是,将它分解成每个团队可以完成的那些易于理解的任务,就成为了我工作的重点。

我提供指导,以便他们能够就他们真正需要使用的 AI 工具做出明智的选择。然后如何让他们的团队采用或在某些情况下不采用。因为这才是真正的摩擦点。组织中的一些人认为,让我们在任何地方都采用 AI。组织中的其他人则认为,不,永远不要。

那么,你如何将双方结合起来,尊重他们的立场,同时确保能够推进业务目标,并确保调整 KPI 以获得他们所需的投资回报率呢?这是一个复杂的问题,但这就是我在这里的原因。我在这里是为了处理复杂的问题,因为……

我喜欢它。有人必须这样做。有人必须这样做。我喜欢解开谜团。就像,哦,我正在解开一个谜团,我正在把谜团重新组合在一起。对吧?所以……

我喜欢这样。但是是的,这真的是我所在领域出现的问题,他们真的想做好事,但他们根本不知道从哪里开始。这是可以理解的。K-12 或高等教育中没有核心课程说,这是你需要的技能,或者这是你毕业前需要的 AI 流利度技能

你知道,高中或大学。你只需要在路上捡起东西,这是一个完全不同的谈话。我认为我们需要制定一项完整的数字技能要求,但我们可以把这个留到下次谈话。那是我们录制的下一集。是的。所以我想回到你关于医疗保健的例子。不是如果,而是当马歇尔博士统治世界的时候。

我给你一个权杖,你对那些被算法伤害的公民拥有最终权力。你知道,例如,他们的索赔被拒绝了。我们应该有什么权利去理解何时以及如何使用算法或人工智能来做出影响某些事情的决定?

比如医疗保健?因为现在没有披露的义务。你知道,这很隐蔽。是的。流程应该是什么?

当然,我会说这个过程需要非常透明,因为它现在非常不透明。医疗行业确实有自己的孤岛,这是故意的。因此,医疗机构中的一员可能不知道医疗机构中的另一个人在做什么,尤其是在保险方面。所以如果我统治世界,我会说这个过程需要是

注意何时使用算法来做出决定,特别是做出诊断。所以最大的挑战之一是病历。

作为个人获得病历,为家庭成员获得病历,特别是如果您是父母或监护人、老年护理、儿童护理以及介于两者之间的一切,对吧?合作伙伴等等。因此,拥有一个平台,无论您身在何处,您都可以访问您的记录

您隶属哪家保险公司。该记录与您个人相关,就像您的社会安全号码一样。因此,无论您走到哪里,您仍然拥有从医疗保健到视力保健到牙科保健的所有记录。

这是一个伴随您一生的数字包。非常像社会安全号码。如果我统治世界,那就是我想看到的。而在这份记录中,会有你与之交谈的医生,他们的笔记是什么,嗯,

任何类型的X光或进行的治疗,也将包含在该文档中。只是你与谁接触过,是什么时候,你之前的预约是什么时候,你的下一个预约是什么时候,都会在那里。现在,这是完成的,但它是基于……

您可能隶属的医院,因此他们拥有您记录的一部分。它可能与保险公司在一起。他们拥有该记录的一部分,但没有中央位置。所以如果我统治世界,那就是我会关注的地方。然后,是的,如果使用了听写工具,它将被记录下来。使用听写工具来完成来自如此医生的这些笔记,日期如此。

对。因此,如果发生在你身上,你无法为自己辩护,而你指定的倡导者可以是伴侣、家庭成员或朋友,它已经附加在你身上了。当你这样说的时候,听起来如此明显。是的。

对,因为现在我们有警报手镯,还有,你购买这项特定服务是为了通知你是否跌倒。我的意思是,还有所有其他使用的技术,但它们没有连接到中央系统。这意味着您必须访问该服务的登录信息并获得授权才能,我的意思是,这太多了。但这确实意味着,

您需要拥有强大的数据保护和数据安全,这样其他人就不会访问您的健康档案,然后试图冒充您或模仿您,对吧?这意味着需要对数据保护设置更严格的防护措施。但我的意思是,我不知道你怎么样,但数据泄露发生得如此频繁,以至于

在这一点上,将所有内容集中起来有什么害处呢?我们超时了,但我告诉你,这非常值得。我不会让你离开热座而不回答我最后一个重要的问题。是的。这个真的,是的。我想确保我们,呃,

我们有机会谈论这个。所以我猜想有一个小女孩版本的马歇尔博士。可能在某些时候,你知道,你收到了一些来自社会的信息,你知道,你不能……

在STEM职业中取得成功。你不能成为大学教授。你不能获得博士学位。然而你克服了。那么,你的榜样是谁,他们教你你可以取得你已经取得的成就?你有什么教训或建议给所有其他需要听到的小马歇尔博士,你知道,他们也可以成功吗?是的。谢谢你提出的问题。所以

哦,我会说什么?所以,首先,我上了私立学校。所以让我们把这个量词放在那里。我上了私立学校。所以我的父母,我认为,在确保我确实以教育为基础方面发挥了重要作用。所以这不仅仅是私立学校,就像私立学校是灵丹妙药一样。但他们非常积极地确保我,是的,完成了我的作业。

他们问我一些事情。他们在家里教我某些东西,对吧?我从我妈妈那里学会了如何数硬币。我从我爸爸那里学会了如何整理文件,对吧?所以我一直在做家务。所以我认为积极的父母和一个非常强大的教育基础非常重要。

我是一所女子高中的产物,所以我经历过任何类型的刻薄女孩的恶作剧,而且我经历得很早。所以当我上大学的时候,没有什么能让我感到震惊。

所以我肯定会告诉其他,我想,正在成长的小马歇尔博士,是的,没关系。你会超越的。是的,我认为那些最重要的榜样真的是我的父母。之后,一直都是一些为……

帮助支持看到我自己的愿景和看到我的潜力的某些个人。所以这真的取决于你周围的人。他们看到你了吗,还是他们试图利用你?

在我前进的道路上,有足够多的人看到了我并给予了支持,而不需要任何回报。所以我希望能够将这份恩情传递下去。这就是为什么我有黑人女性数据峰会,试图鼓励职业中期女性,特别是黑人女性,投资自己,相信自己。他们并不总是需要投资他人,他们可以投资自己。

这是一件好事。所以是的,你可以做所有的事情。你可以克服摩擦、冲突和人们的刻薄,方法是不让他们阻止他们的演出,不让他们使你的光芒黯淡,不让他们决定你的道路。跟随你的直觉,坚持下去,继续前进。精彩的回答。感谢你分享这些。不客气。

哇,这个飞速过去了,我们会让你回来的,因为我们才刚刚开始。是的。感谢你的陪伴。太有趣了。太有趣了。我很乐意回来。期待下一轮。你得到了公开邀请。当然,再次感谢共同的朋友凯·努涅斯促成这次介绍。在我们结束之前,观众在哪里可以了解更多关于你和你的伟大工作的信息?

所以你绝对可以在LinkedIn上找到我。那是我在数字世界中闲逛的地方。你当然也可以在我的公司网站dataedx.com上找到我。你可以查看brandicemarshall.com。这也会带你到Data EdX和黑人女性数据。但是是的,我通常在LinkedIn上闲逛,因为……

它提供了一些很好的信息。我们进行了一些热烈的讨论,并试图在数字空间中度过一些美好的时光。所以你可以在那里找到我。太棒了。好吧,伟大的工作。哇,这就是我们本周关于人工智能和未来工作的所有时间。一如既往,我是你的主持人,来自PeopleRain的丹·图尔钦。当然,我们下周将迎来另一位令人着迷的嘉宾。