We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Walter Sinnott Armstrong on AI and Morality

Walter Sinnott Armstrong on AI and Morality

2024/6/14
logo of podcast Philosophy Bites

Philosophy Bites

AI Deep Dive AI Insights AI Chapters Transcript
People
W
Walter Sinnott Armstrong
Topics
Walter Sinnott Armstrong: 人工智能的定义应广泛涵盖机器学习过程,即机器设定目标并学习改进实现目标的方法。构建人工智能道德体系面临挑战,单一道德体系(如功利主义或康德主义)难以满足所有人的需求。从下往上的方法,即从互联网数据中学习人类道德行为和价值观,存在吸收人类偏见的风险,且难以解释人工智能的决策过程。因此,最佳方法是结合自上而下和自下而上的方法,即混合方法。该方法需要识别道德相关的特征,并通过冲突情境来收集人们的意见,从而构建预测模型。该模型允许一定程度的地域差异,但必须设置限制以避免不公正,例如种族歧视。即使人工智能给出了道德决策,个人仍然可以表达不同意见并试图说服他人。在专业领域,专家的意见应该比普通人的意见更有权重,因为他们拥有更多相关知识。但如果专家和普通人都拥有充分的信息,那么他们的意见应该具有同等权重。人工智能在道德决策中可以作为辅助工具,帮助医生做出更明智的决定,而不是直接取代医生的判断。人工智能可以为其道德决策提供理由,方便医生进行审查和讨论,从而避免道德错误。许多道德错误是可以避免的,人工智能可以帮助人们识别并纠正这些错误。将人工智能应用于医疗道德决策还需要时间进行完善,预计在未来十年内可能实现广泛应用。人工智能在道德决策方面的应用范围很广,例如在医疗、招聘和军事等领域都有潜力。 David Edmonds: (主要为引导性问题,未形成独立的论述)

Deep Dive

Key Insights

How does Walter Sinnott Armstrong define artificial intelligence?

Artificial intelligence is broadly defined as occurring whenever a machine learns something, as learning involves intelligence. It often involves the machine being given a goal and learning new and better means to achieve that goal.

What is the challenge of programming AI with human morality?

The challenge lies in choosing which moral principles to program into the AI, as different ethical systems like utilitarianism and Kantian ethics conflict. There is no consensus on which moral system should dictate the AI's decisions.

What is the hybrid approach to introducing ethics into AI?

The hybrid approach combines top-down principles with bottom-up data collection. It involves asking people which moral features matter in a situation, refining those features, and building conflicts to train the AI to predict human moral judgments.

How does AI handle moral dilemmas like kidney allocation?

AI collects features that matter to people, such as age, dependents, or criminal records, and predicts which patient should receive a kidney based on these factors. It can also confirm or challenge a doctor's decision, aiding in the decision-making process.

What are the limitations of using AI for moral decision-making?

AI can inherit human biases from data, and its decision-making process is often a 'black box,' making it difficult to understand the reasoning behind its conclusions. Additionally, local values and expertise must be considered to ensure fairness.

How far are we from using AI for ethical decisions in hospitals?

While AI is already used in some kidney transplant centers for medical efficiency, integrating moral considerations is still in development. Walter Sinnott Armstrong estimates it could take about 10 years for such systems to be refined and widely adopted.

What are potential applications of ethics in AI beyond healthcare?

AI can be applied to dementia care, hiring decisions to ensure fairness regarding gender and race, and even military operations. These applications aim to introduce moral considerations into various decision-making processes.

Chapters
This chapter explores the challenges of programming human morality into AI, discussing the limitations of top-down and bottom-up approaches. It introduces the core problem of defining AI and integrating ethics into its decision-making processes, highlighting the complexities and biases involved.
  • Defining AI broadly as machines that learn and achieve goals.
  • Challenges of top-down (pre-programmed ethics) and bottom-up (learning from internet data) approaches.
  • The issue of human biases in AI algorithms.
  • The "black box" problem of understanding AI decision-making processes.

Shownotes Transcript

人工智能能否帮助我们做出艰难的道德抉择?在本期哲学点滴播客中,沃尔特·西诺特·阿姆斯特朗与大卫·埃德蒙兹探讨了这一想法。</context> <raw_text>0 这是哲学点滴,我是大卫·埃德蒙兹。还有我,奈杰尔·沃伯顿。如果您喜欢哲学点滴,请支持我们。我们是无资金支持的,所有捐款都将被感激地接受。更多详情,请访问www.philosophybites.com。人工智能能否帮助我们做出实际的伦理决策?

哲学家沃尔特·西诺特·阿姆斯特朗认为可以,他一直在与一位数据科学家和一位计算机科学家合作,试图建立一个系统,以帮助面临伦理困境的医生。沃尔特·西诺特·阿姆斯特朗,欢迎来到哲学点滴。非常感谢您邀请我。很高兴。

我们今天将讨论如何将人类道德融入人工智能。但我先从一个非常基本的问题开始,因为人们似乎对人工智能的定义五花八门。您对人工智能的定义是什么?

我认为人工智能的定义应该非常广泛。只要机器学习东西,就会发生人工智能,因为学习包含智力。特别是,在人工智能系统中,机器通常会获得某个目标,并学习实现该目标的新方法和更好方法。这就是人工智能发生的时候。

所以它包含学习。人工智能的一个关键组成部分是机器或算法在运行过程中学习。没错。而且它还有一个目标,它会尝试不同的方法来达到这个目标,测试哪些方法最有效,然后找到实现这些目标的新方法和更好方法。所以我想用人类道德来编程我的AI。听起来很容易。如果我是一个功利主义者,我就编程它来最大化效率。

或最小化痛苦。如果我是一个康德主义者,我就将康德伦理编程到机器中。这有什么问题?问题是,康德主义者不喜欢功利主义者,功利主义者也不喜欢康德主义者。是谁让你成为独裁者,来告诉其他人应该将哪种道德体系构建到机器中?选择哪些原则来构建机器是一个基本且困难的问题。

所以如果我们不能那样做,我们还能如何将伦理融入人工智能?有些人说,让我们搜索互联网,查找人们在互联网上发布的所有帖子。从他们购买的东西中了解他们的价值观。查看他们在电子邮件和在线聊天室中使用的语言等等。然后使用人工智能系统进一步

找出人类会说什么。所以它不是自上而下的,而是定义我们想要的原则,而是自下而上的。我们搜索互联网,看看人们实际上是如何在道德上行为或思考的,并根据我们在那里发现的判断和价值观构建算法。

没错。所以如果你看看像ChatGPT这样的东西,它会预测人类会对这个问题做出什么回应。

但它给出的答案可能不对。它可能没有道理。当然,人类会这么说,但这只是表明了人类的弱点。我能看到这一点,例如,如果你吸取人类的判断,你也在吸取所有的人类偏见,这可能包括种族主义和性别歧视以及我们在道德上所具有的其他所有缺陷。

另一个问题是你不知道它为什么给出那个答案。它给出了那个答案,但真正驱动它的原因是什么?现在使用的许多深度学习技术基本上是黑盒,你不知道幕后发生了什么。所以自上而下行不通,自下而上似乎也不行。有什么替代方案?

两者兼而有之,让它们一起工作。我们称之为混合方法。但其理念是,你需要一些原则,但你不想强加你自己的原则。所以你问人们,在道德情境中,哪些特征对你来说真的很重要?

在特定行为中的代理或受害者的哪些方面在道德上对你很重要。然后我们改进这些特征并将它们放在冲突中。让我具体说明一下。

假设有一颗可用的肾脏,因为发生了一起车祸,受害者是一位肾脏捐献者,一位器官捐献者。有两个需要肾脏的人。我们想问一下病人的哪些特征对哪个病人应该得到肾脏很重要。

人们会说诸如,他们在等待名单上等待了多久,如果他们得到肾脏能活多久,他们家里有多少孩子,或者他们是否有犯罪记录等等。我们收集对人们重要的这些特征以及我们自己的一些特征,重新检查它们以确保人们同意它们很重要,然后构建冲突。如果病人A是31岁,病人B是50岁怎么办?

那么有些人会说我们应该偏袒病人A。但如果病人A没有孩子,而病人B有两个依赖他们的孩子呢?那么你可以通过帮助有孩子的病人来帮助三个人。所以你问人们足够多的这些冲突,然后人工智能系统就可以预测他们在他们从未见过的全新集合中会说什么。当你所说的他们会预测……

你的意思是共识会预测,因为你和我可能会有不同意见。我们可能有相同的事实,我们仍然可能对只有一个肾脏的情况下谁应该得到肾脏有不同的看法。你可能是多数派。我可能是少数派。这是否意味着我们选择你的选择?

不。在这些医疗情况下,我认为你应该遵循当地的价值观。现在,我居住的北卡罗来纳州的价值观可能与你居住的伦敦的价值观大相径庭。因此,如果一家医院的价值观与另一家医院略有不同,这是可以的。如果北卡罗来纳州说黑人永远不应该得到肾脏,那就不可取了。所以是有局限性的。

但我认为有一些差异是可以的,当地社区并不总是拥有完全相同的规则。

你如何发现相关的限制?为什么种族无关紧要,而其他一些考虑因素是可以接受的,以便北卡罗来纳州可以得出一种结论,伦敦可以得出另一种结论?好吧,我必须向你提供我们关于种族主义有害的所有论点。而且,你知道,很有趣,我们谈到了康德主义者和功利主义者。他们对此意见一致,认为这是有害的。

当我们进行调查时,我们发现超过95%的人同意种族不应该重要。而那些说它应该重要的人通常会说,好吧,你应该偏袒黑人,因为他们之前已经遇到过很多其他问题。

因此,我们得到一个算法,它为北卡罗来纳州产生某些结果,但我住在北卡罗来纳州,我仍然不同意该算法提出的结果。这让我怎么办?好吧,这让你试图说服其他人。但这无论是由人工智能选择病人还是由医生选择病人,都会发生。这些都是困难的情况,永远不会有完全令人满意的答案。

你应该根据专业知识来权衡吗?我想,对于肾脏如何分配,街上的人可能会有非常不同的看法。

对于肾脏外科医生来说,似乎明智的是允许肾脏外科医生有两票或三票,而普通街上的只有一票。当然,这是有道理的,因为外科医生更了解肾脏交换的事实。当我开始研究这个时,我不知道你每周在透析上要花多少小时才能等待肾脏移植。

我认为可能是两三个小时。事实证明,它可能是每天六个小时,每周六天。这对你是否能照顾你的孩子以及你是否能保住工作等有很大的影响。因此,如果人们不知道这些事实,并且如果他们知道这些事实,他们会做出不同的判断,那么你就会偏袒那些知道事实的人的判断。

这通常是医院系统中的专家。但我们也可以关注公众,并通过告知他们来纠正他们的错误,看看他们在获得更多信息后是否坚持这些判断,他们更好地理解情况是什么。那么,如果他们都同样了解情况,我看不出有什么理由偏袒专家而不是普通民众。

在实践中,人工智能将如何在这种特定情况下提供帮助?所以我们输入所有数据,人工智能将抛出一个结果,我们希望每个人都能遵守。是的,我们希望每个人都能遵守它,但它也可以确认。例如,如果一位医生说,我认为它应该给乔,这颗可用的肾脏应该给病人乔。

医生并不总是完全有信心。如果人工智能说,是的,它应该给乔,那么这就是确认,并帮助医生。但如果医生说它应该给乔,而人工智能说,不,它应该给莎莉,现在我们意识到也许我们需要更仔细地研究这个问题,并要求其他人输入。因此,该系统并不一定决定最终答案,但它在过程中可能会有所帮助。

你认为实际发生的情况是我们将决策外包给人工智能吗?因为我们看到,如果我们开车,我们的卫星导航告诉我们向左转,而我们通常会向右转,我们会很快学会,如果我们向右转,就会出现严重的交通堵塞,我们应该遵循人工智能所说的。我的意思是,实际上,医生不会去看人工智能的决定,然后就照办吗?

所以他们可能会也可能不会。我不知道你认识哪些医生,但我认识的医生往往不会照办。我认为他们会问为什么?为什么人工智能选择病人A而不是病人B?现在,如果你自下而上地做,只是搜索互联网,你就无法充分回答这个问题。但请注意,我们有这些在道德上相关的特征。

人工智能将能够说,因为这个特征和那个特征。所以它可以给医生一个理由。现在,医生可以说,我认为你对这些其他原因的重视程度不够,并可以与之争论。然后我们可以求助于更高的权威,医院里的伦理委员会。但医生可能会说,哦,你说得对。我没有想到这一点。

因为我认为我们社会中发生的许多不道德行为或道德错误都是人们如果指出的话会认识到的。因此,至少在这些情况下,医生可能会说,这台机器帮助我避免了犯错。

需要肾脏的人比肾脏多得多。我们距离一个新的系统还有多远,在这个系统中,人工智能可以帮助医生做出关于如何分配肾脏的决定?因此,人工智能已经在一些肾脏移植中心使用。

但不是出于道德目的。我们选择肾脏的一个原因是我们知道它已经被用来以最有效的方式分配肾脏,以便服务于更大的医疗原因。现在我们说,如果你能出于医疗原因做到这一点,那么也加入道德原因。

我们距离让医院实际使用这个系统还有多远?看,我不希望他们现在使用这个系统。我们有我们的小系统,它运行得很好,但我们需要对其进行更多改进。我们说的是未来10年。但从现在起10年后,我不会感到惊讶。

伦理在人工智能中的应用有多广泛?我们特别讨论了肾脏。这能走多远?它可以走很远。

我们已经在研究痴呆症和晚期痴呆症患者的偏好,并使用来自患者的数据来预测他们想要什么。我们正在与商学院的人们讨论将其用于招聘,以某些方式将道德考虑、性别和种族方面的公平性引入招聘决策。

我们与美国西点军校的军方以及特种作战部队都有联系。他们都对使用这种技术感兴趣,不是因为他们认为它会奏效,而是因为他们认为值得一试。沃尔特·圣·阿姆斯特朗,非常感谢您。非常感谢您邀请我。

更多哲学点滴,请访问www.philosophybites.com。您也可以在那里找到哲学点滴书籍的详细信息以及如何支持我们。