AI无处不在!从你渴望的墨西哥卷饼外卖到驾驶的汽车,再到可能需要的临床试验——它正在重塑我们的世界和工作。基于AI的技术正在帮助解决几乎每个学科、行业和人类努力中的复杂问题。在医疗保健领域,人工智能更是改变游戏规则的技术。基于AI的技术在许多方面比人类单独完成的工作更快、更好,并且未来还有更多潜力。随之而来的是许多问题、可能性以及合理的担忧。在本期节目中——我们将探索AI在改变医疗保健方面所扮演的角色——我们从基础知识和宏观视野入手:什么是人工智能?我们如何确保AI对所有人都是安全、公平且有益的?医疗保健专业人员应该如何思考并将AI整合到临床环境中?我们联系了资深研究员、计算机科学、机器学习和AI领域的领先专家Peter Stone博士,以及护士律师和生物伦理学家Liz Stokes法学博士、文学硕士、注册护士,来探讨这些问题,并深入研究美国护士协会(ANA)的立场声明“护理实践中人工智能的伦理使用”,以及麦肯锡公司(McKinsey & Company)的报告“护士对AI在医疗保健交付中的观点脉搏”。他们共同探讨了AI在医疗保健领域的变革潜力,以及如何确保AI安全、公平地为所有人服务。在本期节目中,您可以在www.seeyounowpodcast.com找到相关资源,有关播客套装的更多信息,请访问ANA的创新网站www.nursingworld.org/innovation。对SEE YOU NOW团队有疑问?反馈?未来的剧集想法?请联系我们:[email protected]。</context> <raw_text>0 《与你相见》是一档播客节目,重点介绍护士为解决当今最具挑战性的医疗保健问题而提出的创新型和以人为本的解决方案。该节目由强生公司和美国护士协会合作创建,由护士经济学家和健康科技专家肖娜·巴特勒主持。
人们没有意识到人工智能已经嵌入到他们每天使用的许多事物中。订购东西或解决问题。AI不是一项技术。AI是许多不同技术的集合。但是,当你在医疗保健中加入AI时,它就是一个改变游戏规则的技术。
我们不想从护理中去除人为因素。护理是一种非常个人化、亲密和人性化的行为。你的技能、你自己的临床决策是无法替代的。我认为,为那些开发将AI算法融入其中的AI工具的人们来说,
从一开始就与最终用户进行沟通非常重要。我们知道,输入到我们的医疗系统中的大部分信息,特别是我们的文档,都来自护士。你需要准备好不断学习,不断思考最新的工具和技术,并发挥创造力。欢迎收听《与你相见》。我是肖娜·巴特勒。
AI无处不在,它正在改变我们从推荐墨西哥卷饼、跑鞋和浪漫伴侣到指导我们的导航系统、投资组合和临床试验的一切方式。虽然基于AI的技术正忙于解决复杂的问题,但它也在每个行业、每个劳动力以及每个人的生活和未来中掀起了巨浪、引发了轰动和兴趣。
在医疗保健领域,人工智能是一个改变游戏规则的技术。基于AI的技术在许多方面比人类单独完成的工作更快、更好,并且未来还有更多潜力。随之而来的是许多问题、可能性以及合理的担忧。我们如何确保AI有益而非有害于护理、临床医生和社区?
我们在开发可能延续偏见、覆盖临床洞察力和直觉或低估人类存在价值的技术时,是否忽略了意外后果?护士正在带头提出并帮助解答这些问题。在本期节目中,我们将探讨AI在改变医疗保健方面所扮演的角色,
我们将从基础知识和宏观视野入手。什么是人工智能?我们如何确保AI对每个人都是安全和公平的?无论我们如何使用AI,在临床环境中思考和使用AI的最佳方法是什么?
为了探讨这些问题以及更多问题,我们联系了一位专门从事生物伦理学的护士律师,以及一位资深研究员和计算机科学、AI和机器学习领域的领先专家,请他们概述AI、它将成为医疗保健的改变游戏规则的技术,以及我们如何确保AI对每个人都是安全且有益的。
我的名字是彼得·斯通。我是德克萨斯大学奥斯汀分校的计算机科学教授。我也是德克萨斯大学奥斯汀分校的德克萨斯机器人研究所主任。我还是索尼AI的首席科学家,在那里我们思考如何将大型、雄心勃勃的项目带入创造性流程。我还担任许多外部职务。我曾是
人工智能百年研究的首个研究小组报告的主要作者。直到最近,我还是国际机器人足球联合会的会长,这是一个致力于在2050年前创造能够在真正的足球场上击败最佳世界杯足球队的类人机器人的组织。
我对与护士合作开发人工智能程序的可能性感到非常兴奋,这可以让人们腾出时间来提供非常必要的人文关怀,并改善所有人的医疗保健。所以,彼得,麦肯锡在2024年10月发布了一份报告。
标题是《护士对AI在医疗保健交付中的观点脉搏》。它表明,人们对AI驱动的工具持乐观和兴奋的态度,但这同时也伴随着一种愿望和担忧,即对确保不会牺牲护理质量的些许犹豫。
因此,为了维护这种平衡,护士们正在以许多不同的方式做出回应,但他们非常渴望更好地了解AI的工作原理、AI是什么,并为如何在临床环境中最好地使用这项技术提供意见和指导,以便我们能够照顾好病人。在我们AI发展的早期阶段,
驱动护理转型。护士需要了解什么?他们需要做什么?他们需要参与什么并发挥领导作用?所以我们向你敞开心扉,彼得。作为一位资深研究员,你是一位计算机科学领域的专家,但实际上是学术界、私营部门的领导者,以及机器学习、AI、多智能体系统、机器人技术的领导者,
我们正在寻找对AI的概述,以及这项真正强大、具有挑衅性和关键性技术的含义和影响,以及它对我们所有人的生活、社会、地球的影响,并确保它是安全的,对每个人都是安全且有益的。所以我想从你这里开始,首先描述一下什么是AI,什么不是AI,以及此刻真正需要了解什么。
谢谢,肖娜。是的,这些都是很好的问题。我认为最重要的起点是认识到AI不是一项技术。AI是许多不同技术的集合。记住这一点非常重要,因为有一些人工智能程序,比如ChatGPT,可以帮助你写信之类的东西。
这是一种完全不同的AI工具,可以帮助某人阅读乳房X光照片或帮助诊断某人,甚至现在也有机器人试图帮助护士完成部分工作。如果你记住人工智能是许多不同的技术,它不仅仅是你可以在某个行业中随意添加的东西,然后突然改变它。这里和那里有一点AI魔法。是的,它不起作用。你需要嵌入……
将人工智能算法嵌入到专为你的目标行业(在本例中为医疗保健)设计的专用工具或程序中。它需要算法的能力与领域专家相结合,以找出帮助人们减少工作中枯燥乏味方面、并让他们能够做到
最好地发挥人们所需要的作用。与大多数行业一样,有些部分感觉有点像苦差事。人们从事护理是为了提供人文关怀,与病人互动,
而不是把亚麻布从这里搬到那里,对吧?这不是你回家后会说的话,“我很高兴我花时间从一个地方走到另一个地方”。因此,你实际上有更多的能力,你可以更多地沉浸在你工作的创造性方面。这适用于许多不同的行业。因此,对AI工具使用方式的乐观观点是,它们减少或消除了工作中不需要人为接触的枯燥乏味方面。
它们为人们腾出时间和空间,让他们充分发挥自己的优势。当然,另一方面也可能发生,即AI程序正在做人们想做的事情,而让他们去做枯燥乏味的事情。这将是最糟糕的结果。因此,我认为,为那些开发将AI算法融入其中的AI工具的人们来说,
从一开始就与最终用户进行沟通非常重要,以了解哪些部分应该并且可以自动化,哪些部分应该留给人为因素。在2016年我帮助领导的人工智能百年研究(AI 100)报告中,有一节内容是关于编码和关怀的。所以报告中有一节是关于这个的。而且,
其中一个结论是,我们不想从护理中去除人为因素,护理是一种非常个人化和人性化的行为。这不是应该完全自动化的东西。这是我们应该引入AI工具来放大护理中的人性和人文关怀的东西。我想补充一点,我们在科学报告中经常看不到的是神圣性。有人性,也有神圣性。
你说AI是一组技术。因此,当我们谈论AI是一组技术时,构成AI的技术集合是什么?很明显,许多人是从科幻小说、电影、书籍中了解AI的。如今,每个人都算是AI专家。人们会说,“哦,自从ChatGPT发布以来,我一直在使用它。所以我从一开始就在做AI。”但当然,AI领域是在75年前引入的。
从历史上看,它起源于计算机科学,但它已经发展成为更加跨学科的领域,社会科学和人文科学领域也有真正的专家。这非常重要。你问到了定义。
实际上并没有普遍接受的人工智能定义,但我们一起制定的定义……很好,很好,是的。我的意思是,仅仅是因为没有人能够真正定义智能,对吧?智能是人们所做的事情,还是,你知道,狗也有智能吗?计算器有智能吗?实际上并没有普遍接受的智能定义。因此,人工智能也是如此。
但我们在AI 100研究中得出的定义是,它是一门科学和一组计算技术,这些技术受到人们使用神经系统和身体来感知、学习、推理和采取行动的方式的启发,但通常运作方式与之大相径庭。所以,其理念不是完全复制人类。
而是创建能够做人们在被认为是智能行为时所做的事情的计算机程序。它不仅仅是深度学习或大型语言模型。还有一些领域,如计算机视觉、规划、符号推理。有算法博弈论、计算社会选择。
人机计算、强化学习。如果你参加人工智能会议,你会看到关于这些主题的各个单元,它们都在关注智能的一个组成部分或一个方面。人工智能的长期宏伟目标是将所有这些结合起来,形成更普遍的智能、更强大的智能,能够像人们一样通过语言、视觉和触觉来感知世界
他们能够像人们下棋或规划从家到办公室的路线那样进行推理和深入思考,并能够在世界上实际行动和执行他们的行动,然后观察这如何改变他们的感知。另一个有时被反复提及的词是自主代理或人工智能代理。代理可以是机器人,也可以只是一个计算机程序,它必须感知、决策和行动。
在一个我们所说的闭环中。换句话说,它们不需要人来为其执行动作或提供感知,它可以感知、决策和行动,获得新的感觉,再次决策,再次行动,并以此类推。这就是代理,AI代理正在做的事情。天哪,这听起来非常像护理流程。
你刚才描述的所有这些不同类型的技术,在医疗保健中没有一个地方我们的医疗保健专业团队、护士,你提到的任何东西我们都不会使用、需要、激活。所以,这是一个巨大的沙盒,我们可以在这里玩耍和工作。而且,我们越来越多地听到生成式AI、AI。
我们在新闻标题中听到它,在我们生活中感受到它,我们看到投资,你会认为它就像一件非常新的东西,而事实上,它已经嵌入到我们生活中和我们所做的事情中,我们依赖它,以至于我们已经不再把它当作AI来思考了。这是一个过渡时刻,我们感觉正在发生很多变化。
公众对AI的看法如何?它是如何演变的?然后,我们如何为那些面临深刻变化、机遇和担忧的医疗保健劳动力做好准备,因为感觉就像一股巨大的AI浪潮正在向他们袭来?
是的,有很多不同的东西需要回应。但我认为首先,你知道,你说人们没有意识到人工智能已经嵌入到他们每天使用的许多事物中。这是非常正确的。另一个定义,更像是一个戏谑的定义,有时人们使用AI来尝试让计算机做他们还无法做的事情。
但一旦他们能够做到,那就是工程学。它不再是AI了。情况确实如此。我是一名博士生。这是一个非常前沿的AI问题,试图弄清楚如何让计算机听你说话,说出你的电话号码或信用卡号码,并理解使用了哪些数字。其背后的技术被称为隐马尔可夫模型。而且它
正在被开发和完善。如今,人们甚至不再认为这是AI了。你只是理所当然地认为你可以打电话给你的信用卡公司,把你的号码说进电话里,它就会识别出来。许多不同的技术都是如此。如果你有一个微波炉,你只需要按下加热土豆按钮,
这也是一项AI技术,现在已经被理所当然地接受了。我认为公众的看法会随着他们认为是AI的东西而变化。所以现在你问人们,你知道,什么是AI?他们会想到ChatGPT,或者他们会想到语言模型。
但我认为我个人对公众对人工智能的细微差别水平感到非常高兴。就像我说的,过去人们要么认为它全是好的,要么认为它全是坏的。这是通过科幻小说、媒体来实现的。现在,我看到越来越多的报纸文章、电视节目都采取了更平衡的观点,他们说,看,有一些真正令人兴奋的可能性,
例如,自动化医疗保健的某些方面,但也有一些我们需要记住的风险和危险。如果我们做得不对,情况可能会变得更糟,而不是更好。然后实际上阐明其中的一些是什么。我认为这对我很鼓舞人心。
看来,论述水平、细微差别水平、理解水平都在提高。如今,每个人都需要成为人工智能方面的识字者,就像我们希望人们能够识字一样,他们需要知道如何阅读。他们需要在数字方面有素养,这意味着他们需要了解数字是如何工作的。我们在小学和中学教授这些基本概念。我认为我们正处于AI素养达到这种必要基本技能水平的阶段,对于那些肯定从大学毕业的人,可能还有高中生,甚至现在的小学生和小学生来说,都需要接受一些关于人工智能究竟是什么、什么不是、它能做什么、它不能做什么、什么是现实的、什么是科幻的教育,学习一些如何使用现有工具的方法,并且能够
有信心并不断更新你的技能和理解,因为技术将继续进步,你在2024年学到的任何东西都将在2029年过时,甚至在2026年可能也会过时,谁知道呢?你需要准备好不断学习,不断思考最新的工具和技术,
并发挥创造力,思考如何利用它们来改善你的工作,提高你的效率,因为你已经尽可能多地花时间去做你热爱的工作。所以当你想到……
目前的现状,就像我们对AI的能力和局限性的了解一样,我是在这样一个时刻问你这个问题的,在这个时刻,全球各地的医疗系统正面临着巨大的压力:人口老龄化、劳动力老龄化、预计和目前的劳动力短缺、令人不堪重负的精神健康危机、获得医疗服务的差距和不平等、医疗成本不断上升、地区性压力,如自然灾害、冲突地区。好的,这就是我们今天的医疗保健,对吧?
你认为医疗保健最应该兴奋的是什么,最应该谨慎的是什么?我认为最令人兴奋的是能够在非常普遍的层面上提高许多流程的效率。通常情况下,专家之间并没有完全的沟通渠道。我认为AI工具可以……
可以对此有所帮助。如果你有一个AI助手,它了解你与你的全科医生的谈话,也了解你与你的足病医生或内分泌医生的谈话,那么可能会建立一些联系,如果他们不直接相互沟通,他们将无法做到这一点,而他们根本没有时间这样做。因此,我认为在后端物流和协调方面存在各种可能性。这些是
完全自动化的机会,对于那些实际上可以做到的事情,你可以使用一个程序,一个AI程序,并可能做到。我认为在你不信任AI系统单独工作的地方,也有人工智能合作的机会,因为,你知道,存在一些风险。有,你知道,幻觉。它们并不总是值得信赖的。它们确实会编造东西。认识到这一点非常重要。但它们听起来非常权威。它们确实听起来很权威。
它们自信地编造东西,对吧?但这实际上并不是一个,你知道,如果你了解它们的训练方式,那就是它们被训练去做的事情。它们被训练成听起来合理。它们没有被训练成正确的。人们正在努力使这些工具更准确。而且我相信情况会好转。但它们有时会不准确,这并不应该令人惊讶。它们可以成为优秀的专业人士。
用于集思广益。它们可能会提出一些你从未想过的事情。这可能是因为它是错误的,在这种情况下,你应该丢弃它。这可能是因为它正确,但你没有想到。如果你能够验证它,那么这实际上可能是一个很大的帮助。所以,像那些了解
工具的优势和劣势的人可以利用它们来放大护理的各个方面,很明显,单独的人类比单独的计算机更好。但你可能会让计算机和人一起工作,比两者都好。诊断可能就是其中一个例子,对吧?我不会相信AI模型会自己进行诊断。如果由我决定,我希望由人来做出这个决定。但如果这个人能够
能够使用工具来更好地做出决策,并且他们仍然承担最终责任,仍然做出最终决策。我认为这将是一个巨大的胜利。另一个值得提出的问题是,有时我们确实有幸从护士或医生那里获得个性化护理。许多人可能无法获得这种服务。然后问题是,它比没有好?在许多情况下,AI工具将比一个全神贯注地关注你半个小时或预约时间的人更差。
但可能比完全没有获得任何服务要好得多。因此,这些是我们必须考虑的其他因素。当然,危险在于,如果医疗保健提供者选择成本更低、质量更低的解决方案,这可能不是我们想要达成的权衡。
因此,我们必须防止这种情况发生。然后是另一个问题,即隐私和安全。我们信任谁来保管我们的信息?当你开始使用AI工具时,它仍然很模糊。你向谁提供了你的信息?这有什么影响?这仍然是人们正在努力解决的问题。这不仅仅是一个技术问题。这也是一个法律问题。这是一个伦理和道德问题。
你是这个非常有趣的组织——人工智能百年研究(AI 100)——的一部分。它汇集了专家,学术界、行业类型的专家、研究人员走到一起。
我发现AI 100组织中很重要的一点是,该声明是,我们有义务和资格就人工智能将如何影响我们的孩子和孩子的孩子进行对话。我们如何记录?我们如何设定一些目标?我们如何制定一些保障措施,帮助我们定义和理解什么是AI以及它如何影响我们的生活?你最早的一篇文章的标题,我喜欢这个,
AI在日常生活中的渗透性影响、希望、担忧和方向。它感觉非常有意识、细心和警觉,这是一种非常强大的东西。我们需要怀着希望和谨慎的态度来进行。因此,AI 100旨在将AI专家汇集在一起,
AI内部人士或专家,他们在不同的学科视角之间工作,但长期以来一直在深入思考技术和社会影响。并给出这种清醒的观点,因为它确实倾向于在小说中被夸大,即人工智能要么会毁灭世界,要么会创造乌托邦,拯救一切,为每个人创造休闲生活。它既不是这样,也不是那样。它介于两者之间。因此,我们试图脚踏实地。
所以我要从非常个人的角度向你提出这个问题,彼得,作为病人。因此,根据你作为研究人员所了解的情况以及我们目前的现状,你认为医疗服务的哪些部分,是的,我真的很乐意让AI来管理?是的,我们还没有达到那个阶段。它还没有达到可靠性、准确性、个性化、敏感性和谨慎性的水平。
让它参与我们医疗服务的这一部分。所以,是的,就像我说的,彼得,病人彼得,带孩子的爸爸。这是一个很好的问题。它随着时间的推移而变化。我的意思是,我相信我正在与之互动的医生或护士知道他们能够做什么,以及在进行困难的敏感程序时,什么能够自动化。我想能够与人交谈。我想能够提出问题,
当我被开了一些常规药物时,我想知道所有副作用以及我应该每天服用多少次。以及是否应该与食物一起服用等等,我很乐意从程序中获取这些信息,并在我的自动化图表中查找。但如果我想说,你知道,风险是什么?或者长期影响是什么?或者这与我正在服用的其他药物如何相互作用等等,我想能够与人交谈。部分原因是,
信任以及信息是否正确。部分原因是,正如你所说,护理作为一件人的事情的神圣方面。我想知道是否有人类正在思考我的健康,思考什么对我最好,并把我视为一个整体的人。
而不仅仅是一个数据点。但是,人们也不是不会犯错。有很多研究表明,人们在饥饿时和不饥饿时会做出不同的决定。偏见会潜入其中。不同背景的人会得到不同的护理,得到不同的建议,而他们可能不应该得到不同的建议。我认为人工智能程序可以纠正人类判断和人类推理的缺陷。
人工智能程序也存在缺陷和弱点,这些缺陷和弱点可以由人类来纠正。对此已经有大量的数据。甚至可能是一个AI系统能够比人更好地统计性地读取X光片。而且我个人会……
在那时发现,如果这个人不使用能够检测人眼无法检测到的细微差异的程序,那将是疏忽。但我仍然相信这个人能够知道,对于这种类型的图像,对于这张X光片来说,程序是否擅长?它有多好?应该信任它多少?并加入这种人为判断。我不希望作为病人来决定,应该是医生还是AI系统?我希望医生知道这一点。
研究员和计算机科学专家彼得·斯通凭借其众多角色而忙碌,其中包括德克萨斯大学奥斯汀分校人工智能实验室学习代理研究小组的创始人兼主任、德克萨斯机器人研究所主任以及索尼AI的首席科学家。♪
正如彼得提到的那样,AI提供了许多关于提高流程效率、消除工作的枯燥乏味以及自动化易出错任务的希望。但当他说“我想知道是否有人类正在思考我的健康,思考什么对我最好,并把我视为一个整体的人”时,他也提到了我们许多人共同关注的一个问题。
这是我们下一位嘉宾在AI自动化某些任务、创造新的可能性以及呈现持续存在的伦理问题时思考的众多担忧和目标之一。嗨,我是丽兹·斯托克斯。我是美国护士协会伦理与人权中心的主任。
我是一名护士律师生物伦理学家,我对人工智能以及护士如何在推动AI发展方面发挥真正作用感到非常兴奋。当我想到我们现在所处的位置时,潜力是巨大的,AI与医疗保健的交叉点也是巨大的。护士处于领先地位,我们应该处于领先地位,并真正帮助继续推动变革。
所以,丽兹·斯托克斯,你最近一定很忙,因为我每天都看新闻标题,没有任何东西不包含“AI”、“人工智能”、“生成式AI”这些词,它们涵盖了全部范围。我认为,如果我认为人们对AI在
在医疗保健、医疗保健交付、医疗保健教育、医疗保健实践中的关注度非常高,我并没有夸大其词。而我想要来找你的原因是,我们必须谈谈所有这一切的伦理问题。没错,没错。我认为你说的很对,肖娜。当我想到AI时,它已经存在了很长时间。
它已经存在于公众视野中很久了。想想我们为了方便订购东西或解决问题时使用的 AI。但是,当你在医疗保健中加入 AI 时,它就是一个改变游戏规则的东西。恐惧因素也随之出现,比如,好吧,会发生什么?事情发展得太快了。我该怎么办?医护人员确实非常担心,他们应该担心。
人们真的睁开了眼睛,开始提问。我认为这很好。这是一个进行对话的时机。我认为我们在许多不同的学科中都在进行这样的对话。然后我们集体进行对话,这也是一个好处。我觉得这与过去不同。我们过去常常处于孤立状态。医生在这里谈论某事,护士在那里。社会工作者在那里。但现在它同时影响着所有人。我们都在一起。
麦肯锡公司最近发布了一份报告,名为《护士对医疗保健交付中人工智能的看法脉搏》。他们发现,你知道,样本量相当大,但他们发现人们对 AI 驱动的工具持乐观和兴奋的态度。
但这种乐观和兴奋被一种愿望所调和,即确保不会牺牲护理质量。我想和你进行这次谈话的原因是,在所有这些努力理解、构建、共同创造、商业化以及拥有这些强大工具的过程中,我们不能不认真地、严肃地暂停一下,思考伦理问题。
以及指导方针。这就是为什么我认为我们会求助于你,一位伦理学家、护士,以及一位思考平等、权利和社会正义的人。你是如何看待 AI 的定义的?因为我们今天所说的 AI 与两年前、五年前所说的 AI 并不相同,而且未来两到五年可能也不会相同。你问这个问题真有趣,因为当我们开始
谈论伦理和 AI 时,那是在 COVID 之前。我们撰写了一份立场声明,你知道,重点介绍了 AI。COVID 来了,所以我们暂停了一切。然后我们在 COVID 之后发布了它。在我们发布大约四个月后,生成式 AI 出现了,ChatGPT 出现了。就像,好吧,太好了。
所以我们已经过时了。因此,你知道,当我们谈论 AI 的定义时,我们真正关注的一件事是,它必须是一个广泛的术语,因为它发展得太快了。有如此多不同类型的 AI,对 AI 的解释也如此之多。我们不想陷入对措辞的细致推敲。护士什么都知道。
AI 是什么,对吧?他们知道有一些算法或其他正在发生的事情,而不是人正在做的事情。所以我们真的有意要广泛一些,但也要谈论
你可能在你的电子健康记录中看到的决策。它可能是你可能在你的病房走廊里看到的机器人技术的一部分。所以我们试图帮助护士看到 AI 的实用性,而不会迷失在,你是否理解机器学习和深度学习?就像我们真的从很多护士那里听到过,
帮助我理解这是什么,这样我才能确保我安全地使用它,我的病人安全地使用它,我甚至知道它在我的机构、我的医院里被使用。因此,我们在定义 AI 时有意地广泛一些,并真正帮助人们理解它具有预测性。
它有助于预测任何结果,并且它基于输入的信息。这是关键。这就是护理真正产生如此巨大影响的地方,因为我们知道输入到我们的医疗系统中的大部分信息,特别是我们的文档,都来自护理。因此,护士了解他们写下的内容至关重要
可能会被使用,以后可能会被用于某种数据输出,这对他们自己或他们的病人的决策产生重大影响。那么让我们谈谈恐惧的部分。你听到了什么?你听到了哪些恐惧?我曾在一次针对肿瘤科护士的护理会议上就 AI 和伦理问题作了报告。
我走下舞台时,一位护士走到我面前,她说,我真的很担心我们医院的 AI,因为它被用于我们病人的决策算法中。算法可能说一件事,但我从多年的实践中知道,这并不是我的病人身上发生的事情。Shauna,她非常激动,因为她觉得
算法正在代表她为她做出临床决策,她感到非常受到威胁。当她在医院提出这些担忧时,她告诉我,护士们面临着受到处分、被送交护理委员会的威胁,因为他们质疑了算法。这让我震惊了。
因为这是伦理的标志,我们说没有任何技术,没有任何东西可以取代你自己的技能,你通过教育学到的临床决策能力,你多年经验中学习到的东西。并且认为有一些非人类的东西正在挑战这一点。
为了说出来,这位护士感觉没有得到支持,并感觉自己可能会受到处分。然后,当然,我们听到了对经济流离失所的恐惧。所以,你知道,我们听到了这一点,并且有数据可以证明这一点。再说一次,我们真的……只是为了消除这种说法。是的。AI 不会取代护士。AI 将取代护士不需要做的事情。
我听说 AI 将取代护士、放射科医生或任何不使用 AI 的人,但这仍然是在助长被取代的恐惧。关键是,更积极的一面是,我们有了更好的、更智能的工作方式,这意味着你可以做只有你才能做的事情。这是一项核心技术之一,它不断地提升着每一个人的技能
在护理参与链中。Shauna,我听到你描述的是在护士中建立信任。护士必须能够信任算法,信任 AI,这样他们才能安全地使用它,他们才能确信他们的病人会从中受益。
以及平衡,因为这就是伦理,是一种平衡,这种 AI 使你的生活效率有多高?你有没有见过护士在轮班时在整个病房走动的足迹地图,他们到处拿东西,他们去……
然后我们有机器人,现在有 AI 机器人可以帮忙拿东西。所以效率很高,对吧?所以你花更多的时间与你的病人、你的家人面对面。在这种情况下,AI 正在帮助你,对吧,作为一名护士。
但是如果你考虑那些非常害怕“我不信任,如果它给我带来了错误的用品怎么办?”的护士,他们真的在质疑这是否会帮助他们。这不仅仅是针对护士的。帮助人们理解 AI 不是 100% 正确的。但目标是提高我们的生活效率。这样产生的输出将比人类具有更高的准确率。
我们在放射学领域看到了这一点,它能够识别肉眼无法捕捉到的东西。有很多数据可以真正显示 AI 对医疗保健产生的积极影响和力量。所以这是平衡,是时间。我认为护士们将不得不继续使用它、理解它、体验它。
在我们到达我们感到舒适的地方之前。这需要时间,也需要信任,因为我们继续体验和参与技术,才能到达我们舒适地使用它的地步。目前的 ANA 伦理准则
在规范中写得很清楚,第一,护士必须确保这些技术不会危及人际互动和体验的本质,所有角色的护士都应对在护理实践过程中做出的决定和采取的行动负责。他们还负有在制定和实施方面的领导责任
护士有责任了解如何确保 AI 的适当使用,并且我们对它的理解足够充分,能够向我们正在照顾的病人解释它。对于一项许多人,我仍然不够了解以至于我觉得的技术来说,这有很多伦理准则、要求和责任
我可以为此负责。这很有趣。人们总是说,我在伦理规范中没有看到人工智能。我们说这个词不在那里。
但情感在那里。它正在谈论先进技术。我一直这么说,填上这个词。伦理没有改变。技术变了,但伦理仍然一样。对护士来说,真正重要的是要再次理解,决策过程不能被任何东西取代。通过 AI,通过机器上的监控器。如果由于某种原因,你的机器输出告诉你血压不是你认为的那样,
这项技术并不能取代你的批判性思维。所以我们真的帮助护士理解,确保某些东西对你的实践有效,它不会占用你进行护理所需的时间,你与病人相处的时间,你与家人相处的时间,你进行评估的时间,我们都知道的护理技能、科学和艺术。
AI 应该帮助利用这些东西,而不是从中夺走。我们经常听到的一件事是,护士说,哦,好吧,我们有这个 AI,所以我们不需要那么多护士。就像,不,永远不会,永远不会。这不是正确的答案。所以大声说出来很重要。真的大声说出来很重要。我现在听到的问题是,好吧,我向谁说出来?
当我遇到这个问题时,你知道,很多组织没有技术委员会,或者有些有。有些有 AI 技术委员会,或者他们有人代表护理和技术在他们的地区或机构中,但许多没有。
所以我们正在帮助护士意识到这是一个伦理问题。去你的伦理委员会,去你的董事会,去你的共享决策治理委员会,因为这不仅仅是你自己的问题。所以我把我的评论集中在急性护理上,但我也在考虑家庭保健社区。我想到了一个案例。这是几年前在阿肯色州发生的事情。有一位 90 岁的女性是医疗补助受益人。她正在接受家庭护理。
我认为她每周大约得到 45 个小时的护理。一个决策算法应用于她的案例,她家庭护理的时间减少到 30 多个小时。就像我说的,她 90 岁了。她患有痴呆症。她非常依赖这种护理。在这种情况下,她实际上不得不寻求法律援助。因此,阿肯色州的法律援助能够介入并真正提供帮助。但当他们能够恢复她的时间时,
她已经去世了,因为算法没有考虑护士会看到的整体情况。它没有考虑她的糖尿病。它没有考虑她卧床不起的事实。但这些都是护士知道的事情。这是我们评估的一部分。这是我们技能的一部分。所以我们看到 AI 正在医疗保健的各个领域发生,它与许多其他学科交叉。所以如果你处于这些情况,大声说出来很重要。
向你的治理委员会,当你看到技术实际上是在造成伤害而不是益处时,真正地为你的病人寻找倡导者。而且这是伦理。这是我们一直以来都在做的事情,并且我们继续在做的风险损害益处。
因此,当你考虑护士此时此刻需要了解这项特定技术时,你刚才说伦理并没有真正改变,但让我们对这些特定用例以及护士今天发现自己的位置进行解释和应用。
在这些伦理困境和问题中。我认为当我想到 AI 时,我们一直听到的一件最重要的事情是正义问题,并确保这项技术以公正的方式使用。关键部分之一,设计和开发,护士需要参与其中。
我们听到,哦,是的,当我们与这家公司合作并将它实施到我们的文档中时,我参与了这个过程。但如果他们在我们甚至与公司签订合同之前就问我,我会选择另一家公司。所以我们甚至说,在设计和开发之前,护士需要参与决策过程的概念部分。
因为我们通常是这项技术的最终用户。我们通常甚至在教我们的病人如何使用这项技术。聊天机器人就是一个完美的例子,病人或人们可能不明白这不是一个人。这不是护士。这不是正在回答你问题的临床医生,他们变得依赖于
那个答案,他们根据那个答案做出决定。一个人从未见过这个人或病人。有时很好。有时会成功。他们能够得到转诊或治疗,但随后是那些不成功的情况。这并不是说我们不应该拥有它。我们只需要更多的数据来确保我们能够创建安全措施,尽可能地防止伤害,
它永远不会完全没有伤害,因为这是人类的工作。事实并非如此。所以我认为对这一点持现实态度是我们的目标。这是我们的旅程。是的。目前正在训练的大多数算法都是基于不足的数据进行训练的。有一大群人没有……
出现在我们的医疗记录中。因此,如果我们正在训练我们的概率算法来预测或提出这个建议,而你是一个在数据中没有真正出现的人,
这个建议对你来说有多适用?这就是确保人们理解 AI 并非普遍适用。因此,AI,对一个人的 AI 应用可能与第二个人的结果不同,或者可能对第二个人的益处不大。因此,真正理解就像你应用任何其他技术一样,确保你考虑到了这一点,进行了评估,这是否适合这种情况?
当然,我们一直听到的另一个重要部分是偏见。这很重要,对吧?认识到我们得到的结果的预测性质,算法的结果是基于算法中的内容。
我想到,你知道,再说一次,我又回到了法律意义上。我总是想到这些法律应用。华盛顿特区有一个团体,他们真的致力于处理公司使用其数据库中已存在的数据的案例。
这已经是某种偏见数据了。然后他们会产生同样的有害结果。因此,他们能够查看银行或公司,你知道,他们有贷款,或者他们正在以歧视的方式申请贷款,使用这些数据继续以歧视的方式批准或拒绝个人,基于不良数据。因此,重要的是我们考虑偏见。这是积极的。
可能的。因此,当你与技术开发人员和设计师合作时,这必须成为对话的核心。你将如何解释数据中的偏见?因为我们知道那是存在的。作为一个组织,作为一个企业,ANA 是如何看待 AI 的使用,以及他们在工作中使用的各种生成式 AI 工具的?他们是如何以身作则的?
这是一个很好的问题。这也是我们正在快速解决的问题,因为同样,技术变化如此之快。我们正在真正审视组织内部对 AI 的使用。我们在组织内部制定了指导方针,以帮助员工了解我们的员工,以及与 ANA 合作的志愿者了解 AI 的使用。我最近听到的一个非常有趣的故事是
公司的员工将信息输入生成式 AI 平台,并没有真正意识到这是一个公共平台。所以他们把业务笔记和机密信息放在那里。所以他们能够输入,告诉我顶级组织的执行业务笔记,然后就会有输出。
数据的输出。但是人们,你根本没有想到这一点。你认为,哦,我的天哪,这是一个总结我们会议的好方法。让我们把我们的笔记输入系统。所以真正帮助人们理解使用生成式 AI 的重要性,但也要
是细微之处。我们已经讨论了提示工程。输入提示意味着什么?你如何确保输出与你的需求相关?所以这并不是说我们说不,而是说在使用方面有一些指导方针,就像我们说对护士有指导方针一样。
对于企业和组织来说,保护其机密专有信息也是如此,但也要找到方法来提高其工作的效率和价值。你知道,另一个非常深刻的问题。随着 AI 的出现并支持我们的人工智能、我们的直觉,我希望它能使我们更聪明。我希望我们正在利用集体智慧,
在任何时候,我们是否必须重新评估这其中的人为因素?是否需要重新校准或重新确定人类治疗过程的价值,人类护理与 AI 护理的价值?护士的部分价值在于体力劳动。当我们能够自动化它时,
这很大一部分有望减少受伤,但存在某种治疗性存在,你与某人建立了这种关系,他们在你最脆弱的时候见过你,你知道,这种治疗性的事情很深刻。认真思考这种关系是很好的。当我们修改 2025 年规范时,
它以一种关系的方式设定。因此,规范条款的前三节实际上是在关注护士与病人的关系,
接下来的三节是关注护士与护士、护士与其他同事的关系。然后最后是护士与社会的关系。所以我们一直在进行很多关于关系的对话。与病人建立护士与病人关系意味着什么?这就是当我谈到治疗性质、关怀伦理以及关系时听到的内容。这意味着什么?并理解它是互惠的,对吧?
这就是我们在谈论病人和我们护理的接受者时真正听到的内容。他们不仅仅是在接受我们的护理,他们也在给予我们自己。所以他们把生病或患病或需要帮助的脆弱性交到了我们手中。当我们想到 AI 时,你知道,你无法复制它。它不可复制。所以我认为现在可能是时候认真考虑一下我们如何表达这一点
在经济上,如果我们取消了更费力的工作,更费力的机械性工作,如果我们能够像你说的那样,Shauna,用 AI 和先进技术自动化这些工作,我们如何评价和解释我认为护士最擅长做什么?所以也许现在是时候重新评估这意味着什么了。首先,这意味着建立治疗关系。
因为我认为有时甚至病人也会害怕,好吧,如果我们要使用机器人,你还会是我的护士吗?你还能为我提供我认为我需要的东西吗?在科技界,语言是丰富的。它帮助我们解决尚未完成的护理工作。
所有我们无法做到的事情,人们会收到后续提醒。嘿,让我们确保你的免疫接种是及时的。你做过乳房 X 光检查了吗?你的驾照更新了吗?你登记投票了吗?你的枪支安全存放了吗?你是否在你家周围做了防跌倒措施?你已经注册医疗保险了吗?我的意思是,有很多事情我们可以做。
我们从未做过,所以这些技术创造了一种丰富感,因为时间变得自由了,所以这里有经济价值,有人类价值,有人类繁荣的价值,好吧,我会告诉你 Shauna,这很有趣,你刚才说的一件事是我们已经包含在 2025 年规范中的新重点之一,那就是人类繁荣以及对
A,每个人都应该繁荣,包括护士,以及我们的病人和我们所关心的人。并弄清楚 AI 如何适应,AI 如何支持这一点?我认为这正是你所说的,通过做我们经常做不到的事情,或者那些事情,你知道,我们可以自动化的机械性的事情,这样护士就可以帮助病人茁壮成长。我想到了
如果有人说,这是你的处方,每天三次饭后服用。你有足够的饭吃三顿吗?谁在问这个问题?所以这里有经济上的激励。所以你的病人不会被再次送进医院。所以真正重要的是要找出为护士提供时间和空间来完善和执行护理艺术和科学的经济价值。
AI 来了。它发展迅速。它将塑造我们实践、学习和照顾人们的方式。我的意思是,
我很兴奋。你对此感到兴奋吗?我真的很兴奋,并且我认为,如果你考虑到我们作为人类进化所处的位置,我们现在拥有这项强大的技术,它能够以我们作为物种从未有过的方式为我们提供如此令人难以置信的准确性和可预测性。这非常了不起。
护士律师兼生物伦理学家 Liz Stokes 是美国护士协会伦理与人权中心的主任。我们很感激 Liz 掌舵,因为我们正在努力解决 AI 和所有技术带来的无数伦理、法律和实践问题。
同样要特别感谢研究员、计算机科学专家和 AI 思想领袖 Peter Stone 为其持续的领导力、洞察力和理性的热情。回到对人工智能的百年研究,更广为人知的是 AI100,它研究并预测人工智能将在未来 100 年如何影响社会,
在合格的全球专家及其学术和经验中,人们相信专业化的 AI 应用将在可预见的未来变得越来越普遍和更有用,从而在许多方面改善我们的经济和生活质量。
但这项技术也将带来深刻的挑战,影响就业、收入、社区、法律、机会、生活方式以及我们现在应该开始解决的其他问题,以确保 AI 的好处得到广泛分享。当我们朝着这个 AI 驱动的未来飞速前进时,
了解、参与、有意并透明地进行 AI 的设计和部署将建立信任,消除恐惧和怀疑,避免我们可能无法预测或预期的危害,并使人类能够繁荣发展。如果你还没有这样做,
订阅你在任何收听播客的地方收听“现在见你”,以确保在深入探讨 AI 的令人兴奋的可能性和令人畏惧的挑战时,不要错过每一集。接下来……
在我们对 AI 如何改变医疗保健交付的下一个探索中。我们在全盘努力应对劳动力短缺问题。我们必须在如何为我们的病人提供护理方面变得更有创意。我们如何将生成式 AI 纳入这场对话?我们如何有意地将技术作为我们团队的一部分?
在我们做出产品和工程决策时,我最谨慎的一件事就是不听取我们房间里的临床医生的意见。其中一部分确实可以帮助减轻护士现在面临的许多日常负担,同时仍然提供我们能够提供的最安全的病人护理。
目标是以我们甚至无法考虑的方式大幅度地增加医疗保健的可及性。我真心认为,我们今天正在使用的生成式 AI 技术将有助于增强临床医生的能力。对我来说,结果决定了技术。我们在这里从事 AI 工作。我们正在利用生成式 AI 和大型语言模型这个令人难以置信的新框架。但这里最重要的事情是,我们如何改变和影响病人的生活?我们如何改善结果?
不仅使其成为病人更健康的地方,也使其成为我们提供者和临床医生普遍更健康的地方。对于“现在见你”,我是 Shawna Butler。感谢收听。♪
护士们正在通过创新、同情和领导力来改变医疗保健。强生公司自豪地继续履行其 125 年来对护士的承诺,通过认可、技能培养、领导力发展等等来支持护士。美国护士协会致力于建立创新文化,
护士们通过创新思维、富有同理心的联系、科学严谨和纯粹的决心来改善病人和社区的生活。ANA 自豪地支持和倡导我们国家最宝贵的医疗资源——我们的护士。有关“现在见你”的更多信息以及收听我们图书馆中任何早期剧集,请访问 seeyounowpodcast.com。