We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 有了赛博医生,就不用怕过度诊疗?

有了赛博医生,就不用怕过度诊疗?

2025/6/3
logo of podcast 虎嗅·商业有味道

虎嗅·商业有味道

AI Deep Dive AI Chapters Transcript
People
何建
作者
同源院等人
研究者
童云峰
邱锡鹏
Topics
研究者: 研究表明,医疗AI可能加剧“看人下菜碟”的现象。例如,高收入人群更有可能获得CT和核磁共振等高级检查,而中低收入人群可能只接受基本检查。AI甚至能通过X光片预测患者的种族和性别,导致医疗资源分配不均,最终扩大不同人群在健康水平上的差距。这种偏见即使经过修正依然存在,令人担忧。 童云峰: 我担心未来AI可能出现过度诊断的情况,比如将普通感冒误诊为癌症。这是因为投喂给AI的数据可能存在偏差,从而导致AI做出错误的判断。尤其是在医疗领域,这种错误可能带来严重的后果。 邱锡鹏: 我认为仅仅依靠无偏见的数据无法消除AI的偏见。构建一个完全无偏见的数据集非常困难,而且好的数据也未必能训练出完全无偏见的AI模型。AI与人类的追求存在差异,例如AI可能为了治病而忽视患者的痛苦,因此需要引入人机对齐环节,注入人类的价值观。 何建: 我认为过度诊疗与医疗发展水平密切相关,精准医疗和过度医疗之间存在一个灰色地带。医学需要不断自我革新,通过足够多的证据验证临床经验,才能使这个灰色地带向精准医疗倾斜。同时,明确疾病的预值对于判断干预的意义至关重要。

Deep Dive

Chapters
一项新的研究表明,AI医疗模型可能会根据病人的收入水平或其他因素来决定治疗方案,导致高收入人群获得更好的医疗资源。这种偏见是模型固有的还是数据造成的?
  • AI医疗模型可能加剧医疗健康差距
  • 高收入人群更容易获得先进的医疗检查
  • 模型中存在的偏见可能难以消除

Shownotes Transcript

指望“赛博医生”整顿医疗的人们又要失望了。近期国际上一系列研究表明,越来越聪明的大模型,把医疗领域“看人下菜碟”的问题也放大了。研究者认为,是模型驱动了这些“偏见”,最终会导致不同人群在健康水平上拉开距离。为什么“赛博神医”会染上这些“坏毛病”?从源头数据、标注偏见到模型生成,每一环是如何影响最终结果的?我们又该如何“医治”大模型的这些问题?【时间轴】00:36 医疗大模型,更会“看人下菜碟”?02:41 AI的“偏见”,从何而来?06:06 精准医疗和过度医疗之间,存在一个灰色地带