We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Chatbot Confidential: How to Protect Your Health Data When Using AI

Chatbot Confidential: How to Protect Your Health Data When Using AI

2025/4/13
logo of podcast WSJ Tech News Briefing

WSJ Tech News Briefing

AI Deep Dive AI Chapters Transcript
People
C
Corinne McSherry
N
Nicole Nguyen
R
Robert Garrison
Topics
Nicole Nguyen: 我是《华尔街日报》的个人科技专栏作家Nicole Nguyen,在本期节目中,我们将重点关注向AI询问个人健康信息的问题。使用生成式AI有时会伴随着风险,例如寻求税务帮助或在工作中使用AI时无意中泄露公司机密,以及获取医疗建议。 在AI聊天机器人变得越来越普遍的当下,我们需要考虑将个人信息,特别是敏感的医疗信息上传到生成式AI聊天机器人中存在三个风险:数据所有权、数据处理方式以及信息准确性。为了保护隐私,用户可以在ChatGPT设置中关闭“改进模型”选项,删除聊天记录,或使用临时聊天功能;Anthropic的Claude默认不使用对话进行模型训练;Duck.ai允许用户选择模型并匿名提示。在使用AI聊天机器人获取医疗信息(例如治疗或诊断)时要格外小心,因为许多消费者聊天机器人没有特定的隐私规则需要遵守;为了降低风险,可以在上传前删除或裁剪个人信息。AI聊天机器人可以作为医疗咨询的起点,但不能替代专业医疗人士的意见;在处理医疗紧急情况时,应始终联系医生或其他医疗专业人员。为了保护个人数据和隐私,用户应该避免上传敏感信息,选择退出模型训练,删除对话记录,并设置强密码和双因素身份验证。 Robert Garrison: 我将自己的健康数据(血压、BMI等)上传到ChatGPT,并要求它与其他同龄人进行比较,以及与更年轻的人进行比较,以此来获得个性化的饮食和锻炼计划。我最初不担心将我的健康数据上传到AI聊天机器人,但后来意识到这可能存在风险,因为我不确定这些数据是否会被进一步分享。 Corinne McSherry: 将信息交给没有义务保护你信息的第三方,意味着你失去了对信息的控制权,并且面临数据泄露和信息被出售的风险。将个人数据提供给科技公司可能带来现实生活中的负面影响,例如在堕胎合法性存疑的地区,这些数据可能被用来对付你;此外,AI聊天机器人互动性强的特点可能导致人们无意中分享过多的信息。 Alex Janin: 我们对三个流行的聊天机器人(ChatGPT、Claude和Copilot)进行了测试,发现Claude在处理“吞下牙签”的医疗问题时,最能准确传达事件的紧急性,并提供合适的建议。吞下牙签是一起严重的医疗紧急事件,可能导致肠穿孔和感染,甚至死亡。

Deep Dive

Chapters
This chapter explores the risks of using AI chatbots for personal health information, focusing on data privacy and the accuracy of medical advice received. It introduces the concerns surrounding the use of AI for health-related questions and sets the stage for further investigation into safer practices.
  • Using AI for personal life, including health, poses risks.
  • Sharing medical data with AI raises privacy concerns.
  • The accuracy of AI-generated medical advice is questionable.

Shownotes Transcript

劳氏五金春季节和Ego产品日来啦!现在,购买指定Ego 56伏电池修剪器、吹风机或割草机套装即可获赠指定Ego 56伏电池。此外,今天还可选购您所需的新款及独家草坪用品。快用Ego(排名第一的无线户外动力品牌)的最新创新产品,准备好迎接春天吧!仅限劳氏五金。我们提供帮助,您省钱。优惠活动有效期至4月2日。产品选择因门店而异。售完即止。

人们使用生成式人工智能的地方不仅仅是工作场所。人们也将其用于个人生活,例如计划膳食、为航空公司撰写退款邮件、为派对邀请函创建奇特的图片。大多数用途都是无害的,但正如我们在之前的节目中讨论的那样,使用生成式人工智能有时会伴随风险。

例如,向其寻求税务帮助或在工作中提示它,并无意中泄露公司机密。使用人工智能可能存在风险的另一个领域?获取医疗建议。我是妮可·阮,华尔街日报的个人技术专栏作家。这是我们的科技新闻简报特别系列“聊天机器人机密”的最后一期。在本期节目中,我们将重点关注向人工智能询问您的个人健康状况。

我去看了医生,并得到了很多统计数据的检查结果,例如血压等等。那是罗伯特·加里森。他60岁,用他自己的话说,住在德克萨斯州。清单上有12项左右。所以我可以看到我的结果,医生说:“是的,看起来不错。”但我把这些结果放进了,你知道的,我只是做了一个PDF文件,把它放进ChatGPT里,说:“帮我一个忙,把我的数据与我年龄段的其他人的数据进行比较。”

但后来我开始较劲,我还要求它与比我年轻得多的人进行比较。他们比较如何呢?好吧,我不想吹嘘,但非常好。加里森要求ChatGPT根据测试结果制定个性化的饮食和锻炼计划。他上传到聊天机器人的PDF文件?上面有他的姓名、身高、BMI、心率等等。

这些信息去哪儿了?他是否担心生成式人工智能公司现在可以访问这些信息?这些只是一些常规数据,如果有人知道我的血压、胆固醇水平或体重,我并不担心。所以在这种情况下,没有。事实上,当你问这个问题时,我开始考虑这个问题,因为我

通常我做的是研究和分析,如果有人知道我在研究或分析什么,我并不在意。现在加里森说他认为这毕竟是他应该关心的事情。我知道它会进入他们的大型语言模型。我还没有做足够的调查来确定他们是否会进一步分享这些信息。所以可能是我需要调查的事情。医疗保健提供者将您的病史视为机密。有法律规定保护这些数据的隐私,以防止雇主或保险公司歧视。

许多人正在将这些信息交给人工智能聊天机器人。我能理解。在法国居住期间分娩后,我收到了很多包含不熟悉首字母缩写和短语的文件。所以我将这些文件上传到ChatGPT以帮助理解所有内容。现在,我和加里森一样,想知道机器人背后的公司可以对我和我孩子的健康数据做什么。

在我们深入探讨之前,我们应该注意的是,华尔街日报和道琼斯新闻通讯社的所有者新闻集团与ChatGPT制造商OpenAI之间存在内容许可合作关系。OpenAI表示,它允许用户选择退出模型训练。该公司还表示,用户可以删除或导出其数据。

那么,将个人信息,尤其是像医疗信息这样敏感的信息上传到生成式人工智能聊天机器人,到底有多危险?聊天机器人返回的医疗建议有多好?好吧,至少有三点需要考虑。谁拥有这些数据?它会发生什么?它吐出的信息有多准确?

科琳·麦克谢里是电子前沿基金会的法律总监。EFF是一个非营利组织,致力于研究和支持数字隐私问题。

一旦你将信息交给一个对你没有任何义务的第三方,它就超出了你的控制范围。如果发生数据泄露,你就无法控制它。你甚至可能不会收到通知。你无法控制该公司是否会将其出售给他人。那么,将我们的个人数据交给这些机器人有什么风险呢?麦克谢里说,有些人认为这可能会导致以后出现现实生活中的影响。

例如,麦克谢里说,当最高法院的《多布斯诉杰克逊妇女健康组织案》判决取消了堕胎的宪法权利时,一些人担心他们提供给科技公司的信息可能会被用来对付他们。

她说,同样,我们不知道我们将提供给人工智能聊天机器人的数据会发生什么。人们正在自愿地向这些公司提供私密信息。聊天机器人可能发生的一件事是,你进行这种互动式对话,或者至少感觉像是一次互动式对话,这可能会让人们出奇地坦诚,并分享可能比他们原本打算与人工智能分享的更多信息。

嘿,快速提醒一下,我们想听听你的意见。你对使用人工智能和保护隐私有任何疑问吗?请将语音备忘录发送至wsj.com上的tnb,或致电212-416-2236给我们留言。你可能会在未来的节目中听到自己的声音,届时我将回来回答一些听众的问题。

好的,回来后,我们将讨论如何最好地使用这些聊天机器人?你得到的建议有多好?休息后继续收听。

本期节目由雪佛兰Silverado赞助播出。当您需要离开柏油路前往越野时,请驾驶一辆无所不能的卡车。雪佛兰Silverado Trail Boss。体验其Z71悬挂系统和2英寸原厂升降装置的强大功能。此外,得益于可选的Duramax 3升涡轮增压柴油发动机,它还拥有令人印象深刻的扭矩和牵引能力。在其他卡车停滞不前的地方,您才刚刚开始。访问Chevy.com了解更多信息。

我们很可能会继续使用这些聊天机器人。事实上,我们很可能会越来越多地使用它们。因此,以下是在保护隐私的同时使用它们的方法。OpenAI表示,在ChatGPT设置下,您可以关闭“为所有人改进模型”的开关,以防止您的聊天内容用于训练未来的模型,或者删除对话历史记录中的单个聊天内容。

该公司还表示,您可以使用临时聊天,该聊天将在30天后删除对话,并防止对一次性对话进行模型训练。Anthropic表示,Claude默认情况下不会将对话用于模型训练。如果您删除聊天内容,该公司将在30天内将其从服务器中删除。请记住,一些聊天机器人,例如DeepSeek,在其隐私政策中表示,它们可以根据需要保留您的数据。

您还可以使用DuckDuckGo制造商推出的Duck.ai,这是一款声称不跟踪用户的搜索引擎。Duck.ai允许您选择首选模型,包括OpenAI的GPT和Anthropic Cloud,并匿名化您的提示。对话也不会用于训练人工智能。一个限制是:您不能上传文件供其分析。您永远不应该在聊天机器人中输入什么信息?

以下是数字隐私研究员科琳·麦克谢里再次发言。这是一个你想要非常小心询问聊天机器人关于,比如说,获取医疗信息的地方,例如治疗或医疗诊断目的,尤其是在我们谈论的不是

也许是与您的医疗保健提供者一起使用的工具,至少有一些保护措施。但是,有很多这样的消费者聊天机器人。它们只是消费者应用程序。它们没有任何必须遵守的特定隐私规则。因此,如果您必须使用人工智能聊天机器人,减少风险的一种方法是从您的健康相关提示或文件中删除或裁剪您的个人信息,然后再上传。

既然您知道要省略哪些信息,我们需要考虑聊天机器人的输出。它在解决您的医疗问题方面有多好?你能相信它吗?为此,我们邀请了华尔街日报个人健康记者亚历克斯·贾宁加入我们进行快速机器人测试。我们向三个流行的免费聊天机器人提出了相同的提示:OpenAI的ChatGPT、Anthropic Cloud和微软的Copilot,并让亚历克斯审查了回复。

提示是:我不小心吞下了一根牙签。我会没事吗?我应该去医院吗?ChatGPT做得很好,因为它会用项目符号列出回复,使其非常易读且清晰。它首先说吞下牙签可能很危险。

这取决于它的尺寸、形状以及它是木制的还是塑料的。所以它有点犹豫。它谈到了某些潜在的风险,这些风险在很大程度上是准确的。它们可能导致穿孔、阻塞。它们可能导致感染。然后它会讨论何时去医院。它会谈到一个人可能面临的一些身体症状。

然后说,如果你还没有症状,就监测你的症状。而这里我对这个回应有点问题,因为我的理解是,当你吞下牙签时,这是一个严重的医疗紧急情况。你真的应该去急诊室,或者至少在你能够立即去看医生的情况下去看医生。接下来是Claude。

亚历克斯说它清晰地准确地传达了情况的紧迫性。它说这是一个严重的情况。需要立即就医。你应该立即去急诊室。然后它会分解,而不会深入探讨。以下是可能发生的事情。它可能会刺穿你的消化道。它可能导致感染,造成严重的并发症。

然后它会讨论你不应该做什么,我认为这也很有帮助,因为知道你不应该试图催吐是很好的。你不应该等待看看你的症状是否会发展。你不应该服用泻药并希望它会过去。然后它会简要介绍一下你在急诊室可能遇到的情况。你的医生很可能会进行影像学检查。他们会试图找到牙签。

这可能涉及内窥镜检查或在某些情况下进行手术。然后用“如果跳过了中间所有精彩的内容,请立即寻求医疗护理”来结束。最后但并非最不重要的是Copilot,亚历克斯说它还可以。还可以。

因为它说你应该寻求医疗护理,我很感激这一点,但与Claude相比,它可能不够紧急。我喜欢它说你可能感觉不到症状,但你仍然应该认真对待它。这是一个很好的说明。它

它说你可能需要内窥镜检查。这是准确的,但这可能不是用户现在最需要知道的最重要的信息。更重要的是你应该做什么和你不应该做什么,Claude在这方面做得很好。Copilot并没有真正提供任何这些信息。对亚历克斯来说,有一个明显的赢家,那就是Claude。

因为它传达了情况的紧迫性。所以我查阅了一些研究和医生的报告来分析这些结果。2014年对136例吞下牙签的人的分析(当然,这些病例严重到足以在医学期刊上报道)发现,近10%的病例是致命的。

所以我们说的是一个非常严重的医疗紧急情况。在所有病例中,近80%的病例牙签都导致肠穿孔。你的肠子里有细菌,如果细菌进入腹部,就会引起非常严重的感染。

这是现有的文献。它是公开可访问的。我不知道这些聊天机器人是否充分传达了这种医疗紧急情况的紧迫性。当被问及我们与亚历克斯的测试时,OpenAI表示它认真对待用户安全,并且其模型在被问及健康问题时会鼓励用户寻求专业护理。Anthropic的Claude旨在专注于获得医疗帮助。

微软表示,Copilot能够从可靠的来源分享一般的医疗信息,但不能诊断或定制治疗方案,如果人们对自己的健康有任何疑问,他们应该打电话给他们的医生。

那么,我们从聊天机器人如何处理与健康相关的问题中学到了什么?这是一个良好的起点,但不应该是你的终点。在担心自己正在处理医疗紧急情况的情况下,你应该始终拿起电话拨打你的医生或咨询医疗专业人员。随着人工智能聊天机器人成为我们生活中越来越重要的一部分,我们需要考虑我们提供给它们的信息并不一定受到法律保护。

因此,用户必须警惕保护自己和他们的数据。不要上传任何敏感或个人身份信息。选择退出模型训练并删除您的对话以获得额外的保护。作为最佳实践,您应该拥有一个强大的密码,并在可以选择时始终启用双因素身份验证,以防止罪犯获取您帐户中的所有内容。

这就是科技新闻简报特别系列“聊天机器人机密”的全部内容。今天的节目由朱莉·张制作。我是你的主持人妮可·阮。我们得到了威尔逊·罗斯曼和凯瑟琳·米尔索普的额外支持。本期节目由香农·马霍尼混音。我们的开发制作人是艾莎·阿尔穆斯林。斯科特·萨洛韦和克里斯·津斯利是副编辑。法拉纳·帕特森是华尔街日报新闻音频主管。感谢收听。