如果您错过了,YouTube 是美国观看时间排名第一的流媒体平台,连续第二年领先于 Netflix、迪士尼和 Prime Video。只有一个 YouTube。嘿,TNB 听众们。在我们开始之前,提醒一下。在接下来的几周里,我们将在每期节目的开头问您一个问题。
我们在 Tech News Briefing 的目标是让您了解所有科技领域的最新头条新闻和趋势。现在我们想更多地了解您,了解您喜欢节目的哪些方面,以及您还想从我们这里听到什么。所以我们本周的问题是,您想听到更多关于哪些类型的科技故事?商业决策?董事会戏剧?或者窥探科技领导者的生活或科技政策?如果
如果您在 Spotify 上收听,您可以在剧集说明中查找我们的投票,或者您可以发送电子邮件至 [email protected]。现在开始节目。
欢迎收听 Tech News Briefing。今天是星期二,5 月 13 日。我是华尔街日报的维多利亚·克雷格。您提出了问题,现在我们将回答您所有关于 AI 驱动的聊天工具以及如何在使用这些工具时保护个人数据安全的问题。然后我们将看看这些聊天机器人的内部结构,因为制造它们的公司表示,它们在我们使用它们的次数越多时就越聪明。但是它们真的能像人类一样思考吗?
但首先,每天都有数百万人求助于 AI 聊天机器人来解决大小问题。我应该买什么类型的家用健身垫?我如何才能最好地在新的简历上展示我的工作经验?你能帮我起草这封棘手的邮件或为夏季度假制定行程吗?但是所有这些搜索数据会发生什么?谁拥有它?您能相信 AI 给您的答案有多少?
华尔街日报个人科技专栏作家妮可·阮在她最近发表的一系列名为“聊天机器人机密”的文章中探讨了这些问题。她请您发送有关 ChatGPT 或 Claude 等平台上数据隐私的问题,现在她将在此回答其中一些问题。嘿,妮可。你好。那么让我们从我们收到的丹尼尔·斯图尔特的语音邮件开始吧。
我在一所社区大学工作,想知道当我们讨论 AI 隐私问题时,它与 FERPA 有何关系?我通常必须替换学生姓名以确保安全,当我使用……时更改情况……
AI 以确保安全。我想知道 HIPAA 是否也有类似的问题。对于可能不知道这些缩写的听众,FERPA 和 HIPAA 都是管理隐私的联邦法律。前者为学生和家长提供教育记录的隐私保护。后者是医疗患者的医疗记录隐私。
那么妮可,AI 如何影响所有这些关于隐私和 AI 的担忧呢?隐私法扩展到 AI 工具,特别是如果您使用的是面向公众的 AI 工具,而不是由您的公司委托的企业版本,因为这些企业版本通常符合 HIPAA 或欧洲 GDPR 或加利福尼亚州 CCPA 等隐私法规。
因此,如果您使用的是 ChatGPT 或 Anthropics Cloud 等消费级版本,那么丹尼尔正在做的事情,即替换学生姓名,尽可能清除个人身份信息和敏感信息,这是一个好主意。
正确的做法,这是一个好主意。我们还收到了米奇的另一个问题。他是一位照片档案管理员。在 X 上,他询问是否可以将上传到 AI 聊天机器人的个人家庭照片存储起来,用于训练 AI 模型,或者稍后被其他人访问。这是一个复杂的问题。但在许多 AI 工具中,例如 ChatGPT 和 Gemini,您可以选择退出 AI 训练。
但您必须在设置中标记它。您还可以使用 ChatGPT 中所谓的临时聊天,这就像 ChatGPT 的隐身模式。它不使用该信息进行 AI 训练。它会立即删除对话,但这里有一个警告。如果您使用这些 AI 工具,因为我们正处于生成式 AI 的早期阶段,那么您的输入和输出始终有可能受到人工审查或
或存储更长时间。这是因为系统会标记任何可能造成危害的内容,以便他们可以审查并从这些类型的回复中学习。而且
我们并不确切知道什么是危害,什么不是危害,但我们相信这些公司有合理的政策。例如,如果您使用 Google Drive、Google 相册,我们相信 Google 对标记的内容和未标记的内容有合理的政策。所以这就是我回答的结尾。您可以选择退出 AI 训练,但需要注意的是,在某些情况下,它可能会被审查。
那是华尔街日报个人科技专栏作家妮可·阮。如果您还有其他问题,请告诉我们。您可以向 [email protected] 发送语音邮件,也可以拨打 212-416-2236 给我们留言。接下来,我们已被告知 AI 聊天机器人将具备与人类同等水平的智能,但怀疑论者越来越多。休息后我们将深入探讨这个问题。
您知道吗,人们每天平均在电视屏幕上观看超过 10 亿小时的 YouTube 视频?这是因为 YouTube 是人们深入了解他们所喜爱内容的地方。只有一个 YouTube。
AI 聊天机器人实际上能否在某个时候以与人类相同的方式解决问题?在业内,这种能力被称为 AGI,即人工通用智能。而且研究越来越多地表明,AI 模型可以承担更多信息来解决问题,但它们不会像人类一样思考。我的同事朱莉·张与华尔街日报科技专栏作家克里斯托弗·米姆斯谈论了这到底意味着什么。
所以克里斯托弗,你基本上是在说我们离 AGI 还差得很远。对吗?没错。这是正确的理解。我们离 AGI 肯定还差得很远。
任何告诉你不同的人,我认为说实话只是没有深入研究智力究竟是什么。事实证明,今天的基于转换器的 AI,也就是 ChatGPT 和许多其他生成式 AI 的基础 AI,
它们的工作方式只是它们拥有这种几乎无限长的经验法则列表。因此,举一个具体的例子,历史上这些模型在数学方面一直很糟糕的一个原因是,即使你向它们展示一百万个数学问题及其正确的答案,
它们也会学习奇怪的东西。你知道,如果你要求它们将两个数字相乘,其中一个数字在 200 到 211 之间,它用于将这些数字相乘的经验法则与数字时间轴上任何其他数字的经验法则不同。这就是今天的 AI 模拟智能的方式。
很多人反驳说,哦,这难道不是人们思考的方式吗?就像,我们只是一堆经验法则。不,你知道,对不起,你实际上比这复杂得多。人类拥有包含因果关系和其他事物的空间三维模型。今天的基于转换器的 AI 的想法是,如果我们只是让它们足够大并向它们展示足够的数据,它们就会自发地生成数据。
在它们的神经网络大脑中,思想的机制,这似乎是无稽之谈。在你的专栏文章中,你提到了这个曼哈顿地图的例子。你能谈谈这个例子以及它如何解释启发式算法包理论吗?研究人员认为,现代 AI 的工作方式被称为启发式算法包模型。而且
这仅仅意味着一个非常长的经验法则列表,字面意思上是数百万条经验法则。例如,一位研究人员采用了一个传统的大的语言模型,并为曼哈顿的每个点到曼哈顿的每个其他点提供了按步骤的路线,并发现它可以以 99% 的准确率在曼哈顿岛的任意两点之间重复路线。然后他们探测这个模型
看看它生成的曼哈顿地图是什么,如果您可以使用这个词的话。
当您要求它提供曼哈顿岛上的路线时,它会根据它来提供这些路线。它重复或他们能够从中提取的地图看起来完全疯狂。相距很远且呈对角线的街道连接在一起。它似乎认为有一些街道像跳过中央公园和其他所有疯狂的事情一样。
这表明 AI 设法学习了一种关于曼哈顿街道如何运作或外观的某种心理模型,可以
当被要求时,可以生成准确的路线,但这与曼哈顿的实际街道地图没有任何相似之处。这只是向你展示了 AI 的所谓的“理解”是多么奇怪和模拟。好吧,但是人类也无法重建地图。是的,这有一定的道理。揭示 AI 生成的曼哈顿地图有多奇怪的是绕路。所以如果我告诉你,
好的,你正试图在曼哈顿的一个街区之间穿行。所以第七大道的一个街区突然被封锁了。
而你是一位在曼哈顿导航的专家,你会不会有任何困难绕过另一个街区,比如绕路?不会,你不会有任何困难。其想法是因为你对曼哈顿是一个网格有一些明确的理解,如果我在一个街道网格上,我可以绕过绕路,而这种隐含的理解是你……
在学习曼哈顿的路线过程中获得的。但是 AI,当你封锁曼哈顿甚至 1% 的街道时,
它就会完全崩溃。它还表明,在自动驾驶系统中,它们可能会被最小的东西完全打乱,而这永远不会打乱人类。那么 AI 智能是否停滞不前了呢?是的。
我应该补充一点,这些 AI 的一般能力肯定已经达到了一个上限,例如,来自 OpenAI 的最新推理模型,在许多方面它们在某些任务上的表现实际上更差。似乎他们对它们进行的强化学习以使它们在编码和数学方面更好,这使得它们更容易产生幻觉,并且在其他方面更差。因此,仅仅向其投入更多数据并不能改进这些模型。
我们可以通过手动调整或让它们访问……来改进它们。例如,您可以采用大型语言模型并让它访问由人类编程的显式数学应用程序。然后它可以像人使用计算器一样进行数学运算。但重要的区别在于
现在它只是一个软件了。所以我们只需要在 AI 周围添加所有这些支架,因为它最终并没有那么强大。那是华尔街日报科技专栏作家克里斯托弗·米姆斯。这就是 Tech News Briefing 的全部内容。今天的节目由朱莉·张制作,主管制作人是艾米丽·马托西,梅拉妮·罗伊提供了额外支持。我是华尔街日报的维多利亚·克雷格。我们今天下午将继续播出 TNB Tech Minute。感谢收听。
世界上最大的创作者,世界上最伟大的时刻,都传递给世界上最庞大的热情粉丝群体,为您的品牌提供无与伦比的机会。只有一个 YouTube。