我上亚马逊网站想买东西,我看评论。这些评论是人写的吗?还是生成式AI写的?这是我们面临的一种新型脆弱性。在这个生成式AI兴起的时代,信任问题绝对是巨大的。我们必须重做一切。
嗨,我是Reid Hoffman。我是Aria Finger。我们想知道我们如何一起使用AI等技术来帮助我们塑造尽可能美好的未来。我们邀请技术专家、有抱负的建设者和思想家来帮助我们勾勒出未来最美好的景象,并了解实现这一目标需要什么。这就是可能。
想象一下,一个世界,我们几乎每一个足迹、每一次点击和每一个关于我们的数据点都被保护起来,并且专门用于公益事业。正如我们所知,这与我们现在所处的现实相去甚远。但它不必如此。
当今的数字领域充满了前所未有的机遇和严峻挑战,从算法中的歧视到对民主本身的威胁。随着AI以惊人的速度发展,我们比以往任何时候都更需要不断地问自己,我们如何才能引导这项强大的技术为公众利益服务?我们如何才能在促进创新的同时建立保护个人隐私的框架?
我们今天的嘉宾是一位几十年来一直在努力寻找这些答案的人。Latanya Sweeney是哈佛大学政府与技术教授,美国联邦贸易委员会前首席技术官,哈佛大学公共利益技术实验室和数据隐私实验室的创始人。她的开创性工作被引用在包括HIPAA在内的主要法规中。她也是第一位获得麻省理工学院计算机科学博士学位的黑人女性。
Latanya的研究不仅仅是提出难题。它提出了解决方案。她专注于塑造一个技术服务而不是剥削社会的世界。她对AI伦理挑战(包括隐私、歧视和民主的未来)的见解,再及时不过了。以下是我们与Latanya Sweeney的对话。
所以,LaTanya,你与我的朋友Krista Tippett在“存在”播客中谈到了你在纳什维尔由曾祖父母抚养长大的经历,以及你作为一个年轻女孩如何在数学中找到慰藉并找到正确的答案。你从你那些出生于19世纪后期的曾祖父母那里学到了什么,至今仍然对你有所帮助?
哦,我的天哪,我从哪里开始呢?我认为在我的工作中,在早年工作中,我多次被要求想起我的曾祖父,因为事实上,他一生的大部分时间都生活在吉姆·克劳南方。作为当时的一名黑人男子,他对如何生存有很多原则。当你审视他生存的原则时,它们都归结为保持匿名的方法。
以及它如何为他服务。而且,你知道,随着技术改变我们的生活,让我们所有人都在这些透明的生活中生活,我们生活的每一分钟都在某个地方的数据中被捕捉到,现实情况是,我经常想到无法拥有这种匿名性的情况,以及如果周围的文化发生变化,如果你没有匿名性,它可能会被用来对付你。
我的意思是,这太迷人了。我的意思是,我真正喜欢的一件事,真正关于你整个人的是,你是一个积极的、某种光明,同时又与这些棘手的问题作斗争。当然,我相信你让你的曾祖父母为你获得的许多荣誉而感到骄傲。那么,当你还是麻省理工学院的研究生时,你正在学习技术,你无意中听到有人说电脑是邪恶的。你能详细说说那次经历吗?
好吧,我的意思是,要理解这种经历,你必须把你的思想倒回到这样一个时代,在那里,作为一名计算机科学研究生,你看到了这场技术革命即将来临。你知道它会改变我们生活中的所有事情。当然,我们相信它只有好处。
你知道,电脑更便宜了。你知道,它不会有自己的偏见。它实际上只会引导我们走向更好的民主和更好的明天。它有点像相信它会纠正社会的所有错误。所以当有人走进来,说电脑是邪恶的,我的意思是,很明显,她并没有真正理解等待我们的美好乌托邦。我必须停下来花一些时间,让她更好地理解正在发生的事情。
好吧,我认为你很快意识到,虽然在“可能”播客中,我们通常是技术乐观主义者,但你知道,并非一切都是100%完美的。同样,你能告诉我们,那次相遇是如何导致你的韦尔德实验的吗?我读过这篇文章,非常令人印象深刻。是的。
是的。所以她是一位伦理学家,她和我在高空来回交谈。但是,你知道,我的一部分仍然是工程师。让我们务实一点。让我们举一个具体的例子。所以当我们有一个具体的例子时,她关注的是马萨诸塞州的一个团体保险委员会发生的数据共享。这是负责
州雇员及其家属以及退休人员医疗保健的团体。她说,看,他们得到了这些数据,他们把这些数据给了研究人员,他们还向行业出售了一份副本。我谈到了从这种数据共享中可能获得的所有令人惊奇的事情,我们可以进行回顾性研究。我们可能会找到降低成本的方法,实际上能够共享这样的健康数据非常重要且非常有用。而且我们拥有的许多数据
她的许多谈话都是关于技术如何改变社会契约,我们所拥有的期望和我们的法律都包含某些没有明确说明的假设。所以在这种特殊的数据共享示例中,问题是,如果它是匿名的,这一切都很好。
我们有这样的规定,他们可以出售它,他们可以共享它。它没有姓名,没有地址,没有社会安全号码。就像,如果它是匿名的,共享它是可以的。但是这些数据确实包含基本的人口统计数据,出生日期的月份、日期和年份、性别和五位数的邮政编码。
所以我坐在那里,快速计算一下。你知道,一年有365天。假设人们活100岁。数据集中有两个性别。当你把这些乘起来,就有73000种可能的组合。但我碰巧从早期的工作中知道,马萨诸塞州典型的五位数邮政编码只有大约25000人。这意味着对于马萨诸塞州的大多数人来说,这些数据往往是独一无二的。
所以我的论点在我眼前消失了。我试图说服她。我说,等等,不对。这没有帮助。所以我想要看看它是否属实。威廉·韦尔德当时是马萨诸塞州的州长。他在公共场合晕倒了。至于他为什么晕倒,人们知之甚少。但关于他这次医院就诊的信息实际上就在这些数据中。
所以我去了市政厅。他住在剑桥,离我现在的地方不远。我买了剑桥选民名单。它装在两张软盘上。我必须告诉你,我的学生不知道软盘是什么。但无论如何,我从两张5.25英寸的软盘上得到了选民数据。它与健康数据的人口统计数据相同,出生日期的月份、日期和年份。它有性别。它有邮政编码。当然,它还有各种选民信息。
我得到了它,因为威廉·韦尔德住在剑桥,我们假设他投票了,他在选民名单上。果然,他确实在。事实上,只有六个人和他同一天出生。其中只有三个人是男性,而他是他五位数邮政编码中唯一的一个。
这意味着出生日期、性别和邮政编码的组合对他来说在选民数据中是独一无二的,对他来说在健康数据中也是独一无二的,我可以使用这些字段将他的姓名和身份与他的选民记录联系起来。
这是一个非常轶事性的实验。但它是如何普遍化的呢?我的意思是,马萨诸塞州的剑桥是麻省理工学院和哈佛大学的所在地。它只有六平方英里。所以如果他20岁,看起来会困难得多。所以问题是,它如何扩展?所以使用1990年的人口普查数据是
能够模拟并表明,通过出生日期、性别和邮政编码,美国87%的人口是独一无二的。我从一个月半后成为一名研究生,我去了华盛顿特区作证,因为这不是共享的一条数据。这是世界各地的最佳实践。全世界,法律都改变了,其中许多都引用了韦尔德实验,因为它被称为
因为他们必须改变他们共享数据的方式。在美国,这项法规是HIPAA,在HIPAA隐私规则的原始序言中,它也引用了该实验。
我喜欢这个故事的地方在于,你不仅改变了你的想法,这非常罕见,你是在反驳你自己,但你知道,你实际上使用了数据来证明你试图证明的东西,它实际上改变了法律。太棒了。谁会想到州长韦尔德被
铭刻在历史上的地方是一个数据实验,但这太棒了。现在让我们更进一步,因为我们对技术史、工业革命、印刷机、半导体有着共同的兴趣。你能分享你解释AI历史轨迹的三部分框架,并让我们了解我们现在所处的位置吗?
哇。五分钟内。五分钟内,对吧。或者更少。你知道,我倾向于认为我们现在生活在这个时代。我和许多历史学家一样,认为我们正在经历第三次工业革命。而且,你知道,你谈到了第二次工业革命,它有多么强大。它给了我们电力、汽车和克莱尼克斯,以及我们几乎所有认为理所当然的东西。
但它实际上将我们的社会从农业社会转移到了另一个社会。我们有城市等等。它要求我们改变一切,我们思考和运作社会的方式。
作为第三次工业革命,许多人将其起始日期定为20世纪50年代,当时出现了半导体。从那时起,它就发展到许多框架、许多计算机、个人电脑。然后我们有了物联网。所有这些革命,包括现在的AI,当然是一场新的革命。我们不知道这将持续多久,但它已经改变了我们生活中的所有事情。我们如何沟通,我们如何获取新闻,我们如何工作,我们如何玩耍,一切。
所以它已经发生了相当大的改变。它发生的速度比第二次工业革命快得多,以至于我们作为社会没有时间重新组合,并弄清楚我们如何保持社会的利益,同时仍然保持我们的社会规范。我认为你已经完全涵盖了这种事情,但它也像,在我们进入未来时,我们应该考虑哪些关键因素?
我的意思是,这是一个在许多层面上令人惊叹的变革时刻。
你知道,我经常告诉我的学生,我们生活在一个技术统治的社会,我们不再生活在一个民主社会中。技术统治是另一个在第二次工业革命中出现的词。它当时的含义是,嘿,我们有了这种新型社会。我们需要经济专家来管理我们的经济。我们需要法律专家担任某些职位的律师。所以这个想法是,你需要在政府的某些职位上拥有熟练的专家,才能引导我们前进
这就是技术统治的含义。我们现在所处的技术统治社会是一个技术设计决定我们如何生活的世界。
我们的法律和法规只有在技术允许实施和执行的情况下才有效。事实上,我们的许多法律和法规无法在网上执行,这是一个真正的问题。随着我们更多的时间在网上度过,它归结为我们甚至不认识的人做出的武断的设计决策。所以现在,它已经发生了很大的变化。我的意思是,即使是像言论自由这样简单的事情
我有一个十几岁的儿子。他对言论自由的概念与大多数在网上花费大量时间的人对言论自由的看法有关,与美国法理学对言论自由的概念几乎没有共同之处。言论自由应该保护弱势群体的观点,让那些无法被听到的人被听到,
这并不是言论自由在网上运作的方式。它更像是,我可以当面说任何我想说的话。如果你不喜欢,嘿,那是言论自由,忍着吧,对吧?所以这些是截然不同的。如果你问我的课,或者你问一个20岁的人,什么是言论自由?这很可怕,因为在我这里校园里发现的更常见的情况是,他们更有可能给你一个与在线规则一致的定义。
你知道,我们都看过马克·扎克伯格与国会或参议员谈话的那些视频,他们根本不了解我们的技术世界、Facebook、社交媒体。我们许多人谈论的希望之一是,让政府中真正了解技术的人来制定我们管理这个新的在线社会所需的法律。
有些人可能会认为,这些人就是我们今天掌权的人。我可能会争论不同的观点。但你说的是,我们没有政府没有管理这个在线空间,我们需要看看。如果你掌权,你会怎么做?你需要哪些法律来管理这个新世界?
好吧,我认为思考这个问题的方式,我经常与我的学生谈论这个问题的方式是,我们如何决定我们的规则?我们如何决定?先忘记技术。我们如何决定我们将如何生活?最终,学生们会说,或者如果你问一个中学生我们是什么样的国家,他们会说我们是一个民主国家,你知道,我们选举人们,我们通过投票做出决定。
这是真的。然后,如果你问高中生和大学生,我们还有什么?有人会挺胸而出地说,我们是一个共和国。我们实际上并没有自己做决定。我们投票选举那些代表我们做出决定的人,因为我们是一个民主共和国。
然后我会说,我们也是一个资本主义社会。经营了一家电脑公司10年后,资本主义方面有很多令人惊奇的事情是可能的。但同样重要的是,技术的设计如何制定我们将遵守的新规则也是第三个因素。历史上,美国的优势在于这三个部门的制衡。
任何一个单独的部门都会把我们带到我们可能不想去的地方。当它们不同步时,我们如何生活的许多决策的问题是由今天的技术设计决定的。而通常会提供这种制衡的监管机构和其他机构却无法做到这一点。
那么我们就会处于某种自由落体状态。一部分是了解技术,让那些将成为监管者和立法者的人更好地了解技术,但也了解它与治理的关系,它与我们社会的关系。这件事已经持续了很长时间。我的意思是,在许多方面,隐私是第一次大型技术社会冲突。
然后是安全,然后是算法公平。然后是关于民主等等的问题,或者内容审核。这些冲突中没有一个得到解决,一个也没有。它只是不断积累。所以我们正处于危险的境地。十年前我在联邦贸易委员会时可能有效的方法,今天并不是成功的秘诀。
不,完全正确。让我们稍微谈谈人员配备。有很多问题。我同意你关于技术形成的观点,有资本主义的利益,有民主的利益,实际上可能还有其他利益。最核心的事情之一是如何让政府的工具至少处于理解的范畴。其中一个
问题当然是,我认为有一些非常自然和必要的理由,为什么生成式AI革命是由公司推动的,包括大型科技公司和其他公司。但你知道,这就是对这项技术如何发展、其中构建了什么的最基本知识所在。我发现,一旦你离开这个群体,它就会大幅下降。甚至当它到达……
对。所以你对我们应该做什么有什么想法吗?生成式AI是一个巨大的飞跃。我确实认为政府中的许多人都意识到他们在这次革命中错过了机会,他们想走在生成式AI的前面。
但问题是他们无法完全走在它的前面。如果他们真的走在它的前面,他们会减缓它的发展速度。这将产生其他影响。我的意思是,目标是如何在没有危害的情况下获得新技术的益处?所以如果你匆忙通过法律,你很可能会通过可能实际上禁止其最佳发展方式的法律。另一方面,
许多公司非常希望你通过法律。为什么?因为他们想要一张免罪卡。他们也不知道答案。他们知道他们可以看到它正在发生冲突。他们不知道正确的答案是什么。但如果他们得到一项法律,说,无论它做什么,都没关系,或者我们不必承担责任。
给了他们一张免罪卡。所以必须加强政府方面。特别是,必须维持哪些社会规范?这项技术或这项技术的特定表现形式在一个特定产品中,它挑战了什么或偏离了轨道?需要什么来控制它?我们想要它的好处,但我们只是不想要这些危害。所以要识别危害
然后解决危害。政策出错的另一种方式是过于规定性。它说,哦,它必须这样做,或者它必须这样做。它必须相反。我认为这是关于设定目标。你知道,技术和创新的一件美好的事情是,如果你设定了目标和护栏,让才华发挥其作用。
如果你试图控制才华,并说,我要握住笔,你必须这样做,我们就永远无法到达最佳位置。
所以在2003年,你写了一篇论文,《这就是AI,该领域的简史和批判》。在这篇论文中,你描述了AI中一个根本性的分歧,即那些优先考虑基于逻辑和概率的理想行为的人,以及那些认为人类行为和心理学对于健全推理至关重要的人。你认为这种分歧仍然存在吗?它是否影响了该领域的研究?或者你改变了你的观点?
好吧,就是这样。所以回到我当研究生的時候。所以我当时是AI的研究生。
那时,人们的信念是AI的工作方式是,我们人类必须弄清楚什么是智能的事情、行动、行为。然后我们人类设计一种方法,让这台愚蠢的机器做这件事。我们的才华在于我们能够将智能行为转化为这台机器。是的。
所以今天的专家,最好的模型是TurboTax。你知道,无论你是谁,机器都会指导你完成纳税申报等等。对。
然后有一些,只是一些研究生在角落里谈论统计数据并做这些神经网络的事情。他们能做的最好的事情是,如果我给他们大量数据,他们可以画出一条区分线,对吧?所以数据必须将某个字段一分为二。它必须分成两组,然后他们才能
让它为我们绘制一条线,说,看它能做什么。如果数据比这更复杂,它就无法再进一步了。这不好。另一方面,我花了一个月的时间试图让一台电脑知道狗的图片和猫的图片的区别。
所以那时,将智能融入计算机的概念,人类必须将其转化为机器,与仅仅拥有统计数据来根据数据本身的属性来弄清楚事情的概念大相径庭。
到我写那篇论文的时候,已经出现了两个主要的阵营,它们正在相互推动,看看这两个阵营中的哪一个会获胜。造成这种推动的因素并不是统计方面的技术取得了任何改进,而是计算机的速度变得快得多。
而且数据,存储数据的能力也大得多。谁知道我们会每天捕捉到如此多的数据?谁知道我们会花这么多时间在键盘上写电子邮件、写文件、做所有这些写作,然后算法可以开始应用统计数据?
我的意思是,并不是要贬低Transformer,在此过程中当然也取得了非常显著的进步。但最大的变化是,它在本质上仍然是非常统计的。它有多好真是令人难以置信。令人难以置信。我的意思是,它真的,是的,它让我大吃一惊。我总是感到惊讶,即使是最早期的LLM形式。
我教学生如何发现这些冲突,进行实验以阐明这些冲突,就像韦尔德实验一样。我们只是与学生一起大规模地进行这项工作。所以我的一个学生对联邦评论服务器感兴趣。你知道,我们改变法规的一种方式是,一个机构会宣布,
我们准备修改一项法规。我们正在开放公众评论。在过去,你只需要去华盛顿特区,然后开始在国会和参议院大厅里大声喊叫。然后他们把它搬到了网上。所以你提供你的书面评论。所以有一个例子说明它出了问题,当有人真的使用机器人,它只会大量生产相同的内容,只是通过随机选择某些句子来改变它,并且
之后,人们发现了这一点。但即使是最早期的LLM版本,Max所做的是让他学习人们对这个话题所说的一些旧内容。它正在撰写原创回复。每一个都是原创的。任何你认为可以从人类的写作中统计识别它的方法实际上都是不可行的。
所以为了证明我们的观点,我们在一个在线调查工具上进行了测试,人们无法比猜测哪个是来自它的更好。然后我们将一千条虚构的评论提交到联邦评论服务器。我们让它渗透进去,然后我们通知联邦政府,顺便说一句,我们刚刚放了这1000条。所以在评估时请将其删除。但顺便问一下,你发现了吗?他们说,不,我们不知道。
所以AI真的,它有一个有趣的边缘。有些事情它做得很好,有些事情它仍然做得非常糟糕。好吧,这个联邦评论服务器实际上为我想问你的一个问题提供了一个很好的引子,那就是深入探讨关于AI模仿人类行为的更哲学化的主题。
你写道,渴望建造一台以人类为形象的机器不会消失,将这种追求与艺术表达相比较,例如电影和绘画中人类对不朽和自我反思的追求。你认为你所说的AI的文化梦想背后更深层次的人类渴望是什么?
那永远不会消失。我的意思是,我们人类,我们总是,无论是艺术还是诗歌,我们都在寻找我们自己的其他表现形式。
这在机器中也是如此。而且它只是,它永远不会消失。AI肯定会成为其中的一部分。当前在生成式AI中的趋势肯定会更显著地帮助我们朝着这个方向前进。我的意思是,甚至只是机器人,你知道,我这里某个地方有一个机器人狗,因为这只是一件了不起的技术。而且,是的,
你知道,我们把它们拟人化。几乎任何一个人在看到Spot和楼下的Pepper时都会开始说他,人们会说她。你知道,你就是忍不住。这是一种重塑自己的方式。
在这个播客中,我们喜欢关注AI的可能性,因为我们知道这是下一阶段增长的关键。Stripe深知这一点,Stripe是Stripe Billing的制造商,它是AI公司的首选货币化解决方案。Stripe知道,在推出新产品时,你的收入模式可能与产品本身一样重要。
事实上,今天上市的福布斯50强AI公司中的每一个都使用Stripe进行货币化。请访问stripe.com,了解Stripe能为您的业务做什么。
所以我们已经谈到了生成式AI的巨大前景。就像你刚才说的那样,不可能不把它当作人来对待,因为它太棒了,而且非常接近人类。但你也说过,一个很大的挑战是回答关于真相的问题。比如,我们如何大规模地建立信任?所以我非常想听听你的意见。比如,你认为需要什么?创新者如何寻找围绕AI信任的这些解决方案?
所以人们已经在尝试回答这个问题了,对吧?你知道,这些大型语言模型上的过滤器,我以它们为例。人们想出了各种各样的权宜之计来试图建立信任。所以人们可能会继续想出权宜之计。正如里德所说,真正了解这项技术的人会做一些比外部过滤器更深入的事情,以便帮助我们更好地理解信任。
生成式人工智能的一部分将永远能够操纵我们。我将举一个例子来说明我为什么这么说。我曾在联邦贸易委员会担任首席技术官。在那里我了解到的一件事是,什么会让人们把毕生的积蓄交给陌生人,或者让他们的父母不仅把毕生的积蓄交给陌生人,还把父母的毕生积蓄和孩子的毕生积蓄也交给陌生人。
这与你在网上与一个小群体相处有关,这个群体与你有很多交集。这个群体与你共享的交集越多,你就越信任他们。生成式人工智能能够仅仅在我和人工智能之间建立信任,对吧?它了解我。作为一个人,我们可以……
我们可以保持距离,说,这些是我唯一使用你的任务,伙计。你待在那里。听着,我只问你这些事情。但是一旦你发现自己,你甚至可能并不总是知道你在与谁交谈,这将是巨大的。你如何建立信任?因为你肯定会以你可能不信任许多人类的方式信任它。
对。这是反面。过度的信任。是的,这是我们面临的一种新型脆弱性。
而在这个生成式人工智能兴起的时代,信任问题绝对是巨大的。这是一个正确的问题,因为信任的各个方面太多了。我们现在必须重新做所有事情。我上网去亚马逊买东西,我看评论。现在,这些评论是人类写的还是生成式人工智能写的?或者顺便说一句,是公司付费的人类写的评论吗?我的意思是,这里面有一大堆东西。对,对。
用人工智能。是的。对。一个人说,写10个版本的这个。所以突然之间,你知道,我以前信任的东西,比如我们可以开始列一个清单,列出我再也无法信任的东西。对。然后在线上。所以我们得到了这些令人惊叹的大型语言模型,因为事实上它审查了我们在线上公开发布甚至半公开发布的所有内容。而且。
大部分内容都是人类生成的。几乎所有内容都是人类生成的。但由于它非常擅长反刍、混搭和反刍混搭版本等等,你知道,几年后,大部分在线内容都将由人工智能生成。然后突然之间,它改变了我们对在线内容信任的观念。
说到信任方面,这实际上涉及到我想要问你的另一个问题。这很有趣,因为我问了我与之共同创立的AI公司Inflection,也就是聊天机器人Pi。什么
应该将哪些关键要素纳入新的社会契约中,以确保技术维护民主价值观?因为我知道他在和你说话,所以我先从Pi开始,然后到达那里。Pi说……透明度。关于如何使用技术、谁在使用以及用于何种目的的清晰和公开沟通至关重要。问责制。开发和使用技术的人应该对其对社会的影响负责。
公平。无论其社会或经济地位如何,社会所有成员都应该能够使用这项技术。隐私。个人应该控制他们的个人数据及其使用方法。以人为本的设计。技术的设计应考虑人类的需求和价值观。我喜欢这个答案。我想知道它从谁那里偷来的。是的,没错。可能是在我们正在谈论的人身上训练的,可能吧。
所以我喜欢这个答案。你知道,我觉得有趣的是,如果我问Pi,好吧,Pi,你到底是怎么知道这个的?它可能会回答说,好吧,我知道。它会给你一个很好的、充满感情的答案。当然,它并没有做到透明或诚实。它正在尽其所能。正如你所知,这些大型语言模型,最基本的事情是它们是生成的。是的。你可以说它擅长
基本上是想象或幻觉,但它们试图将答案限制在它认为你想要听到的答案上,我们正在尝试以“真实、有帮助、正确”的方式来训练它,这就是我们试图限制这种能力的方式。你知道,真实并不意味着与我们的意思相同,以至于我现在继续将Pi拟人化。
沟通存在某种程度上的错位。我们追求的真理有时是值得商榷的。它对真理的观念完全不同。你知道,这就像我给你这些词之间的统计关系。我还能为你做什么?你想要更多的统计关系吗?我可以把这个词去掉,我会为你计算其他的东西。
是的。
我非常感激Lyft的存在,以及技术帮助我骑自行车而不是开车等等。你是一位公共利益技术的先驱之一。你能谈谈你最喜欢的现实世界例子吗?你在哪里看到技术成功地实施,以解决特定的社会变革,或者你认为公共利益技术在哪里做得最好?
本着韦尔德实验的精神,我教学生如何做到这一点,然后他们大规模地做到这一点。他们所做的工作已经改变了法律、法规和商业惯例。我最喜欢的例子之一实际上是Airbnb。哈佛大学的一位教授已经证明,在纽约市的Airbnb上的房东,如果你是黑人房东和白人房东,并且你提供的是可比的房产,那么黑人房东的收入要低约12%。
因为那是市场所能承受的,如果你愿意的话。所以学生们想做一个更严格的例子,他们选择了加利福尼亚州的奥克兰和伯克利,他们能够证明,亚洲房东的可比房产收入比白人房东低20%。所以Airbnb当然会派他们的律师向前等等,然后他们改变他们的平台。所以如果你今天在Airbnb上运营,他们会设定价格。
设定价格的一部分是为了确保不会发生这种副作用。所以对他们来说,这是很大的赞扬。我们已经做了很多这类实验,我们能够找到社会规范与技术冲突的地方。我们如何保留技术?我们如何修正规范?这将是一个例子。
你提到了自行车。我只想说我的一个学生。所以自行车共享存在一个问题,那就是当你到达一个车站时,那里可能没有自行车。
或者当你到达一个车站时,没有地方放你的自行车。所以我的一个学生Dhruv想出了一个绝妙的算法来解决这个问题。它已被美国各地的城市使用。无论如何,我只是告诉你,有无数的简单问题是学生可以解决的。这也是我们在公共利益技术中所做的一部分。
我喜欢它。我认为这非常重要,因为这是我一直在努力解决的问题,因为底层技术可能并非种族主义或性别歧视等等。技术人员没有恶意。但是当它与现实世界中的歧视发生冲突时,就会产生这种结果。所以我认为我们需要到达一个我们不会指责任何人任何事情的地方。我们只是说,既然我们知道
我们有责任去解决它。既然我们知道我们可以实际使用技术来解决这个问题,这有多么神奇,因为你可以研究它,因为你有数据,你可以看到,哦,好吧,Airbnb做出了这个简单的改变,突然之间,黑人和白人房东实际上得到了相同的金额。多么美好的结果。所以我特别喜欢这一点。谢谢。
这让我们回到了我们之前关于民主、共和国和资本主义这三个支柱的讨论。所以当它们不同步时,我们得到了弗朗西斯·豪根制作的泄露的Facebook文件,我们在fbrarchive.org上将其公开。但其中一件让我立刻注意到的东西是,他们做得多么糟糕,多么糟糕的内容审核。
让我注意到的第二件事是,我们不知道如何做得更好。换句话说,这显然是一个计算机科学问题,没有一个计算机科学学校或思考小组真正开始解决这个问题。为什么?因为它在一个资本主义公司的筒仓内,该公司对其股东负有受托责任。所以他们不希望他们的底线受到影响。
但不知何故,我们必须找到一种方法,那就是说,我不知道如何做到这一点。这里有钱或其他什么。我们可以让一千个聪明才智的人来研究如何更好地进行内容审核吗?相反,我们正在走向,我们不会进行内容审核。这不行。我一直试图达到的其中一件事是,我们希望你更好地解决这个问题
这里就像如果你从你的公司内部迭代它,指标可能是什么。例如,因为你的注意力算法正在加剧激动、仇恨和其他事情,
我们希望你对某种合理的激动指标进行基线测试。然后我希望你衡量你的算法如何运作和推广的仪表盘,并确保你不会过度增加它。我的意思是,有些是人类自然状况的一部分。这是一个。对于内容审核、错误信息、假新闻和其他事情,你会如何考虑?就像,你会如何考虑
尝试促进,嘿,如果你正在做X、Y和Z,为它发明技术,因为,你知道,为了让它成为一个发明循环,一个合理的经济循环,你会做出什么姿态?
所以,里德,我最喜欢的词是“指标”。设定一个标准,让我们看看你如何达到这个标准。因为一方面,如果你是公司,你负有受托责任。你努力避免搞砸你的赚钱机器。我的意思是,我以一种亲切的方式这么说,而不是某种超级批判性的抱怨。
但我的意思是,这就是他们应该做的事情。对。所以他们不想搞砸它。所以他们不愿意很快地说明香肠是如何制作的以及香肠可能存在哪些问题。但另一方面,当香肠有问题时,那就是问题导致社会危害的地方。
我不想进来就说你必须做X、Y、Z。当政府这样做时,它实际上并没有发挥最佳作用,而且实际上也不好,因为他们无论如何都可能错过它,社会也无法从技术中获得最佳利益,或者社会可能会遇到更糟糕的问题。
而公司有某种义务这样做。所以,与其这样,不如设定指标。这些指标表明,哦,等等,我们没有意识到十几岁的女孩正在遇到这个问题。既然我们知道了这一点,这就是你必须保证的。或者这是你必须做出的承诺。或者这是最低限度。你需要向我们展示你正在这样做。
然而,这些公司不喜欢指标,因为他们更喜欢规则,对吧?他们会告诉你,好吧,如果我们只是贴个通知,这样够了吗?所以他们想要一个越界解决方案,因为这对他们来说更容易。所以指标对他们来说也很痛苦。是的,我认为这可能是愚蠢的,因为问题是,如果我们给他们规则,我们真正需要的是指标结果,对吧?
规则将非常粗糙,以至于会对各种结果造成很大的损害。最好说的是应用你的创新。例如,你说,看,
内容审核,一家出版社会说,你必须雇佣大量编辑来做所有这些内容审核。这就像,哦,我的上帝,这行不通。这就是他们在这个话题上如此努力斗争的部分原因,你在这里说,好吧,实际上,这些是我们试图寻找的内容审核指标。你能在你的技术上进行创新吗?
要在这些指标范围内。显然,只要你随着时间的推移而动态变化并不断改进它们,我们可能会移动和修改它们,这将是对此进行良好治理的一部分。而且它们也不一定需要公开披露。它们可以通过审计员和与政府机构的讨论来衡量。这将是一个更加健康的动态位置,这也是我试图告诉政府监管人员的原因之一。这就是我们应该讨论的事情。
是的,但想想看,我们一直在谈论生成式人工智能。如果内容审核只是一套实践,我有一个我所做事情的清单。我确保有人看到了这一点。我确保我的计数是这样的或那样的。
那么我们仍然会得到糟糕的内容审核。如果内容审核是一个指标,而我通过训练人工智能来做它更便宜,那么我们突然在最需要的地方得到了创新。不是来自外部的内容审核创新。正如你指出的那样,他们比任何人都更了解他们的技术和公司运作,但要激励他们为此投入资源。
非常重要。你知道,我同意,如果政府制定这些法规,那么关键在于要有一个公司可以根据自己的喜好努力达到的指标。正如你所说,也许他们会想出一个新的,你知道,一个新的聊天机器人来为他们做这件事。我们希望遵守这些法规的成本尽可能低。
但在没有政府监管的情况下,我们如何促进科技行业更大的社会责任感?就像Airbnb,你说你给了他们调查结果,他们就改变了。没有法律。如果你没有,在没有政府监管的情况下,你认为杠杆是什么,才能将一些更积极的技术带入世界?
这是一系列必须到位的事情。其中一部分是责任感。我的意思是,如果社交媒体对人们正在经历的一些伤害负有经济责任,那么这将是一种快速激励他们寻找解决方案的方法。有时答案可能是这样的法律答案。它可能是设定一个带有罚款或尴尬的指标。
我认为所有这些都发挥着作用。但最重要的是你正在提出的观点,这完全是关于我如何让他们对他们的技术可能造成的危害对社会承担更多责任?
所以我带着一点紧张问了这个问题,但我认为在这个语境下很好。我通常为LinkedIn在所有这些问题上都比其他社交网络好得多而感到自豪。对LinkedIn的任何评论,我们应该如何改进其他方面?这总是很重要的事情。在这里,我正在与一位专家交谈,所以我认为不妨问问。所以里德,我必须直接告诉你,你知道,我钦佩你,你竟然在录音中问我这个问题。是的。
真相和改进真的很重要。在我的课堂上,我有这张长长的法律法规清单。我说,看,人们为这些法律而死而战。让我们去看看它们,看看它们如何不再能够执行。LinkedIn出现在清单上的一个。
与就业有关。所以当向雇主提出建议时,我只是要说,因为这不仅仅是LinkedIn的事情,而是任何拥有大量简历的群体,都有一个向雇主推荐可能合适的候选人的商业机会。所以我这么说,是的,我想雇佣一些人。所以你给我的第一组人,我说,哦,我喜欢这些人。我不喜欢这些人。
随着时间的推移,系统将学习我的偏好。但我的偏好可能是我不想要女性,或者我的偏好可能是歧视年龄。在我们能够在规模化之前检测到的所有方法,我们都无法在封闭的对话、封闭的循环中做到这一点。
所以这是一个我们需要技术向我们保证的地方,你知道,好吧,是的,我确实了解了他们的偏好,但他们的偏好走得太远了。所以我只是要自动继续推动其中一些其他人。好吧,对你来说,一个好消息可能是,我确实知道LinkedIn的人们正在努力解决这个问题。我们确实关心它。我不知道我们做得够不够好。这是一个不同的问题,但是,是的。
另一件事是,你知道,阿里和我实际上都参与了这个叫做“工作机会”的事情,这是为了确保仅仅是学位证书不会被过度重视,这样你实际上可以获得不同类型的工作机会,尤其是在科技行业中,通过才能,而不仅仅是,哦,我有斯坦福大学的学位。是的。你知道,作为一种方式。所以这是我们完全同意你正在谈论的向量的事情。
这并非易事。我的意思是,我不想让它听起来像,哦,你可以打开你的盒子,你知道,因为它是一个学习系统,我们希望它发挥作用。我的意思是,这非常类似于我们之前谈到的生成式人工智能问题。如果你事后把它作为一个附属物,它会产生其他后果,可能会使你的服务不那么好。
是的。我们更新这些法律的确切方式,因为技术确实改变了我们所有人运作的环境,这是落后的一件事。所以完全同意你在这方面的观点。
好吧,里德和我最近一直在谈论的一件事是代理。所以你可能知道里德最近写了一本新书,叫做《超级代理》。超级代理的概念是,当数百万人在同一时间获得新的技术突破时。所以它具有这些网络效应。所以它不仅对你有益。它对周围的每个人都有益,而周围的每个人拥有这种额外的代理权,对你更有益。
我喜欢你们既是技术乐观主义者,但你们非常清楚地看到了危害,并希望确保它们平等地应用于每个人,以便每个人都能从中受益。当你想到代理和超级代理时,也许特别是在人工智能时代,你认为它如何应用于教育?作为一名教授,你如何在课堂上使用它?哈佛大学如何使用它?你花了很长时间在学术界。人工智能对下一波教育意味着什么?
多么棒的问题。哦,我的上帝。所以我才有机会领导学院,试图弄清楚如何处理生成式人工智能。当然,这意味着重新思考我们的课程、我们的教学方式和学习方式。所以在一些课程中,能够与人工智能互动,与大型语言模型互动等等,作为一个视角,我的意思是,在哲学课上,能够说,
无人驾驶汽车。伊曼努尔·康德会如何看待无人驾驶汽车?你会如何将辩证逻辑应用于此?然后学生们可以争论他们是否同意这种解释。这样做的方法令人惊叹。所以机会就在那里。这需要彻底的重新思考。学生如何学习写作或编程?因为我可以问大型语言模型,你能为我编写一个程序来完成吗?
我的作业。所以它也让我们不得不考虑,有时我们希望这些学生发展某种技能,但也考虑一下他们去工作后的未来是什么样的?如果他们被雇用为程序员,他们的老板是否希望他们坐在那里从头开始编写代码,而他们可以利用大型语言模型来给他们提供初稿?帮助我的同事开始了解这是什么以及这意味着什么是一种巨大的荣幸,实际上。而且
看到它被用于新的用途也很令人兴奋。当然,学生们总是领先一步。说到学生,你从你的学生那里获得了哪些最新的见解?你知道,这真的很有趣。我和420岁的年轻人住在一起。所以我也有一个教务长的角色。这是我第九年做这个了。他们给了我很多对未来的希望。
很多希望。他们是了不起的人。他们有,你知道,你忘记了20岁是什么样子,你试图弄清楚你要保留什么,你要扔掉什么,你是谁。但同样,许多人表现出的活力和胆识也令人耳目一新。
当我有时感到沮丧时,与他们交谈并看到不同的光或不同的前进方式,这对我来说很有吸引力。
他们看到了问题吗?有一长串。事实上,有一组30名学生有组织地没有上我的课。他们只是想见面谈谈我的问题。所以这非常让他们担心。如果我回到20年前,学生们也对我的隐私课感兴趣,但他们并没有感受到同样的紧迫感,也没有感受到同样的热情,也没有感受到同样的需求。
我认为今天的学生,他们的眼睛睁得更大了。我的意思是,你有一些学生想和你一起上课。这甚至不是一门课。我认为这是一个好兆头。我认为你做得很好。我认为我们可以进入快速问答环节了。所以我开始了。有没有一部电影、一首歌或一本书让你对未来充满乐观?
好吧,我刚刚读完一本名为《伊丽莎白女王》的书。它让我对未来感到兴奋,因为它在政治上有点倾向,至少我们国家有40%的人陷入了政治担忧之中。它提出了一个问题,你会从过去带谁来帮助你驾驭未来?在这位作者的书中,她的答案是伊丽莎白女王。
对吧?第一批像这样的人,经历了所有这些艰难的时期。然后你把她放在今天的环境中。她会说什么?她会做什么?所以我发现它非常令人愉快。这实际上是一个很好的快速问答问题。我觉得我想问很多人这个问题。就像这是一个很好的,这是一个很好的鸡尾酒会问题。你会从过去带谁来帮助驾驭未来?绝对的。那么,你在你的行业之外看到哪些进步或动力激励了你?
好吧,坦率地说,我实际上在我的行业中受到了人工智能的启发。
是的,这是一个可怕的、大胆的新未来,在那个时候我们还没有准备好。但另一方面,它可能能够做到什么,以及它可能带我们去哪里,这令人兴奋。我们是否真的能够实现乌托邦的愿景。我的意思是,在许多方面,我还是那个在休息室里与……
与试图实现这一技术愿景的伦理学家进行对话的研究生。我喜欢它。这让我们完美地进入了最后一个问题。你能给我们留下一个最后的思考,关于如果你在未来15年里一切对人类有利,你认为可以实现什么?实现这一目标的第一步是什么?
哦,那么我将完成我一生中将技术的好处带给社会而不造成危害的使命。阿门。太棒了。拉塔尼亚,很高兴认识你。我期待再次与你交谈。哦,谢谢你们。我真的很感激。Possible由Wonder Media Network制作。它由阿里·芬格和我里德·霍夫曼主持。我们的节目主持人是肖恩·杨。
Possible由凯蒂·桑德斯、埃迪·阿拉德、莎拉·施莱德、瓦内萨·汉迪、阿里亚·耶茨、帕洛玛·莫雷诺-希梅内斯和玛丽亚·阿古德洛制作。珍妮·卡普兰是我们的执行制片人和编辑。特别感谢苏里亚·亚拉曼奇利、萨伊达·塞皮耶娃、维纳西·德洛斯、伊恩·爱丽丝、格雷格·比阿托、帕斯·帕蒂尔和本·雷利斯。并感谢马克斯·博兰德、约书亚·尚克和小怪兽媒体公司。
♪