算法对您支付的Uber费用、TikTok推送的内容,甚至超市商品价格有何影响?哈佛法学院教授卡斯·桑斯坦与我们一起探讨了这个问题,他与奥伦·巴尔-吉尔合著了新书《算法的危害:人工智能时代的人民保护》。他之前还与诺贝尔奖获得者理查德·塞勒合著了《助推》。我们讨论了所有这些算法的影响究竟是在帮助人们还是在损害人们。每周,“钱在眼前”都会讨论一个重要的理财话题。从投资组合构建到税收和降低费用,加入巴里·里索尔茨,学习如何更好地运用您的资金。请访问omnystudio.com/listener了解更多隐私信息。</context> <raw_text>0 这是一个iHeart播客。
在商业领域,计划变化迅速,您的品牌必须跟上步伐。这就是为什么团队依赖4imprint提供能够交付的促销产品的原因。4imprint提供数千种选择,包括服装、饮具、科技产品和贸易展用品。许多产品可在24小时内交货,帮助您快速行动,并且绝不影响质量。您将享受免费样品、专家支持以及每份订单都由其360度保证支持。因此,它能够正确无误且准时送达。请访问4imprint.com了解更多信息。4imprint。
布隆伯格音频工作室。播客、广播、新闻。算法无处不在。它们决定您支付的Uber费用、TikTok和Instagram推送的内容,甚至您在超市支付的价格。
所有这些算法的影响是在帮助人们还是在损害人们?为了回答这个问题,让我们邀请卡斯·桑斯坦。他是新书《算法的危害:人工智能时代的人民保护》的作者,该书与奥伦·巴尔-吉尔合著。卡斯也是哈佛法学院的教授,也许最出名的是他的著作《关于星球大战的……》以及与诺贝尔奖获得者理查德·塞勒合著的《助推》。所以,卡斯,让我们直接进入正题,首先定义什么是算法的危害?
好的,让我们用星球大战来举例。假设绝地武士使用算法,他们会给人们提供符合他们的口味、兴趣和信息的东西。如果人们对行为经济学的书籍感兴趣,他们就会得到符合他们口味的书籍。如果他们对星球大战的书籍感兴趣,他们就会得到符合他们口味的书籍。
相反,西斯利用算法来利用一些消费者缺乏信息以及一些消费者存在行为偏差的事实。所以我们首先关注消费者。如果人们对医疗保健产品知之甚少,比如说,算法可能会知道这一点,他们可能不太了解。
并可能会说,我们有一种神奇的秃头治疗方法,给你。人们会被欺骗和剥削。这就是对信息缺乏的剥削。这就是算法的危害。如果人们非常乐观,他们认为某种新产品会永远持续下去,而它往往会在第一次使用时就坏掉,那么算法就能知道这些人是不切实际的乐观主义者,并利用他们的行为偏差。好的。
所以我提到了几个算法正在发挥作用的明显领域。
Uber定价就是一个例子。您在亚马逊上看到的书籍是由算法驱动的。显然,很多社交媒体,无论好坏,都是算法驱动的。甚至像您在Pandora上喜欢的音乐类型也是如此。算法影响消费者和普通人日常生活的哪些不那么明显的例子?
好的,让我们从简单的例子开始,然后我们再深入一点。简单来说,可能是人们被要求支付符合他们经济状况的价格。
如果您有很多钱,算法就知道这一点。也许价格会是您不那么富有时的两倍。我认为,这基本上是可以的。它提高了系统的效率。就像富人会为与穷人相同的商品支付更高的价格一样。算法意识到了这一点。所以这并不微妙,但很重要。同样不那么微妙的是直接定位人们。
基于对他们特定口味和偏好的了解。让我们把财富放在一边。众所周知,某些人非常喜欢狗,其他人喜欢猫,就是这样。所有这些都是非常直接发生的。如果消费者是成熟和知识渊博的,这可能是让市场运作得更好的好事情。如果不是,这可能会导致消费者被操纵和伤害。
这里有一些更微妙的东西。例如,如果算法知道你喜欢奥利维亚·罗德里戈,我希望你喜欢,因为她真的很好,那么你的系统中就会有很多奥利维亚·罗德里戈的歌曲。假设没有人真正喜欢奥利维亚·罗德里戈,但假设还有其他人和她有点像,你会听到很多这样的歌曲。
现在,这可能看起来不像算法的危害。这可能看起来像是自由和市场的胜利。但这可能意味着人们的品味会变得僵化,在人们看到和听到的东西方面,我们的文化会变得非常分裂。所以他们将成为奥利维亚·罗德里戈的人,然后他们将成为齐柏林飞艇乐队的人,他们将成为弗兰克·辛纳屈的人。我想还有一位名叫巴赫的歌手。我不太了解他,但会有巴赫的人。
而这在文化上是有害的,对个人品味和偏好的发展也是有害的。
所以让我们把这个放在比仅仅是音乐品味更广泛的背景下。我喜欢所有这些。所以我还没有变得分裂。但是当我们看待新闻媒体的消费,当我们看待信息的消费时,它确实看起来像这个国家已经把自己分成这些快乐的小媒体泡沫,
它们要么是极左倾的,要么是极右倾的,这有点奇怪,因为我一直认为大部分国家和传统的钟形曲线,大多数人都在中间某个地方。嘿,也许他们是中间偏右或中间偏左,但他们并没有处于极端位置。这些算法如何影响我们对新闻和信息的消费?对。
大约15到20年前,人们非常担心,通过个人的选择,人们会创造出回音室,他们将生活在其中。这是一个合理的担忧。它确实造成了一些,让我们说,对自治和学习的挑战。你指出的这一点也在书中得到了强调,那就是算法可以让你陷入回音室。
算法可能会说,你知道,你对移民非常感兴趣,并且你有这个观点。所以,伙计,我们会向你输送大量信息,因为点击就是金钱,你会一直点击、点击、点击、点击。从卖方或算法用户的角度来看,这可能是一件非常好的事情。但从你的角度来看,它就不那么好了。
从我们社会的角度来看,它还不那么好,因为人们将生活在由算法驱动的宇宙中,这些宇宙彼此之间非常隔离。他们最终可能彼此不喜欢。但更糟糕的是,他们对世界的看法发生了变化。
并非基于相同的事实或相同的现实。每个人都知道Facebook,在较小程度上,TikTok和Instagram以及它如何将人们分成不同的群体。我们在媒体领域也看到了这一点。这边有福克斯新闻,那边有MSNBC。多么严重的威胁
算法新闻推送对作为一个民主、自我调节、自我决定的民主的国家构成了多大的威胁?非常严重。有算法,也有大型语言模型,它们都可以用来创造这样的情况,比如说,在
某个城市,让我们称之为洛杉矶,人们看到的东西创造了一个与人们在,比如说,爱达荷州博伊西看到的现实非常不同的现实。这对于彼此理解以及共同解决问题来说可能是一个真正的问题。
所以让我们更进一步地将其应用于消费者和市场。你描述了两种特定类型的算法歧视。一种是价格歧视,另一种是质量歧视。为什么我们应该意识到这种区别?它们是否都应该受到监管关注?
所以,如果通过算法进行价格歧视,其中不同的人根据算法对他们的财富和品味的了解而获得不同的报价,这是一回事。这可能是可以的。人们不会站起来欢呼并说万岁。但如果拥有大量资源的人得到的报价不如,比如说,
有竞争力。对那些没有很多资源的人提供的报价具有吸引力,仅仅是因为富人的价格比穷人高,这是可以的。这其中有一些高效和市场友好的东西。如果是这样的话,那些,比如说,
不太关心网球拍是否会在多次使用后损坏,而其他人则认为网球拍必须很结实,因为我每天都打,而且我将在未来五年都打,那么有些人会得到,比如说,
不朽的网球拍,而其他人则得到更易碎的网球拍。这也可以,只要我们处理的是那些有一定成熟度的人,他们知道自己得到了什么,他们知道自己需要什么。如果是这样的话,对于定价或质量,算法意识到某些消费者特别可能缺乏相关信息,那么一切都会乱套。
如果这还不够令人恐惧,请注意,算法越来越擅长知道我正在与之打交道的人对产品是否耐用不太了解。我可以利用这一点。或者这个人非常关注今天和明天,明年并不重要。这个人有现在偏见,我可以利用这一点。
这可能会严重损害弱势消费者,无论是在质量方面还是在定价方面。所以让我们更详细地阐述一下。我非常清楚,当Facebook销售广告时,因为我从Facebook那里得到了这些广告,
他们可以根据用户的喜好和厌恶、地理位置、搜索历史、信用评分、购买历史等来定位受众。就像他们比你更了解你自己一样。看起来我们已经创造了一个机会,可能会出现一些具有潜在滥用行为的行为。界限在哪里?
从“嘿,我们知道你喜欢狗,所以我们会向你推销狗粮”到“我们了解你的一切,我们会利用你的行为偏差和一些情感弱点”。好的,假设有一群Facebook用户对食物非常了解,并且对食物非常理性。
所以他们碰巧特别喜欢寿司,Facebook正在努力向他们提供寿司等方面的优惠。现在,假设还有另一群人,他们知道自己喜欢什么食物,但他们对食物对健康的影响抱有某种希望和错误的信念。
那么你就可以真正向他们推销那些会导致糟糕选择的东西。我已经明确区分了完全理性(这是一种经济学说法)和不完善的信息和行为偏差的人(这也是一种经济学说法),但这确实很直观。有一个广播节目,也许这会让你明白,当我开车上班时我会听。有很多关于一种应该可以缓解疼痛的产品的营销。
我不想批评任何产品的生产商,但我相信相关产品并没有多大帮助。但是,向人们推销这种止痛产品的电台,一定知道听众对此很脆弱。
他们一定知道如何接触他们。这并不符合利益,这至少不会让美国再次伟大。所以我们一直在谈论算法,但显然潜台词是人工智能,这似乎是算法的自然延伸和进一步发展。
告诉我们,随着人工智能变得越来越复杂和普及,这将如何影响我们作为员工、消费者、公民的生活?ChatGPT很可能了解每个使用它的人。所以我最近实际上问过ChatGPT。我偶尔会用它,但不是很多。我让它说说我自己的一些事情。
它说了一些关于我的事情,这些事情基于与ChatGPT的几十次,我认为不是数百次互动,非常精确,这有点可怕。
所以,跟踪你的提示的大型语言模型可以了解很多关于你的信息。如果他们也能知道你的名字,他们就可以立即从网上了解大量关于你的信息。我们需要在那里实施有效的隐私保护。尽管如此,人工智能总体上能够使用算法,生成式人工智能可以超越我们已经熟悉的算法。
既可以发挥算法参与的优势,即这是你喜欢的,这是你想要的,我们会帮助你。也可以发挥算法的劣势,即我们如何利用你。
让你购买东西。当然,我也在考虑投资。所以在你的领域,让大家对投资超级兴奋是很容易的,人工智能知道它正在与之互动的人特别容易受到影响,即使这些投资真的很糟糕。真的很有趣。既然我们正在谈论投资,我不禁要提到
人工智能和算法试图提高所谓的市场效率。我总是回到Uber的动态定价。一下雨,城市的价格就会上涨。
这显然不是紧急情况。这只是一个令人讨厌的事情。然而,我们确实看到了暴风雨、飓风过后哄抬物价的情况。人们只有那么多电池和那么多胶合板,他们会提高价格。我们如何确定动态定价和滥用哄抬物价之间的界限?好的。所以你处于一个很棒的领域……
行为经济学。所以我们知道,在这样的情况下,比如说,需求大幅上升,因为每个人都需要一把铲子,而且下雪了,如果价格上涨,人们会非常生气,尽管这可能只是一个合理的市场调整。
所以,作为第一种近似方法,如果对某些东西有极大的需求,比如说铲子或雨伞,那么市场成本的膨胀,虽然在道德上令许多人厌恶,并且从标准经济学的角度来看,原则上可能在道德上令人厌恶,但这是可以的。
现在,如果人们由于下雨而承受短期压力,他们处于某种情绪紧张的状态,所以他们会为一把雨伞支付任何价格,那么就存在一种行为偏差,这种偏差促使人们愿意支付远高于产品价值的价格。
所以让我们谈谈披露和所需的法令。当我们看看对岸,当我们看看欧洲时,他们对保护隐私以及确保大型科技公司披露所有必须披露的事项要积极得多。美国在这方面落后多少?在关于算法或人工智能的披露方面,我们落后了吗?
我认为我们在某种程度上落后于他们,因为我们不太关注隐私,但这并不一定不好。即使它不好,也不一定很糟糕。
我认为欧洲和美国都没有真正抓住问题的症结。所以让我们以算法无法弄清楚人们想要什么,而是利用信息缺乏或行为偏差来让人们以对他们不利的价格购买东西的问题为例。
这是一个问题。它与欺诈和欺骗属于同一个领域。问题是我们打算如何解决这个问题?第一道防线是尝试确保消费者保护,而不是通过强硬的监管。我长期在芝加哥大学工作。在我的DNA中,我不喜欢强硬的监管,而是通过帮助人们了解他们正在购买的东西。
并帮助人们避免行为偏差,例如,比如说,在购买东西时注意力不集中或不切实际的乐观。所以这些是标准的消费者保护措施,我们美国的许多机构,本土制造,美国制造,
他们已经做到了这一点。这很好。我们需要更多这样的措施。所以这是第一道防线。第二道防线不是说,隐私、隐私、隐私,尽管这可能是一首好歌。而是说有权获得算法透明度。
所以这是美国、欧洲、亚洲、南美洲或非洲都没有取得很大进展的事情。所以这是一件即将发生的事情,我们需要知道算法在做什么。所以它是公开的。亚马逊的算法在做什么?知道这一点会很好。不应以确保透明度的一些努力侵犯亚马逊的合法权利。
真的非常有趣。谢谢,卡斯。任何参与美国经济和社会的人,消费者、投资者,甚至是新闻的普通读者,
都需要意识到算法如何影响他们看到的东西、他们支付的价格以及他们获得的信息类型。因此,只需稍加思考和阅读《算法的危害》一书,您就可以保护自己免受算法和人工智能最糟糕方面的影响。我是巴里·里索尔茨。您正在收听彭博社的《钱在眼前》。《钱在眼前》。
与您的投资相关的关键数据。整个汽车行业今天上涨。以及对华尔街新闻公司的分析。特斯拉一直是一只备受关注的股票。今天早上,股价一直在大幅波动。收听彭博社的《股票走势报告》。让我们来谈谈。
这是一个iHeart播客。