WNYC工作室由Zuckerman Spader支持。Zuckerman Spader在处理高风险法律事务近五十年后,已在全国范围内被公认为首屈一指的诉讼和调查公司。他们的律师经常代表个人、组织和律师事务所处理商业纠纷、政府和内部调查以及审判。当您选择的律师至关重要时。
在线访问zuckerman.com。Radiolab由Apple Card支持。使用Apple Card重启您的信用卡。当您通过Apple Card开设储蓄账户时,您可以获得高达3%的每日现金返还,年利率为4.40%,APY。
在iPhone上的Wallet应用程序中申请Apple Card。需经信用审核批准。储蓄服务适用于Apple Card持卡人。需符合条件。Goldman Sachs Bank USA,盐湖城分行提供储蓄和Apple Card。美国联邦存款保险公司成员。条款及更多信息请访问applecard.com。Radiolab由Progressive保险支持。如果比较汽车保险费率像戴上您最喜欢的播客一样容易呢?有了Progressive,确实如此。
只需访问Progressive网站即可获得您想要的所有承保范围的报价。您将看到Progressive的直接费率。然后,他们的工具将提供其他公司的选项,以便您可以进行比较。您只需选择您喜欢的费率和承保范围即可。立即访问Progressive.com报价,加入超过2800万信任Progressive的驾驶员行列。Progressive意外险公司及其关联公司。并非所有州或情况都提供比较费率。价格因购买方式而异。
详情请见Mint Mobile。
听众支持。WNYC工作室。嘿,我是拉蒂夫。感觉现在每个人都在谈论人工智能。我们有一些关于人工智能的新故事正在筹备中,我很兴奋。但与此同时,我想播放这个故事给你们听。
这是Jad和Robert时代的一个重播,但它实际上不仅仅是一个重播。它是一个嵌入另一个重播的重播,听起来很混乱,但实际上非常吸引人,因为除了剧集中关于伦理和人性的所有基本有趣内容之外,听到这些叠加的重播的体验是,
实际上帮助你感受到技术的飞速发展,比如新奇的事物如何迅速变得过时。然后,尽管如此,尽管所有这些快速的科技变革,我们都需要思考的事情,作为人类我们所努力解决的基本问题几乎保持不变。我不知道,这有点
听起来很有趣。实际上,这相当令人谦卑。听一听吧。我希望您喜欢。本集名为《无人驾驶困境》。
我是贾德·阿布姆拉德。我是罗伯特·克罗洛维奇,你知道这是什么。这是Radiolab。是的。好的,我们首先会播放一段录音,以便设定我们今天要做什么。大约一个月前,我们正在做关于假新闻的事情。是的,我们非常担心很多假新闻。很多人都是。但在进行报道的过程中,我们与一位《名利场》的同事进行了交谈。我的名字是尼克·比尔顿。我是《名利场》的特约记者。在我们谈话的过程中,尼克,顺便说一句,这与我们谈论的内容无关,尼克只是陷入了一种……
嗯,我认为他会陷入一种紧张的沉思状态。是的,他就像,你知道,你们想谈论假新闻,但这实际上并不是困扰我的事情。我最近一直非常痴迷的事情实际上不是假新闻,而是自动化、人工智能和无人驾驶汽车,因为它将对社会产生比……
比我认为人类历史上创造的任何技术都要大的影响。我知道这是一个相当大胆的声明。相当大胆。但你必须想象,在未来10年内,将有2000万到5000万个工作岗位因自动化而消失。将有100万卡车司机失业。但它不是——我们想到自动化和无人驾驶汽车,我们想到
事实上,他们将取代那些驾驶汽车的人,比如出租车司机和卡车司机将失业。我们没有意识到的是,围绕汽车建立了整个产业。例如……
如果你不驾驶汽车,为什么你需要保险?没有停车罚单,因为你的无人驾驶汽车知道它可以和不可以停车,然后去寻找一个停车位并移动等等。如果卡车司机不再使用休息站,因为无人驾驶汽车不需要停车小便或打盹,那么美国各地所有这些小型休息站都会受到影响。人们不会停下来使用洗手间。他们不买汉堡。他们不住在这些酒店里,等等。然后……
如果你把无人驾驶汽车提升到一个更高的水平,那么汽车的概念将会改变。例如,现在一辆汽车有五个座位和一个方向盘。但如果我不开车,那么拥有五个座位和一个方向盘有什么意义呢?你可以想象你开不同的车。也许当我到这里来参加这次采访时,我想锻炼身体。所以我叫了一辆无人驾驶健身车。
或者我之后在圣莫尼卡有一个会议,需要一个小时,所以我叫了一辆电影车,在去那里的路上看电影。或者是一辆办公车,我接上其他人,我们在路上开会。所有这些事情都不会在真空中发生,而是同时发生。送披萨的司机将被机器人取代,这些机器人实际上会在去你家的路上在一个小盒子里做你的披萨,然后送给你。所以——
答案有点冗长,但我确实认为它将对社会产生巨大的、巨大的影响。
我是不是让你紧张了?你们那边是不是心悸了?我的血压升高了。这是一个对非常危险的未来的相当令人信服的描述。是的。但你知道吗?有趣的是,其中一件事情是,我的意思是,我们至少最初无法使用那段录音。对。但我们一直在思考它,因为它实际上奇怪地将我们带回到大约十年前我们讲述的一个故事。
一个道德问题的叙述,即将被彻底重新构想。尼克担心的和我们十年前担心的可能现在已经危险地接近了。所以我们认为我们会播放我们当时讲述的故事,也就是完整的片段。
然后我们在后端进行修改。顺便声明一下,这是在我们发展过程中的一刻,当时有太多音效了。只是无端的。好吧,你不必道歉。不,我要道歉,因为它太多了。太多了。而且,就像,我们谈论fMRI机器就像它是一个一样,就像,令人惊奇的东西,而它却是。现在这已经很普遍了。无论如何,这并不重要。我们会播放给你们听,然后在后端讨论。我们从对“声音”的描述开始。
电车难题。准备好了吗?是的。好吧,你在一些铁轨附近。在你的脑海中去那里。好的。轨道上有五个工人正在工作。他们的背对着电车,电车在远处驶来。你的意思是他们在修理轨道?他们在修理轨道。他们不知道的是,电车正在靠近。他们没有看到它。你不能对他们喊叫。好的。如果你什么都不做,将会发生以下情况。啊!啊!
五个工人将会死。哦,我的上帝!那是一次可怕的经历。我不希望那发生在我身上。不,你不会,但你有选择。你可以选择A,什么都不做,或者B,碰巧你旁边有一个杠杆。拉动杠杆,电车将跳到一些侧轨上,那里只有一名工人。所以如果……
所以如果电车行驶在第二条轨道上,它将杀死那个人。是的,所以这是你的选择。你拉动杠杆杀死一个人,还是什么都不做杀死五个人?好吧,我要拉动杠杆。当然。好的,这是第二部分。
你站在一些铁轨附近。和之前一样,五个家伙在轨道上。电车来了。同样的五个家伙在轨道上工作。同样的五个家伙。回到火车。他们什么也看不到。是的,就是这样。但是,我要做一些改变。现在你站在一座人行天桥上。
它穿过铁轨。你向下看着铁轨。除了你旁边站着一个家伙外,什么杠杆也看不见。你的意思是那里有个家伙?一个大个子,一个大个子站在你旁边的人行天桥上,和你一起向下看着铁轨,你意识到,等等,如果我推这个男人,我可以救这五个工人。给他轻轻一推。不,不,不,不,不!
他会落在轨道上并阻止火车。他阻止了火车。对。哦,伙计,我不会那样做的。我不会那样做的。但你肯定意识到数学是一样的。你的意思是我会这样救四个人?是的。是的,但这次我推了那个人。你疯了吗?不。不。
好了,事情是这样的。如果你问人们这些问题,我们确实问了,从第一个问题开始。为了救五个人而杀死一个人是可以的吗?十分之九的人会说……是的。是的。是的。是的。但如果你问他们,为了救五个人而杀死一个人是可以的吗?……
十分之九的人会说。不,决不。不。不。这几乎是普遍的。问题是,如果你问人们为什么用杠杆杀人是可以的,因为这就是杀人,而用手杀人是不可以的,人们真的不知道。拉动杠杆以拯救五个人。
我不知道,这感觉比推一个人来救五个人要好。但我真的不知道为什么。所以这是一个很好的,这是一个很好的道德难题。如果拥有道德感是一种独特而特殊的人类品质,那么也许我们,我们两个人,你和我,至少应该探究一下为什么会发生这种情况。我碰巧遇到过一个对此有预感的人。
他是普林斯顿大学的一位年轻人,一头蓬松的卷发,眼神中带着一丝顽皮。他的名字叫乔什·格林。在过去的几年里,他一直在试图弄清楚这种不一致来自哪里。人们是如何做出这种判断的?忘记这些判断是对还是错,只是大脑中发生了什么,使人们如此自然而然地在这两个案例之间做出区分,从精算的角度来看,这两个案例非常非常相似,如果不是完全相同的话。
顺便说一句,乔什是一位哲学家和神经科学家,所以这给了他特殊的能力。他不只是坐在椅子上,抽着烟斗,思考,现在你为什么会有这些差异?他说,不,我想看看人们的脑袋里面,因为在我们的大脑里,我们可能会找到这些厌恶感或接受感来自何处的线索。
在我们的大脑里。所以我们在这里的控制室。碰巧的是,在普林斯顿的地下室,有这么一个大圆形的东西。是的,它看起来有点像飞机发动机。一台18万磅的大脑扫描仪。我会告诉你一个有趣的故事。
由于磁铁的原因,你不能带任何金属进去。所以我们有一长串问题要问人们,以确保他们可以进去。你装有起搏器吗?你曾经接触过金属吗?等等等等。你曾经接触过金属吗?是的,因为你的眼睛里可能会有你甚至不知道的小金属屑,这些金属屑是你做过金属加工后留下的。其中一个问题是,你是否戴假发或类似的东西,因为它们通常有金属丝等等。这里有一位非常友好的意大利女性从事大脑研究,她通过电话向她的受试者询问
所有这些筛选问题。所以我请这个人来吃晚饭,她说,是的,你知道,我最终做了这项研究,但这必须是最奇怪的问题。这个女人说,你患有疱疹吗?我说,如果我患有疱疹与否有什么关系?无论如何,她说,你患有疱疹吗?所以现在她问人们你是否戴假发等等。无论如何,乔什所做的是,他邀请人们进入这个房间,让他们躺在本质上是一个带滚轮的床上,
然后他把他们滚进机器里。他们的头部被固定住了,所以他们有点被卡在那里。你做过这个吗?哦,是的。是的,好几次。然后他给他们讲故事。他给他们讲了和你之前讲过的同样的两个电车故事。然后,就在他们决定我是否应该拉动杠杆或是否应该推那个人的那一刻,就在那一刻,扫描仪拍下了照片……
他在这些照片中发现的东西,坦率地说,有点令人吃惊。他给我们看了一些。我会给你看一些东西。好的。让我想想……
我正在看的那张图片是一种,我认为它是一个大脑,是从上往下看的?是的,它是从上往下看,并且被切片了,你知道的,就像熟食切片机一样。他给我看的第一张幻灯片是一个被问到这个问题的人脑,你会拉动杠杆吗?在大多数情况下,答案是肯定的。是的,我会拉动杠杆。当大脑说“是”的时候,你会看到……
小小的花生状黄色斑点。这个小家伙就在这里,这两个家伙就在那里。大脑在这些地方很活跃。奇怪的是,每当人们对杠杆问题回答“是”时,同样的模式就会亮起来。
然后他给我看另一张幻灯片。这是大脑的一侧,说“不”。不,我不会推那个人的。我不会推那个大个子。在这张图片中,我们正在看的这张图片,这是,它是一组完全不同的区域亮了起来。这是“不,不,不”的人群。我认为这是“不,不,不”人群的一部分。
所以当人们对杠杆问题回答“是”时,他们大脑中的某些地方会发光?对。但是当他们回答“不”,我不会推那个人的时候,你就会看到大脑的完全不同的部分亮起来。即使问题基本上是一样的?嗯哼。这是什么意思?
乔什对此有什么看法呢?好吧,他对这个问题有一个理论。一个未经证实的理论,但我认为这就是我认为证据表明的。他认为人脑不像一个大的统一系统那样嗡嗡作响。所以他说,也许在你和每个人的大脑里,你会发现一些互相争斗的部落,一些小的亚群。一个是在做一种逻辑的计数之类的事情。
你大脑的一部分会说,嗯,五条生命对一条生命。说五比一不是更好吗?这就是当你回答“是的,我会拉动杠杆”时会发光的部分。是的,拉动杠杆。但是你大脑的另一部分真的,真的不喜欢亲自杀死另一个人,并且在胖子的情况下非常生气,实际上喊着,“不!不!”
它在这个层面上理解它,并说,不,不,不好,不要做。不,别以为我能推。不,决不。一个人。我们不是只有一个系统可以像Bing一样吐出答案,而是有多个系统给出不同的答案,它们互相争斗,希望从这种竞争中产生道德。
这不是一个微不足道的发现,你努力寻找对与错,这取决于你大脑的哪个部分喊得最响。这就像看台上的道德。你相信这个吗?你知道,我只是不知道。
我一直怀疑,对与错的感觉大多是你从你的父母和经验中获得的,它在很大程度上是文化习得的。在这方面,乔什有点激进。他认为这是生物学的,我的意思是深层次的生物学,不知何故,我们从遥远的过去继承了一种对与错的感觉,这种感觉永远存在于我们的大脑中。
从一开始,在父母之前。我们的灵长类祖先,在我们成为完全成熟的人类之前,有着极其复杂的社会生活。他们有社会机制来阻止他们做所有他们可能感兴趣的坏事。所以在我们的大脑深处,我们拥有你可以称之为基本灵长类动物道德的东西。基本的灵长类动物道德不理解像逃税这样的事情,但它确实理解像把你朋友从悬崖上推下去这样的事情。
所以你认为桥上的那个人,我站在桥上,旁边是大个子,我的大脑经过数十万年的训练,说,不要谋杀那个大个子。对。
对。而。即使我在想,如果我谋杀了那个大个子,我将拯救五条生命,只杀死一个女人。但更深层次的东西说,不要谋杀那个大个子。对。现在,我认为这是一个相当简单的案例,即使是五比一。在这种情况下,人们只是遵循我们可能称之为内在黑猩猩的东西。
内在黑猩猩是你描述一种深刻善良行为的不幸方式。好吧,这就是有趣的地方。上帝的十诫。内在黑猩猩。对。有趣的是,我们认为基本的人类道德是从高处传下来的。最好说它是从下面传上来的。
我们最基本的核心道德价值观不是我们人类发明的,而是我们从其他人那里继承的东西。我们人类发明的东西似乎更外围和多变。但像“不可杀人”这样基本的东西,许多人认为它是从山上直接从上帝传给人类的,没有黑猩猩参与,
你认为深刻的道德立场……
可能以某种方式嵌入在大脑化学物质中。是的。乔什认为,有时我们内在的大脑中会产生这些不同的道德立场,当它们发生冲突时。在最初的剧集中,我们又讲了一个故事。这个故事你可以称之为哭泣的婴儿困境。这种情况与《M*A*S*H》的最后一集有点相似,对于熟悉这部剧的人来说。但我们讲述故事的方式是这样的。
是战争时期。敌人的巡逻队正在路上走来。你和一些村民躲在地下室里。让我们关掉灯。敌人的士兵在外面。他们奉命杀死他们找到的任何人。安静!没有人发出声音,直到他们经过我们。所以你就在那里。你挤在地下室里。你周围都是敌军,你抱着你的婴儿。
你的婴儿感冒了,有点鼻塞,你知道你的婴儿随时都可能咳嗽。如果他们听到你的婴儿的声音,他们会找到你和婴儿以及其他所有人,然后他们会杀死所有人。阻止这种情况发生的唯一方法是捂住婴儿的嘴。但如果你这样做,婴儿就会窒息而死。如果你不捂住婴儿的嘴,士兵们会找到所有人,所有人都会被杀死,包括你,包括你的婴儿。然后你有了选择。你会为了拯救村庄而捂死你自己的婴儿吗……
或者你会让你的婴儿咳嗽,知道后果吗?这是一个非常棘手的问题。人们需要很长时间来思考这个问题。有些人说是,有些人说不是。孩子们是上帝的祝福和礼物,我们不会那样对待孩子。是的,我认为我会为了拯救其他人和我自己而杀死我的婴儿。不,我不会杀死婴儿。我觉得因为是我的孩子,我有权……
终止生命?我想说我会杀死婴儿,但我不知道我是否有内在的力量。不。如果要杀死我自己的孩子,我自己的女儿和儿子,那么我选择死亡。是的,如果你必须这样做。因为这发生在二战期间。当德国人四处走动时,有一位母亲有一个哭闹的婴儿,为了不被发现,她实际上窒息了婴儿,但其他人活了下来。听起来像老M*A*S*H的东西。不,你不能杀死你的婴儿。
在《M*A*S*H》的最后一集中,作为这个故事中一个角色的韩国妇女,她杀死了她的婴儿。她杀死了它。她杀死了它。哦,我的上帝。哦,我的上帝。我不是想让她杀死它。我只是想让它安静下来。那是一个婴儿。她捂死了她自己的婴儿。乔什所做的事情……
是他问人们这个问题,“你会谋杀你自己的孩子吗?”当他们在脑部扫描仪里的时候。就在他们试图决定他们会做什么的那一刻,他拍下了他们大脑的照片。他所看到的,我们之前描述的竞争,在大脑中是全球性的。这就像一场世界大战。
那帮会计师,大脑的那一部分忙于计算,计算。整个村庄都可能死去。整个村庄都可能死去。但更古老、更深层的反射也亮了起来,喊着,不要杀死婴儿。不,不,不要杀死婴儿。大脑内部实际上是分裂的。进行计算。不要杀死婴儿。进行计算。大脑中两个不同的部落实际上试图互相压制。
而且,杰德,这与我们之前谈到的那些竞争不同。还记得之前,当人们把一个人从桥上推下去时,他们的脑子压倒性地喊着,不,不,不要推那个人。当人们拉动杠杆时,压倒性地,是的,是的,拉动杠杆。它很明显。在这里,我认为没有人会赢。好吧,谁来打破僵局?我的意思是,他们必须回答一些东西,对吧?这是一个好问题。现在,有没有……
会发生什么?只是两种哭喊互相争斗,还是有法官?好吧,这是一个有趣的问题。这就是我们正在研究的事情之一。当你处于大脑部分争论的时刻时,有两个大脑区域。这两个区域位于前面。在你眉毛后面,左右两侧,它们会亮起来。
这对我们来说是特别的。他给我看了一张幻灯片。这些区域在人类中比在其他物种中更发达。所以当我们有一个需要仔细考虑的问题时,大脑的前部,这是在我的眉毛上方,对吗?是的,就在那里。并且有两个,一个在左边,一个在右边。双侧的。双侧的。
- 我不知道。- 而且,这些大脑部分在我们身上比猴子身上更发达。- 当然,这些大脑部分在人类身上更发达。- 所以看着人类大脑前部这两个闪光点,你可以说我们正在看是什么让我们与众不同。- 这是一个公平的陈述。- 人类与问题搏斗。这就是它。- 是的,它既有情感,也有试图理清这些情感的理性尝试。这些案例在该区域显示出更多活动。
所以在这些情况下,当我们眉毛上方的这些点变得活跃时,它们在做什么?好吧,他不知道肯定的答案,但他发现的是,在这些激烈的竞争中,每当这些节点非常非常活跃时,大脑的计算部分似乎会得到一些提升,而内脏黑猩猩大脑部分则会被压制。不!不!
那些选择杀死他们孩子的人,那些做出本质上是逻辑决定的人,一次又一次地,这些受试者在这两个区域的辉光更亮,在这两个区域的辉光持续时间更长。所以,在我们眉毛上方的这两个点与逻辑大脑对眼睛的力量之间存在明确的关联。
在内室或内脏大脑之上?好吧,你知道,这是一个假设。还需要进行大量的研究才能理清大脑的这些不同部分在做什么,或者其中一些是否只是以偶然的方式被激活。我的意思是,我们真的不知道。这一切都是非常新的。好的,这就是我们很多很多年前,大约十年前制作的故事。在那时,将道德视为纯粹的大脑事物这一想法相对较新。
当然,哲学家使用功能性磁共振成像机的想法非常新颖。但十年后,我们有了更新。首先,乔什·格林。在漫长的时间长河中,我想你现在有三只长颈鹿、两只山猫和孩子们。是的。两个孩子,我们快添一只猫了。我们完全同意。
我们再次和他谈话。他已经组建了家庭。他从普林斯顿大学的实验室换到了哈佛大学。但在那十年间,他仍在思考和研究电车难题。你有没有以不同的方式写过这个故事?当然有。多年来,他一直在尝试对人们进行不同的场景排列,例如,好吧。
与其用手把人推下桥,不如不用手推。在一个版本中,我们询问人们是否会按下开关打开人行天桥上的活板门并将人放下。在一个版本中,开关就在那个人旁边。在另一个版本中,开关很远。在另一个版本中,你就在那个人旁边,你没有用手推他们,而是用一根杆子推他们。简而言之,乔什发现——
是我们讨论过的基本结果吗?大致上成立了。人们仍然希望拯救最多的人,但如果这意味着用手或用杆子推人,那就另当别论了。现在,这里有一些有趣的事情。他和其他人发现有两类人更愿意把人推下桥。他们是佛教僧侣。
和精神变态者。我的意思是,有些人根本不在乎伤害他人。他们没有那种情绪反应。那就是精神变态者,而佛教僧侣大概非常擅长压制他们内心的“猩猩”,对自己说:“你知道,我知道杀人是一件可怕的事情,我感受到了,但我认识到这是为了崇高的理由而做的,因此,这是可以的。”
所以,你可以对电车难题作为一个思想实验说很多有趣的事情。但归根结底,它只是一个思想实验。让我们重新审视它的原因是,这个思想实验似乎即将变成现实。休息过后马上就到。所以
贾德·罗伯特·雷迪奥拉布。好的,我们停留在电车难题即将变成现实的地方。乔什·格林是这样说的。你知道,现在我们正进入自动驾驶汽车时代,这就像电车难题终于变成了现实。有车来了。汽车的未来就在这里。哦,有车。自动驾驶汽车。它来了。第一辆自动驾驶沃尔沃汽车将于2021年提供给客户。哦!
哦,它要去哪里?这项立法是首创,它关注的是未来更像轮式超级计算机的汽车。好的,自动驾驶汽车,除非你一直生活在消声器下,否则它们就要来了。对我们中的一些人来说,这将是一个小小的调整。踩刹车,踩刹车。但乔什说它变成了现实的电车难题,基本上是这样的。
想象一下这种情况。自动驾驶汽车现在正朝着一群行人驶去。拯救他们的唯一方法是转向避开,但这会使汽车撞到混凝土墙上,并杀死车上的乘客。汽车应该怎么做?汽车应该直行碾压,比如说,那五个人,还是应该转向杀死一个人?这突然变成了一个现实世界的问题。
如果你抽象地问人们,比如理论上在这种情况下汽车应该怎么做?他们更有可能说,我认为你应该为了大多数人的利益牺牲一个人。他们应该尽量做到最好或避免造成最大伤害。所以如果是一个司机和五个行人之间,逻辑上应该是司机。杀死持枪司机。要无私。我认为它应该杀死司机。但当你问人们,
忘记理论吧。你是否想驾驶一辆可能会牺牲你以拯救更多人的生命的汽车,以最大限度地减少总伤害?他们说不会。我不会买的。不会。绝对不会。那会杀了我吗?不会。所以我不会买一辆会故意杀我的车。绝对不会。我不会买的。当然不会。不会。
我会卖掉它,但我不会买它。这就是你的问题。人们会卖掉一辆车,以及他们自己不会购买的道德推理理念。去年秋天,梅赛德斯-奔驰的一位高管直接栽倒了……
在这个矛盾的中心。欢迎来到巴黎,世界上最美丽的城市之一,欢迎来到2016年巴黎车展,这里展出了一些世界上最美丽的汽车。好的,2016年10月,巴黎车展,大约有100万人在这几天内前来参观。所有主要的汽车制造商都在那里。这是法拉利。你可以看到LaFerrari Aperta,当然还有新的GT4C Lusso T。每个人都在推出他们的新车。
而这场盛会的一位主要演讲者是这个人。未来,你将拥有不需要把手放在方向盘上的汽车,但也许你会在抬头显示器上看电影,或者也许你想发邮件。这正是我们努力追求的目标。这是梅赛德斯-奔驰的高级安全经理克里斯托弗·冯·雨果。他当时在车展上。
展示了一种能够自动驾驶穿过交通的汽车原型。例如,在今天的E级车中,你拥有最大的舒适性和支持系统。你实际上会期待堵车,不是吗?当然,当然。他在车展期间接受了数十次采访。在其中一次采访中,不幸的是,我们没有录像,
他被问到,你的无人驾驶汽车在电车难题类型的困境中会怎么做,你可能必须在一或多之间做出选择?他回答说,引用……
一个人。至少救下那个人。如果你知道你可以救下一个人,那就救下那个人。救车里的人。这是《汽车与驾驶员》杂志的记者迈克尔·泰勒。克里斯托弗·冯·雨果就是对他说的。如果你确定可以防止一件事,一次死亡,那么这就是你的首要任务。
现在,当他对你说这个的时候……这是制作人阿曼达·朗切克。当时这看起来有争议吗?当时,这看起来非常合乎逻辑。我的意思是,他真正做的只是说出人们的想法,那就是……我不会买的。谁会买一辆选择其他人而不是他们的汽车?无论如何,他做了那番评论,迈克尔把它印出来,然后……
一场小风波随之而来。救车里的人,那是梅赛德斯的克里斯托弗·冯·雨果。但是当你提出这些问题时,你听起来像个卑鄙的人,因为你想拯救自己而不是行人。但这听起来不像特权吗?是的,是的。等等,你会怎么做?是你或一个行人。我只是,你知道,我不了解这个行人。只是你或一个行人,只是个在街上走着的普通人。
去死吧,所有不在梅赛德斯里的人。对此引发了一种愤怒。你们怎么敢驾驶这些自私的,你知道的,制造这些自私的汽车。然后他收回前言,他说,不,不。我的意思是,我们更有可能保护车里的人。所以我们将保护他们,因为他们更容易保护。但当然,你知道,总会有权衡取舍。是的。而这些权衡取舍可能会变得非常非常棘手和微妙。
因为显然这些汽车有传感器。像摄像头、雷达、激光和超声波传感器这样的传感器。这是拉杰·拉杰库马尔。他是卡内基梅隆大学的教授。我是通用汽车-卡内基梅隆大学互联和自动驾驶合作研究实验室的联合主任。他是编写将进入通用汽车无人驾驶汽车的代码的人之一。他说,是的,
目前汽车上的传感器……仍在发展中。相当基本。如果今天我们能够检测到行人,能够检测到骑自行车的人、骑摩托车的人、不同形状、大小和颜色的不同车辆,我们就已经非常高兴了。比迪说不久之后……我们实际上可以更多地了解这些人是谁。最终,他们将能够检测到不同大小、形状和颜色的人。比如,哦,那是瘦子,那是矮个子,高个子,黑人,白人。那是小男孩,那是小女孩。
所以忘记基本的道德计算吧。比如,如果一辆车必须决定,哦,我救这个男孩还是这个女孩?两个女孩对一个男孩和一个成年人呢?猫对狗呢?一个穿着西装的75岁老人对那边可能无家可归的那个人呢?
你可以看出事情的发展方向。可以想象,汽车会知道我们的病历。回到车展……我们还听说过车对车通信这个词。嗯,这也是高度自动化驾驶的使能技术之一。梅赛德斯的人基本上说,几年后,汽车将联网。他们将互相交谈。所以想象一下,汽车即将发生事故,就在决策点……
他们就像在商议。嗯,你的车里是谁?我?我带了一个70岁的华尔街人士,他赚了八位数。你呢?嗯,我是一辆满载孩子的公共汽车。孩子们还有更多年可以活。你需要移动。等等。我看到你的孩子来自贫困社区,患有哮喘,所以我不知道。所以你基本上可以把自己绑成结,把自己缠绕在车轴上。
我们认为不应该让任何程序员承担决定谁生谁死的重大负担。我认为这些是非常根本的、深刻的问题,社会必须整体决定。我不认为一个吃披萨喝可乐的程序员应该做出这样的决定。社会如何决定?我的意思是,帮我想象一下。我认为这真的必须是一个进化过程,我相信。
拉杰告诉我们,基本上需要发生两件事。首先,我们需要让这些机器人汽车上路,获得更多关于它们如何与我们人类司机互动以及我们如何与它们互动的经验。其次,需要进行行业范围的联系。
峰会,没有一家公司能够解决这个问题,这是福特公司比尔·福尔·初级在2016年10月在华盛顿特区经济俱乐部发表的演讲,我们必须拥有,因为他能想象一下,如果我们有一种算法,丰田有另一种,通用汽车有另一种,我的意思是,这将是按照我的看法,可以做到这一点的方式,就像如果西藏汽车做出一个决定,而美国汽车做出另一个决定,所以我们需要就伦理问题进行全国性的讨论,我认为,因为
我们以前从未想过这些事情,但汽车将有时间和能力这样做。到目前为止,我们只知道德国是唯一一个正面解决这个问题的国家。伦理委员会提出的最重要的一点是,自动驾驶和互联驾驶是一项伦理上的当务之急。政府发布了一套伦理准则,其中指出,自动驾驶汽车……
禁止以几乎任何方式歧视人类,无论种族、性别、年龄,什么都不行。这些不应该被编程到汽车中。可以想象,日内瓦公约中会增加一些条款,如果可以的话,关于这些自动装置应该做什么,一个全球公认的标准,如果可以的话。我们如何到达那里,达到那个全球公认的标准,是……
任何人的猜测。它会是什么样子,它是否会像我们大脑中看到的那种连贯的规则集或充满矛盾一样,这还有待观察。但有一点是明确的。哦,有车来了!哦!哦,有车!哇!哦,有车来了。比尔,这……带着他们的问题。把我放回去让我控制!哦,亲爱的耶稣!我永远不可能……它去哪里了?
好的,我们需要提醒大家,我们在无人驾驶汽车的情况下谈论的道德困境将非常罕见。
大多数情况下,可能发生的事情是,像每天因车祸而死亡的飞机上的人一样。嗯,那只会掉到地上。因此,你必须权衡汽车可能做出你不喜欢的决定的少数情况与拯救的大量生命。我实际上是在想另一件事。我在想。
即使你大幅降低了在罗思发生的不好的事情的数量,你大幅降低了碰撞,你大幅降低了死亡率,你大幅降低了醉酒回家参加派对并只是撞到某人侧面并杀死他们中的三个并使他们中的两个终身受伤的人数。这类事情会大大减少。但剩下的那些是经过设计的。它们是经过计算的。
几乎是预见的。所以这是区别。这只是一个有趣的区别。比如,哦,该死,太悲伤了,发生了那样的事情,那个人喝醉了,等等。也许他应该进监狱。
但你的意思是社会设计了这个?这是一个很大的区别。一个是戏剧性的,似乎是命运的力量,另一个似乎是机械的,并且是预先考虑好的。预谋的,是的。并且社会预谋的事情有一些黑暗之处。
预期的死亡。我不知道你该如何处理。每个人都为此负责。在细节上,感觉很黑暗。这有点像,你知道的,你是否应该杀死你自己的孩子来拯救村庄?就像在这个孩子的特定情况下一样,这很黑暗。但在拯救的生命背景下,它只是一个微小的黑暗针孔。仅此而已。是的,但你知道人类是怎样的。如果你反驳……
是的,一群聪明人制定了一个数学公式,这意味着有些人必须死,他们就在这里。比以前少多了!
一个人,就像乔什会告诉你的那样,会发出愤怒和愤怒的咆哮,说,你怎么敢设计这个?不,不,不,不,不。在这种情况下,那个人需要像僧侣一样冥想来压制这种感觉,因为在这种情况下,这种感觉只是妨碍了事情。是也不是。除非你是僧侣,否则这可能是做不到的,上帝保佑。看,我们又回到了起点。
好了,我们该走了。查德,你必须感谢一些人,对吗?是的。这篇文章是由阿曼达·阿隆切克制作的,贝瑟尔·霍布特提供了帮助。特别感谢麻省理工学院道德机器小组的伊亚德·拉万、埃德蒙·阿瓦德和悉尼·莱文。还要感谢塞尔塔克·卡拉曼、申昌和机器人赛车的所有帮助。我想我们现在应该走了。是的。我,嗯……我是查德·阿布姆拉德。如果你不介意的话,我不会上你的车。自己开吧。
我要把一辆自动驾驶汽车绑在我的床底下。所以你将上床睡觉,突然发现自己正在高速公路上行驶,把我带到任何我想去的地方。不,你不会的。无论如何。好的。我们该走了。我是杰德。我是罗伯特。我是罗伯特·克罗尔维奇。感谢收听。再见。再见。
雷迪奥拉布由贾德·阿布姆拉德创建,由索伦·惠勒编辑。露露·米勒和拉蒂夫·纳塞尔是我们的联合主持人。迪伦·基夫是我们的声音设计总监。我们的员工包括西蒙·阿德勒、杰里米·布鲁姆、贝卡·布雷斯勒、瑞秋·库西克、麦凯迪·福斯特-基斯、W·哈里·福图纳、大卫·盖布尔、玛丽亚·帕兹·古铁雷斯、辛杜·尼亚纳桑巴达姆。
马特·基尔蒂、安妮·麦克尤恩、亚历克斯·尼森、萨拉·哈里、安娜·拉斯克维特-帕兹、艾丽莎·琼-佩里、萨拉·桑巴赫、阿里安·瓦克、帕特·沃尔特斯和莫莉·韦伯斯特,以及蒂米·布罗德里克的帮助。我们的事实核查员是黛安·凯利、艾米丽·克里格和娜塔莉·米德尔顿。
嗨,我是埃里卡·伊尼亚克尔斯。雷迪奥拉布科学节目的领导支持由戈登和贝蒂·摩尔基金会、科学沙盒(西蒙斯基金会倡议)和约翰·坦普尔顿基金会提供。雷迪奥拉布的基础支持由阿尔弗雷德·斯隆基金会提供。
您来到《纽约客广播时间》是为了进行更深入的对话,与您真正想听到的人交谈,无论是布鲁斯·斯普林斯汀、奎斯特洛夫还是奥利维亚·罗德里戈、丽兹·切尼,还是人工智能教父杰弗里·欣顿,或者我在《纽约客》的一些消息极其灵通的同事。所以每周都加入我们,在您收听播客的任何地方收听《纽约客广播时间》。