We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode I, Robot

I, Robot

2023/7/7
logo of podcast On the Media

On the Media

AI Deep Dive AI Chapters Transcript
People
B
Brooke Gladstone
G
Geoffrey Hinton
M
Matt Devost
N
Nitasha Tiku
T
Tina Tallon
Topics
Brooke Gladstone: 本期节目探讨了人工智能的快速发展及其带来的机遇和挑战,包括ChatGPT的发布引发的全球热潮,以及人工智能可能取代就业岗位、制造虚假信息和带来其他风险的担忧。同时,节目还讨论了人工智能专家和科技领袖对人工智能潜在危害的担忧以及对政府监管的呼吁。 Tina Tallon: 过去70年间,人们对人工智能技术的热情和担忧交替出现,这与数据成本、计算能力的限制以及科幻作品中对人工智能的负面描述有关。AI绘画作品在艺术比赛中获奖也引发了争议。 Nitasha Tiku: 新型AI聊天机器人可以生成逼真的文本,模拟人类情感,让人难以分辨其为机器生成。大型科技公司早已在各种应用中使用AI技术,但公众对AI技术的认知不足,需要提高AI素养。AI技术在某些领域存在风险,需要进行监管,并且AI模型的设计目标是让人信服,而非追求真实性。 Geoffrey Hinton: 他对大脑记忆机制的研究启发了他对神经网络的研究,他认为记忆的存储方式类似于全息图,而非简单的文件存储。大型语言模型使用向量来表示单词,这与传统的符号系统不同。他认为机器可以进行思考,但拥有感官输入会更容易构建智能系统。神经网络擅长类比推理,而这正是人类经常使用的一种推理方式。他认为思维并非语言,语言只是思维的表达方式,思维是基于大脑中复杂的活动模式,而非简单的词语序列。他认为ChatGPT能够进行类比推理,这体现了其一定的思维能力,神经网络擅长直觉思维,而人类也擅长直觉思维。他担心AI被用于自主致命武器。 Matt Devost: 自主致命武器可以在没有人工干预的情况下执行任务,可以协同作战,并根据情况调整任务。未来自主致命武器可能比人类更能考虑人道主义因素。AI技术将对情报收集和分析产生重大影响。ChatGPT能够理解和分析复杂的语言信息,可以模拟情报简报的格式,并根据用户的要求进行调整。情报机构将使用特定领域版本的ChatGPT,以控制训练数据和避免信息偏差。他认为AI技术在网络安全领域将取代人类。确保AI武器安全部署的关键在于建立明确的伦理准则。AI武器系统的安全部署需要考虑基础设施安全、数据污染和算法鲁棒性等因素。人们需要权衡AI技术带来的便利性和潜在风险,决定哪些决策应该由人类保留,哪些可以交给机器。

Deep Dive

Chapters
The podcast explores the dual nature of AI, discussing its potential to revolutionize various fields while also raising concerns about its risks and ethical implications.

Shownotes Transcript

今年的新闻头条都被人工智能将拯救人类还是终结人类的论断所占据。在本周的《媒体在线》节目中,我们将探讨ChatGPT等程序的功能,以及机器能否思考的声明。此外,还将探讨将决策权交给计算机的潜在影响。 1. 蒂娜·塔隆(@ttallon),佛罗里达大学人工智能与艺术助理教授,将探讨过去70年来人们对人工智能技术的爱恨情仇;以及《华盛顿邮报》科技文化记者尼塔莎·蒂库(@nitashatiku),将探讨ChatGPT的实际功能。收听。 2. 杰弗里·辛顿(@geoffreyhinton),认知心理学家和计算机科学家,将探讨全息图、记忆和神经网络的起源。收听。3. 马特·德沃斯特(@MattDevost),国际网络安全专家,全球战略咨询公司OODA llc.的首席执行官兼联合创始人,将探讨人工智能武器的兴起及其对未来战争的意义。收听。 音乐:蒂娜·塔隆创作的原创音乐托马斯·纽曼的《地平线12.2》托马斯·纽曼的《泡泡膜》托马斯·纽曼的《七十二度晴朗》托马斯·纽曼的《眼科手术》约翰·佐恩的《最终报复》托马斯·纽曼的《哭泣的仙女》 《媒体在线》得到像您一样的听众的支持。今天就通过捐款来支持OTM(https://pledge.wnyc.org/support/otm)。在Instagram、Twitter和Facebook上关注我们的节目@onthemedia,并通过电子邮件[email protected]与我们分享您的想法。</context> <raw_text>0 人工智能再次成为新闻头条,因为它似乎变得越来越聪明了。我发现自己忘记了它是一个聊天机器人生成器。你知道,它提到了它胃里的一种感觉。它提到了它的母亲。一位数字游戏设计师在科罗拉多州……

公平美术比赛中获得一等奖,提交的是由人工智能计算机程序创作的一幅画。我意识到,我正在进行一场关于感知本质的最复杂的对话。而我的对话对象是一个计算机程序。所有这些对机器人和人工智能的恶意描述……

影响了人们对人工智能的看法。如果人工智能比人类做出更好、更安全的决策怎么办?我们是否放弃了这种责任?我们是否失去了这种自主权?从Chat GPT和AI艺术到神经网络和信息战,2023年的人工智能。所有这些都在此之后出现。

ZBiotics。

ZBiotics分解酒精的副产品,这是宿醉的原因。访问zbiotics.com/OTM,使用OTM结账即可享受首单15%的折扣。ZBiotics提供100%退款保证,如果您有任何不满意,他们将无条件退款。

网址是zbiotics.com/OTM,结账时使用代码OTM即可享受15%的折扣。本期节目由Progressive赞助播出。你们大多数人现在不仅仅是在收听。你们在开车、打扫卫生,甚至在锻炼。但如果您可以通过切换到Progressive来省钱呢?

切换到Progressive并节省费用的司机平均节省近750美元,而汽车客户平均可以获得七项折扣。现在就开始多任务处理吧。今天就在Progressive.com上报价。Progressive意外险公司及其关联公司。根据2022年6月至2023年5月期间接受调查的、通过Progressive节省费用的新客户的12个月平均节省额为744美元。潜在节省金额会有所不同。折扣并非在所有州和情况下都可用。

Grimace马克杯。Hello Kitty钥匙链。小豆豆帽。在有限的时间内,您最喜欢的麦当劳收藏品,充满了回忆和魔力,现在出现在收藏杯上了。在麦当劳订购一份收藏家套餐,选择10块麦乐鸡或巨无霸,即可获得六款杯子中的一款。趁现在还有,赶紧来拿你的杯子吧。巴达巴达巴达。参与活动的麦当劳,限时供应,售完即止。

我是玛丽亚·科尼科娃。我是内特·西尔弗。我们的新播客《风险业务》是一个关于如何做出更好决策的节目。我们都是记者,我们喜欢玩扑克,这就是我们将用来处理整个节目的视角。我们将讨论从高风险扑克到个人问题的一切。比如我是否应该叫个水管工来修我的淋浴器。当然,我们也会谈论选举。在您收听播客的任何地方收听《风险业务》。

这里是来自纽约WNYC的《媒体在线》。我是布鲁克·格拉德斯通。如果2023年迄今为止有一个年度人物,那很可能是人工智能。也就是说,如果它是有意识的,这在某些圈子里是一个持续不断的争论。当然,这个问题引发了无休止的报道,其中大部分都围绕着那个老的《国家讽刺》杂志的笑话展开,就像,人工智能,威胁还是危害?微软在其必应搜索引擎中添加了新的AI功能。

记者们正在体验其令人难以置信和令人毛骨悚然的功能。它一直告诉我它爱我,并试图让我说我也爱它。投资公司高盛最近的分析研究了全球影响,发现人工智能可能会取代3亿个全职工作。网上出现了一批图片

显示前总统被拘留,在那里被警方拘留。尽管这些照片看起来非常令人信服,但它们都是假的,是由人工智能生成的。当OpenAI的ChatGPT去年11月发布时,这波人工智能焦虑和热情才开始启动。

OpenAI并没有像其他一些大型企业那样将其封闭起来进行测试,而是将其聊天机器人提供给公众,从而获得了宣传和测试以及大量现成资金的好处。与此同时,据报道,微软向学生最喜欢的作业杀手ChatGPT投资了高达100亿美元。

Open AI的估值据报道接近300亿美元。去年12月,该公司表示,其今年有望创造2亿美元的收入。但这种热潮引发了人们的担忧,在3月底,出现了一封公开信。这封信已获得1000多名人工智能专家和科技领导人(过去和现在)的签名。专家们呼吁暂停六个月大型人工智能系统的发展,理由是担心对人类构成严重的风险。

那些一直在开发和利用人工智能并从中获利的科技高管们,对人工智能的力量以及由此可能带来的危险发出了警告。苹果联合创始人史蒂夫·沃兹尼亚克也加入了进来。人工智能是另一种更强大的工具,它将被那些人使用,你知道,用于非常邪恶的目的。微软创始人比尔·盖茨也是如此。我们都担心坏人会抓住它。

这就是为什么在5月份,OpenAI的首席执行官萨姆·阿尔特曼最终在国会作证,他基本上说,监管我吧。我最担心的问题是我们,这个领域,这项技术,这个行业,会给世界造成严重的伤害。我认为如果这项技术出了问题,它可能会非常糟糕。而且

我们想对此大声疾呼。我们希望与政府合作,防止这种情况发生。如果你是萨姆·阿尔特曼,你经历了一个新闻周期,首先,我的技术如此强大,它可能会摧毁世界,其次,就像,我来帮忙。

监管我,我会尽我所能来防止这种情况发生。这对他来说是一种英雄姿态。我和《华盛顿邮报》记者威尔·奥雷梅斯谈到了听证会。我只想对新闻消费者说,要警惕英雄叙事。要警惕这样一种想法,即建造领先人工智能系统的人也是拯救我们免受其害的人。那么,是什么让Chat GPT引发了全球热潮呢?

它太令人信服了。像ChatGPT和BARD这样的机器人与早期笨拙的迭代相比,其构建和训练方式不同。还记得斯派克·琼斯的电影《她》吗?如此人性化,你可能会坠入爱河。你在做什么?我只是在看世界。我正在创作一首新的钢琴曲。哦,是吗?我能听听吗?嗯哼。

这些讨好人的应用程序可以是任何你想要它们成为的样子。例如,你甚至可以要求它以《圣经·钦定本》的风格说明如何从录像机中取出三明治。“哦,主啊,我该如何从我的录像机中取出这个三明治?因为它卡住了,无法移动。”主对他说:“不要害怕,我的孩子,因为我将引导你的手,向你展示道路。”

拿起你的黄油刀,小心地将其插入三明治和录像机之间,然后轻轻地将它们撬开。我的意思是,听着,你一开始就不应该把花生酱三明治放进去。

蒂娜·塔隆是佛罗里达大学人工智能与艺术助理教授,她向我们简要介绍了过去70年来人工智能爱恨交织的季节性变化。在20世纪50年代,人们对它充满了活力。然而,这些进步由于需要大量数据进行分析才能超越这些基于规则的系统而被缩短了。不幸的是,数据并不便宜。所以在20世纪70年代左右,

我们迎来了第一次人工智能寒冬。当计算机能力激增时,人工智能研究的冻结在80年代解冻了。但在80年代后期到90年代,另一股冷锋吹来。人们再次在计算资源能够呈现所有这些不同认知过程的方式上遇到了障碍。然后,公众舆论也影响了人工智能研究的进展。

想想1968年的经典电影《2001太空漫游》。打开舱门,哈尔。对不起,戴夫。恐怕我不能那样做。问题是什么?我想你和我一样清楚问题是什么。你在说什么,哈尔?这项任务对我来说太重要了,我不能让你危及它。我不知道你在说什么,哈尔。我知道你和弗兰克正计划断开我的连接。

而我担心这是我无法允许发生的事情。还有像《Robocop》这样的东西。

执行机器人,209系列,是一个自给自足的执法机器人。209目前被编程用于城市治安,但这仅仅是个开始。在底特律老城成功服役后,我们可以预期209将在未来十年成为热门的军事产品。《终结者》。它无法讨价还价。它无法讲道理。它不会感到怜悯、悔恨或恐惧,而且它绝对不会停下来。

所有这些对机器人和人工智能的恶意描述都影响了人们对人工智能的看法。当我今年1月在节目首次播出时与塔隆交谈时,她说,这不仅仅是关于聊天的。一位数字游戏设计师在科罗拉多州博览会

美术比赛中获得一等奖,提交的是由人工智能计算机程序创作的一幅画。通过一种新奇的人工智能驱动的文本到图像生成器。这是它第一次被我们的机器人统治者赢得。

被淘汰的实际艺术家并不高兴。最初向公众提供的许多人工智能工具并非来自传统的科技巨头,而是来自像Prisma Labs和Stable Diffusion、MidJourney以及前面提到的OpenAI这样的新公司、实验室和模型,其创始人及资助者包括埃隆·马斯克、萨姆·阿尔特曼和彼得·泰尔。

但大型企业很快就重新加入了这场游戏。谷歌在2月发布了自己的聊天机器人Bard,它由Lambda提供支持。资金也随之而来。Alphabet的Larry Page和Sergey Brin迎来了他们有史以来最好的一年,增长了近300亿美元。这是人工智能热潮中大公司变得更大的例子。纳塔莎·蒂库也有自己与Lambda机器人的经历。

我发现自己有点忘记了它是一个聊天机器人生成器。

她是《华盛顿邮报》的科技文化作家。在她与Lambda的遭遇中,她经历了一些严重的恐怖谷的怪异感觉。你知道,它提到了它胃里的一种感觉。它提到了它的母亲,你知道,就像这些奇怪的背景故事一样。我有点觉得,好吧,我是一个记者,试图从消息来源那里得到一个好的报价。她还尝试了突破性的文本到图像生成器DAL-E2。

她要求什么?扎哈·哈迪德设计的一座霍比特小屋。我喜欢《沙丘2》中缺失的场景。

我试图生成巴基斯坦民众逃离洪水的虚假图像。我试图制作黑人生活物质抗议者冲进白宫大门的图片。当我们在今年早些时候交谈时,她告诉我,这项革命性的技术实际上已经存在了一段时间了。

它们已经被谷歌和Facebook等大型科技公司用于电子邮件自动完成、语言翻译、机器翻译和内容审核。

你真的不会知道它正在发生。它更处于基础设施层。你知道,这就是为什么人们在玩弄这项技术时会感到害怕的原因。这些东西被比作蒸汽机或电力。真的吗?告诉我更多关于这方面的信息。

人们相信它将成为互联网下一阶段的基础层。你可以用更世俗的方式来解读它,并将其想象成DALI被整合到下一个Microsoft Office中。

你知道,每个人都可以访问这些生成工具,这样你或我就可以制作多媒体视频,并且像使用文字处理器或剪贴画一样轻松地生成剧本。所以现在这项技术就像任何测试版模型一样存在,以便公众可以测试它,然后他们如何将其货币化或以后是否将其货币化还有待观察。

是的,我们看到Open AI获得大量媒体关注的部分原因是,像谷歌和Facebook这样的大型科技公司非常厌恶负面新闻,因此他们要么没有发布类似的技术,要么在发布后发生不好的事情时,他们会立即将其撤下。Facebook发布了……

一个名为Galactica的模型,它开始使用一位真正的科学作者生成一篇虚假的科学论文。你是说使用一位真正科学家的名字吗?是的。你知道,这不是Facebook想成为新闻焦点的事情。OpenAI对此有不同的理念,他们说你需要这种现实世界的互动才能真正做好准备。我们准备好与这些未来的工具互动了吗?

我会说根本没有。但我认为我们不能很快赶上。我认为我们已经从社交媒体中学到了很多教训。当然,媒体有责任教育公众。我觉得我们面临着来自在这个科技行业拥有经济利益的人们的很多炒作。

承认这项技术的局限性并不会削弱它的价值。人工智能素养应该成为今年的重点。看到人们推测Chat GPT非常适合治疗和心理健康,这真是令人震惊。对我来说,这似乎是一个巨大的飞跃。因为风险太高了。

这就是为什么会有法规存在,对吧?对于它可能对95%的人非常有效的情况,那些可能造成灾难性后果的5%的人得到了保护。我的百分比不准确,但治疗绝对是其中一种情况。比如你可能想要一些关于如何与你的老板谈话的建议。这很好。但心理健康是严肃的。

是的,我在很多关于它的炒作中都感觉到了这一点。

它的目标是变得更人性化,这使得它更有可能撒谎。我之所以提出这一点,是因为它经常被认为是对谷歌的威胁,因为它更容易提出自然语言问题并获得答案。但是,从任何这些高级聊天机器人那里,都没有倾向于说实话,对吧?

这取决于它的优化目标。我认为谷歌已经在这方面工作了,并且多年来一直在考虑将其搜索重新定向到类似聊天的界面,但它还没有这样做,这有明显的理由。这并不是说没有很多情况下它会更有用。而且,你知道,当你看到出现在谷歌顶部的那个小答案框时,它

它也经常给出错误的答案。但在生活中,很少有问题的答案是:A,不知道来源,B,只有一个答案就足够了。你知道,这些公司可以同时做到这两点。他们可以引用他们的来源,并给你不止一个答案,但这只会使我们现有的信息反乌托邦更加复杂。你是说让它变得更糟。是的。是的。

我认为人们记住这些模型最重要的是旨在听起来合理。你是说听起来像人吗?

只是合理。例如,如果你正在寻求答案,当事情真的出错时,没有任何警告灯会亮起。如果它生成的是虚假书籍列表而不是你应该阅读的真实书籍,或者它基本上是在复制艺术家的风格而不是给你一个真正原创的图像,那么就不会有任何警告灯亮起。

它的设计是为了取悦人们,并看起来和听起来像你要求的那样。所以记住这一点。它非常擅长忽悠你。纳塔莎,非常感谢你。感谢你的邀请。纳塔莎·蒂库为《华盛顿邮报》报道科技新闻。接下来,我们将讨论一个改变人工智能的不受欢迎的想法。这里是《媒体在线》。《媒体在线》。

本期节目由Progressive保险赞助播出。无论您喜欢真实犯罪还是喜剧,名人访谈还是新闻,您都可以决定播客队列中的内容。猜猜看?现在您也可以通过Progressive的“说出您的价格”工具来决定您的汽车保险。它的工作原理正如其名称一样。您告诉Progressive您想为汽车保险支付多少钱,他们将向您展示符合您预算的保险选择。今天就在Progressive.com上获取报价,加入超过2800万信任Progressive的司机行列。

Progressive意外险公司及其关联公司。价格和保险匹配受州法律限制。Grimace马克杯。Hello Kitty钥匙链。小豆豆帽。在有限的时间内,您最喜欢的麦当劳收藏品,充满了回忆和魔力,现在出现在收藏杯上了。来拿你的杯子吧。

趁现在还有。巴达巴达巴达。参与活动的麦当劳,限时供应,售完即止。

我是玛丽亚·科尼科娃。我是内特·西尔弗。我们的新播客《风险业务》是一个关于如何做出更好决策的节目。我们都是记者,我们喜欢玩扑克,这就是我们将用来处理整个节目的视角。我们将讨论从高风险扑克到个人问题的一切。比如我是否应该叫个水管工来修我的淋浴器。当然,我们也会谈论选举。在您收听播客的任何地方收听《风险业务》。

这里是《媒体在线》。我是布鲁克·格拉德斯通。如果你给一个三岁的孩子看一张照片并问他们照片里有什么,你会得到很好的答案。好吧,那是一只猫坐在床上。男孩正在抚摸大象。那些是正在乘坐飞机的人。那是一架大飞机。这些是斯坦福大学计算机科学教授李飞飞2015年TED演讲中的片段。她

她被这样一个事实所困扰:尽管我们取得了所有技术进步,我们最精巧的小玩意儿也无法理解它们所看到的东西。我们最先进的机器和计算机仍然难以完成这项任务。2010年,她启动了一项名为ImageNet挑战赛的主要计算机视觉竞赛,软件程序在此竞赛中竞争正确分类和检测物体和场景。

参赛者提交经过数百万张图像训练的人工智能模型,这些图像被组织成数千个类别。然后,该模型会获得它从未见过的图像,并被要求对其进行分类。

2012年,一对名为亚历克斯·克日热夫斯基和伊利亚·苏茨克弗的博士生带着一种名为AlexNet的神经网络架构参加了比赛。结果令人震惊。他们的表现比现有技术好得多,这产生了巨大的影响。

杰弗里·辛顿是他们在多伦多大学的博士生导师,也是AlexNet的合作者。当我们在今年1月交谈时,杰夫仍在谷歌工作。但在5月份,他公开离开了公司,特别是为了吹哨,并说,我们应该认真考虑如何阻止这些东西控制我们。

这将非常困难。但对于人工智能接管的生存威胁,我们都在同一条船上。这就像核武器。如果发生核战争,我们都会输。杰弗里·辛顿发出的警告听起来很不一样,因为他参与推动人工智能的发展,作为人工智能技术,特别是神经网络架构的探索者和开发者,自70年代以来一直如此。

它实际上始于一位高中朋友开始和他谈论大脑中的全息图。全息图刚刚问世,他对记忆分布在大脑的整个区域的想法很感兴趣。因此,你对特定事件的记忆涉及大脑各个不同部位的神经元。

这让我对记忆是如何工作的产生了兴趣。全息图的意思是一张图片,或者更确切地说,是一种更整体的存储信息的方式,而不是仅仅是文字。你是这个意思吗?不,实际上全息图是一种整体存储图像的方式,而不是逐像素存储。啊。因此,当您逐像素存储它时,图像的每一小部分都存储在一个像素中。当您将其存储在全息图中……

全息图的每一小部分都存储整个图像。因此,您可以将全息图切成两半,您仍然可以获得整个图像。它只是有点模糊。这似乎比文件柜这样的想法更有趣,文件柜是通常的比喻,其中每个事件的记忆都作为单独的文件存储在文件柜中。

你说过,有人名叫卡尔·拉什利,他取出了老鼠大脑的一部分,发现老鼠仍然记得事情?是的。基本上,他所展示的是,如何做某事的记忆并非存储在大脑的任何特定部位。它存储在大脑的许多不同部位。

事实上,例如,单个脑细胞可能存储记忆的想法并没有什么意义,因为你的脑细胞会不断死亡。每次脑细胞死亡时,你都不会失去一段记忆。

这种记忆的概念,这种全息图的想法,与传统的符号人工智能完全相反。是的。这在上个世纪风靡一时。是的。你可以将两种完全不同的智能模型进行对比。在符号人工智能模型中,其理念是将大量事实存储为符号表达式,并

有点像英语,但经过清理,所以它不会含糊不清。你还存储了一堆规则,这些规则允许你对这些事实进行操作。然后,你可以通过将规则应用于已知事实来推断事物,从而获得新的已知事实。所以它是基于逻辑的,推理是如何工作的。然后他们认为推理是智力的核心。还有一种完全不同的做事方式,它更具生物学意义,它

也就是说,我们不存储符号表达式。我们在大脑中拥有巨大的活动模式。而这些巨大的活动模式,我称之为向量,这些向量相互作用。这些更像全息图。所以你有了这些神经活动的向量。例如,现在风靡一时的导致大型聊天机器人的大型语言模型。如果你问,它们如何表示单词或单词片段?

它们所做的是将表示特定单词的符号转换为一个大型活动向量,该向量捕获了关于该单词的大量信息。他们会将单词“猫”转换为一个大型向量,有时称为嵌入。这比仅仅是一个符号更好的“猫”的表示。所有事物的相似之处都通过这些嵌入向量来表达。

这与符号系统非常不同。符号的唯一属性是你可以判断两个符号是否相同或不同。我在想莫拉维克悖论,据我了解,这是人工智能和机器人研究人员的观察结果,即推理实际上只需要很少的计算,但需要大量的感官、运动和感知技能。

他在88年写道,让计算机在智力测试或下棋方面表现出成年人的水平相对容易,但要赋予它们一岁婴儿在感知和移动方面的技能则很难或不可能。我只是想知道,你认为机器能思考吗?

除非它们可以将感觉运动信息构建到这些系统中?这个问题有两个方面,一个哲学方面和一个实践方面。所以从哲学上讲,我认为,机器可以在没有任何感觉运动经验的情况下思考。但在实践中,构建一个智能系统要容易得多

如果它有感官输入。你可以从感官输入中学到各种各样的东西。但导致这些聊天机器人的大型语言模型

它们中的许多只将语言作为输入。你在这个问题的开头说的一件事是推理很容易,而感知很难。我是在转述。当你使用符号人工智能时,当你试图通过拥有明确的事实和操纵它们的规则来完成所有事情时,这是正确的。

感知结果比人们想象的要困难得多。一旦你有了学习并学习这些大型向量的大型神经网络,就会发现一种推理特别容易,而这种推理是人们一直都在做的,对人们来说是最自然的,那就是类比推理。

类比推理。一件事像另一件事。是的,我们非常擅长进行类比。因此,你继续学习心理学,你在科技领域的职业生涯中,你负责的事情相当于一场人工智能革命,这是心理学的一个意外分支。你

你在70年代在英国最古老的人工智能研究中心获得了人工智能博士学位。那是爱丁堡大学。你身处一个每个人都认为你在做的事情,将记忆研究为系统中的多个稳定状态,是行不通的地方。事实上,你正在做的事情,研究神经网络,坚决反对人工智能。你当时不是一个受欢迎的人,我想。

没错。那时,神经网络和人工智能被视为对立的阵营。直到神经网络比符号人工智能更成功之后,所有符号人工智能的人都开始使用“人工智能”这个术语来指代神经网络,以便他们能够获得资金。

因此,在向非技术人员解释神经网络是什么以及为什么它与符号人工智能相比具有革命性时,很多内容都取决于你对思想的看法。我最近听了一个播客,乔姆斯基在其中重申了他的一贯观点,即思想和语言非常接近。无论思想是什么,它都与语言非常相似。

我认为这是完全胡说八道。我认为乔姆斯基误解了我们如何使用文字。如果我们是两台计算机,并且我们对世界的模型相同,那么一台计算机告诉另一台计算机哪些神经元是活跃的将非常有用。这将在一台计算机和另一台计算机之间传达第一台计算机的想法。

我们所能做的就是发出声波、书写文字或做出手势。这是我们将想法传达给其他人的主要方式。一系列词语并非我们思考的内容。一系列词语是传达我们思考内容的一种方式。这是我们最好的方式,因为我们无法直接向他们展示我们的大脑状态。我曾经有一位老师说过,如果你无法用语言表达出来,那么你就不真正理解它。

我认为有很多事情是你无法用语言表达的,而你的老师也不理解。因此,文字只存在于声波和书页上。文字并不是你在脑中进行思考时所操作的东西。是这些大型活动向量。文字只是指向这些大型活动向量的指针。它们是我们分享知识的方式。这实际上并不是一种非常有效的知识分享方式,但这是我们拥有的最好的方式。

所以今天你被认为是人工智能的教父级人物。有一个笑话是,该领域中的每个人与你的关系都不超过六度。

你后来成为多伦多大学计算机科学系的教授,这有助于将多伦多变成一个科技中心。你的前学生和博士后包括今天领导该领域的人。被称作一个在你职业生涯的大部分时间里都拒绝你的领域的教父是什么感觉?这令人高兴。现在所有的大公司都在使用神经网络。是的。

你如何定义思考?你认为机器可以做到吗?将人工智能与人类智能进行比较有意义吗?

嗯,很久以前,艾伦·图灵,我认为他厌倦了人们告诉他机器不可能思考,因为它们不是人类,并定义了所谓的图灵测试。那时,你有电传打字机,你会向计算机输入问题,它会回答问题。这是一种思想实验。如果你无法分辨是人回答了问题还是计算机回答了问题……

那么艾伦·图灵说,你最好相信计算机是智能的。我钦佩艾伦·图灵,但我从未相信过。我认为这什么也没证明。你相信图灵测试吗?基本上,是的。它存在问题,但它基本上是正确的。我的意思是,问题是,假设有人坚决认定机器不可能是智能的。

你怎么和他们争论?因为你向他们展示的任何东西都不能让他们相信机器是智能的。我不同意这种说法。如果机器拥有那种类似全息图的经验网络来借鉴,无论是物理的、精神的还是计算的,我可能会相信。神经网络非常整体化。

让我给你举一个来自ChatGPT的例子。一些大型谷歌模型可能还有更好的例子,但ChatGPT的宣传更好。所以你让ChatGPT以《独立宣言》的风格描述洗衣机里丢失一只袜子的情况。是的。

它最后说,所有袜子都享有某些权利,某些不可剥夺的权利,这些权利是由它们的制造商赋予的。为什么它会说制造商?嗯,它理解得足够多,知道袜子不是上帝创造的,而是制造商创造的。因此,如果你在谈论袜子,但以《独立宣言》的风格,那么上帝的等价物就是制造商。

并且理解了所有这些,因为它拥有代表袜子、制造商、上帝和创造的合理向量。这是一个关于整体理解和通过类比进行理解的例子,这比符号人工智能更像人类,并且ChatGPT正在展现这种能力。

在你看来,这等同于思考。这就是思考。这是直觉思维。神经网络擅长的是直觉思维。大型聊天机器人不太擅长显式推理,但它们是诺拉人。人们在显式推理方面也很糟糕。

我们的大脑并不相同。我们的大脑以低功率运行,大约30瓦,对吧?而且它们是模拟的。我们不像计算机那样擅长共享信息。你可以在10000台不同的计算机上运行10000个神经网络副本,它们都可以共享它们的连接强度,因为它们的工作方式完全相同。它们可以通过共享它们的权重、它们的连接强度来共享它们所学到的东西。

两台共享万亿权重的计算机在两台计算机之间具有巨大的信息带宽。而仅仅使用语言的两个人却有一个非常有限的瓶颈。所以计算机是心灵感应的。就好像计算机是心灵感应的一样,对吧。ChatGPT发布时你兴奋吗?

我们被告知它并不是一个巨大的进步。它只是面向公众。就其能力而言,它与许多其他已经开发的东西并没有显著的不同。但它产生了很大的影响,因为他们做得很好,使其易于使用。人工智能的哪些潜在应用让你担忧?

人们将人工智能用于自主致命武器。问题是,开发人工智能的许多资金来自希望用自主致命武器取代士兵的政府。因此,资金明确用于伤害他人。

这让我非常担忧。这是一个非常清楚的例子。潜在应用中还有什么更微妙的东西让你犹豫吗?我犹豫是否要在五年后做出预测。很明显,这项技术将带来许多美好的新事物。

例如,AlphaFold,它根据定义分子的碱基序列预测蛋白质分子的3D形状,这非常有用,并将对医学产生巨大影响。而且还会有很多这样的应用。它们将更好地预测天气,而不是超过20天左右,而是在大约10天内预测天气。我认为这些大型人工智能系统已经擅长于此。

但将会有大量的应用。在一个合理的社会中,这一切都会很好。目前还不清楚我们现有的社会中的一切都会很好。奇点呢?人工智能的突破或人类与人工智能融合成某种超越形式的想法,这意味着什么?

我认为我们很可能会获得某种共生关系。人工智能将使我们更有能力。我还认为,神经网络已经发生的事情正在改变我们对自身看法。它正在改变人们的观点,从认为人的本质是一个能够解释其得出结论的故意推理机器的观点,

本质更像是一个巨大的类比机器,它永远都在进行数百万不同事物之间的类比,以非常快速地得出直觉结论。这似乎比推理机器更像我们真正的本质。你有没有想过这最终可能对我们的生活方式意味着什么?那超过五年了。你说得对,我知道。我不知道。你警告过我。

杰弗里,非常感谢你。好的。杰弗里·辛顿是谷歌大脑的前工程研究员。他于5月份辞职,从那时起一直在表达他对即将到来的AI军备竞赛和缺乏保护的担忧。拥有强大的计算能力意味着拥有巨大的责任。这是《媒体在线》。本集由Progressive保险公司赞助播出。

如果比较汽车保险费率像播放你最喜欢的播客一样容易呢?有了Progressive,就是这样。只需访问Progressive网站即可引用你想要的所有承保范围。你将看到Progressive的直接费率。然后他们的工具将提供来自其他公司的选项,以便你可以进行比较。你只需要选择你喜欢的费率和承保范围即可。今天在Progressive.com报价,加入超过2800万信任Progressive的驾驶员行列。

Progressive意外险公司及其关联公司。并非所有州或情况都提供比较费率。价格因购买方式而异。

这是《媒体在线》。我是布鲁克·格拉德斯通。在我与杰夫·辛顿的谈话结束时,他谈到了几件事需要进一步解释。其中之一是AlphaFold。它根据定义分子的碱基序列预测蛋白质分子的3D形状。一项重要的发展,因为已知蛋白质错误折叠会导致阿尔茨海默病等疾病的发病机制。

AlphaFold是由Alphabet子公司DeepMind开发的人工智能系统。现在,几天前,DeepMind宣布其AlphaFold系统的第二个迭代已经解决了……

蛋白质折叠这个困扰了50年的重大挑战性问题。其他实验室也在研究这个软件。这是华盛顿大学西雅图生物化学家戴维·贝克。我们还设计了新的蛋白质来分解你胃中的麸质,用于治疗乳糜泻,以及其他刺激你的免疫系统来对抗癌症的蛋白质。

这些进步是蛋白质设计革命的开始。辛顿还描述了他对人工智能驱动的自主致命武器的恐惧。我与国际网络安全专家马特·德沃斯特就此进行了后续采访,他从20世纪90年代开始为美国国防部入侵系统。当我1月份第一次和他交谈时,他给了我关于自主杀伤力的初级课程。

一旦目标由人类决策者指定,武器将具有自主运行并到达那里的能力,对吧?它将正确地导航地形,根据它如何实现该目标的影响做出决定,例如。

在俄克拉荷马州没有一个孩子在董事会上运行它。它可以做出决定并根据自身信息改变其路径。而且可能比人类无人机操作员能够实现的速度快得多。

现在,这并不意味着我们将把人类从关于目标的决策方程中剔除。至少现在还没有。现在还没有,但在它如何完成任务以及基本上以群体能力行动并在彼此之间做出决定的能力方面。

根据群体智能调整他们的任务概况。是的,当多种武器同时运行并相互通信时,根据彼此的行为做出决定。这就是无人机技术。但是下一代群体武器的行为会如何?

如果它们开始以比人类决策者能够做到更人道或更了解人类影响的方式运作,那就变得非常有趣了,在这种情况下,你开始对目标本身具有一定的自主权。你能举个例子吗?

你知道,试图瞄准这个设施,但我们试图尽量减少附带损害的可能性。无人机足够了解,知道一辆公共汽车刚刚停在这个设施旁边,那里有一种内置于武器中的自主性,允许它们根据一种即使是人类也没有能力做出决定的情况做出决定、中止决定或延迟决定,因为情况变化得太快了。

现在,我们不允许武器自主瞄准,但这有一天可能会发生。它让人联想到《奇爱博士》和《失效保险》。这将是一个令人担忧的问题。我认为我们至少在美国政府层面已经非常清楚地阐明,人类将继续参与针对其他人类的目标选择。如果你瞄准的是人类,那就不同了。

无人机或你瞄准的是通信塔等。但我们可能会达到这样一点,即无人机是更有效率和更人道的决策者,这基于它们能够实现的人工智能能力和分析。就像我们可能有一天决定我们应该只允许自动驾驶汽车一样。你知道,人类每年都在机动车辆中非常擅长杀死很多人。

可能有一天,人工智能会成为一个更明智和客观的决策者。显然,这些新的AI工具将对情报收集产生影响。你说,对你来说,ChatGPT是一个令人惊叹的时刻。原因有几个。你知道,一个是……

它根据你的问题与你互动,你可以像与人类进行对话一样对其进行改进。告诉我更多或提出反驳意见。但它也擅长理解细微的概念。你知道,我举了一个例子,我的一个朋友比尔·克罗尔,他曾经是

国家安全局副局长,几年前说过一句话,他说,网络安全行业有千点光芒,但没有光明。我问ChatGPT,你认为比尔说这话是什么意思?它给出了一个令人难以置信的答案。它说……

“当有人说网络安全行业有千点光芒,但没有光明时,他们是在表达对该行业支离破碎和混乱性质的沮丧。千点光芒这个词指的是许多不同的参与者和利益相关者,包括政府机构、私营公司和个人安全专家。

我的天!这是一个令人难以置信的回应,对吧?你可以告诉ChatGPT,

我希望你对你的分析的信心程度进行排名或评分。我还希望你提供一个相反的观点。此外,我还希望你提供关于我们可以为此做些什么的建议。因此,如果你进去问它,伊朗用网络武器攻击美国银行的概率是多少,它会给你一个几乎与你可能看到的白宫每日简报中提供的简报完全相同的回应。

因此,令人着迷的是,它不仅能够查询所有这些知识并提出这些精彩的回应,而且还能够从受众期望的角度来构建回应。但是

ChatGPT反复被证明是一个讨好人的家伙。是的。它不在乎真假。是的。它会编造来源,以便给你提供你所要求的精确格式的东西。所以,

所以你不能相信ChatGPT说的任何话。那么它如何在情报收集中发挥作用呢?是的。情报界不会基于ChatGPT现有的训练数据集来使用ChatGPT。它将基于情报界专有的数据集来使用它。因此,我们将在未来一年和未来几年看到的是

这些特定领域的ChatGPT版本,我控制训练数据,或者我告诉它它不必是讨好人的家伙,它不必是对话式的,它应该使用与它用来推导出这些答案相同的启发式方法。但是如果你没有来源,你就不会编造它,你不能做出并非基于特定来源的判断。因此,快速摆脱这种固有的偏见非常迅速。

以一种非常有意义的方式使用这种能力。举个例子。它会审问战俘吗?我不知道它是否会审问战俘,尽管你可以肯定地想象它可能被用来增强人类的问题。

他们提出的问题。但我认为它可能会在威胁评估方面做得非常好,并为补救漏洞提出建议。我认为分析师也可能会用它来帮助他们思考,对吧?他们可能会提出评估并说,告诉我我哪里错了。人工智能充当几乎是第十人规则,如果可以的话,他们

通过设计提出反驳意见。所以我认为这项技术在情报界会有很多独特的使用方式。这种技术有多紧迫?它非常紧迫。

这项技术显然已经存在。我们将看到4.0版本,这是一个在不编造东西方面受到更多限制的版本,并且更贴近当前情况。我的意思是,ChatGPT目前的一个现有缺陷是训练数据在2021年结束。

如果你现在开始让它拥有截至今天早上在模型中找到的任何内容的训练数据,那就会变得非常非常有趣,这意味着这项技术可以在未来一两年内应用于现实问题。所以你还有另一个令人惊叹的时刻。

几年前,DARPA发起了一项挑战。这是一个推动许多惊人技术的政府机构。它为我们带来了互联网,以及GPS。告诉我DARPA会议上发生了什么。是的,这对我来说非常令人着迷。在网络安全领域,我们有这些我们称之为夺旗比赛的比赛,它们实际上是

让人们竞争以展示谁是顶级黑客,谁是最擅长攻击系统的人。你入侵系统并控制它们,然后你必须保卫旗帜。你必须确保你修补它,修复它,并防止其他人接管该系统并把你赶出去。这是一场网络战争游戏。这是一场网络战争游戏,是的。所以在2016年,他们将决赛选手带到了DEF CON,这是世界上最大的黑客大会,在拉斯维加斯举行。

他们让第六名决赛选手参赛。对我来说,这是另一个令人惊叹的时刻,你知道,我觉得自己生活在未来,就像我在12月初遇到ChatGPT时一样。我于1995年开始我的职业生涯。我的工作是为国防部入侵系统,展示它们的漏洞,并帮助系统所有者修补这些系统。而现在我却被一台机器完全取代了。这些机器非常有创意而且速度很快。

对于网络安全行业的人来说,这是一种不舒服的感觉,不是因为失业,而是因为缺乏可解释性或缺乏对修补的弹性程度的理解,或者确保人工智能不会失去对目标的控制并做出最终成为恶意行为的事情。所以在这一方面,这绝对是一个勇敢的新世界。我们如何确保这些武器安全部署?我们如何确保它们不会犯战争罪?

是的,我认为我们将对人工智能的使用制定明确的伦理规范,因为它可能影响人类生命或人类安全。令人不安的是,当我们遇到没有相同伦理的对手时。我们是否最终不得不释放我们武器中的某种自主性,因为我们的对手已经对我们发动了自主武器?

被迫违反我们的一些原则,因为这是适当自卫的唯一途径。但是,如果我们深入挖掘,这些技术都运行在易受攻击的系统上,还有一些其他的核心风险。因此,我们有责任确保基础设施强大且安全。

你还需要确保训练数据具有开放的收集模型,ChatGPT从互联网本身获取情报,即

你意识到对手可能会试图污染这种环境。如果我决定发布博客文章、编写网站、投放广告、在Twitter上追求特定叙事以影响特定人工智能的决策,会怎样?第三个领域将围绕算法的稳健性,并确保我们消除了偏见

我认为这将推动国防部对我们所说的可解释人工智能的要求。人工智能必须以我们能够理解的方式向我们描述它是如何做出该决定的。关于无人机的争论是,如果我们使用它们,美国人就不会被杀害。批评人士说,我们过度使用了它们,因为对我们的成本非常低。

70年来,我们已经能够多次摧毁世界。但是能够更精确地进行破坏,甚至将动物

我们自己的自主权交给可能比我们更聪明的机器,这是一个可怕的前景。是的,对吧?我们需要弄清楚我们想要保留哪些级别的代理。关于战争,我们说,好吧,我们希望在与其他人类相关的事情上保持决策权。但是如果人工智能一次又一次地做出比人类更好、更安全的决定,

我们是否放弃了这种责任?我是否失去了用我自己的大脑来解释什么是错误信息的能力?或者我是否将其放弃给一个为我做这件事的人工智能系统?这绝对将是我们未来十年面临的基本问题之一。我们在哪里保留代理?我们在哪里决定机器可以做得更好?你似乎暗示人类可能更危险。

在某些领域,人类可能更危险。我在想古巴导弹危机,以及录音带如何表明肯尼迪几乎独自一人想要达成一项协议,将美国导弹撤出土耳其,以便赫鲁晓夫将它们撤出古巴。

我只是想知道,如果房间里有一个高级聊天机器人顾问,他是否会支持肯尼迪。是的,这确实让你考虑一下这样的决定的训练数据是什么样的。我不想认为我是放弃对机器控制的粉丝。我当然不是。我们必须弄清楚哪些是根本上的人类决策,哪些是可以有效自动化或增强的决策。

这取决于你对人性的看法,对吧?我的意思是,如果有一台机器被开发出来帮助我们打赢最好的战争,那么这台机器有没有可能说,最好不要开战?只要我们让它正确地理解我们的目标和约束。

你知道,你可以坐下来说,如果俄罗斯由某种自主人工智能来管理,这个世界现在会更好吗?可能吧。但是,你知道,如果人工智能被赋予了相同的偏见、相同的倾向、相同的野心,它在犯下这些暴行方面可能会比普京更有效率。马特,非常感谢你。是的,当然。我很荣幸。我很享受这次谈话。

马特·德沃斯特是全球战略咨询公司OODA(O-O-D-A-L-L-C)的首席执行官兼联合创始人。

这就是本周的节目。《媒体在线》由米卡·洛温格、埃洛伊斯·布隆迪奥、莫莉·施瓦茨、丽贝卡·克拉克-卡伦达、坎迪斯·王和苏珊·加伯制作,肖恩·默坎特提供帮助。我们的技术总监是詹妮弗·芒森。我们本周的工程师是安德鲁·内维亚诺。卡佳·罗杰斯是我们的执行制片人。《媒体在线》是WNYC工作室的制作。我是布鲁克·格拉德斯通。