cover of episode Artificial Intelligence Ethicology (WILL A.I. CRASH OUT?) with Abeba Birhane

Artificial Intelligence Ethicology (WILL A.I. CRASH OUT?) with Abeba Birhane

2025/5/8
logo of podcast Ologies with Alie Ward

Ologies with Alie Ward

AI Deep Dive Transcript
People
A
Abeba Birhane
Topics
Abeba Birhane: 我是认知科学家,也是人工智能伦理学家。我的研究关注人工智能的伦理问题,包括数据偏见、算法透明度和AI对就业的影响。我长期从事AI伦理研究,对AI技术发展及其社会影响有深入的了解。 我发现,当前AI领域存在大量炒作,许多人夸大了AI的能力,同时忽视了其局限性和潜在风险。许多AI系统,特别是生成式AI,其输出结果往往不可靠,存在事实错误和偏见。这不仅会误导公众,还会对社会造成负面影响。 AI的训练数据通常来自互联网,其中包含大量偏见和有害信息,这导致AI系统也继承了这些偏见,并可能加剧社会不公。此外,AI技术的发展也引发了人们对就业的担忧,一些人担心AI会取代人类的工作。 我认为,我们需要对AI进行更严格的监管,以确保其安全、可靠和公平。这包括对AI训练数据进行审核,以减少偏见;提高AI系统的透明度,让人们了解其工作原理;以及制定政策,以应对AI对就业的影响。 尽管AI存在风险,但我仍然对AI技术抱有乐观态度。AI可以用于解决许多社会问题,例如医疗保健、环境保护和灾难救援。关键在于,我们需要负责任地开发和使用AI,确保其造福人类。

Deep Dive

Shownotes Transcript

Stripe 是 AI 公司的首选,从初创公司到大型企业都是如此。78% 的领先 AI 公司使用 Stripe 快速进入市场并在全球范围内扩展。这其中包括英伟达、OpenAI 和 Perplexity 等先驱公司。Stripe 开发了尖端工具,用于改进从欺诈检测到结账优化的所有内容。无论您是想获得增量收益还是计划进行企业转型,请访问 stripe.com 查看 Stripe 如何提供帮助。

在这个篮球赛季,Instacart 将让您一直待在沙发上。有了赛前仪式和赛后采访,很难抽出时间做其他事情。让 Instacart 处理您的比赛日零食或每周补货,最快 30 分钟即可送达,因为比赛日肚子饿是不吉利的。立即下载 Instacart 应用程序,并在您的前三笔订单中享受 0 美元的送货费。14 天内三笔订单适用服务费,不包括餐厅。

哦,嘿,这是您希望从衬衫上剪掉的标签,艾莉·沃德。对于我们每一个看到 AI 在我们生活中越来越普遍并想知道是否有人在驾驶这辆公共汽车的人来说,我这里有一次与专家的聊天,他准确地告诉我们是谁在驾驶这辆公共汽车以及它可能驶向何方。AI 是邪恶的吗?AI 甚至关心我们吗?它会杀死我们吗?我们应该为它感到难过吗?

别问我。我不是神学家。我们会谈到它。现在,这位专家是值得信赖的 AI 的高级研究员,也是都柏林三一学院计算机科学与统计学院的助理教授。他们是一位认知科学家。他们研究人工智能伦理,并发表了诸如《人工智能伦理的被遗忘的边缘》之类的论文。

走向非殖民化计算科学,AI 算法中看不见的黑脸,以及机器学习研究中编码的价值观。所以他们在努力。上个月我在爱尔兰的时候,我坐下来亲自拜访并与他们聊天。此外,只是一个令人愉悦的美学旁注,他们出生在埃塞俄比亚,但住在爱尔兰。这位专家拥有最优美的,

节奏,就像碧昂丝一样。我被迷住了。我们稍后会谈到所有这些。但首先,如果您需要更短的、适合儿童的、没有成人语言的剧集,我们有 Smologies。它们是其自身供稿中的剧集,无论您在哪里获取播客。也链接在节目说明中。那是 Smologies。另外,感谢赞助商的支持

雷米莉还说,雷米莉还说,

雷米莉,任何时候都是好时机。谢谢。好的,让我们直接进入人工智能伦理学。这是机器认知的伦理。是认知吗?我们会讨论的。Chat GPT 代表什么?为什么 Siri 是个女人?你能不能向机器人要一个芝士汉堡?当你对聊天机器人粗鲁时会发生什么?

此外,艺术家如何防止被剥削?AI 消耗多少能量?当我们都失去工作时,陷阱,门铃标记,常用的谬误,AI 的创造者对 AI 的看法?什么是炒作,什么是恐怖?AI 的好处是什么?

如果你给聊天机器人布置作业,AI 是万恶之源还是贴身伙伴?与具身认知科学家、教授、学者和人工智能伦理学家阿巴巴·布尔哈尼博士一起。

我有一些问题需要几个小时才能解开,他们希望你像一分钟、两分钟的标记一样回答所有问题。他们催促你下车。所以,不用担心。我是阿巴巴·布尔哈尼。她,她。伟大的。而且 AI,你在这方面一直是专家。

有一段时间了,但我对 AI 的了解并不长。你研究它多久了?严格来说,我是一名认知科学家。所以我在三年前完成了我的认知科学博士学位。所以在我的博士学位进行到一半的时候,大约在我第二年的年底,我离开了认知科学系,加入了一个实验室

在那里,人们做了很多测试,评估和测试,你知道,各种 AI 模型中的聊天机器人。到底什么是认知科学?

认知科学非常广泛。因此,传统的认知科学往往是关于理解认知、理解人类行为、理解人际互动等等。认知科学通常不在研究生阶段教授。

它要么在硕士阶段,要么在博士阶段,因为认知科学确实是跨学科的。布拉哈尼博士说,认知科学实际上是学科的大杂烩,有时被称为认知六边形,其侧面代表哲学、心理学、语言学、神经科学、人工智能和人类学,根据一些机构的说法。人类学也可以指社会科学。

不同的机构会用他们自己的方式来表达,但总的来说,认知科学包含很多东西。所以我们的想法是,你会把这些不同学科中重要或有用的方面结合起来。

然后,认知科学使您能够综合、结合这些不同的理论,甚至是计算模型,以理解人类认知。这就是我们的想法。例如,从哲学中,您将学习如何质疑假设。你会深入探讨关于什么是认知、什么是智力、什么是人类情感的各种问题。所以哲学真正赋予你分析工具,对吧?

神经科学也是如此。我们的想法是,你将学习大脑是如何工作的,并以一种方式利用它来综合所有这些不同学科。这就是传统的认知科学。如果你想的话,你可以把认知科学称为 COG-Sci。她说她从事 COG-Sci 中一个非常利基的专业,它被称为具身认知科学,它不仅仅是关于理解人脑。哪里

而具身认知科学正在摆脱这种将认知孤立对待的想法,你的认知并不止于你的大脑,你的自我意识也不止于你的皮肤,而是……

它扩展到您使用的工具。你做的任何事情,你都是作为一个具身自我,作为一个具身的人来做的。所以你的身体、你的社交圈、你的历史、你的文化,甚至你的性别和性取向,所有这些都是影响你的理解、你的认知、你的智力、你的情感等等的重要因素。当你学习认知科学时,你怎么不……

用你的大脑来思考你的大脑。你怎么走出你的大脑?你怎么做到的?是的,是的。是的,我的意思是,你必须,你必须用你的大脑。所以你熟悉笛卡尔的著名名言,“我思故我在”,所以我想,所以我存在。我们的想法是你可以知道你是谁。你可以知道你是一个有思想的人。

存在,你可以知道你是一个人。这就像用你的大脑来理解你的大脑,可以这么说。而具身认知科学再次强调的是,你知道,所有这些都非常个人化,甚至是为了证实我们的存在。这是通过与他人的对话实现的。是的。

这就是为什么具身认知科学强调他人和社区在你身体中的重要性,这是理解认知的重要因素。因此,具身认知科学有点向下走,它考虑了人的

身体如何体验世界以及环境如何塑造思维和感知。认知科学家有一个让我很感兴趣的思想实验,它设想你大脑中有一个小人来解释输入。但是,那个小人的大脑里是谁的大脑?就像,它有自己的

在小人的……里面,就像俄罗斯套娃一样。在人类大脑的内部,只是无限的小人在解释大脑内部的大脑在做什么。这被称为,可爱地,霍蒙库鲁斯论证。是的,具身认知科学……

就像它不仅仅是你头骨里的小人一样。如果我们不首先聪明地掌握智力,我们怎么能真正理解人工智能呢?当我们思考与 AI 交互的对象时,很久以前,曾经有一个名为 Ask Jeeves 的搜索引擎,它就像一个管家,会为你找到问题的答案。而且

现在我们有了 Siri 和 Alexa。你认为为什么 AI 会赋予这些实际上是庞大的人工智能网络的声音性别和人格呢?是为了帮助我们的大脑理解吗?这有点像营销策略,但也有一点是迎合人的天性。我们倾向于对物体进行性别和人格化。所以如果你

例如,与 Chat GPT 交互,我们倾向于自然地将其视为另一个人、另一个存在、另一个实体。一方面,正如你所说,这些聊天机器人没有意图,没有理解,没有灵魂。它们只是纯粹的机器。但这些系统的开发者和供应商也

他们倾向于将它们作为人格化的实体进行营销,因为认为你正在与另一个有感知能力的事物互动更具吸引力。我一直想知道他们是否让其中一些是女性的声音,因为我们更容易接受,我们对女性的威胁较小。我们被社会化成让一个母亲形象来帮助我们做一些事情。这不像

它会向我们发动攻击。而且就像,哦,一位女士会为你搞定,你知道吗?

是的,是的。我的意思是,我们自然倾向于认为女性更像是有爱心,她们有帮助你的角色。所以它与真正决定社会的社会规范有点相关。所以它在某种程度上也依赖于这种刻板印象,即如果它是一个女人,你知道,它是平易近人的,它在那里帮助你。

是的,我远不是第一个注意到数字助理往往是女性的人。一些历史学家和媒体学者认为,这从你在子宫里做饭时听到女性的声音就开始早了。这就是为什么人们喜欢女性的声音。或者说,19 世纪后期第一位电话接线员恰好是一位声音很棒的女性,然后它就保留了下来。但是

但是随着这些 AI 头像开始拥有面孔、个性、消遣和 Instagram,为什么我们看到的主要是更年轻、更性感的头像?

好吧,路透社研究所于 2024 年发表了一篇文章,它联系了这位多媒体教授艾普丽尔·纽顿,她指出,柔和、调制良好的女性声音通常是 AI 助理和化身的默认设置,因为,引用,“我们命令这些设备为我们做事,我们非常乐意命令女性为我们做事。”此外,对我来说只是一个旁注,你知道“机器人”这个词来自斯拉夫语根,意思是强迫劳动或奴隶吗?是的。

这很令人毛骨悚然。从历史上看,人类喜欢能干的仆人,但不要太能干,否则你就是在自找麻烦。所以未来也是过去。我现在支持机器人吗?我不知道。

说到 Siri 或虚拟助理,这与过去几年中迅速发展的 AI 有何不同?Siri 和 Alexa 是 AI 还是只是搜索引擎?谷歌是 AI 吗?我们称某些事物为 AI,而其他事物则只是计算。有什么区别?

是的,那么,例如,传统的 AI(无论是作为聊天机器人还是预测系统实现)与在过去两年中真正爆炸式增长的生成式 AI 之间有什么区别呢?想想 ChatGPT、Gemini 和云等等。根本区别在于

我应该深入技术细节还是避免技术细节?是的,不,你可以给我们一些技术细节。我会尽量保持轻松。好的。

如果不涉及强化学习,就无法解释这种差异。典型的分类系统是一种算法,您向其提供大量数据。想想面部识别系统。如今,数据集必须非常大。你甚至可能有,你知道,数万亿个面部图像标记,你这样训练你的算法。

这是一个面孔,这是一个面孔,这不是一个面孔,这是一个面孔,这不是一个面孔。这叫做机器学习。如果你在训练中成功了,那么你的 AI 应该能够告诉你它是一个面孔或不是一个面孔。这就像一个典型的分类系统。我们认为 AI 是

是一个非常广泛的术语,包含许多不同的子类别。只是一个旁注,我不知道苹果虚拟助理 Siri 代表什么,我是不是很孤单?语音解释和识别接口?你知道 Siri 是一个首字母缩写词吗?我不知道。此外,据报道,苹果在幕后对 ChatGPT 感到非常恐慌,因为它在过去几年中具有生成能力,并具有聊天机器人

功能和更长的 Siri 对话。因此,显然,他们在大力发展自动驾驶汽车方面的许多努力都被转移到了他们的 AI 部门。苹果的许多人都说,我甚至不能公开谈论此事。

AI 广阔领域下的另一个大子类别是 NLP 或自然语言处理。所以这是处理人类语言的领域。您有音频数据可以馈送到 AI 系统。那里的想法是,你知道,你正在构建一个 AI 系统,它甚至可以对人类语言进行预测。

例如,NLP 工具将学习预测文本。因此,算法所做的是预测下一个词可能是哪个词。它只是预测下一个标记,下一个标记。这就是传统的分类或预测系统。

那是机器学习或 NLP,即自然语言处理。它们处理转换为标记的视觉数据,并预测语言,例如当您的手机比您自己更了解您时。它既令人欣慰又令人恐惧。就像爱一样。现在,例如 ChatGPT,我不知道这一点,但 GPT 代表生成式预训练通信。

转换器。转换器是一种深度学习系统,它将信息转换为标记,并且可以处理从语言到视觉到游戏和音频生成的更复杂的处理。所以它绝对比简单的预测更进一步。而在过去一年中,随着生成式 AI 的出现,这些是

AI 系统不仅仅是分类、预测、聚合,它们被称为生成系统。它们产生新的东西。例如,图像生成器,您可以将文本描述作为提示,并

AI 系统将根据您的描述生成类似的图像。语言系统也是如此。例如,ChatGPT,您输入一个提示,它能够产生新的答案。这就是新的,这就是生成系统的新之处。这些系统还需要学习语言模型中哪些词是重要的词。

这是自我注意机制的一部分。然后它们根据统计数据生成,例如,根据它从完成特定句子或提示中学到的数据集,最可能的方式是什么。

因此,训练数据对输出(无论是图像还是文本)这些系统可以生成的输出有非常重要的影响。让我们进入精彩的部分。那么,对于任何标记,数据是否都在标记中?就像你说的,面部识别可能有一万亿个标记。AI 会清除它吗?

我们所知道的印象派艺术、科幻小说和动漫,它会清除它并抓取一堆标记,以便它可以将这些作为参考点吗?因此,训练数据集是 AI 中最具争议的问题之一,因为数据不断被收集。所以像

你的搜索历史以某种方式馈送到某种 AI。我不知道你是否像我一样,如果你注册了某种奖励积分,你会去杂货店然后点击它。所以这有点像在后台,这有点像收集你的行为数据。因此,这些数据可能会通过 Google 等基础设施,然后直接传递给第三方聚合商或经纪商或

或 AI 公司本身,他们只是津津有味地吞噬数据。

因此,这种做法将大量数据收集用于训练 AI 系统的目的,要么是非法的,要么是近乎非法的。是的,因为首先,没有同意。人们甚至没有意识到他们的数据被用来训练 AI。所以这只是总体上的第一点。让我们谈谈艺术。但你也会注意到在过去十年中

一年或两年,创意社区、作家和艺术家意识到他们的作品、他们的小说、他们的写作、他们的艺术被用来训练 AI 系统,同样没有任何补偿,或者如果他们事后去质疑其数据的使用,则补偿很少。

因为开发 AI 的大型公司,想想 Google、DeepMind、Meta、OpenAI、Anthropic,

他们是企业。他们在商业模式下运作。他们的目标是最大化利润。我的工作是审核大型训练数据集。人们无法访问这些公司持有的数据集类型。

因此,我们没有任何机制来查看、仔细检查数据集中有什么内容。它来自哪里?它有多大?这些都是我们根本没有机制让科技公司透明化、向我们开放以获得客观理解的问题。

所以大公司就像,不,你不能看。但像巴哈尼博士和她的同事这样的审计员可以观察公开可用的类似数据集作为代理或替代品,以了解在其他大型科技公司锁定的威利·旺卡工厂大门后面可能发生的事情。

所以我们确实有了一个想法,但通过代理数据集。为了回答你的问题,我的意思是,如果你是一位艺术家、作家,如果你创作过小说等等,你的作品很可能被用来训练 AI,但几乎没有法律机制能够清楚地了解。这就像他们偷了一堆配料然后做了一些东西,但他们说,你不能看我们的食谱。你会说,你偷了配料。他们会说,你不能看我们的食谱。是的。

我们用……做了一些东西?是这样的吗?是的,事实上,他们作为商业实体受到所有权的保护,这意味着几乎没有机制可以强迫这些公司公开他们的数据集。当然,你可以鼓励他们。你可以有点,你知道,诉诸他们的善良等等。祝你好运。是的。

但是,是的,没有法律机制。没有法律或法规规定你必须开放访问,或者你必须分享你的数据集。你问为什么不呢?当然,如果发生这种情况,那么所有这些 AI 公司都将倒闭。他们中的许多人正在面临许多诉讼。是的。

是的,你知道,从 Meta 到 OpenAI,OpenAI 本身就面临许多诉讼,包括来自《纽约时报》的诉讼。因此,一旦他们公开他们的数据,就会清楚地表明许多人的怀疑,特别是创意和艺术家社区,一旦数据集公开,他们为什么要去法院。

艺术家或作家有什么追索权吗?除了试图提起一场非常昂贵的大型诉讼之外,他们还能做些什么吗?是的。所以作家和创意人员正在组织

集体诉讼。我知道在美国和英国都有很多集体诉讼。去年 8 月,有一起具有里程碑意义的案件,它判决支持艺术家。它发现,像 MidJourney 和 DeviantArt 的 DreamUp 以及 Stability AI 的 Stable Diffusion 这样的生成式 AI 系统违反了版权法,因为它使用了从网络上抓取的数十亿艺术示例的数据集。Getty Images 起诉 Stability

稳定扩散侵犯版权。证据几乎很有趣,如果它不是那么令人沮丧的话。但显然,生成式 AI 如此依赖 Getty Images,以至于它开始在其从标志性的 Getty Images 水印中学到的某些 AI 输出中添加模糊的灰色框。

这很尴尬。今年 3 月,一位法官下令,尽管 OpenAI 恳求不要这样做,《纽约时报》和 OpenAI 之间的诉讼可以继续进行。这家报纸《纽约时报》以及其他几家新闻机构声称,OpenAI 窃取了他们的许多作品来训练 ChatGPT。所以有诉讼,但也有巨大的明显漏洞。

但在英国,例如,他们正在考虑一项法规,该法规为知识产权问题留下了巨大的漏洞,这使得艺术家和作家完全没有保护。所以人们真的在地面上组织起来,他们有大量的签名请愿书等等。但也有技术……

我不想说解决方案,技术上的补救措施。例如,您可以使用数据中毒工具。你有……哦。是的,所以你有……像一个陷阱?其中一个被称为 Nightshade。例如,对于图像,您将插入各种对抗性攻击,这将使……

数据对机器不可用,因为它可能是一个被改变的小像素,所以对人眼不可见,但与自动化系统或机器如何使用这些数据集相符。所以有各种各样的工具。另一种类型的 AI 陷阱被称为沥青坑,它发送图像。

AI 爬虫在这个无限循环中,他们只是被困住了,无法逃脱。我只是喜欢想象 AI 系统在厕所里,只是滚动,无法退出……

回去工作。即使你现在找到了技术解决方案,大公司也可能会想出另一个解决方案,使你自己的解决方案失效。所以你真的必须不断适应这一点。所以我认为可行的解决方案必须来自监管,来自法律领域。

你对萨姆的看法如何?哦,我的天哪。萨姆·奥尔特曼。谢谢。我差点说萨姆·埃德尔曼,他是一个制鞋匠。我怎么了?你对最近的一些变化有什么看法?例如,去年 5 月,我相信他在美国国会面前说,嘿,我们最好小心。现在我,

我认为他参加了就职典礼。我们在 2023 年的神经技术剧集中讨论了这个问题,因为就在几个月前的 2023 年 5 月,萨姆·奥尔特曼在新闻中频频出现,作为一种警示性声音。正如我们在该剧集中所说,如果您想知道为什么这是一件大事,萨姆·奥尔特曼是 OpenAI 的负责人,该公司发明了 ChatGPT。在 2023 年春天,他在参议院司法委员会隐私技术和法律小组委员会的听证会上发言,题目是 OpenAI。

人工智能的监督,人工智能的规则。他还签署了一份关于试图减轻灭绝风险的声明。他告诉委员会,引用,“人工智能可能会对世界造成重大损害。我最担心的问题是我们,这个领域,这项技术,这个行业,对世界造成重大损害。我认为这可能会以许多不同的方式发生。我认为如果这项技术出了问题,它可能会非常糟糕。

我们想对此直言不讳。我们想与政府合作,防止这种情况发生。最终,奥尔特曼敦促委员会帮助为这项新技术建立一个新的框架。尽管奥尔特曼在 2016 年宣布唐纳德·特朗普很糟糕,但他最近对此进行了回击。奥尔特曼说他已经改变了主意,并在 2024 年向特朗普的竞选连任捐赠了 100 万美元。

因此,自那次听证会以来,奥尔特曼对 AI 法规的看法可能在过去几年中发生了转变。似乎法规不会很快出台。是的,这些

这种想法是,哦,我们必须小心,因为我们的 AI 可能会变得有感知能力,可能会失控,可能会造成生存风险并导致人类灭绝。所以不幸的是,这是一个非常……

流行且普遍传播的担忧,它来自 AI,但几乎没有科学证据支持它。人们已经彻底分析了这种可能性有多么不可能,只有 0%。真的吗?但人类可能非常糟糕,他们正在向我们学习。是的。所以没有意图

没有愿望或没有行动的愿望,没有做某事的愿望。但归根结底,它确实是……

一个庞大的复杂算法,当然,这在某种程度上是不可预测的。但这并不意味着,你知道,随着 AI 系统的进一步发展,你知道,突然之间会发展出意图、愿望、兴趣或需求。我的意思是,你和我,你知道,作为人类,我们

我们做一些事情,并从中获得满足感。我对我的研究有动力。如果这种情况没有发生,我会感到失望。我会感到悲伤。当我发表研究论文时,我也会感到有责任。我知道如果其中有错误。我知道我对此负责。所以……

没有这些。因此,当 AI 系统给你一个输出时,这并不是因为它可能担心它是否是一个不正确的答案,或者因为它想取悦你。它只是一个聊天机器人,旨在根据提示提供答案。因此,AI 系统造成生存风险的想法依赖于……

这种巨大的飞跃,需要你相信存在意图、情感、动机,所有这些人类特征,所有这些使我们成为人类的东西。但这并不存在。它不可能凭空出现。这就是使我们作为个体、作为生物有机体与众不同和独特的部分。这些是硬编码在我们身上的东西。

这些也是使我们成为人的东西。这就是我仍然感到担忧的原因。当然,我们必须担心有权势的人利用人工智能做可怕的事情。让我担忧的是,在过去一年中,尤其是在特朗普崛起以及特朗普政府上台之后,许多大公司都放弃了他们自愿承诺的保护人们的承诺。

基本权利。例如,Meta已经放弃了其对多元化、公平与包容(DEI)、事实核查和监控其社交媒体平台的承诺。也放弃了打击仇恨言论的承诺,这……

没错。现在真正令人担忧的是,像美国政府、英国政府,甚至欧盟本身这样拥有强大权力的政府正在利用人工智能,将其用于监控、军事目的和战争。

许多人工智能公司,从OpenAI、Meta、亚马逊到谷歌,他们都有自愿原则,不将人工智能用于军事目的。但在过去一年中,他们都放弃了这一原则。所以在欧盟这里也是如此,

一家名为Mistral的法国人工智能公司宣布,他们愿意与欧洲各国政府合作,提供军事人工智能。所以,当然,我们必须担心政府以国家安全的名义使用人工智能,这实际上意味着,你知道,监控和监视。

以及压制异见。而这实际上违反了言论自由、行动自由等基本权利。所以我们必须担心人工智能,但担心的是掌握在强大政府和权力人士手中的人工智能,而不是人工智能本身,因为人工智能本身什么也做不了。

这有点像“枪支不会杀人,人杀人”的那种情况吗?是的,完全正确。但在美国,这对我们来说效果如何呢?好吧,根据皮尤研究中心的数据,在美国,枪支致死是青少年和儿童死亡的主要原因。在我们美国近5万例枪支死亡事件中,超过一半是自杀。情况不容乐观。这是因为全国步枪协会的口号“枪支不会杀人,人杀人”,

在哲学家看来,这被称为“保险杠贴纸逻辑”或“转移注意力”,也称为“错误二分法”,或者简单地说,是一种谬误。因此,赋予人工智能某种技术中立性是有点误导的。这些法规的撤回令人恐惧,尤其是在试图相信政府能够阻止某些事情时,我们的许多

当权者甚至不知道如何使用自己的打印机。你知道,国会听证会中的一些问题是这样的:这到底是怎么运作的?谷歌是否追踪我的行动?谷歌是否通过这部手机知道我已经移动到这里,然后又移动到了左边?这太可怕了。所以也许他们没有道德、内疚感之类的东西和野心,但是……

我看到一些研究表明,人工智能正在被训练得越来越具有性别歧视、越来越具有仇外心理、越来越具有种族歧视,越来越多的使用仇恨言论。它是在向人类学习最坏的一面吗?它是在放大它吗?这仅仅是暴露了世界上有多少仇恨吗?是的。所以让我们也许回顾20年前。好的。

因为那时,你知道,人工智能的真正进步开始出现。我的意思是,我们从20世纪50年代、60年代、70年代就已经有了许多人工智能的核心原则。

例如,关于强化学习、深度学习的一些基础性论文是在20世纪80年代撰写的。所以杰弗里·辛顿关于(我认为是)卷积学习的著名论文是在20世纪80年代后期撰写的。我们不必深入探讨这个问题,但我确实想告诉你,杰弗里·辛顿显然被认为是人工智能之父,也是深度学习领域的领军人物。在2024年……

他因其工作获得了诺贝尔奖。他还曾在谷歌大脑工作,然后他离开了谷歌,因为他想自由地谈论人工智能的风险。离开谷歌以便他能谈论它。现在,在2023年,在一个哥伦比亚广播公司周六早间新闻片段中,他警告说恶意行为者会故意滥用人工智能,导致失业,

以及涉及人工智能的生存风险。他非常赞成对可能变成他帮助创造的怪物的风险进行研究。他就像,“伙计们,我们需要一些安全指南和法规”,而这并没有真正发生。但是是的,在过去的几十年里,他是推动这些创新的人中的一员。但真正使人工智能革命成为可能的是

万维网。随着万维网的出现,从万维网上收集、收集海量数据成为可能,你知道,通过聊天论坛或维基百科之类的域名。它们确实是训练人工智能的核心要素,至少对于文本数据而言是这样。

这意味着我们用于训练人工智能的许多材料都来自万维网,无论是我们的数字痕迹,还是我们在社交媒体上发布的照片,你的孩子、你的狗、你们自己的照片等等。

或者那种基础设施,数字基础设施,比如谷歌无处不在,并且主导着你是否想发电子邮件,或者制作演示文稿或撰写文档。谷歌提供了基础设施。这意味着他们拥有不断收集训练数据的基础设施。这意味着很多数据是

我们用于训练的数据反映了人类的美,也反映了人类的残酷和丑陋。就在上周,谷歌发布的一份技术报告承认,其Gemini 2.5闪存模型比其前身模型2.0更有可能生成超出其安全指南的结果。而且图像比文本更糟糕。

我在2023年与Nita Farhani博士一起做的关于神经技术的一集中提到了这一点。但在那年的六月节前后,我看到这条关于ChatGPT不承认德克萨斯州和俄克拉荷马州边界(狭长地带)实际上受到德克萨斯州希望保持奴隶制州的影响的病毒式推文,这是一个ChatGPT不会承认的事实。所以

所以Farhani博士指出,当人工智能建立在种族主义、性别歧视、仇外心理等数据集上时,结果就像历史本身一样,对少数群体身份并不友好,她说。它反映了社会规范。它反映了历史上的不公正等等。除非你真正深入研究数据集,

并确保你彻底地清理数据集。我们已经审核了许多数据集,你会发现不应该存在的内容。你会发现,你知道,种族灭绝的图像,儿童强奸的图像。我们在2019年审核的早期数据集之一是一个名为“8000万张小图像”的数据集。它由麻省理工学院持有,并且

我们发现了数千张图像,非常成问题的图像,用N字开头的词标记的黑人的图像,用B字开头的词、C字开头的词以及我无法在广播中说的词标记的女性的图像。因此,虽然人工智能的优势在于更早地从扫描中检测出癌症或预测癌症,

龙卷风模式。现在也有很多担忧。现在,小马丁·路德·金观察并宣称,道德宇宙的弧线很长。

但它会向正义弯曲。但我认为我们可能会认为互联网的弧线很短,它会向淫秽和仇恨弯曲。因此,您可以假设您从网络上收集的任何数据都非常糟糕。在最近的一次审核中,我们实际上发现大量的

女性,女性的概念实际上是由来自色情空间的图像所代表的。所以网络上大量的也是非常,你知道,色情和非常,你知道,成问题的内容。所以你必须做很多过滤。因此,

这就是为什么,你知道,DEI倡议,这就是为什么审核你的数据集以确保有毒内容已被删除等等的义务如此重要。这就是为什么它如此重要。所以人工智能的审核。

只有在其数据集一样具有伦理道德。互联网是一个奇怪而黑暗的地方,人们在那里说他们永远不会当面说的话。所以数据集正在提供这些信息。但正如我们现在所看到的,许多公司都在放弃他们的承诺,我们真的在倒退。但对于任何给定的AI系统,无论是预测系统、分类还是生成,你都可以假设根深蒂固的社会不公正和规范是

将反映在该人工智能的性能以及人工智能给你的输出类型中。这是默认设置。所以我们必须倒退以确保我们正在消除这些偏见。假设网上的一些评论,网上的一些仇恨是人工智能生成的评论,这……

我有时会看看现在的X,我会说,这些人都是谁?就像,为什么评论越来越刻薄,Facebook缺乏事实核查,越来越多的仇恨言论?这是否意味着下一个标记和数据集会注意到这一点,并说,哦,这就是人们的想法。然后下一个。那么它是否像汞毒性和金枪鱼一样被放大?这是一种说法。是的。好的。是的。

是的,是的。你正在编码这些偏见,并且你正在夸大它们。是的。技术上的缺点是,我们训练一个给定的AI进行下一个世界的预测。例如,它是基于……

你知道,大量的告诉你人们如何发短信,人们如何使用英语语言,例如,人们如何构建核心和句子。这些数据,这些训练数据来自实际的人类活动,人类互动。这是你的基线,可以这么说,当你模拟语言如何运作时。

但是现在,正如你所说,随着万维网越来越充斥着合成文本或语法数据,这些数据来自生成式AI系统本身,那么你的AI系统就没有参考框架。它往往会忘记。因此,输出的质量开始下降。这被称为模型崩溃。好的。这会让你晚上睡不着觉吗?

我的意思是,我知道这就像,别害怕,别害怕。但它也像,这对人类来说是一个非常新的领域,对吧?是的,但归根结底,我的意思是,人们应该掌握控制权。如果一个AI系统开始产生垃圾输出,这是不相关的,我认为这不应该吓到我们。它应该让人们觉得,好吧,这对我不再有帮助了。所以我不会再使用了。

也许它越崩溃,人们就越不会依赖它。但当然,这取决于能否判断它是在对你胡说八道。在这个时代,世界是如此荒谬,以至于任何事情都是可信的。

Burhani博士说,公众教育是关键,只是要让人们知道,我们对人工智能能力的许多想法只是大公司在发布炒作和公关。但内部的审计员,就像她在她的实验室里一样,知道,伙计,该死的,这是一堆马粪,不要相信炒作。实际性能远非完美。

开发人员声称的那样。所以这些是我们必须真正沟通的事实。我们正在与之互动的大多数人工智能系统在性能方面,在它们应该做的事情方面,在人们期望它们做的事情方面实际上都是次等的。因为这些大公司已经真正掌握了公众沟通和公关,许多人工智能系统失败或缺点是

当你真正沟通时,对人们来说是新的。但这应该像常识一样。如果人们想使用人工智能,他们应该知道它的优点以及他们可以用它做什么,但也应该知道它的局限性以及它不能为他们做什么。禁欲有效吗?不去Meta并给他们提供更多素材,不使用ChatGPT,任何形式的抵制都有效吗?

是也不是。一方面,许多这些AI系统已经被巧妙地整合到社会基础设施中。例如,我不在Facebook上。我已经超过10年没有使用Facebook了。但是我住的公寓大楼,

只能通过Facebook群组进行沟通。我仍然拒绝创建Facebook帐户,但这种情况确实让你几乎没有选择禁欲,不使用这些平台。例如,你无法避免谷歌。谷歌搜索、Gmail和谷歌文档。这使得它非常困难。如果你想申请工作,现在几乎所有公司都使用谷歌。

某种人工智能来筛选你的简历,然后再交给人类。所以在某些方面,

人口普查,你甚至没有选择退出。如果你,你知道,正在找工作的人,你不能说,哦,我不希望你使用AI系统来查看我的简历。这就像……它会发生的。是的,它会发生的。Burhani博士说,这是相当不可避免的。我问过科技律师,甚至他们也没有阅读苹果的条款和条件。他们说,我只是选中了这个框。

所以,与其使用WhatsApp(由Meta拥有),它会收集你所有的文本,你所有的信息,我们可以转向其他消息应用程序,如Signal。所以Signal具有端到端加密。没有后门。没有人可以访问它,甚至政府也不行。这是Signal首席执行官Meredith Whitaker一直坚决反对大型政府的事情之一,那就是

没有人应该拥有后端访问权限,这使他们有机会收集数据。是的,Signal由一个非营利基金会signalfoundation.org运营。Meredith Whitaker是Signal的总裁,她在谷歌工作了10年,她对谷歌的人工智能表示担忧。她也是2018年谷歌罢工的核心组织者,抗议那里的性骚扰和薪酬不平等。她还就人工智能安全和隐私法向政府机构提供咨询。

所以Signal,很好。耶,Signal。我认识的许多最近被解雇的政府工作人员只会通过Signal进行沟通,这在他们自己的安全担忧方面是相当有说服力的。但是是的,使用Signal。所以我们可以做一些事情。我们可以越来越少地使用这些大公司的基础设施,我们可以使用更多开源工具,

但有时,你知道,这完全不受你的控制。但每一小步都有帮助,每一个意识,你知道,它最终会导致,你知道,这个巨大的转变。至少我希望如此。这令人鼓舞。我希望如此。是的。我可以问你一些听众的问题吗?

可以吗?是的,当然。但在我们这样做之前,让我们送一些钱。本周,Bahani博士选择了这个事业,加沙市和近东救济工程处,它直接支持巴勒斯坦难民和加沙流离失所的家庭。他们说,每一次捐赠,无论金额多少,都能帮助他们为家庭提供救命的粮食援助、住所、医疗保健等等。更多信息,您可以看到donate.unrwa。

unrwa.org,链接在节目说明中。有关加沙持续人道主义危机的更多信息,请参阅我们与暴行罪行全球专家Dirk Moses博士一起制作的《种族灭绝学》节目,我们也将在节目说明中提供链接。现在短暂休息一下。

哦,母亲节礼物。更多的拖鞋?她有多少只脚?可能不超过两只。你妈妈想要什么?爱和感激。这意味着一个Aura相框。相信我。所以一个Aura相框,它是一个数字相框。您可以通过一个简单的应用程序上传您想要的任何图片。然后这个美丽的数字相框,被Wirecutter评为最佳相框,这意味着你的妈妈,不必看她的小手机,她的Aura相框,

或者一个相框就放在她的梳妆台上,它会滚动播放所有这些你可能忘记拍摄的美妙照片。你甚至可以继续上传更多照片。存储空间无限。我给我爸爸买了一个。说真的,当他生病住院时,我们把它带去了医院。

Aura相框是如此好的礼物。如果它是送给你的妈妈,她不仅会感激它不是另一件羊毛衫,而且她还会喜欢Aura相框意味着她能看到更多你。Aura为母亲节提供了一个很棒的优惠。在有限的时间内,听众可以通过访问auraframes.com获得35美元的折扣以及他们最畅销的Carver Matte相框的免费送货服务。所以是auraframes,A-U-R-A,frames.com。促销代码是Ologies。

您可以在结账时提及所有G来支持该节目。适用条款和条件。Stripe是人工智能公司的首选,从初创公司到规模化企业。78%的领先人工智能公司使用Stripe来快速进入市场并在全球范围内扩展。这包括英伟达、OpenAI和Perplexity等先驱公司。Stripe开发了尖端工具来改进从欺诈检测到结账优化的所有内容。

无论您是追求渐进式收益还是计划进行企业转型,请查看Stripe如何在stripe.com上提供帮助。

如果您不了解我们在Instacart上的传单优惠,此消息是为您准备的。传单优惠就像漫步在您最喜欢的商店寻找优惠一样,但实际上您是在手机上滚动浏览。因为获得送货并不意味着您必须错过店内优惠,例如不会引起您胃部不适的奶油或您在打折时无法不购买的意大利面酱。下载Instacart应用程序,浏览传单,永不错过任何优惠。此外,最快可在30分钟内获得送货服务。

好的,我们回来了。让我们浏览一下来自你们那里真正柔软的人类大脑的一些问题。有一些很棒的问题。

工作安置。Carla DeAzevo、Alia Myers、Red Tongue、Jennifer Grogan、Ian、Jenna Congdon、Rosa、Rebecca Rome、Other Maya、Sam Nelson、Howard Nunes。所有这些人想知道,用Ian的话来说,所有工作很快就会过时吗?从事人工智能工作的人是否考虑过补偿人们因收入损失而造成的损失?

Jenna Congdon说,人工智能什么时候会变得如此优秀,以至于人类作家基本上会被挤出工作岗位?这同样适用于视觉艺术。在一个资本主义经济中,你必须努力赚钱,就像现在一样,你认为工作方面会发生什么?或者像你这样的AI专家是怎么想的?

所以对工作流失的一些担忧是真实的,并且基于现实的担忧。你甚至听到所谓的“好父亲”说这样的话,

你不应该费心学习代码,或者像软件工程这样的工作将会过时等等。所以,无论你是软件开发人员、作家还是艺术家,Brahani博士说。我认为人工智能不会完全自动化。人工智能不会完全取代人类劳动力,因为归根结底,

即使是最先进的人工智能系统所做的也是真正地汇总信息,并输出非常平庸的东西,无论是图像还是文本。

有些是如此出色。有些艺术作品如此出色。你会觉得……但有些艺术作品,不仅仅是纯粹的、原始的输出。人们可能已经调整了数千次。人们已经调整了它。人们花了数小时来调整。

完善正确的提示等等。所以总有人参与其中。总有,无论是数据准备、数据标注、数据整理,到构建AI系统本身,再到确保输出是某种有吸引力的东西。你真的需要贯穿始终的人。所以对我来说,作为一个前报纸记者,我以前也是报纸插画家,我……

我不那么乐观。所以,这么多作家是撰稿人,他们为网站创作内容和文章以提高他们的知名度。现在我从这些人那里听说,文章只是由人工智能撰写的,而且充满了废话。只是做这件事让我感到沮丧。

我的胸口很痛,但Birhani博士是一位专家,所以我将尝试寻找一些亮点。在她之前提到过OpenAI和《纽约时报》的诉讼,我一直在寻找它,我找到了一篇最近的文章。这篇文章是昨天发布的,标题是“人工智能越来越强大,但它的幻觉越来越严重”。来自OpenAI等公司的新一代推理系统更频繁地产生不正确的信息。它

甚至公司也不知道为什么。这是标题。这篇《纽约时报》的文章解释说,人工智能系统既不能也无法决定什么是真什么是假。有时他们只是编造东西,一些人工智能研究人员称之为幻觉的现象。文章说,在一项测试中,较新的人工智能系统的幻觉率高达79%。

我还想指出,我的拼写检查试图让我将标题中的“it’s”改为带撇号的“its”,这是不正确的。所以电脑,怎么回事?但是是的,Bahani博士说,很多新闻报道已经被人工智能取代了,尽管我们都知道生成系统是不可靠的。

它会产生幻觉。很多时候它会给你一些听起来连贯、看起来真实的信息,但这完全是编造的。它甚至有时会给你一些不存在的东西的引用等等。所以我们总是需要有人来照看人工智能,可以这么说。所以一个作家可能是,你知道,你的工作时间可能会减少,你的工资可能会减少。

你的公司可能会引入人工智能来完成大部分工作,但你仍然不能输出原始输出,因为大多数时候它甚至都无法阅读。因此,作家、艺术家、记者等等的角色更多的是成为人工智能的保姆,验证所发布的信息,确保它有意义等等。没错,肯尼。保姆死了。

在某种程度上,答案是肯定的也是否定的。人类将永远留在人工智能的核心。人类参与停止的那一刻,人工智能停止运作的那一刻。因为人工智能从头到尾都是人类,正如我所说,你知道,从收集的人类数据和……

如此多的工作都投入到数据准备、数据标注、清理数据、净化数据中。不幸的是,许多这些任务都位于发展中国家。所以你在肯尼亚、尼日利亚、埃塞俄比亚、印度等地有很多数据工作者,

他们真正做着人工智能的脏活。甚至还有一些故事,例如亚马逊结账,人工智能结账或自助结账,亚马逊正在引入这种人工智能,你可以收集杂货和你的物品,然后走出去,人工智能应该识别你拿起了什么,并从你的信用卡中收取你使用过的任何东西的费用。

但后来事实证明,实际上是印度的数据工作者正在扫描你拿起的每一件物品。所以……

哦,我的天。真是个世界。是的。我的意思是,麦当劳最近也与IBM或其他公司合作,推出了一款人工智能得来速,人工智能系统可以接单。他们必须在接下来的几周内关闭它,因为人们订购了诸如培根放在冰淇淋上的东西等等。你往我的冰淇淋里加了培根。我不要培根。我还需要什么?

为什么自2009年以来首次提高全国最低工资,而你可以花费数十亿美元来调整未付费的机器呢?就像,欢迎来到未来,也许吧。所以我想说的是,你总是需要人类才能让人工智能发挥作用并按预期运行。

因为在这一天的最后,这些都只是机器,它们没有意图、理解、动机等等,就像我们人类一样。所以也许我们的工作会不一样,但会有工作。是的。我知道包括我自己在内的很多人想知道环境影响

莉莉,一群人,以及第一次提问者Eleanor Bundy和Megan M。我们还在地球日与这位气候活动家和人权律师Adam Mett做了一期节目,他说人工智能可以解决一些环境问题,这很乐观。但人工智能专家的看法是什么?Megan Walker问道,从环境角度来看,与我们目前所做的计算相比,人工智能有多糟糕?是的,发生了什么事?是的,是的,是的。它使用多少能量?

是的。所以同样,就像我们对训练数据知之甚少一样,人工智能系统使用的能源消耗情况非常不透明。透明度非常低。好的。但总体损害是什么?例如,生成式人工智能与传统人工智能相比,确实消耗了大量的电力。如果你使用谷歌来……

提出一个提示,比如说,你知道,我每天应该喝多少杯水?如果你使用完全相同的提示,并询问生成式系统,例如ChatGPT,人们估计你使用大约10倍的能量来处理该查询并生成答案。我想直接去源头。所以我使用了谷歌人工智能。

和ChatGPT第一次,分别问他们,ChatGPT使用多少能量与谷歌相比?现在,谷歌人工智能以我希望是轻蔑的语气说,ChatGPT每次查询消耗的能量要多得多,比标准谷歌搜索多5到10倍的电力。现在,

它引用了高盛2024年的一份报告,题为“人工智能将推动数据中心电力需求增长160%”。然后我问了ChatGPT,它说它的4.0版本使用的能量最多可以是基本谷歌搜索的30倍。它还指出,我喜欢防御性地思考,谷歌已经花了数十年的时间来优化更低的碳足迹。

现在,巴哈尼博士说,生成式人工智能系统的能源消耗确实已经成为一个大问题,在爱尔兰等国家,数据中心是能源消耗大户。运行人工智能系统所需的计算资源等于或超过运行爱尔兰家庭所需的总能量。但在德克萨斯州等地,

有时,这些能源消耗是从家庭中抽取出来用于运行数据中心的。哇。所以它导致家庭能源减少。这甚至在我们讨论冷却数据中心所需的巨量水之前。

哦,是的。我甚至都没有想到这一点。是的。而且水也必须是纯净的,因为你不能使用,比如说,你知道的,海水,因为海盐可能会损坏服务器等等。所以同样,存在竞争。当你使用作为家庭用水的结果时,往往会发生这种情况。

你知道,人们往往要为其后果买单。所以是的,水的消耗也是另一个巨大的领域。你认为更多公司会寻求某种核动力来为他们的超级计算机供电吗?或者这仍然受到严格监管?是的。

我认为像谷歌这样的公司实际上正在谈论使用核动力。但是,是的,正在考虑这个选项。是的。医疗保健怎么样?一些人,本杰明·布雷内施韦特、安纳利斯·德容、埃米尔、妮基·G询问,人工智能如何在医疗保健中得到伦理应用,例如数据分析、治疗方案、医学影像解读、二次意见?这方面是否有一些希望?

是的,我认为有一些希望。肯定有一些希望。我认为在许多领域,人工智能都可能有用。好的。然而,这仍然只是一个理论。理论上是可能的。哦。但是问题是,有很多问题。其中一个问题是……

生成式系统从根本上来说是不可靠的。例如,我认为在1月底出现了一份新的审计报告,他们研究了这个新的AI工具,该系统记录了你与医疗保健提供者和患者之间的对话。

它总结了对话,它应该减少护士等等的大量工作。他们发现,在某些情况下,10个摘要中有8个是幻觉。因此,生成式系统往往不可靠。另一件事是,因为很多这些

应该用于医疗保健的工具往往是由企业构建的,其目标是最大化利润。他们的目标往往与,比如说,患者的利益不同。另一个著名的案例是联合健康公司,该公司目前正在接受审判,他们使用大约50种算法来审查心理健康服务,并且

他们发现,他们使用成本作为替代指标,而不是患者的需求作为替代指标。他们削减了很多服务,很多像,你知道的,治疗服务、冥想和其他必要的服务。同样,因为他们,你知道的,他们关注的是错误的动机,错误的替代指标。他们试图节省公司资金,而不是将他们的行为建立在患者的需求之上。让我们开始吧!

因此,如果我们纠正人工智能系统中的幻觉和偏差,如果我们,不可能消除所有资本主义动机,但是如果资本主义动机屈居于患者的需求之后,那么就有可能在医疗保健的各个领域开发人工智能系统,对吧?

优先考虑患者,优先考虑人,而不是仅仅为了使用技术而使用技术。是的。也为了使用技术来最大化利润,而不是确保患者安全。这再次是,祝你好运。我的意思是,我们的医疗保健……

令人沮丧至极。但是很多人想知道,山姆怀斯、艾米丽·赫德、阿玛利亚、玛格达、库索卡想知道,基拉·亨德里克森问道,第一次提问者,我们对人工智能、聊天机器人以及在高中使用它们有什么看法?学校作业,山姆怀斯,在学校使用人工智能,想法,有没有办法标记它?我们是在教育上做不公正的事情吗?嗯哼。

是的,一方面,我知道一些人发现使用人工智能聊天机器人非常有帮助。

你给它一个提示,它会给你一堆答案。当然,这些人知道如何设计完美的提示,知道人工智能在哪里有用,在哪里可能会让你失败。因此,考虑到所有这些,它可能是有用的,但你需要成为一名专家。

话虽如此,对于小孩子来说,研究开始出现,例如,他们进行了一项对照研究,我认为,对超过3000名学生进行了研究,其中一些学生被给予聊天机器人来帮助他们解决数学问题。

其他人没有。他们进行了一次测试。所以他们发现,使用聊天机器人的孩子比没有使用聊天机器人的孩子表现更好。然后他们在几周后进行了另一次测试,他们发现使用聊天机器人的孩子表现比没有使用聊天机器人的孩子差得多。

所以人们意识到这些系统会抑制学习。当然,你知道,教育不仅仅是信息传播,老师走进教室,只是告诉学生事实,而是互动。这是一条双向道,对学生和老师来说都是如此,他们培养的技能,

特别是分析和辨别事实与虚构、信息与错误信息等关键技能。当你使用人工智能聊天机器人而不了解其局限性时,你往往会

相信输出结果,你倾向于将其视为事实,但它也会抑制你的学习,抑制你的批判性思维能力。如果你一开始就没有知识来验证答案,你就无法知道你得到的是正确还是错误的。

因此,从长远来看,研究表明,它们在短期内似乎很有帮助,但从长远来看,这些聊天机器人可能会抑制学习过程。

最后一个听众的问题,我知道我丈夫也有这个问题。DVNC、雪莉·伦佩尔和切尔西和她的小狗查理想知道,切尔西问道,为什么当你威胁人工智能时它会做得更好?这是否符合伦理?因为它在生活的任何方面都不像是一个好先例。DVNC问道,当我需要对聊天机器人说“请”和“谢谢”时,这是否很奇怪?当人工智能霸主接管时,他们会对我更好吗?不会。

我认为我所有的对话都会被记录到永恒。还有贾里特,我的丈夫,也不太使用ChatGPT。但是当它出现时,他试图教它变得文明。我说……

孩子,我认为这不会奏效。礼貌重要吗?是的,是的,是的,是的。对于像ChatGPT这样的模型,它们有所谓的知识截止日期。因此,你的互动不会真正输入到模型的学习系统中。我认为ChatGPT的训练数据集结束于2021年或2022年左右。所以

例如,ChatGPT无法对你最近发生的任何事件给出连贯的答案。因此,不同的模型使用来自不同时间线的数据。他们必须先收集、清理和处理它。所以它不像我想象的那么实时,或者不像有些人可能期望的那样。

对于我来说,当你对它说话时,它是具有侵略性的威胁吗?是的,威胁性的。为什么它做得更好?威胁它。这是我第一次听说这个。所以我应该试试。我应该检查一下,看看这是否也发生在我身上。但是是的,这是我第一次听说。

好的,让我们为此查阅书籍。具体来说,是2024年的一项关于如何与大型语言模型互动的研究,题为“我们应该尊重LLM吗?”

一项关于提示礼貌对LLM性能影响的跨语言研究。因此,这篇摘要解释说,他们在英语、日语和中文语言模型上进行了测试,并且随着礼貌程度下降,生成的答案会变短。然而,在粗鲁程度的另一端,不礼貌的提示往往会导致糟糕的表现,但反应过度。

但是过于礼貌的语言并不能保证更好的结果。最佳礼貌程度因语言而异。他们说这表明LLM不仅反映了人类行为,而且还受到语言的影响,尤其是在不同的文化背景下。

那么未来呢?研究人员说,据推测,GPT-4作为一个更高级的模型,可能会优先考虑任务本身,并有效地控制其“在低礼貌水平上争论”的倾向。因此,随着它的成熟,它就不会参与了。如果它是一个人,就像这一代人工智能已经接受了治疗一样,

它不是。至于人工智能霸主,再次强调,我的意思是,它只是模型。它只是,你知道的,数据集和算法,以及网络连接。好的。没有那种无所不知、像神一样的……

无所不能的人工智能。但是当然,你知道,那些经营人工智能公司的人接近于此,因为他们可以访问数据,因为他们可以访问算法。所以你可能会担心这些人使用你的数据。它就像

几乎是看不见的,但非常细微的下游影响。例如,在美国,当局正在强迫像Meta这样的公司放弃数据,以便当局能够追捕在堕胎被禁止的地区进行堕胎的妇女。例如,执法部门正在与亚马逊合作,是亚马逊的环形保释吗?哦,对了。是的。

这是那个启用摄像头的亚马逊拥有的环形门铃。因此,像ICE这样的执法部门使用这些数据来做一些事情,甚至驱逐出境。所以我们应该担心的不是人工智能霸主,而是这些公司与强大的实体合作,真正识别那些可能与法律有麻烦或可能正在做一些事情的人

你知道的,违反法律,因为这些数据使他们能够访问,使他们了解人们的行踪、互动和活动。根据2020年《新闻周刊》的一篇文章,题为“警方正在使用环形门铃数据和无人机监控‘黑人的命也是命’抗议活动,活动家说”,此前,据报道,亚马逊环形公司与美国1300多个活动家有视频共享伙伴关系。

执法机构。然而,在2024年1月,Ring表示将停止让警察部门在其应用程序上请求和接收用户的视频片段。现在,另一方面,一些Ring门铃所有者在Ring Neighbors应用程序上发布ICE突袭在当地发生的消息,并向他们的社区发出警报。现在,Ring当然指出,这些是用户生成的帖子。这与他们无关。他们是否会审查这些用户生成的帖子,就像

任何人的猜测一样。嘿,让我们暂时离开现实一会儿,好吗?有什么电影拍对了?例如,《黑客帝国》拍对了吗?斯皮尔伯格的旧电影《人工智能》呢?有人真正拍对人工智能了吗?或者看电视会让你绝对抓狂吗?所以我实际上喜欢科幻小说。《黑客帝国》是我最喜欢的电影之一。我知道的。我知道的。这是一部好电影。

但这也像,那无处不在。你必须将科幻小说视为科幻小说,为了像,一些真正好的科幻小说真的会把你带入一个你甚至无法想象的世界。所以我喜欢科幻小说的这个元素。但是很多像机器人起义、终结者之类的……

电影只是为了娱乐。没有什么可以推断出来并说,哦,这可能会发生在真正的人工智能身上。但是你拥有……

非常细致入微的科幻电影拍对了。所以你有《时空连续体》。它不是电影,而是一个系列。几年前它在Netflix上播放过。所以这里发生的事情是,随着人工智能公司变得强大,

他们接管政府,成为真正管理社会的机构。这种科幻小说比终结者之类的电影更接近现实。是的。那《黑镜》呢?

哦,《黑镜》太棒了。我的意思是,《黑镜》,有些事情就像,现在《黑镜》出来的时候,就像,哇,这可能会发生。现在就像,哦,那已经发生了。或者就像,哦,是的,这就是,你知道的,这就是这个和那个政府正在发生的事情。所以,是的。哇。是的。

我总是问的最后两个问题总是最坏的和最好的。我想你最讨厌人工智能的地方和你最喜欢人工智能的地方。我想我们已经谈了很多关于谨慎的事情,但就你所做的事情或你的工作而言,最坏和最好的事情是什么?是的。所以最糟糕的事情真的是炒作。

作为一名研究人员,我有自己的研究议程,但是炒作是如此具有破坏性。你看到一些不真实的东西被传播,变得病毒式传播。而且,你知道,作为一个专家,这真的很令人不安。所以你必须停止你正在做的事情,做一些工作来纠正它,或者至少尝试。所以,是的,很多炒作真的……

让我很生气,它也成为完成我自己的工作的一个问题。但是让我对人工智能感到兴奋的是……

我对人工智能仍然非常乐观。但不幸的是,很多让我兴奋的人工智能并不是能带来巨额利润的东西。所以,你知道,将人工智能用于灾害测绘,将人工智能用于土壤健康监测等等。这些事情真的让我兴奋,但是在这个系统中开发人工智能没有货币价值。所以这些事情真的让我兴奋,真的……

让我感觉,哇,这是一个强大的工具,我们可以用它来在这个世界上做一些好事。是的。我们可以确保每个人都有食物和医疗保健,并且资源以公平的方式分配。是的。

而我们只是因为钱没有这样做。是的,因为它不会让你赚钱。是的,我认为,再次强调,金钱是万恶之源。是的,是的,是的,是的。非常感谢你这样做。这太有启发性了。很高兴能和一个了解这方面知识的人交谈。非常感谢你邀请我。我真的很享受我们的谈话。所以问真实的人,真实的不聪明。

和重要的问题,因为我们还有什么其他的学习方法呢?所以非常感谢三一学院的拉哈尼博士与我坐下来,让爱尔兰之旅如此精彩。我喜欢这次谈话。你可以在节目说明中找到她和她作品的链接,以及本周的事业。我们在Meta拥有的Instagram和Blue Sky上都有Ologies。我正在用只有一个L的Allie Ward提供我的数据。

我们的网站链接到我们讨论的所有研究,该链接在节目说明中。如果你想成为赞助人,你可以访问patreon.com/ologies,你可以在那里加入。如果你需要更短、更适合儿童的Ologies剧集版本,我们会在他们自己的Feed中免费提供。只需查找Smologies。这也在节目说明中链接。

请传播这个消息。我们在ologiesmerch.com上有Ologies商品。感谢Aaron Talbert承认Ologies播客Facebook群组。Aveline Malik制作了我们专业的人工制作的文字记录。Kelly Ardoire制作了网站。Noelle Dilworth是我们的血肉之躯的日程安排制作人。人类Susan Hale管理着整个节目。现场编辑Jake Chafee帮助将其整合在一起。连接组织首席编辑是Maitland Audio的Mercedes Maitland。

Nick Thorburn用他的大脑、耳朵和手指制作了主题音乐。如果你坚持到节目的结尾,我会告诉你一个秘密。而本周有两个。一个是,我认为我下周要拍摄一些东西。我将首先告诉赞助人,但如果发生这种情况,我也会在社交媒体上发布一些帖子。我真的很兴奋。我不是故意要保密,只是在下周发送良好的祝愿。事情发生后我会告诉你一个秘密。

另一个秘密是,在我去爱尔兰之前,我得到了一些一次性胶卷相机,因为就像,哦,这是什么?里面有胶卷。我拍下了所有的照片,但我还没有冲洗出来。我有点觉得,你等待冲洗的时间越长,你就会越喜欢它们。所以我不知道忘记这个一次性相机然后冲洗它的适当时间是多少。它应该是再过几个月,还是我应该一年后冲洗它。所以现在我的背包里就有一个一次性相机,我不知道我应该多久……说实话,我还不知道在哪里冲洗它。但无论如何,如果有人对此有想法,请随时建议我。这对我来说是一个非常模拟的更新。好了。请不要使用ChatGPT来写作……

或说明任何重要的事情,如果可以的话,请雇佣一名插画家。插画家、作家、艺术家、音乐家,请让他们活着。他们还活着。好的,再见。黑客皮肤病学。家谱学。密码动物学。气象学。在我们创造人工智能时,惊叹于我们自己的伟大。