We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode On the State of AI Ethics Report with its authors

On the State of AI Ethics Report with its authors

2020/7/24
logo of podcast Last Week in AI

Last Week in AI

AI Deep Dive AI Chapters Transcript
People
A
Abhishek Gupta
A
Andrey Krenkov
C
Camille Lantigne
M
Muriam Fancy
R
Ryan Khurana
Topics
Andrey Krenkov: 本期访谈讨论了蒙特利尔AI伦理研究所发布的AI伦理报告。报告强调关注AI发展及其对社会和人际互动的影响至关重要,旨在总结AI伦理领域的重要进展,为读者提供必要的工具和知识。 Abhishek Gupta: AI伦理领域贡献者众多,但对非专业人士来说难以全面了解。该报告旨在帮助他们找到所需知识和工具,并关注主流机构和学者的工作,以及那些不太知名但有影响力的研究。报告旨在成为一份方便的参考,帮助读者快速了解快速发展的AI伦理领域。 Camille Lantigne: 撰写报告摘要不仅让读者了解研究,也促使研究所人员持续学习和理解新研究,并使研究成果更容易被大众理解。 Ryan Khurana: 一些研究探讨了如何评估AI伦理贡献的重要性,以及如何重新思考算法和AI伦理的框架。另一些研究强调了人们对AI进步的理解不够清晰,以及许多在玩具问题上表现良好的模型无法推广到现实世界。 Muriam Fancy: 该报告关注AI对人权和隐私的影响,特别是疫情期间AI在监控和数据追踪中的作用。

Deep Dive

Chapters
The report was created to bring forward the most important developments in AI ethics, providing a comprehensive guide for implementing ethical AI practices.

Shownotes Transcript

与蒙特利尔人工智能伦理研究所创始人阿比谢克·古普塔(Abhishek Gupta)以及其他人工智能伦理研究人员卡米尔·兰廷(Camylle Lanteigne)、穆里亚姆·范西(Muriam Fancy)、瑞安·库拉纳(Ryan Khurana)进行的采访,讨论他们最近的人工智能伦理状态报告。

  </context> <raw_text>0 你好,欢迎收听SkyNet Today的《让我们谈谈人工智能》播客,在这里你可以听到人工智能研究人员关于人工智能实际情况和那些只是点击诱饵标题的讨论。我是安德烈·克伦科夫(Andrey Krenkov),斯坦福视觉与学习实验室的三年级博士生,也是本集的主持人。在这一特别的采访集中,你将听到几位来自蒙特利尔人工智能伦理研究所的2020年6月人工智能伦理状态报告的作者。

这是一个国际非营利研究机构,帮助人们理解人工智能的社会影响,并为他们提供采取行动的工具。我们有阿比谢克·古普塔,他是蒙特利尔人工智能伦理研究所的创始人,同时也是微软的机器学习工程师,在CSE负责任人工智能委员会任职。

他的研究专注于应用技术和政策方法,以解决在不同领域使用人工智能时的伦理、安全和包容性问题。与我们一起的还有卡米尔·兰廷。实际上,你能告诉我怎么发音吗?好的,我试试。谢谢。

与我们一起的还有卡米尔·兰廷、瑞安·库拉纳和穆里亚姆·范西,他们也是蒙特利尔人工智能伦理研究所的人工智能伦理研究人员。非常感谢你们加入我们这一集,并告诉我们更多关于这份报告的内容。是的,不用谢,安德烈。能和卡米尔、瑞安和穆里亚姆一起在这里真是太好了。

那么我们就直接开始谈论这份报告吧。引用它的介绍部分,它指出,现在比以往任何时候都更重要的是密切关注这一领域的发展,以及它如何塑造社会和彼此之间的互动。

通过这一份首版的人工智能伦理状态报告,我们希望带出在过去一个季度中蒙特利尔人工智能伦理研究所引起我们注意的最重要的发展。我们的工作人员在过去一个季度中不懈努力,从噪音中提取信号,以便你能够获得正确的工具和知识,自信地在这个复杂而又重要的领域中前行。

所以我认为这非常清楚地表明了你们创建这份报告的动机,以及你们希望人们从中获得什么。那么你们能否告诉我们更多关于这个过程,以及它是如何汇聚在一起以实现这一目标的?

是的,当然可以。所以,我认为2019年是一个很好的年份,人们对人工智能伦理这一领域给予了很多关注,这很好,因为我们有很多不同的观点,许多学者和从业者不仅来自机器学习领域,还来自社会科学的其他领域,他们开始提出问题,尝试提出解决方案,并共同努力,希望能提出一些实用的东西。

但是,许多人开始为这个领域做贡献的一个担忧是,对于那些主要工作职能不是负责任人工智能的人来说,导航这个领域可能会变得困难,找到必要的知识、工具和技术,以便他们能够应用于他们的研究和工作。因此,这确实是我们编写报告的动机。

我们发现,我们每周都在通过我们发布的新闻通讯进行这样的工作。因此,我们在这个领域积累必要信息和知识的过程是部分偶然和部分系统研究。原因在于,系统研究是每个人都会做的,但我们也非常相信偶然性。我认为在发现一些不太流行的作品方面是有意义的,如果我可以这样说。原因在于,

许多主流作者、学者和机构的作品相对容易找到,并且被放大得相当多。但也有很多有意义的工作是由那些“较不知名”的学者完成的,但这些工作却非常有影响力。找到这些声音,提升它们,并放大他们研究的信息和从中获得的教训,我认为同样重要。因此,这是我们一直在积极尝试做的事情,不仅要找到来自大型组织、影响力更大的作者的一些最有影响力的作品,还要找到那些可能还不太知名但正在做有意义工作的人的作品。

我们将这些汇编到报告中,我们的目标是让它成为你快速了解这个快速发展的领域的便捷参考。并且,利用它作为实施这些想法的实践指南。

我明白了。是的,这很有道理。即使作为一名人工智能研究人员,我发现自己也很难跟上关于人工智能和伦理的许多不同观点。因此,看到这样一份汇编非常令人兴奋。

也许卡米尔、瑞安或穆里亚姆,你们能否分享一下你们在这个过程中的参与情况?你们在这份报告中参与了什么?是的,我有机会为报告中的一些摘要和研究总结做出贡献。通过这点,

不仅阅读报告的人能够了解更多关于研究的信息,而且这也是我们在研究所保持对新研究的关注并以一种对高级学术界和普通公众都可理解的方式传达和理解它的良好激励。这对我来说是一个很好的见解。

我明白了。是的,实际上,我相信在过去的播客中,我们谈到过蒙特利尔伦理研究所的一些研究摘要,拥有这样一个高水平的更实质性工作的摘要确实使其更易于理解。

接下来,实际上,从这个角度出发,我想知道,这份报告相当庞大,超过100页,涵盖了许多主题,如代理和责任、虚假信息、工作和劳动。因此,我想问你们每个人在今年的工作中是否有任何特别的教训?

或者有没有特别的文章或研究论文给你们留下了深刻印象或特别值得记住的,可以强调一下?是的,我认为,你知道,我很高兴我们遇到并有机会在其中展示的一篇论文是关于...

在预训练的自然语言处理模型中,如何影响残疾人。我认为这是在此之前文献中并没有很好探讨的内容。我的意思是,之前有几份报告,我认为来自AI Now研究所,确实谈到了人工智能的研究路线图,

以及人工智能系统对残疾人的一些后果和影响。但实际上,关于影响的工作并不多。看到现在研究人员开始讨论这个问题,并且也开始关注这些预训练模型,考虑到这些模型可能带来的下游后果,因为

使用预训练模型的门槛相对较低,而不是自己开发或从头开始。仅仅因为更高的可访问性,这些模型的偏见和影响也大得多。因此,这一点非常有趣。另一个我发现相当有见地的部分是将乌班图伦理作为一种

打破传统伦理立场和观点的方式来讨论人工智能伦理,我认为这并不是一个经常被提及的话题。但是当我们谈论包容性时,我们确实需要包容不同的伦理视角。

即使它们可能并不一定与我们所说的主流观点或我们在西半球所熟知和讨论的观点相一致。我明白了,是的。我认为这正是报告的伟大之处,它突出了这些更有趣、也许不太常见的观点。是的,还有其他亮点可以分享吗?

如果我可以插一句话。我认为最有趣的部分之一是关于人工智能伦理未来的部分。因此,有两篇研究论文在这里进行了总结,我认为对于许多机器学习从业者和思考伦理的人来说,这些论文都是相当重要的。第一篇名为《超越短期和长期》。我认为这是一个非常重要的区别,因为

困扰许多思考人工智能的人的是,他们将人们当前面临的真正问题混淆在一起,例如阿比谢克提到的关于偏见和自然语言处理算法的问题,以及更像是超智能AGI的存在威胁,或者如果人工智能有如此大的潜力

控制,以至于我们不再需要人类劳动,这些非常遥远的威胁,实际上并不符合当前的研究优先事项和能力。因此,这篇论文提供了一个非常有趣的框架,来评估人工智能伦理贡献的重要性,以及我们如何思考算法。与其考虑短期和长期,他们建议在影响和能力的轴线上进行思考。

能力越是与现有能力脱节,似乎就越不具前瞻性。影响越是狭窄到某个具体事物,似乎也越不具前瞻性。因此,这确实有助于重新优先考虑我们如何框定人工智能伦理。

我认为另一个非常重要的论文是《机器学习学术界中的令人不安的趋势》。这同样非常重要,因为它突显了人们对人工智能的思考方式,以及我们对人工智能收益的思考方式并不总是被清晰理解。比如说,你无法轻易量化进展的样子。许多在玩具问题上表现良好的示例并不一定能推广到现实世界。理解这一点对机器学习研究人员和将信任寄托于算法并将其部署到商业环境中的人们都很重要。拥有这样的框架确实有助于你在未来做出更多伦理判断。因此,我认为这种更一般的理解

伦理框架的工作在这篇论文中对人们来说是非常有价值的。我明白了。是的,这两篇论文都非常有趣。我认为我们实际上在你看到你在网站上的摘要时讨论过令人不安的趋势论文。因此,看到它真的很棒。也许接下来我们可以和穆里亚姆谈谈。对你来说,有哪些亮点?

当然。特别是,我对人工智能的兴趣确实与人权和隐私的关系密切相关。因此,法律和治理以及隐私部分特别有趣,尤其是强调其对某些社区的影响,同时也揭示了

冠状病毒的作用,以及人工智能在理解人权和如何治理方面所发挥的重要作用。我会说,将监控工具转化为民主国家的病毒追踪器是一个很好的例子,这篇文章确实触及了一些阿比谢克之前提到的问题,与卡米尔的观点相同,即

蒙特利尔人工智能伦理研究所试图向公众阐明人工智能正在发生的事情,而不仅仅是让学术界理解这一领域的动态。我认为这一部分确实很好地展示了人工智能在当前事件中的作用。

太好了。是的,很高兴它涵盖了从瑞安提到的人工智能学术研究到你提到的更大规模的人工智能治理等主题。最后,卡米尔,你有没有特别的文章或主题是你认为的亮点?绝对有。我只想提到两个。

我想提到的第一篇实际上是我们报告中呈现的第一篇摘要。因此,文章的标题是《机器人权利,让我们谈谈人类福利》。对我来说,这是一篇非常重要的论文,因为我记得当我第一次进入人工智能伦理领域时,

我认为机器人权利非常有趣且重要,它们是一个非常引人注目的主题。这个话题往往会引起很多关注,因为它对人们来说相当震惊。它涉及到我们对科幻小说和机器人意识的想法。但不幸的是,我认为机器人权利并不是...

现在,我认为机器人权利并不是一个非常紧迫的问题。因此,我很高兴看到这篇文章,这篇研究论文在这里得到了强调,因为我认为我们确实需要将讨论转向人类问题,而不是机器人的权利。

我想强调的第二篇论文是《朝着系统化报告机器学习的能源和碳足迹》。这是亨德森及其同事的作品。因此,我实际上有机会为它撰写摘要。它让我觉得非常重要,因为我们还没有听到很多关于

机器学习和人工智能对环境、气候的影响。这还不是一个热门话题,但我个人认为它应该是。而且我想我在这里有些偏见,因为我在自己的工作中正在处理这些问题。但我非常高兴能有机会参与这篇特定论文,更多地关注

机器学习的碳影响,因为这仍然是一个新领域,确实应该得到更广泛的探索。是的,我认为机器学习与环境问题之间的交集应该得到更广泛的研究。在人工智能和机器学习如何

帮助减轻碳影响和气候问题方面,确实取得了一些很好的进展。这真是太棒了。我们确实希望在这一领域看到更多的工作,但我认为同样重要的是,评估机器学习和人工智能可能对碳足迹和气候问题产生的负面影响。因此,我认为这是一个非常重要的视角,我希望未来能听到更多关于它的讨论。太好了。是的,实际上,我非常喜欢亨德森等人的工作。我认为亨德森在斯坦福大学做着一些非常酷的工作。我还看到那篇关于机器人福利的论文,我认为说它是有道理的,认为有这些理论问题是好的,但

人类的问题更为重要。因此,听到你们所有的亮点真是非常有趣。我认为这展示了报告中涵盖的广泛性和各种主题。并且,这也很有道理,因为人工智能伦理涉及很多内容,有很多维度需要讨论。

很高兴有一份单一的报告,你可以去浏览所有这些内容。

在类似的主题上,我发现另一个有趣的事情是,除了研究摘要外,你们还涵盖了很多关于人工智能伦理的报道和文章。因此,你们有一些这样的文章,比如“约会应用程序揭示了算法的巨大偏见”,或者还有“自动语音识别中的种族差异”,或者“全州的秘密汽车保险算法如何压榨大支出者”。

看到所有这些文章很有趣,因为这是我们在这个播客中经常讨论的内容,即人工智能新闻,实际上看到人工智能已经在世界上存在,以及人们应该意识到并尽量避免的实际问题。

因此,从这里出发,我很好奇,是什么具体的人工智能在世界上以有问题的方式被使用,而不仅仅是研究或概念性的看法,而是你们发现的一些实际具体的人工智能实例,这些实例令人难忘,或者你认为展示了当前人工智能状况的实例?

我认为其中一个有趣的例子是我们越来越多地将责任委托给背景调查的工作中,在那里,你知道,你使用预测模型来

评估申请者,不仅基于他们提交的数据,还基于从互联网上其他地方抓取的附加数据,包括社交媒体资料和其他网络存在。有趣的是,

招聘过程本身已经不透明。在此基础上增加另一层模糊性使得招聘过程对招聘者来说也变得不透明,这很有趣,因为

你使得申请者的过程变得越来越不透明,他们可能会基于不明确的标准被接受或拒绝,这些标准对申请者和招聘者都不清楚,因为你越来越多地将责任和判断委托给外部系统。

另一个问题是,如果你购买这些现成的系统,这通常是最常见的情况,我的意思是,你并没有在内部开发这些系统,我们不知道供应商在这些系统中编码了什么样的价值观和规范,以及他们在考虑不同特征的权重时是如何思考的,或者他们认为在评估求职者时需要考虑的重要因素是什么。因此,

这很重要,尤其是在现在这个时候,人力资源有限。我们试图在招聘方面尽力而为,面对有限的时间和资源。

我们以一种不透明的方式做出这些决定,这将影响人们的生计。这不是像选择下一个要在Netflix上观看的电影那样无关紧要,而是将根本改变你为家人提供食物的方式。我认为,拥有一定程度的透明度和伦理是至关重要的,组织和申请者都知道他们被评判的依据是什么。

我明白了。这是一个很好的例子。我认为我们在这里也讨论过。我想穆里亚姆,你是否也有一个你认为有趣的例子?不是一个具体的例子,但我实际上想快速回应阿比谢克关于...

人工智能在劳动市场问题上的重要性和应用的观点。我认为最近提出的一个问题是理解数据中的不平等和缺乏包容性,以及

数据通常并没有代表应用本身的大多数人,排斥的特性在利用人工智能实例(如招聘过程)时变得非常有问题。因此,我只是想在阿比谢克的观点上补充一下,解释一下数据的问题。

在这种情况下使用人工智能是多方面的,可能从设计本身开始,数据需要更加包容。这是人工智能伦理需要占有一席之地的方式之一,确实需要从一开始就成为这些应用讨论的一部分。

这很有道理。是的。这就是为什么跟进这样的报道是如此重要,因为你可以意识到现在现实世界中实际发生的事情,而不是,假设说,假设的未来问题,这是许多人对人工智能的担忧。瑞安,你对此话题或其他例子有什么想法?

是的,实际上,我想提到的事情是基于阿比谢克和穆里亚姆所说的内容。我的一篇最喜欢的文章实际上是这里提到的一篇《连线》文章,标题为《人工智能作为意识形态,而非技术》,作者是贾伦·拉尼尔(Jaron Lanier)和格伦·韦尔(Glenn Weil),他们都在微软研究院。我有幸通过激进交流基金会与格伦·韦尔合作。我认为他们都是当今关于技术最有趣的思想家之一。

他们提出的一个非常吸引人的观点是,

我们对人工智能的概念并不是关于具有能力的技术,而是一种做事的方式。因此,当我们谈论自动化和人工智能将取代工作的影响时,我们常常将其视为具有超出实际能力的能力,几乎是一种虚无缥缈的技术,似乎没有人创造它。它并不是由任何东西产生的,它只是会取代人。

我们完全忽视了输入人工智能的数据是如何产生的这一过程。我们并不认为这是一种劳动活动。每当我做一个验证码时,我提供了一些标记数据来识别事物。这并不重要。这不是劳动。所有用于训练算法的不同数据集中的标记工作都不被视为劳动。因此,这是一个非常...

意识形态的观点,什么被视为劳动,什么不被视为劳动是由当权者决定的。这是一个非常有趣的观点,他们还探讨了这样一个想法,即我们甚至在未能实现自动化的事情上也谈论自动化。

但这是因为有一种观点,哦,不是我们不能自动化,而是我们现在不能自动化。我们认为不那么重要的人类劳动总是可以被替代,只是现在无法替代。能够做到这一点的人工智能即将到来。就在拐角处。

这种思维方式渗透了许多关于人工智能投资的炒作和热潮。即使你是一个意图良好的研究人员,推动事物向前发展,你也有动机以这种方式呈现你的想法。显然,有些人认为他们离AGI只有一步之遥,因此他们确实相信自己的炒作。

但所有这些都导致了对实际劳动的普遍低估。它使我们对技术的实际能力产生了超出实际能力的焦虑。它使其不仅仅是技术可以做的能力机会。

它使其成为一种看待工作、经济和社会关系的方式。因此,他们的演讲使人工智能的影响变得非常激进,并使我们能够理解为什么我们一开始会有这些伦理担忧。

我明白了。这是一个很好的例子。它确实反映了我认为我们这个播客的目标之一,即试图从人工智能研究人员的角度传达,人工智能到底是什么,对吧?它在现实世界中具体是什么?它的局限性是什么,所有这些事情

也许仍在更广泛的文化中渗透,我们甚至仍在弄清楚。因此,了解像这样的报告资源非常重要,它们回答了这个问题。谈到这种基于炒作的观点,我认为可以公平地说,在过去十年中,关于人工智能的炒作已经很多。

部分原因是对它的错误认知与人们认为它可能是什么之间的差异。

在报告中涵盖的所有主题中,如虚假信息、工作、伦理,也许机器人,有哪些主题你认为在公众心中没有得到足够的关注,或者人们可能过于关注或过于担忧?

我认为在流行报道中经常涉及的一个领域是隐私,这很有道理。考虑到当前的生态系统和COVID-19及接触追踪应用程序的环境,隐私受到很多关注是有道理的,正如去年2019年一样,隐私也是中心话题。

我认为一个值得更多关注的领域是机器学习安全。这基本上是从网络安全的角度看待机器学习系统,并分析这些系统可能失败的地方。因此,你知道,最常讨论的一个常见示例是对抗性示例如何破坏机器学习系统的性能。因此,你知道,有人涂抹他们的脸,

以欺骗或停用面部识别系统的识别能力。你在停车标志上贴上小条带,以混淆汽车的计算机视觉系统。你还有其他在野外的对抗性示例,可以混淆机器学习系统。

但重要的是要理解,在这一系列攻击中,包括模型反演、模型规避、数据中毒、模型提取等,这也从伦理的角度产生影响。我的意思是,假设你从一个机器学习系统开始,你已经尽力确保结果的公平性。

你对训练数据应用了一些偏见缓解技术。但如果你没有实施一些机器学习安全措施,最终发生的事情是,你打开了一个新的攻击面,通过这个攻击面,假设,例如,通过使用数据中毒攻击,你可以再次

扭曲系统,产生偏见的结果。然后这就变得非常棘手,因为你在部署之前所做的所有努力,以确保伦理和包容性成为你系统的一个组成部分,都会因为你没有从机器学习安全的角度考虑这一点而被颠覆。

因此,我们在这个领域做了一些工作。事实上,埃里克·加伦金(Eric Galenkin),他是蒙特利尔伦理研究所的研究员,我和他昨天在ICML的一个研讨会上展示了我们一直在研究的一个框架,称为“绿色信号机器学习”,

它基本上有助于确保机器学习系统在部署时的机密性、完整性和可用性。我认为这是一个没有得到足够关注的领域,未来应该得到更多关注。我明白了。是的,非常有趣。我认为安全是一个你在开始了解现代人工智能时才意识到需要担心的事情,看到所有这些对抗性示例和其他局限性。

卡米尔,你对此有什么看法,认为哪些事情被炒作或没有得到足够的关注?

是的,我认为一个应该得到更多关注的领域是人工智能究竟是什么。我认为它应该得到更多关注,不一定是来自大学中从事这项工作的研究人员,而是更具体地来自主流媒体,如电视网络、广播电台或报纸,媒体应该

让50岁、60岁的人,像我父母这样的年龄段的人,真正讨论人工智能究竟能做什么,不能做什么,以及它的未来走向。是的,这是一个很好的观点。我认为实际上,如果你查看外面的调查,大多数非专家对人工智能的了解并不多,这就是调查结果。

这无疑是一个需要更多工作的领域,以便更多人理解它究竟是什么,以及它与科幻小说或流行媒体的表现有何不同。我认为,瑞安,你对此领域也有想法吗?

<context>关于人工智能伦理状态报告及其作者 与蒙特利尔人工智能伦理研究所创始人阿比谢克·古普塔,以及其他人工智能伦理研究人员卡米尔·兰特恩、穆里亚姆·范西、瑞安·库拉纳的访谈,讨论他们最近的人工智能伦理状态报告。

  </context> <raw_text>0 是的。我认为有两个最重要的事情没有得到足够的关注,那就是工业化和算法管理的问题。你之前提到的人工智能炒作,我认为这是相当危险的,因为系统中每个人的激励,无论是研究人员、风险投资家、

管理者还是行业中初出茅庐的数据科学家,都是夸大他们能做的事情。因此,给予了太多的关注,然后你就有可能面临另一个人工智能寒冬的风险,因为这已经发生过两次,人工智能的承诺曾经如此之高,以至于它无法切实实现。

我认为有一个概念是非常独特且重要的,那就是我们应该进入一个秋天,而不是走向寒冬,我们对在玩具问题上超越现有技术的强调不应再是我们唯一的关注点。在CIFAR-10上获得额外的0.05%的准确率并不会使其对大多数人更可用。

但是如果你能帮助创造工业化的机制,知道与设计师合作并理解机器学习工具本身作为产品,真正使东西更具可解释性和易于理解,对吧?

在大规模上解决问题并开发有效的项目管理协议来监控算法,以便公司更信任使用它。这种事情实际上使它能够交付的不仅仅是承诺。它使其能够解决实际问题。

我认为这些工业化的问题现在得到了更多的关注。就像我上周在ICML上,去年比今年有更多的论文讨论这个问题。因此,这开始引起关注,但仍然需要更多的关注。

另一方面,如果这些算法被更普遍地使用,因为虽然它们在谷歌、脸书或中国等政府的监控中被使用,并且得到了很多关注,但绝大多数经济体并没有使用深度学习算法或任何接近那种复杂性的东西。如果他们开始使用它,我们必须问的问题是,

那么,他们如何管理它?他们如何信任算法?他们如何监控发生的事情?如果算法开始犯错,如何让某人得到警报?比如说,如果你是亚马逊,开发了一个招聘算法,开始对女性进行歧视,我们如何能迅速发出警报?

因此,这些管理协议必须经过仔细考虑。我认为我们在这方面的实际讨论相当滞后。人们因为炒作而倾向于依赖算法的风险是真实存在的,因为炒作使它们看起来比实际能力更强。我们还没有足够讨论自动化任务意味着什么。是的,很好的观点。我认为,这再次表明

如果人们理解什么是人工智能,以及现代人工智能的真正担忧是什么,我们应该关注什么,而不是科幻小说中关于杀手机器人的概念,这肯定会有很大帮助。因此,像这样的报告非常好。这就是我们在这里讨论的原因。我想,

所以总结一下,我认为,穆里亚姆,你是否也有认为被过度炒作或没有得到足够关注的事情?是的,只是一个小点,也想从瑞安所说的内容出发。具体来说,我相信提到的工业化点,以及稍微触及他的管理点是,从...

政策的角度来看,不幸的是,我无法带来技术的视角,我认为在开发人工智能时多样性或缺乏多样性在许多情况下是相当有问题的,我们正在看到其应用的有害影响,比如Compass,或者正如阿比谢克之前提到的,人工智能在招聘过程中的应用并没有得到太多讨论。我认为这与我们之前讨论的内容有关,即人工智能缺乏包容性,以及数据没有得到妥善维护,实际上

我认为事实是,人工智能往往不是以跨学科的方式设计的。当它被引入治理等系统时,我们看到其影响,它无法在一个我想说的状态下运作,像...

客观裁决,实际上它不能,因为它的设计无法做到这一点。我认为我们对人工智能可以是客观的这一理念施加了很大的压力,并且可以有很多匿名的,

创意,但这并不可能,因为是人类在构建它,偏见将会被带入其中。因此,真正强调需要在开发EZI的设计中有更多的跨学科性质。我认为这也将有助于减轻报告中提到的许多偏见和伦理困境的问题。

是的,很好的观点。我认为在过去几年中我们看到了许多例子。特别是有一篇文章,自动语音识别中的种族差异,在这里突显了这一点,实际上展示了在

许多我们使用的主要产品中,存在偏见,并且对某些人不起作用。这无疑部分是因为该领域的包容性不够。我希望对此的认识正在增长,努力也在增加。你强调这一点也很好。

所以,是的,我认为我们现在已经涵盖了报告的大部分内容。许多示例文章和你认为值得更多关注的主题。

当然,还有很多我们无法触及的内容,因为它太庞大了。所以让我再次说,我们在讨论2020年6月的人工智能伦理状态报告。因此,任何感兴趣的听众可以去谷歌一下,找到并自己浏览一下。现在也许为了总结一下,我们可以更广泛地讨论一下。我想问你,

蒙特利尔人工智能伦理研究所还做些什么?你们还有哪些其他方式在研究人工智能伦理?你如何看待这个领域的发展以及你在其中的角色?

所以我认为最大的事情是,安德烈亚,我们坚信赋予和赋权普通公民、多样化的利益相关者来塑造一些技术和政策措施。这实际上是我们所有工作的核心。你知道,这项工作的部分体现是通过我们举办的公共研讨会,

帮助在这个领域建立能力,为讨论增添细微差别,帮助人们真正理解一些担忧是什么,同时也了解如何将这些经验教训应用到他们自己的研究和工作中。我们在蒙特利尔人工智能伦理研究所还有学习社区,

每两周举行一次,邀请我们社区和世界各地的人们参与,共同学习,建立更深入的理解。目前,我们专注于四个领域,即隐私、虚假信息、人工智能对劳动的影响和机器学习安全。最后,看看我们如何改善

或提高来自多样化利益相关者在科学出版模型中的参与。因此,我们推出了一个名为CoCreate的项目,旨在降低在传统学术和科学模型中出版的门槛,对于不熟悉的人来说,这可能有点令人震惊,有点让人却步。可能是简单的事情,比如了解如何处理和使用LaTeX模板。或者可能是一些简单的事情,比如查看学术出版中使用的不同平台。

或者在另一方面,让你的想法更具科学严谨性,了解如何进行实证研究来支持你的想法。这是我认为相当重要的。通过Co-Create项目,我们正在帮助人们找到彼此,

那些在这个领域有丰富经验的人和那些没有经验的人一起合作,因为我们相信,想法可以来自世界的各个角落。并不一定只是那些在传统学术轨道上的人,往往在外部的人有新的视角,提升他们的声音,帮助他们参与这个科学出版模型也是我认为将会产生相当大的影响。

我明白了。非常有趣。所以听起来任何行业的听众,当然可以查找蒙特利尔人工智能伦理研究所,看看是否想参与这些社区倡议。我绝对会说你应该考虑一下并看看,因为这些看起来是任何对这个领域感兴趣的人的绝佳选择。

所以就这样,我认为我们将结束这一集。再次感谢阿比谢克、卡米尔、瑞安和穆里亚姆加入我们的讨论。这是Skynet今天的《让我们谈谈人工智能》播客。如果你喜欢这个对话,请在你使用的任何平台上给我们评分,并订阅并收听我们未来的节目。