We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Sharing AI Mistakes: Partnership on AI’s Rebecca Finlay

Sharing AI Mistakes: Partnership on AI’s Rebecca Finlay

2024/11/12
logo of podcast Me, Myself, and AI

Me, Myself, and AI

AI Deep Dive AI Chapters Transcript
People
R
Rebecca Finlay
S
Sam Ransbotham
S
Shervin Khodabandeh
Topics
Rebecca Finlay: Partnership on AI (PAI)致力于通过汇聚不同视角,解决人工智能发展带来的伦理和责任挑战,确保人工智能创新惠及所有人。PAI制定了负责任地开发合成媒体的框架,并鼓励组织透明地披露其AI的使用方式,促进学习和改进。PAI的工作不应阻止适当的监管,而应与监管相辅相成,共同构建负责任的AI生态系统。PAI发布了《共享繁荣指南》,旨在指导企业负责任地部署AI,从而造福员工。企业应以实验性的方式部署AI,并从员工那里收集反馈,以确保AI在工作场所中的有效性和益处。负责任和安全地开发AI与创新并不矛盾,两者应并行发展。PAI为企业提供了一个社区,让他们可以共同应对AI部署中的挑战,并学习最佳实践。开放性在AI生态系统中至关重要,它应该体现在研究、部署和公众参与三个方面。PAI致力于将全球视角纳入AI治理,并与全球各地的组织合作,以了解AI在不同人群中的应用情况,并收集意见反馈。 Sam Ransbotham: 公开透明和协作对于AI发展至关重要,这包括分享成功的经验和失败的教训。我们需要打破AI领域的极化,并促进公开讨论AI的错误和学习过程。解决AI带来的社会问题不能仅仅依靠技术手段,还需要考虑文化和社会因素。 Shervin Khodabandeh: 公开透明和协作对于AI发展至关重要,这包括分享成功的经验和失败的教训。为了真正实现开源,我们需要公开分享AI项目中失败的经验和教训。负责任地使用AI不仅是技术问题,也是个人和组织的责任问题。

Deep Dive

Chapters
Rebecca Finlay discusses the formation and mission of the Partnership on AI (PAI), emphasizing the need to bring diverse perspectives together to address ethical challenges and realize the benefits of AI innovation.
  • PAI was formed in 2016 to address ethical challenges and realize AI's benefits.
  • The organization includes tech giants like Amazon, Apple, Microsoft, and Google, as well as civil society advocates and researchers.
  • PAI focuses on ensuring AI works for people, workers, and drives innovation responsibly.

Shownotes Transcript

敬请关注本期节目结束后,萨尔莫尼对我们嘉宾提出的要点进行的细致分析。

我们都能从公司在人工智能方面的成功中学习。但从它们的失败中呢?在本期节目中,我们与一位鼓励组织分享好坏经验的领导者进行了交谈,她希望我们都能一起学习。

我是丽贝卡·芬利,来自人工智能伙伴关系组织,您正在收听“我和人工智能”节目,欢迎收听。

“我和人工智能”是一个关于人工智能和商业的播客。每一期节目,我们都会邀请一位在该领域进行创新的嘉宾。我是萨姆·兰斯博瑟姆,文雅德教授。

麻省理工学院斯隆管理学院。同时也是《麻省理工学院斯隆管理评论》的人工智能与商业专栏编辑。

我是谢尔文·霍达班德,波士顿咨询集团高级合伙人,也是人工智能与商业团队的领导者之一。麻省理工学院斯隆管理评论和波士顿咨询集团自2017年以来一直在进行研究和出版,采访了数百名从业者,并对数千家公司进行了调查,了解构建、部署和扩展人工智能能力以及真正改变组织运营方式需要什么。大家好。

感谢您今天加入我们。我们非常高兴能与丽贝卡·芬利交谈,她是人工智能伙伴关系组织的首席执行官,该组织是一个非营利组织,汇集了100多家合作伙伴,共同创建工具、建议和其他资源,以确保我们都能构建和部署负责任的人工智能解决方案。丽贝卡,这是一项非常令人兴奋且重要的工作,我们很乐意与您讨论它。感谢您参加节目。

非常感谢你们的邀请,我一直期待着这次对话。

太好了。让我们开始吧。请您详细介绍一下这个组织的使命和宗旨。

人工智能伙伴关系组织成立于2016年,我们相信需要汇集不同的观点,以应对人工智能发展带来的伦理和责任挑战,并抓住机遇,真正确保人工智能的创新能够造福人民和社区。本着这一信念,一群公司、民间社会倡导者和研究人员走到一起,承担起建立一个全球性社区的使命,这个社区多年来一直致力于确保我们开发出为人民服务、为工人服务、推动创新、可持续和负责任的人工智能,保护隐私,真正增强公平、正义和共享繁荣。

也许您可以举一些公司和研究类型的例子。

对人工智能伙伴关系组织的第一笔投资来自六家大型科技公司,即亚马逊、苹果、微软、Facebook(现为Meta)、谷歌、DeepMind和IBM。这正是在人工智能的新版本(当时是新版本)——深度学习、预测性人工智能——这波人工智能浪潮真正开始部署到互联网搜索机制、地图机制和推荐引擎的时候。人们意识到需要回答一些重要的伦理问题。

因此,这汇集了一大批其他私营部门公司,以及美国公民自由联盟等组织,以及伯克利、斯坦福和哈佛大学的研究机构,以及国际组织。例如,在英国及其他地区的伦理与创新研究所。于是,这个群体走到了一起。现在,我们有许多不同的工作组,它们真正关注的是预测性人工智能的影响,更重要的是,通用人工智能、基础模型和前沿模型的潜在影响。

您认为伙伴关系取得的一些进展有哪些?具体有哪些?

尤其在这个领域,很明显,我们需要通过我们所说的社会技术视角来思考它。是的,存在技术标准,例如水印或C2PA等标准。这些标准考虑的是如何在整个周期中清晰地跟踪媒体内容的真实性。

但您还需要考虑有哪些社会制度和结构到位。因此,我们开发并现在已有18个组织加入并与我们一起发展的一个努力是负责任地开发合成媒体的框架。这实际上是在考察整个价值链。责任是什么?

创作者、开发者、部署者、平台和其他参与者在考虑如何适当地披露信息以确保任何接触到所开发媒体的人都意识到它以某种方式是由人工智能生成的,以及确保所开发的媒体不会被恶意使用或以任何方式用于造成伤害方面负有的责任。我们有一系列关于这些危害是什么以及为什么我们需要保护人们免受这些危害的信息。这是一个非常重要的努力。

当然,问题是它如何被使用?因此,我们一直在做的一项工作是确保签署支持这项工作的公司、组织和媒体机构真正透明地说明他们如何使用它来应对现实世界的情况。因此,我们提供这些信息。目标是,既要对框架本身负责,也要尝试创建其他组织也可以使用和从中学习的案例研究。

很有道理。我想,我特别感兴趣的是部署方面。所以,在我看来,很难想象你提到的那些公司。

它们是你起源故事的一部分。它们有足够的经济激励不去这样做,以深度伪造为例,如果不是为了创造这种媒体。所以我想我更不用担心它们参与创作。

但你也提到了部署,我认为这正是它们发挥巨大作用的地方。这似乎是一个案例,也许伙伴关系关注的人可能是我们所说的那些从一开始就可能表现良好的人。你如何接触那些,比如说,不愿意或没有能力表现良好的人呢?好吧。

这是一个很好的问题。我们在人工智能伙伴关系组织所做的任何工作都不应阻止适当的监管。我一直支持政府关注、了解并采取行动应对危害,并确保公民受到保护。

因此,监管是考虑创新问责生态系统的一个关键部分。但与此同时,我们确实认为,帮助那些希望成为优秀和负责任行为者的组织了解什么是优秀行为非常有价值。这对于公司来说是有帮助的,就它们正在做的工作而言,我认为,这也有助于确保民间社会和学术界能够参与其中,并说明什么是优秀行为。然后,我们还发现这对政策制定者非常有帮助。因此,帮助他们更好地了解新兴技术的细节以及监管在何处是适当和有用的,也是我们工作的一部分。

伙伴关系对劳动力影响的看法是什么?

是的,我认为这是我们都需要思考的最基本领域之一。有趣的是,这是整个人工智能发展对话中唯一一个带有某种必然性氛围的领域。你知道,机器人来了。

它们正在抢走我们的工作。我们需要看看普遍基本收入。我们也需要考虑所有这些其他机制。因此,我们真的拒绝了这种必然性,并说,不,公司、雇主、劳工组织和政策制定者可以做出选择,以确保人工智能的开发能够增强工人的能力,并确保工人的声音在考虑开发这项技术时能够被听到。这是一个非常复杂的问题。

现在,这是一个教育和再培训的问题,但它也是一个关于我们如何衡量和评估这些系统以确保我们专注于为人们服务的开发的问题。我们发布了一套指导方针。我们称之为共享繁荣指导方针。

实际上,我们试图做到非常具体。它们是基于我们与工人自己进行的一系列访谈和一些研究,以更好地了解人工智能部署到他们的工作场所何时以及如何是有益的,以及何时没有益处。所以。

对工人有益。

对工人来说,有很多时候,他们意识到与他们一起工作的人工智能系统具有价值。这样他们就可以更有创造力,这样他们就可以做出更多决策,这样他们就可以在处理工作的方式上更具创新性。当然,当他们觉得好像自己被驱使去做例行工作或重复性工作,或者以某种方式通过系统进行调查时,它对他们不起作用。

因此,利用这些见解,并说,好吧,那么当我们部署这些系统时,我们如何做出明确的选择,以确保我们以对工人有益的方式来做这件事呢?所以,我认为,如果您是一位雇主,并且正在考虑如何开始处理如何在劳动力中使用生成式人工智能的问题,那么您需要以一种非常实验性的方式来思考它,对吧?与其认为,好吧,这将为我节省这些成本,让我们朝着这个方向部署它,你知道,百分之百地这样做,不如把它看作是一个试点,一种来自你工人的新技术。我们知道的一件事是,许多人工智能系统在部署时失败了,因为我们没有考虑清楚将它放入工作场所环境中实际上意味着什么,将它放入风险管理中实际上意味着什么。

是的,我喜欢这种视角,它显然可以提供公平的效率。但如果这只是唯一的视角,那么发生的事情就是你错过了更大的机会。但我认为,在这个更大的机会中,人工智能和人类如何共同扩大管道规模。

我认为人工智能不会取代整个工人,但它会取代任务。所以现在我的30%的任务已经被取代了。我必须对这30%做些什么。

我没有足够的事情让他做。大约30%。

你可以,你可以解雇我30%。但如果你不仅仅关注成本,而且更关注增长、生产力、盈利能力和创新,那么所有这30%都可以用来创造所有这些新的机会。

我想知道伙伴关系是否对将创造就业机会与取代就业机会的一些机会进行了任何研究或思考,对吧?因为这里有一个视角,那就是我们必须遵守道德规范,我们必须确保不会造成伤害。我们还必须从长远角度来看。

不仅仅是取代劳动力,就像纯粹的盲目自动化一样,这样你才能更像保护。但我不知道伙伴关系是否对这方面有任何观点。你通过创造新的规则和新的工作来扩展可能的艺术。

百分之百。我的意思是,我认为你刚才描述的方式,对吧?这不是一种权衡。这不像责任和安全与创新是相互对立的。你必须不断地在创新和利益之间做出选择。

我们知道,为了创新,为了开拓新市场,为了考虑新的有益结果,你需要考虑如何安全和负责任地做到这一点。生成式人工智能成为更好的整体机会,因为今天它仍然面临真正的挑战,无论是幻觉还是其他部署方式,它还没有真正达到它需要达到的水平。但是,如果我们开始考虑,一旦它出现,它如何被部署来真正应对我们时代的一些最大全球挑战。

这就是我在人工智能伙伴关系组织的原因,因为我相信人工智能确实具有这种变革潜力,可以真正支持重要的突破,无论是在医疗保健领域,还是在我们面前关于环境和可持续性的一些重大问题。我们在预测性人工智能领域看到了这一点,对吧,我们开始看到它正在整合到各个学科的科学过程中。我认为回到这个问题,你知道,责任与创新之间的权衡,我现在从公司听到的一件事是,他们在努力解开部署这些技术的风险和对他们生产力、创新以及他们如何服务客户的益处时感到孤独。哇。

因此,我认为我们在PAI所做的工作之所以重要的原因之一是,我想说的是,有一个组织社区对完全相同的问题感到不安,他们正在实时地试图弄清楚,在你的劳动力中负责任地部署这意味着什么?考虑这些系统的安全性和它们的操作方式意味着什么,无论是审计、监督还是披露等等?你如何进行实验,什么是最佳实践?因此,我认为,如果我们能让公司和组织知道,有一个社区正在积极研究这些问题,你可以在那里获得一些见解,并真正实时地开发出将成为最佳实践的东西,这对他们来说是一件好事。

是的,这听起来像教育、合作和分享所有这些都是关键,因为如果没有这些,许多人,包括许多高管,很容易认为人工智能是一个工具,它将使我的生产力提高12%,需要减少2%的人员。让我们想办法做到这一点,如果你没有接触到发生的其他所有事情,这是一种有效的思考方式。这真的很有趣。你提到,参与这个伙伴关系的许多参与者实际上是大型科技公司,它们正在塑造我们正在讨论的事情。

是的。我的意思是,我认为这也表明这一切都是全新的。我们正在处理的许多问题,无论是一家大型科技公司还是一家小型初创公司,它们都希望根据这些基础模型的发布来开发系统,等等。

这些问题中的许多问题正在实时解决。这并不意味着我们不应该关注其他领域。我知道你们两位都有在其他领域工作的经验,我们应该能够更好地了解在部署这些人工智能系统时,安全和负责任意味着什么。但我确实认为,即使对于政策制定者来说,既要跟上技术发展速度的最新进展,也要了解技术的细微之处,也是一件棘手的事情。因此,我们可以一起学习的地方非常重要。

一起学习很有意义,因为我认为你的主要使命是关于集体利益。你刚才说,我们边走边学,这是一项你无法查看书的背面并看到正确答案的技术,但我们往往更容易从那些不顺利的事情中学习。新闻媒体,他们会挑选极端奇迹和极端悲剧的例子。

这种细微之处很少见。你刚才提到,我们如何提升,以及你如何让他们分享这种细微之处?以及好的经验和坏的经验?你如何让他们为这个集体利益而学习?

是的,这是一个非常根本的问题。当然,根据您的经验和其他行业的情况,我们知道,建立安全文化意味着建立透明和披露的文化。

对吧?

几年前,我们很高兴能与一些研究人员合作,开发了一种事件报告机制,该机制现在非常有效。如果您查看任何关于基础模型或前沿模型的新兴框架,无论是七国集团的工作,还是来自经合组织或其他地方的报告,您都会看到这一点。事件报告这个问题变得非常非常清楚。我们如何才能创造出一些方法,以便我们更好地理解一旦这些系统部署后,实际发生了什么,以及我们如何才能从中学习?我认为这是IT中至关重要的一环。

当我想到过去25年我在这个领域的工作时,它通常都是来自技术开发人员或支持者一方的故事,这就会迫使另一方,即试图将IT约束在一定范围内的群体或组织,形成一种非常消极的辩证关系,这使得处理这个问题的方式非常具有管控性。

但我们正处于一个临界点或拐点,我们学习和适应的速度至关重要,这意味着我们需要分享那些行不通的东西。就在几天前,我的YouTube推荐里出现了一个视频,讲述了他们如何搞砸了一个客户订单。整个重点是如何公司搞砸了,他们犯了什么错误,以及他们如何纠正它。他们做的就是这些,他们基本上发布所有这些视频,讲述他们如何搞砸了一些事情以及他们如何应对。他们获得了大量的观看量,因为他们只是简单地庆祝他们的错误并从中学习,这并不是你经常看到的事情。

我刚开始和你一起参加所有这些小组的课程。

我们从中受益匪浅。

你知道,我最近一直在思考开放性这个问题,因为你们都知道,去年关于开放模型和开源模型以及封闭模型哪个更安全存在一场辩论。例如,在去年的行政命令中,人们非常有兴趣了解更多关于开源的信息,以及与部署这些类型的模型相关的边际风险是什么。

但对我来说,开放性这个问题直接关系到我认为你关于共享的观点,以及我们如何将开放共享的文化融入AI生态系统。所以我认为,首先,它必须从课堂开始,它必须从研究界本身开始。

如你所知,在AI研究界,我们并没有同样的文化来确保所有东西都公开发表。我们有很多研究现在是在闭门进行的。我们不像其他一些科学领域那样拥有同样的期刊、编辑和同行评审机制。我们有很多东西是通过会议发表的,或者直接发表到档案馆。

那么我们需要做什么?在那个非常非常早期的阶段,公共资助的研究需要做什么才能创造一种真正的科学开放和审查的文化?然后,是的,接下来的部分必须是,当这些系统被部署到世界各地时,透明度和披露的水平是多少?我们一起制定了一套指导方针,从预先设计到研发,再到部署后的监控。这意味着在开发和部署生态系统的22个地方,有意识地披露和关注风险,并确保到位了防护措施?我们考虑一下金融服务部门或其他地方所需的披露,例如。

对于一些非常非常大的模型来说,这意味着要实施这种类型的披露制度吗?然后我认为最后一部分是,我们如何确保我们将公众和公民带入关于这些工具的开发和部署方式的对话中?那么,当我们考虑公民参与这个过程时,开放性意味着什么?成为技术开发过程的真正一部分,以确保他们的声音能够被听到,关于他们希望技术如何为他们服务,而不是如何控制他们?因此,我认为,当我们围绕这项技术的部署建立我们的技能和能力时,我们需要考虑开放性、共享和披露,以确保它真正为我们服务。

你提到了公共资金,但我认为这是需要了解的一部分。这是合作伙伴关系感兴趣的一件事,因为如此多的基础科学曾经来自大学,曾经来自内部资金,但这并不是真的在你的董事会。这不是那些创立了合作伙伴关系的公司。

这似乎特别重要,也许合作伙伴关系在这里扮演了一个在权力型技术中可能不存在的角色,因为成本是惊人的,大学实际上无法参与OpenAI的研究预算,我们已经获得了微软100亿美元的资金,但是NSF

在2023年拥有大约99亿美元的预算。因此,一个项目就可以完全抹去NSF的预算。目前还不清楚这将如何发挥作用,因为我们谈论的是开放性。

我认为社区在分享算法方面非常开放。你知道,这些算法被广泛传播。但是开放性也取决于数据。

我也觉得他真的对部署很开放。就像在哪里。

正在被使用,就像我想要。

你的意思是它如何被使用?它在哪里搞砸了事情?你知道它不仅仅是算法,对吧?它是输入它的数据。

是所有做出的决定。它的人类角色通常就像你周围的一些共享和丽贝卡一样。你关于透明度的观点真的引起了我的共鸣,因为我觉得。

一般来说,当谈到技术时,这是一种阿尔法游戏,你知道,这是最好的一个,比另一个更好。它的准确性更高,错误更少,就像每件事总是那么好,并且比其他任何东西都好。但我确实觉得这里有一些东西。也许这更多的是关于我们作为一个社会如何进化,以接受和承认这些系统会犯错误。如果你没有听到它,那是因为有人在隐藏它,而不是它不存在。

所以我认为,这些大型参与者中的一些开始公开谈论这些事情,这样他们就不是唯一一个,对吧?我认为,如果这个世界上许多大型参与者真正表现出我们在这里谈论的同一种开放性,看看,我们犯了一个错误。这就是我们如何修复它。这就是发生的事情。我认为这实际上会产生很大的影响。我认为这将大大提高公众信任度,并将促成真正的对话,因为我实际上觉得这场对话在各个层面都非常两极分化,对于那些了解AI的人和那些不了解AI的人来说,它都非常两极分化;对于那些确实了解AI的人来说,在支持者和反对者之间也存在非常严重的两极分化。是的,我觉得我们需要打破这种两极分化,并将这两方聚集在一起。

所以也许稍微改变一下记录,我们一直在谈论很多关于以西方为中心的视角。但是很多事情都会发生。全球,合作伙伴关系对全球的看法是什么,以及它如何尝试与圣塔之外的人合作?

绝对的。当然,我们今天知道,许多全球北方以外的工人都是全球北方正在开发的技术的消费者。因此,我们需要确保他们是全球治理对话的一部分。我非常高兴看到9月份在联合国

大会上,有一个非常大的倡议,旨在考虑将许多不在七国集团或许多其他讨论中的人的声音带进来,无论是正在不同国家开发的安全研究所,将这些国家和这些声音带入对话,讨论从全球治理的角度来看需要什么。我们有联合国秘书长的高级咨询机构。

发布了他们的报告,真正开始思考这意味着什么。我们一直在做很多工作,试图听取全球各组织的意见。AI目前在你们的人口中是如何运作的?你希望它如何运作?这既来自开发技术的公司和初创公司,也来自开发各种新技术的许多学者。例如,考虑如何使用在西方开发的语言中不流行的语言来开发数据集。所以,我的意思是,正在发生很多有趣的工作,思考如何将这些声音带入这场对话是我们IPAI的工作重点。

现在我们有一个环节,叫做五个问题,我将问你一系列快速的问题。只要告诉我们你脑海中首先想到的东西,你认为现在AI最大的机会是什么?

AI最大的机会是让公司开始尝试使用它,看看我们如何才能真正推动他们正在做的工作的创新和潜力,尽快以低风险、高价值的方式开始尝试。你使用这项技术越多,你就越了解它能为你做什么,以及它不能为你做什么。

最大的误解是什么?

关于AI,它是一个独立于人类和文化之外的技术系统?我总是说AI既不好也不坏,但它也不是中性的。它是我们做出的选择的产物。

你第一个想从事的职业是什么?IT,你想成为什么?

我认为当我年纪很小的时候,我想成为一名记者。我想讲述人们和社会的故事,我很高兴。这是我工作的一部分。我今天可以做到这一点。

什么时候AI太多了?

我认为当我们看到人们对AI系统过于依赖或过于信任AI系统时,AI就太多了。你知道,我们知道的一件事是,我们倾向于过度信任通过计算机或机器发生的事情。

你希望AI现在就能做到,而它目前做不到的一件事是什么?

哦,我的天哪,我从哪里开始?

你必须是。

你知道,我现在最喜欢的AI用途是我的观鸟应用程序。我不知道你是否使用过Merlin Bird ID应用程序,但它是一个很棒的观鸟应用程序,因为你可以拍摄一只非常模糊的鸟的照片,它会给你一个很好的匹配,或者你可以录制鸟鸣声,它会告诉你那是什么鸟。所以我想我想要AI做的是帮助我看到鸟,帮助我在街上找到鸟。

就像打破对鸟类的迷恋一样。

我想我真的很喜欢这一点,我越来越了解鸟类,但我需要识别它们。

罗伯特,很高兴和你交谈。谢谢。

这是我的荣幸。非常感谢你邀请我。

丽贝卡,我认为这是一种非常有趣的视角。我们都在同一条船上,我们都在开发这项技术,我们都没有任何经验,但它影响了所有这些。这是一个很好的视角,它让我同时感到乐观和担忧。

我同意你的看法。我还认为你关于透明度和共享的重要性有一个很好的观点。你问到的关于如何让人们更多地分享那些不起作用的事情的问题,我们听到所有积极的,但我实际上认为,在两点之间,“看,我们都在一起”,

如果我们对它透明和合作,它将帮助我们所有人。在许多方面,我的意思是,AI之所以成为现在的样子,主要是因为它的开源性质,对吧?但是当我们说开放时,我们不仅仅是指分享算法,它也意味着在这个新领域中,它也意味着分享员工经验教训和那些不起作用的事情。

对我来说,我提到的YouTube视频确实让我印象深刻,因为通常当你看到一个标题是“我们如何搞砸了这个客户的订单”时,你会想,为什么这个视频有这么多观看量?你正在寻找一些混乱的东西,而他们实际上展示了他们犯的所有错误以及是谁犯了这些错误。而且,你犯了什么错误并不重要,重要的是你如何纠正它们以及你在纠正它们的过程中做了什么。我认为我们确实进入了一个阶段,在这个阶段,我们作为一个社会和一个技术和创新者社区,需要更多地分享那些不起作用的事情以及它们为什么不起作用。如果我们真的要开源,我们也应该在这方面开源。

是的,这是一个很好的扩展,可以让人们回过头来检查。他们会略过所有他们做正确的事情,而专注于他们做错的事情,因为这是我们有机会学习并真正使它成为更像机器学习的例子的地方。

这是提升树和提升算法背后的基本思想,你对模型出错的地方比对模型正确的地方给予更多关注。我认为我们在这里看到了另一个例子,我们正在对超越陈词滥调的含义进行更深入的探讨。你知道,我们有一些没有人反对的想法,那就是做正确的事情,不做错误的事情,那种陈词滥调的空洞性,我们一直在和他谈论适应性。

服务应该是适应性的。但是你如何适应呢?好吧,今天我们谈论的是开放性。

你如何做到开放?我认为我们还没有达到这一点的终点。但我认为这是一件有趣的事情。

关于我们需要庆祝围绕错误的透明度以及我们如何纠正它们。

我喜欢他说的另一件事是关于这个技术性的想法。我认为很多人认为这是一个技术问题,它有一个技术解决方案。例如,我们有版权和水印,这是一个技术答案。

是的。你知道,我不反对水印。我认为这有很多潜力,但这不仅仅是一个技术解决方案就能解决的。

这些事情是在社会内部、文化内部运作的。似乎越来越多的认识到,这不仅仅是一套新的算法。

是的,是的。我的意思是,当我想起任何广泛应用于人们的技术时,无论是卡片还是其他任何东西,这都是个人责任的问题,对吧?但我认为这其中的文化方面,可以从公司内部开始,对吧?

我的意思是,我们确实讨论过人工智能如何使个人和团队增强组织的自豪感和幸福感,对吧?我确实认为,社会文化与技术的交叉点将非常非常关键,而不仅仅是一堆规章制度和一堆纠正错误或防止错误的技术工具,对吧?这是我们如何选择使用某些东西,当我开车时,是否存在限速并不重要。我的意思是,这并不重要,但这并不重要,无论我是否被跟踪或是否有警察等等,都有一些关于负责任的事情,并且它已经根深蒂固。

在我们身上,是的,就像。

看,你不能鲁莽,因为你会危及你自己的生命。其他人的生命是关于这一点的,呃,我们现在已经开始作为一个社会接受,这与对工具负责有关,罗贝科说,它非常简单,它既不好也不坏。它就是这样,但你如何使用它将会产生影响。

如果我退一步,回想起一些人,我们有一些人,例如,我们有Mozilla,我们有AI伙伴关系,我们有MST国际。这些并非使用人工智能的一些传统公司。而且,你知道,我认为其中一些组织可能会失败,他们的一些计划最终可能无法正常运作。

但我认为,他们尝试并努力推动这些事情的事实可以帮助集体利益,即使他们没有完全达到他们为自己设定的目标,即使他们接近目标。我认为这是一项重要的工作,我很高兴我们邀请了一些人来分享这一点。感谢收听。

我们的下一集是一集特别节目,我将与牛津大学的卡尔·弗雷和林肯舞蹈护理中心在堪培拉最近的一次关于人工智能时代工作的会议上进行交谈。此外,如果您对人工智能战略实施、使用和最喜欢的冰淇淋口味或其他任何事情有任何疑问,我们有一个电子邮件地址SMR-podcast.MIT.EDU,我们将在节目说明中包含该电子邮件,包括您的姓名、您来自哪里以及您有什么问题。我们将专门用一集来听取其中一些问题,并尽我们所能为它们找到答案。谢谢。

感谢收听“我和人工智能”。我们相信,与您一样,关于人工智能实施的对话不会仅限于此播客。这就是为什么我们在LinkedIn上专门为像您一样的听众创建了一个小组。它被称为“人工智能领导者”,如果您加入我们,您可以与节目创作者和主持人聊天,提出您自己的问题,分享您的见解,并获得来自MITSMR和BCG关于人工智能实施的宝贵资源。您可以通过访问MITSMR.com/AIforLeaders来访问它,我们将在节目说明中添加该链接,我们希望在那里见到您。