We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode The Social Science of AI: Intel’s Elizabeth Anne Watkins

The Social Science of AI: Intel’s Elizabeth Anne Watkins

2023/6/20
logo of podcast Me, Myself, and AI

Me, Myself, and AI

AI Deep Dive AI Chapters Transcript
People
E
Elizabeth Anne Watkins
Topics
Elizabeth Anne Watkins: 英特尔在人工智能领域拥有独特的视角,正在进行许多引人入胜的工作。其研发的M.A.R.I.E.系统旨在通过多模态技术(计算机视觉、音频感知和自然语言处理)辅助工厂技术人员完成复杂的半导体制造流程,而非取代他们。该系统的设计核心是增强人类专家的能力,因为人类在处理复杂且动态的制造过程中具有不可替代的判断力和专业知识。M.A.R.I.E.采用了一种创新的AI部署方式,通过与专家合作,在部署过程中收集并标注数据,从而解决AI开发中数据收集的难题。在开发过程中,社会科学扮演着重要角色,通过与技术人员的沟通,了解他们的需求和顾虑,改进系统设计,并促进人机协作。英特尔重视用户体验和社会结构,在AI工具开发中融入社会科学,以确保工具能够更好地适应用户的需求和生活环境。英特尔通过促进技术团队与社会科学家的沟通,以及建立道德影响评估流程和负责任AI委员会,将伦理价值观融入AI工具的开发过程中。 Sam Ransbotham 和 Sherwin Kodubande: 两位主持人与Elizabeth Anne Watkins就其在英特尔的工作,以及英特尔如何利用AI技术改进半导体制造流程进行了深入探讨,并对AI技术在人机协作中的应用和挑战进行了分析。 Sam Ransbotham: 对AI技术如何更好地服务于人类,以及如何避免AI取代人类工作提出了疑问,并探讨了如何将AI作为人类的同事,而非替代品。 Sherwin Kodubande: 与Sam Ransbotham一起,就AI技术在人机协作中的应用和挑战进行了探讨,并关注了如何平衡AI和人类的能力,以及如何确保AI技术能够更好地服务于人类。

Deep Dive

Chapters
Elizabeth Ann Watkins discusses her role at Intel Labs and how the company is integrating social science into AI development to better understand and serve end users.

Shownotes Transcript

当伊丽莎白·安妮·沃特金斯开始攻读博士学位时,她获得了一个研究记者使用安全和隐私技术的研究角色——但她发现安全工具令人困惑且难以使用。如今,作为英特尔实验室人工智能社会科学的研究科学家,她为面临理解和使用新技术的其他最终用户倡导。伊丽莎白运用社会科学来了解执行复杂芯片制造流程的技术人员的担忧,以便开发新的 AI 系统来更好地服务这些人类专家。在此过程中,她还帮助技术人员认识到 AI 作为辅助技术——甚至是同事——而非人类替代者的作用。她加入本期节目讨论她作为在科技领域工作的社会科学家的角色,以及英特尔如何应用计算机视觉和自然语言处理等 AI 技术来改进半导体制造流程。在此处阅读剧集记录。我和 AI 是麻省理工学院斯隆管理评论和波士顿咨询集团合作播出的播客,由萨姆·兰斯博瑟姆和谢尔文·霍达班德主持。我们的工程师是大卫·利尚斯基,协调制作人是艾莉森·莱德和索菲·鲁丁格。通过加入我们的 LinkedIn 群组“领导者的人工智能”,网址为 mitsmr.com/AIforLeaders,或关注 LinkedIn 上的“我和 AI”,与我们保持联系。嘉宾简介:伊丽莎白·安妮·沃特金斯是英特尔实验室人工智能社会科学的研究科学家,也是英特尔负责任人工智能咨询委员会的成员,她运用社会科学方法来增强人机协作中的人类潜力。她关于人工智能工具的设计、部署和治理的研究已发表在领先的学术期刊上,并已刊登在《连线》、《麻省理工学院技术评论》和《哈佛商业评论》上。她曾是普林斯顿大学的博士后研究员,拥有哥伦比亚大学的博士学位和密歇根大学的硕士学位。我们鼓励您对我们的节目进行评分和评论。您的评论可能会用于“我和 AI”的材料中。我们想知道您对“我和 AI”的感受。请参加一个简短的两道题的调查。</context> <raw_text>0 今天,我们播放的是由我们的朋友 Modern CTO Podcast 制作的一期节目,他们最近很友好地邀请我作为嘉宾参加。我们讨论了生成式 AI 的兴起,成功使用技术的意义,以及领导者在指导技术实施工作时需要考虑的一些因素。在 Apple Podcast、Spotify 或您收听播客的任何地方查找 Modern CTO Podcast。我们知道人工智能工具正在增强人类的绩效,但是我们

但人们对此的真实感受如何呢?在本期节目中,了解一家公司如何以最终用户为中心开发 AI 工具。我是英特尔的伊丽莎白·安·沃特金斯,您正在收听我和 AI。欢迎收听我和 AI,这是一个关于人工智能和商业的播客。在每一期节目中,我们都会向您介绍一位在人工智能领域进行创新的个人。我是萨姆·兰斯博瑟姆,波士顿学院分析学教授。

我同时也是麻省理工学院斯隆管理评论的人工智能与商业战略客座编辑。

我是谢尔文·科杜班德,BCG 的高级合伙人,也是我们人工智能业务的领导者之一。麻省理工学院 SMR 和 BCG 自 2017 年以来一直在研究和发表关于人工智能的论文,采访了数百名从业人员,并对数千家公司进行了调查,了解构建、部署和扩展人工智能能力以及真正改变组织运营方式需要什么。欢迎。

今天,我们邀请了一位优秀的嘉宾,英特尔的研究科学家伊丽莎白·安·沃特金斯。伊丽莎白,感谢您今天加入我们。让我们开始吧。非常感谢您今天邀请我。作为世界上最大的半导体制造商,英特尔可能是一家大多数人都已经了解的公司。但也许您可以向我们介绍一下英特尔实验室的总体情况,以及您具体扮演的角色?

就像您所说的那样,在当前关于人工智能、人工智能产业和人工智能领域的大型讨论中,我们并不总是最受关注的,但在英特尔内部正在进行着许多引人入胜的工作,我们对该领域拥有独特的视角和独特的方式进入该领域,我真的很高兴今天在我们的谈话中阐明其中的一些内容。

我去年 8 月刚刚加入英特尔,这已经是一次非常令人难以置信的经历,我结识了许多不同的团队。我作为人工智能社会科学的研究科学家加入英特尔,在英特尔实验室的拉玛·纳赫曼手下工作,该小组被称为智能系统研究小组。伊丽莎白,您提到英特尔实验室正在使用人工智能做一些独特的事情。您能否与我们分享一些您正在从事的工作?

我特别感兴趣的一个项目叫做 M.A.R.I.E.,这是一个首字母缩略词,代表工业环境中的多模式活动识别。所以基本上,我将从一个隐喻开始。想象一下,您的计算机可以观看您组装您在互联网上订购的家具。

当您遇到手册中比较困难的部分,或者您拿着螺丝刀,拿着一片胶合板,而您无法回到手册时,想象一下您的计算机可以看到您正在做什么,知道手册将告诉您说什么,然后帮助您将两者连接起来。想象一下,您的计算机实际上可以告诉您,“嘿,我认为您即将将 A 型螺丝拧入 B 型支架”。

诸如此类。我知道每次我收到他们说里面有扶手椅的扁平包装时,我都很难从 A 到 B。而这正是我们的人员在我们设施内部进行的流程,他们实际上是在制造半导体芯片。

因此,在我们工厂工作的员工,我们的技术人员,正在进行非常复杂和非常精细的工作,处理各种手动操作中使用的零件和工具,这些操作发生在工厂车间。

因此,他们所做的所有工作都同样复杂,有时甚至比将扁平包装变成扶手椅更复杂。涉及许多工具。有各种不同的流程、不同的设备、不同尺寸的设备。因此,我们正在构建类似于我刚才描述的计算机系统,它会说,“嘿,您是不是想将 A 型螺丝拧入 B 型支架?”我们正在构建系统来帮助我们工厂内部的人员完成这种非常仔细和非常复杂的工作。

实际上,这是一个有趣的类比。我的意思是,我认为我们都觉得扁平包装具有挑战性,也许吧,尽管我必须承认我有点喜欢它们。但我相信在英特尔内部要复杂得多。我喜欢这个例子的一点是,我觉得我们经常谈论自动化。那么,我们能否让机器学习如何做人类做的事情?所以它本质上是机器学习。然后我们谈论增强,那么,机器如何帮助人类做出决策?

这让我觉得有点不同。这是下一步。在这种情况下,我们不是试图让机器组装扁平包装。我们不是试图让机器组装半导体。仍然是人类在做。因此,是人类需要在这里学习。这似乎比我们之前讨论的更进一步。

萨姆,我很高兴你注意到了这一点。这正是我们在英特尔实验室讨论的内容,即人是专家。人是知道如何与这些系统交互的人,他们知道如何将这些部件拧在一起,他们知道将这些微小而精细的组件组合在一起所需的所有物理和动态细节。

我们不想训练计算机来做这件事。计算机无法做到这一点。这种组装和清洁过程,因为当然所有这些过程都发生在这些超洁净室中,每个人都必须穿着防化服和手套。

我们想支持正在做这件事的人类。没有计算机能够做到这一点。这需要人类的判断力。它需要人类的专业知识才能以全面且真正动态的方式执行这些流程,并能够应对新的压力。如果机器的较大部件以特定方式弯曲,或者螺丝以特定方式掉入孔中,那么计算机需要很多年才能评估、诊断和修复这些持续的动态问题。

但是你知道谁擅长做这件事吗?是人类。因此,我们试图以人为中心,以人类的专业知识为中心。这指出了我对玛丽感到兴奋的两个原因,那就是技术方面和人为方面。在技术方面,我认为玛丽非常令人兴奋,因为它是一种多模式的。它通过环境感知将许多不同类型的人工智能系统结合起来。它结合了计算机视觉(使用活动识别技术),

与音频感知相结合,与自然语言处理相结合,从而可以在技术人员周围构建一个环境,最终帮助他们完成工作,但在系统能够帮助他们完成工作之前,系统必须实际学习。正是人类专家在教导系统如何学习,并教导系统需要知道什么。

因此,据我所知,这是一种将人工智能系统部署到新领域并将它们应用于新问题的新方法,那就是我们正在面对和解决人工智能开发的一大挑战,即数据收集。您需要大量数据才能进入新领域。您需要大量以适当方式标记的数据,根据您试图解决的问题类型进行标记。

因此,我们已经改变了策略。与其在系统部署之前尝试获取尽可能多的数据,

我们继续部署一个系统,然后该系统与现场的专家合作。他们通过大声说话和动态数据标记来教导系统。他们教导系统需要知道什么。因此,希望将来用于帮助人们完成这些任务的数据将由使用该工具的第一批人产生。

这似乎是一个很好的类比,因为当你说这话时,它让我想起了如果你是一个新的人类合伙人加入项目你会做什么。你会经历相同的步骤。谢尔文和我有一些研究,我们发现 60% 的人认为人工智能是同事。这正是您所描述的那种关系。但这让我想到这里存在一点危险。假设当您将该系统部署到那里时,它知道的不多,而您的人类正在训练它。好吧,我是一个人。

我觉得我有点烦躁。就像,为什么,为什么我必须如此努力地训练这位同事?你如何保持这种动态?你提到这个项目有技术方面,也有社会方面。这让我觉得在社会方面可能比在技术方面更难。

这正是我接下来想谈论的,因为这正是我要做的事情。我可以与人们谈谈他们对这些系统的真实想法,而你说的完全正确。有时他们确实认为这很烦人,他们会问,等等,所以我正在组装这个非常复杂的仪器,而系统却问我我在做什么,而且是错的?那么我该如何花时间

不仅做我的工作,还要教这台机器如何做我的工作。因此,我很高兴我能成为现场的社会科学家。我们仍在深入开发中,当然,在部署某些东西之前,公司通常会进行尽可能多的测试。

然后,当实际的部署租户出现时,例如用户体验和用户界面设计,这些通常会在开发过程结束时出现。但是在这里,社会科学以及对人们的需求和人们可能觉得烦人的事情以及他们需要信任与他们合作的机器的理解,是开发过程的 DNA。

因此,我可以持续地与我们正在为其构建系统的技术人员交谈,并向他们提出与您描述的问题一样的问题,询问他们,您认为这很烦人吗?这如何才能更有帮助?我们可以将哪些其他功能添加到系统中以使其对您更有帮助?还要提出更深入的问题,不仅是关于他们与系统的二元关系,还关于他们更大的社会技术工作环境。

询问诸如您的时间安排如何?您的老板对该系统说了些什么?我们能否通过该系统尝试促进与您的老板以及您的其他同事之间更富有成效的关系?因此,我们的目标是建立一个非常深入的理解,不仅是关于一项任务,而且是关于整个工作空间,并询问我们的系统如何改进。

以最佳方式帮助增强人类潜力,成为该空间内人类的同事,但它也如何在了解其工作环境的情况下构建,以便促进长期关系。

因为这些事情中的一件事是由我们依赖人们提供数据以及依赖人们帮助我们进行数据标记这一事实所要求的,那就是我们需要他们参与其中。我们需要他们喜欢与系统互动。我们需要他们发现它值得信赖、可靠、有用和理解数据。

如何实现所有这些目标需要深入了解社会环境、社会习惯、工作习惯和任务流程。因此,这正是我们现在正在努力的方向。我认为您似乎正在超越这个项目本身进行思考,这一点非常有趣。有一个因素是,好吧,我该如何实施这个特定项目?但是您谈论的许多事情的根本原因是

诸如,我们如何找到引入全新系统的最佳方法?我们如何找到如何转变并实现我们总体愿景的最佳方法?这超越了单个项目。您是如何尝试吸取这些教训的?

这是一个非常好的问题。我非常自豪于我们的实验室以及我们在人机协作方面的一些重大赌注,以及从社会科学中获得的投入、贡献和见解在英特尔的历史上如何在他们的研究项目中被采纳。

当我们在进行研究项目并在教育、制造和无障碍等垂直领域构建产品时,跨团队的深入投资促进了并鼓励了与像我这样的社会科学家进行对话。我们经常让这些非常棒的团队参与其中。

在一个房间里,我们有工程师、数据科学家、政策制定者和社会科学家,包括不仅是我,还有由唐·纳菲斯领导的人类学家团队,以及另一个拥有心理学家的社会科学家团队。我们所有人密切合作,以确保我们构建的产品不仅仅是

旨在解决一个问题的设计,而是它们围绕最佳解决方案进行了适当的工程设计,我们利用了我们的工具可以提供的各种多模式功能,并且我们对所有产品将要部署其中的社会和组织环境有深入的了解。我认为很多时候,

在我们第一次谈论这些模型和工具以及使用数据时,似乎正在发生转变。事情非常依赖数据和工具,并且非常依赖科学。这很有道理,因为我们不知道如何做这些事情。现在,作为一个社会,我们正在学习如何做许多这些工具和模型的构建。但是您提到的许多团队,人类学、心理学、生物学,

这些不是我们可能认为是制作人工智能应用程序不可或缺的传统事物。但这些恰好是您提到的。你为什么选择这些?我想这是你社会科学背景的一部分,对吧?是的。在我的研究生学习和博士后工作期间,我一直非常关注用户和人们。

我一直对人们有多么奇怪、多么有创造力、多么有创新精神以及人们经常以开发人员没有预料到和没有预见到的方式使用技术感到非常着迷。

虽然这其中有一些危险因素,正如我们在各种滥用和双重用途应用程序中看到的那样,但也有一些非常出色和奇妙的方式,人们已经找到让技术更适合他们和他们的环境或为他们更顺利地工作的方法。所以。

看到英特尔因其作为半导体制造商的历史而与众不同,并且深深地投资于硬件并对人工智能工具的部署方式采取生态系统方法,这确实向我表明,他们是一家像我一样关心

将要使用这些工具的人以及这些人所嵌入的社会结构,并构建不仅可以匹配购买或使用这些工具的人,还可以匹配这些技术将要注入其中的生活和社区的工具。

伊丽莎白,显然,在我们交谈的过程中,您的许多背景都显露出来了。但是,我们能否退一步,询问您一下您是如何最终在英特尔实验室担任这个职位的?我想我担任这个职位的道路可以追溯到很久以前,可能是在我的研究生生涯开始的时候,在我毕业于麻省理工学院并在哥伦比亚大学开始攻读博士学位之后。有一个职位空缺,需要有人为一个关于技术的项目做出贡献。

记者的安全和隐私行为。我的导师说:“嘿,我给你安排了这个项目的采访。”我说:“我对安全和隐私一无所知。”她说:“去参加面试吧。我给你安排了面试。去吧。”所以在面试的前一天晚上,我想,“哦,我最好有一些东西可以谈谈。PGP,相当好的隐私。每个人都在谈论 PGP。我最好下载 PGP,这样我就可以表现得好像我知道 PGP 是什么。”我试图弄清楚,这很难。

我无法弄清楚,我去了网站,我说:“网站并没有真正解释这里发生了什么。密钥在哪里?我是否下载密钥,但密钥也保存在数据库中,但我是否在我的电子邮件中写下密钥?”哦,我做不到。我太糟糕了。这不适合我。第二天,我与一位优秀的项目负责人苏珊·麦格雷戈进行了面试,

我说,你知道吗?这份工作不适合我。我尝试过 PGP。它奇怪地很难。关于它的一些事情,我无法完全理解。她说,我认为这使您非常适合这份工作,因为我们试图弄清楚为什么安全和隐私对人们的工作如此困难,尤其是对作为攻击高价值目标的记者。

来自许多不同的参与者。我们试图弄清楚如何才能为他们改进安全和隐私协议。所以听起来您对安全的设计方式感到沮丧。我说,是的,这令人沮丧。她说,好吧,让我们做一些工作。因此,我们最终一起工作了几年,研究记者。我们有一个特别令人痛苦的项目,研究发表巴拿马文件案的记者。为此,他们拥有数 TB 的数据

有记者在世界各地工作。他们没有一个人是共同工作的。他们从未有过一次数据泄露。在所有这些数据中,他们从未有过一次泄露。因此,我们将此视为一个成功案例。我们说,好吧,我们总是听到关于泄露和攻击的不良消息。我们从未听说过成功案例。因此,我们采访了参与巴拿马文件案的记者,并与他们讨论了他们的组织文化以及如何……

使所有记者的协议保持一致有助于灌输团队合作感以及他们正在互相保护的感觉。看到文化和共同使命对 PGP 和安全协议以及安全等困难事情的行为的影响

这真是令人鼓舞。大约在那个时候,我开始关注面部识别。从那时起,很快就转向了研究人工智能,并提出了类似的问题:为什么这很难理解?我们如何以更具战略性和更能理解他们正在做的工作和他们需要做的工作的更具理解力的方式向人们传达它?

我们如何才能以对普通人有意义且易于理解的方式为这些系统带来一些透明度?我认为有趣的是,安全总是这样的。如果做起来有点困难,那么我们往往不会去做,因为这是明天的问题而不是今天的问题。如果泄露了,这是我们人类非常糟糕的事情。我认为我们在许多方面失败了,没有将其构建到基础设施中,因此它是默认设置。

人工智能有很多类比。我们正在构建事物。如果我们没有使默认设置易于使用或易于做正确的事情,那么人们就会做错事。或者人们会做容易的事情或短期的事情。你提到了面部识别。我们应该将哪些东西构建到我们的基础设施中,这样我们就不会传播基于人工智能的错误?

这是一个很好的问题。在我的研究生生涯和在英特尔的整个研究过程中,推动我的研究的一件事是认识到人们是自己生活的专家,我们确实需要与人们和用户在整个开发过程中进行互动。

为了构建不仅仅是系统,而是解决方案,以及针对现场正在发生的问题的解决方案。公司可以尽可能地包含社会科学的专业知识以及社会科学家可以带来的严谨而强大的工具来研究人们的生活方式、他们使用的语言类型、他们的价值观以及对他们真正重要的东西,

以及他们想要保护的东西和他们想要保持安全的东西,以及构建不同类型的选项和不同类型的途径进入可能被不同程度的可访问性的人们以不同方式使用的相同技术,所有这些都是我希望整个领域都能参与的事情。好吧,这听起来不错。

我的意思是,我不认为像低买高卖听起来不错。公司实际上是如何做到这一点的?他们需要采取哪些步骤才能在这方面取得进展?

这是一个很好的问题。我们在英特尔所做的方法是,我们促进了我们的技术团队(正在围绕机器人技术、辅助工具和教育工具构建真正令人惊叹的系统的人员)与社会科学家之间的对话,以便我们可以提出一些问题,例如,嘿,这个系统的假设是什么?

你跟老师谈过吗?你跟现场将要使用这个机器人的工作人员谈过吗?你与将要接受这些解决方案服务的人们的谈话怎么样?我很幸运能够在一个我们能够将这种专业知识嵌入到问题制定阶段和项目制定阶段以及整个开发过程中的地方工作。

我还非常高兴英特尔建立了道德影响评估流程以及负责任的人工智能委员会

因此,这是一个在整个英特尔和所有业务部门的开发流程中稳健而严格地构建流程的方法。这是一种注入专业知识的方式,不仅是社会科学家,还包括负责任的人工智能委员会中的所有人,包括工程师、政策制定者以及法律和标准方面的人员。

并通过提交道德影响评估来促进与这个多学科负责任的人工智能委员会与开发团队之间的对话。道德影响评估是我们将价值观付诸实践并确保围绕人类监督、人权、隐私、安全、多样性和包容性的价值观的一种方式

这些是我们确保这些价值观融入英特尔业务部门在整个组织中构建的工具的方式。好的,我们有一个环节,我们会向我们的嘉宾提出一系列五个快速问答问题。只需回答你脑海中首先想到的东西。首先,你最自豪的人工智能时刻是什么?哦,天哪。这是一个很好的问题。我真的很自豪能够

向这些正在构建这些系统的工程师和数据科学家团队代表我们车间技术人员的声音。由于英特尔建立的流程,我可以与正在构建计算机视觉、动作识别和 NLP 的工程团队一起工作,并选择任务周围的短语和语义框架以及任务的构建方式以及如何识别它们,

能够对技术人员进行采访,询问他们在引入这项技术时有什么担忧,我们可以做些什么来确保解决他们的担忧。

询问他们需要了解哪些关于透明度的信息,他们需要什么才能信任该系统,所有这些都是为了增强人们正在做的工作。我能够获取这些信息并将其持续地传递给工程师,并看到他们如何快速做出回应,这真是一个令人难以置信的引人入胜的过程。就像,哦,我们可以构建这个,我们可以构建那个。那么,如果我们将这个构建到 UI 中呢?如果我们将这个构建到对话中呢?它

这是一个非常引人入胜的过程,尤其是在从学术界来到这里之后,我将撰写一篇论文,然后需要一年时间才能发表。哦,一年听起来很快。是的。

对。如果我很幸运,我们需要一年时间,我认为我的最长记录可能是三年半的时间才能发表。我不知道。你的记录是多少?十年。十年?是的。但是,我们还是不要谈论它了,因为我会变得很悲伤。哦,不。所以你提到了人们的担忧。你对人工智能有什么担忧?好吧,当我开始与技术人员交谈时,他们最大的担忧之一是他们会被取代。

我说,好吧,让我们来谈谈。你认为这是为了什么?他们说,我看到了新闻。我知道你试图制造一个机器人来做我做的工作。所以我认为我正在训练我的替代机器人。

我想,哦,不,这太糟糕了。我必须与我们的技术人员进行很多对话,我必须说,这不是我们正在做的。我们不是试图取代你。你是专家。我们需要你。事实上,我们需要你教导系统,以便系统可以帮助其他像你一样的人。

因此,通过你训练系统,你实际上是在帮助英特尔全球工厂中的许多其他人。你正在确保他们以你希望获得帮助的方式获得帮助。几年前,特雷弗和我参与的一些研究完全集中在这个你提到的组织学习方面,这是一种让每个人都能更快地学习和传播知识的方式。你最喜欢的与技术无关的活动是什么?

你的世界里没有人工智能在发生什么?好吧,最近发生了很多事情。有时很难弄清楚什么是人工智能,什么不是人工智能。在我的个人生活中,我做了很多烘焙。我已经有一段时间没有做面包了。我做了很多烹饪。

我很幸运能与我的丈夫住在纽约市。因此,我们做了很多探索。事实上,只是走到外面。这可能是最大的非人工智能活动,那就是用我们自己的双脚走到外面,用我们自己的眼睛环顾四周。这总是让人感觉非常清爽。你小时候想从事的第一份职业是什么?你长大后想做什么?我想成为一名艺术家。这是一条颠簸不平的职业道路。

蜿蜒的道路。我在加州大学欧文分校完成了本科学习,学习的是视频艺术。你对未来人工智能的最大愿望是什么?人工智能可以做很多人类做不到的事情,但人类也可以做很多人工智能做不到的事情。我认为,至少对我来说,一个很大的挑战,我希望与我一起工作的人在未来几年将要弄清楚这种平衡到底是什么。

我们如何系统化地了解人们真正需要人工智能系统可以提供的帮助,但要对人们做什么以及如何做有透彻的了解。现在人工智能系统变得如此先进,但在实验室或真空中,当它们成熟到现实世界中时,

我认为它们所能做的真的令人兴奋,但要实现这些目标,我们还有很多工作要做。我认为这将需要其他社会科学家和像我们在英特尔这样的多学科团队共同努力,以确保这些系统能够真正作为解决方案部署。

这是本期节目的一个很好的总结。感谢您与我们交谈。我认为其中一件事情已经显现出来,您正在谈论项目和您正在开展的工作,但您也在暗示我们在大流行之后将会发生什么。

比方说,工具为中心。我们能否正确地运用机器学习?我们能否正确地构建模型?我们能否正确地获取数据?您谈论了很多接下来会发生的事情。在我们勾选了一些复选框之后会发生什么?这些复选框是什么?我认为很多人可以从中学习。感谢您今天抽出时间与我们交谈。哦,我的天哪,这真是太荣幸了。感谢您的收听。下一次,Sherva 和我将与来自 Aboitus Data Innovation 的 David Hardoon 谈话。我们再次谈论化学工程,所以您一定不要错过。

感谢收听《我和 AI》。我们相信,与您一样,关于 AI 实施的对话不会仅限于本播客。这就是为什么我们在 LinkedIn 上专门为像您这样的听众创建了一个小组。它被称为“AI for Leaders”。如果您加入我们,您可以与节目创作者和主持人聊天,提出您自己的问题,分享您的见解,并了解更多关于 AI 的信息。

并访问来自 MIT SMR 和 BCG 关于 AI 实施的宝贵资源,您可以访问 mitsmr.com/AIforLeaders 来访问它。我们将把链接放在节目说明中,我们希望在那里见到您。