今天,我们播出一期由我们的朋友 Modern CTO Podcast 制作的节目,他们最近很友好地邀请我作为嘉宾参加。我们讨论了生成式 AI 的兴起,技术成功的意义,以及领导者在指导技术实施工作时需要考虑的一些因素。您可以在 Apple Podcast、Spotify 或您收听播客的任何地方找到 Modern CTO Podcast。算法的重要性是否降低了?
随着算法变得商品化,它可能更少地关注算法本身,更多地关注应用。在《我和 AI》第二季的第一集中,我们将与 Lyft 机器学习主管 Craig Martell 谈谈 Lyft 如何利用人工智能改进其业务。欢迎收听《我和 AI》,这是一档关于商业中人工智能的播客。在每一集中,我们都会向您介绍一位在 AI 领域进行创新的个人。
我是 Sam Ransbotham,波士顿学院信息系统教授。我还是麻省理工学院斯隆管理评论 AI 和商业战略大创意项目的客座编辑。
我是 Sherven Kodabande,BCG 的高级合伙人,我共同领导 BCG 在北美的 AI 实践。麻省理工学院斯隆管理评论和 BCG 共同研究 AI 五年,采访了数百名从业者,并对数千家公司进行了调查,了解如何在整个组织中构建、部署和扩展 AI 能力,并真正改变组织的运作方式。
今天我们与 Craig Martell 进行了交谈。Craig 是 Lyft 的机器学习主管。Craig,感谢您今天加入我们。谢谢,Sam。我很高兴来到这里。这些都是非常令人兴奋的话题。所以,Craig,Lyft 的机器学习主管。这到底意味着什么,你又是如何走到这一步的呢?让我先说一句,我……
我很确定我在生活中赢得了彩票,原因如下。我最初在学术上研究政治理论,我度过了这段浪费青春的时光,在此期间我获得了许多硕士学位,最终才弄清楚自己想做什么。所以我学习了哲学、政治学、政治理论、逻辑学,最后在宾夕法尼亚大学获得了计算机科学博士学位。我……
以为自己会做可检验的哲学。所以最接近这个的是做人工智能。所以我只是出于热爱才这么做的。就像我发现整个过程、目标和技术都非常吸引人一样。都是你宏伟计划的一部分。一点也不。我只是偶然发现了它。我只是偶然发现了它。那么你后来是如何到 Lyft 工作的呢?
我在 LinkedIn 工作了大约六年。然后我的妻子在亚马逊找到了一份非常棒的工作,我想继续保持婚姻。所以我跟着她去了西雅图。我在 Dropbox 工作了一年,然后 Lyft 联系了我。我基本上抓住这个机会,因为这个领域太迷人了。我总体上喜欢汽车,这意味着我总体上喜欢交通运输。改造我们交通运输方式的想法是一个非常吸引人的领域。
在我之前的生活中,我是一名终身教职的计算机科学教授,这仍然是我的最爱。所以我担任东北大学的兼职教授,以确保我的教学技能保持良好。Craig,你在哲学、政治学方面有很强的文科背景,你提到了逻辑学,所有这些。这对你整个旅程有什么作用?
这真的很有趣。当我思考什么是 AI 时,我发现算法在数学上很吸引人,但我发现算法的用途更吸引人,因为从技术的角度来看,我们正在寻找……
在极高维非线性空间中的相关性。从某种意义上说,这是大规模的统计数据,对吧?我们正在寻找 A 和 B 之间的这些相关性。这些算法确实很有趣,我现在还在教这些,它们很有趣。但对我来说,更有趣的是这些相关性对人们意味着什么?我认为每个推出的 AI 模型都是一项认知科学测试。就像我们试图模拟人类行为的方式一样。现在,
对于自动驾驶,我们在某种程度上模拟汽车的行为方式,但这实际上是,我们在模拟给定其他由人类驾驶的汽车的情况下正确的人类行为。所以对我来说,我只是,我认为 AI 的目标,我从人性的角度更多地看待它们,尽管我也会在技术方面深入研究。你能多谈谈 Lyft 如何组织 AI 和 ML 团队吗?
我们在整个公司都有模型构建者。我们有一个非常庞大的科学组织。我们还有所谓的 ML 套件,也就是 ML 软件工程师。我领导着一个名为 Lyft ML 的团队,它由两个主要团队组成。一个是应用 ML,我们利用机器学习方面的专业知识来解决一些非常棘手的问题,另一个是 ML 平台,它推动了我对卓越运营的巨大兴趣,以确保 ML 有效地达到业务指标。
你怎么认为?因为我认为,Craig,你还在教书,对吧?是的,我在西雅图的东北大学兼职教书。那么你认为你的学生应该问什么问题而他们没有问,或者换句话说,当他们进入职场并在现实世界中真正使用 AI 时,他们会感到最惊讶的是什么?算法本身变得不那么重要了。是的。
我犹豫是否使用“商品化”这个词,但在某种程度上它们正在商品化,对吧?你可以选择五种中的一个,七种中的一个。你可以尝试所有这些。针对特定问题的模型系列。但真正发生的事情或我认为正在发生令人兴奋的事情是……
这些模型如何融入更大的工程管道,使您能够衡量和保证您正在有效地实现业务目标。这与数据的清洁度有关,确保数据及时到位,经典的工程问题,例如,您是否以正确的延迟返回您的特征?因此,实际模型本身已经从问题的 85%……
缩小到问题的 15%。现在,85% 的问题是围绕它的工程和运营卓越。我认为我们正处于那里的拐点。那么你认为随着 AutoML 和这些打包工具的出现,以及你关于随着时间的推移,它更少地关注算法,更多地关注数据以及如何使用数据的那一点,你认为十年后数据科学家的课程、培训和整体方法……
方向会有显著不同吗?我们应该教他们不同的东西,不同的技能吗?因为过去很多重点都放在创建算法、尝试不同的事情上。我认为你正在指出,这正在趋于平稳。这对未来的劳动力意味着什么?
是的,我认为这很好。我在这里要说一些有争议的话,我希望不要冒犯任何人。好吧,这就是我问的原因。所以我希望你会这么说。因此,如果你看看五到十年前,为了提供科技公司想要提供的价值,你需要一支博士团队,对吧?构建这些算法的技术能力非常重要。
我认为那里的拐点可能是 TensorFlow,大约在 2013 年左右,那时它还没有商品化。你仍然需要认真思考算法,但实际推出算法变得容易得多。现在有很多框架可以做到这一点。我想知道,这是一个真正的疑问,我想知道我们未来需要专门的机器学习、AI、数据科学培训的程度。我认为……
计算机科学本科生或工程本科生总体上都会修两到三门 AI 课程。这些两到三门 AI 课程,加上公司正确的基础设施、收集特征的正确方法、指定标签数据的正确方法。如果我们拥有适当的 ML 平台,那么修过两到三门优秀课程的人将能够提供公司可能需要的 70% 的模型。现在,这 30%,我认为你仍然需要专家一段时间。
我确实如此。我只是认为你不需要像以前那样需要它,那时几乎每个专家都需要拥有博士学位。是的。我实际上与 Sam 的观点产生了共鸣,这是一种有趣的方式。它……
它证实了我们一直在说的关于大规模取得影响力需要什么,即技术方面只能让你走这么远,但最终你必须改变它的使用方式,你必须改变人们的工作方式以及人与 AI 之间不同的交互模式。我想这就是人文、哲学和政治学以及人类如何运作,而不是算法如何运作。
好吧,这也是一个很好的转向,因为如果我们不小心,那么谈话就会让我们陷入 DevOps 更多的课程中。所以 Shervin 指出的是,这当然也是一个组成部分,但还有流程变化以及更多,比方说,面向业务的举措。那么你还想教人们哪些其他事情呢?或者你认为高管应该了解哪些其他事情呢?我的意思是,我们不能……
每个人都不必了解所有事情。这会有点让人不知所措。我的意思是,如果每个人都了解所有事情,那也许是理想的。但不同级别的管理人员究竟需要了解什么?我认为最高决策者需要了解模型出错的危险。他们需要了解你真正需要标记数据的整个过程。就像这里没有魔法一样。他们必须明白没有魔法。
所以他们必须明白标记数据很昂贵,正确获取标签并正确采样你想要的世界分布非常重要。我相信他们还必须了解整个生命周期,这与两周冲刺不同,我们将关闭这些 Jira 工单,对吧?数据收集非常重要,这可能需要一两个季度。而且你发布的第一个模型可能不会很好。
你知道,因为它来自一个小的标记数据集,现在你正在野外收集数据。所以他们需要了解生命周期部分,他们需要了解不幸的是,在很多方面,也许不是对于汽车驾驶,而是对于推荐,你发布的前几个会迭代地变得更好。所以我认为这对高层来说非常重要。
我认为对于下几个级别,他们需要了解精度召回权衡、模型可能犯的错误类型。你的模型可能会犯假阴性错误或假阳性错误。我认为作为产品人员,拥有这种选择非常重要。如果我们正在进行文档搜索,我认为你更关心假阳性。你更关心精度。你希望排在最前面的东西是相关的,
对于大多数搜索问题,你不需要获取所有相关的东西。你只需要获取足够多的相关的东西。所以如果一些相关的东西被称为不相关,你对此是可以接受的,对吧?但对于其他问题,你需要获取所有内容。文档搜索,没关系。但是,Lyft 也是如此。把它放在你已经进行过精度或召回权衡、假阳性、假阴性等公司之一的背景下。是的。
我认为幸运的是,在 Lyft,我们有很好的手动逃生舱,我认为这非常重要。我认为所有这些推荐都应该有一个手动逃生舱。所以如果我为你推荐一个目的地,而该目的地是错误的,那就……没关系。没有损失,没有犯规。你只需输入目的地即可。嗯哼。
对。所以,所以我认为对于 Lyft 作为一款产品,我认为我们非常幸运,因为我们的大多数推荐都试图降低让你乘坐的摩擦。如果我们没有完全正确地做到这一点,也没关系。这里没有真正的危险。自动驾驶汽车。这一个很难,因为你想同时获得两者。对。你想知道那是行人,你还想确保你不会错过任何行人。而且在那里加入人类的想法比仅仅说,好吧,这里有一些目的地,你更喜欢哪个,要成问题得多。对。是的。是的。
Craig,你之前谈到现实生活中的 AI 就像一堆认知科学实验,因为它最终是关于……对我来说,至少是。是的。它提出了无意识偏见的想法。所以我们人类已经对我们所有事情中的无意识偏见有了更多的了解,对吧?
因为它们已经通过几代人的刻板印象等等根深蒂固。以及我们过去的经验,对吧?就像一个有偏见的世界会创造一个有偏见的经验,即使你拥有最好的意图。没错,对吧?所以我想我的问题是,显然 AI 中存在意外偏见,必须存在。你认为我们现在需要考虑什么,以便在 10 年、20 年后,
这种偏见不会在 AI 的运作方式中根深蒂固,以至于很难纠正。
它已经存在了。所以问题是,我们如何纠正?让我先说,我参加了东北大学关于这部电影《编码偏见》的小组讨论。所以如果你还没有看过电影《编码偏见》,你绝对应该看看。它讲述的是这位麻省理工学院媒体实验室的黑人本科女生试图做一个没有成功的项目,因为面部识别根本无法识别黑人女性。这是一项绝对引人入胜的社会研究。
数据集……
用于训练机器学习,因此面部识别算法是由当时的研发人员收集的,而当时的研发人员是一群白人男性。这是一个已知问题,对吧?在收集数据集的方式上存在偏差。看,所有心理学研究中都有类似的偏差。心理学研究不适用于我,我 56 岁了。心理学研究适用于大学生,因为他们是现成的受试者,对吧?
所以这些人是现成的,因为世界是有偏见的。这就是数据集的由来。所以即使没有恶意,世界也是扭曲的,世界是有偏见的,数据是有偏见的。它对很多人都不起作用。训练集中没有很多女性。然后你的肤色越深,情况就越糟。有很多技术原因可以解释为什么肤色较深对比度较低,等等。但这并不是问题所在。
问题是,我们应该那样收集数据吗?数据集的目标是什么?我们的客户是谁?我们想服务谁?让我们以这样一种方式对数据进行采样,即它正在为我们的客户服务。我们之前谈到了本科生。我认为这真的很重要。摆脱这种情况的一种方法是在工作场所实现多样性。我非常强烈地相信这一点。你询问所有人,所有这些不同的群体,来测试系统。
并查看系统是否适合他们。当我们在 Dropbox 进行图像搜索时,我们询问所有员工研究小组,请搜索过去对你们来说存在问题的那些东西,看看我们是否做对了。如果我们发现一些错误的东西,我们会回去重新收集数据以减轻这些问题。
所以看,你的系统将受到收集数据的偏差影响。事实,只是一个事实。它将受到收集数据的偏差影响。你想尽你所能正确地收集它。你可能无法正确地收集它,因为你也有你自己的无意识偏见,正如你指出的那样。所以你必须要求所有将成为你客户的人来尝试它,来猛击它,以确保它正在做正确的事情。当它没有做到时,回去收集必要的数据来修复它。所以我认为简短的答案是在工作场所实现多样性。
Craig,感谢你今天抽出时间与我们交谈。很多有趣的事情。是的,我很荣幸。这些都是非常有趣的谈话。我对这个很痴迷,所以我非常享受。你的热情显而易见。非常有见地的内容。谢谢。谢谢你们。好吧,Shervin,Craig 说他在职业生涯中赢得了彩票,但我认为我们很幸运能邀请他作为我们第二季第一集的嘉宾。让我们回顾一下。我的意思是,他提出了很多很好的观点。显然,
随着时间的推移,算法的商品化以及它将越来越多地与战略联系起来,回到关键业务指标,实现变革,使用。我真的很喜欢关于如何消除系统中的偏差以及偏差已经存在于系统中的观点。商品化尤其重要。我认为它与我们产生共鸣,因为我们从商业角度谈论这个问题。所以他说的是,你知道,很多事情将越来越成为一个商业问题。当它是一个商业问题时,它不是一个技术问题。我不想贬低它的技术方面。当然,你知道,他带来了很多技术能力。但是……
他真的强化了这现在是一个商业问题。是的,我的意思是,在五分钟内,他基本上为我们最近的两份报告提供了如此有力的论据,对吧?2019 年和 2020 年。它关乎战略和流程变化以及流程重新设计和重新设计。它关乎人力发展。
以及 AI 交互和采用。什么是商业问题,管理选择也是如此。我的意思是,他也回到了这一点。他谈到了一些事情不是明确的决定。在犯错的方式之间存在选择。这是一个管理问题,而不是技术问题。而且……
它还需要管理人员了解他们在谈论什么,这意味着他们需要真正、真正地了解 AI 正在说什么以及它可能说什么,以及它的局限性是什么以及可能的艺术是什么。我还非常喜欢这一点,当你更接近 AI 的开发人员和构建者时,你必须真正、真正地了解数学和代码,否则你无法指导他们。
尽管如此,你不会担心我们只是遇到了这样一件事情,即每个人都必须了解所有事情吗?我的意思是,我觉得这很难让人接受。如果管理人员必须了解业务以及如何赚钱,他们必须了解代码。我的意思是,让每个人都了解所有事情显然很重要。好吧,我想问题是你必须了解多少所有事情?我的意思是,一个优秀的企业高管已经了解了他或她应该了解的所有事情,达到了提出正确问题的程度。
我认为你是对的。但我认为,这不像爱因斯坦所说的那样……
除非你能向一个五岁的孩子解释它,否则你并不真正理解它。你知道,你可以用不同的方式向一个五岁的孩子、一个 20 岁的孩子和一个研究生解释重力,他们都会理解它。问题是,至少你理解它,而不是你说,我不知道有重力这样的东西。所以基本上,教学和学术真的很重要?这就是 Shervin 刚刚公开说的吗?我认为……
管理人员和高级管理人员需要了解 AI 本身并不是一件容易的事,因为你提出了正确的问题。正确的理解程度是多少?那么,什么样的综合和表达能力才能让你做出正确的决定,而无需了解所有事情?但这难道不是一个成功的企业高管对每个业务问题所做的事情吗?
我认为这就是我们所说的,对于 AI,你需要了解足够多的知识才能进行探究。
但足以说明,它不像过去许多技术实施那样是一个黑盒子。这有助于回到学习更多以及在哪里划定界限,并帮助理解这种平衡。我想在讨论重力之后,这些人中的每一个人都会比以前更了解重力。所以这是一个从当前状态到下一个状态的问题。是的。
Craig 就工作场所的多样性提出了一些重要观点。如果收集数据的团队没有高度意识到其数据集中固有的偏差,那么算法注定会产生有偏差的结果。他提到了电影《编码偏见》和麻省理工学院媒体实验室的研究员 Joy Blum-Wehman。Joy 是算法正义联盟的创始人。我们将在节目说明中提供一些链接,您可以在其中阅读更多关于 Joy 及其研究的信息。
感谢您今天加入我们。我们期待下一集,届时我们将与 Will Granis 谈谈,他面临着在 Google Cloud 构建 CTO 职能的独特挑战。直到下次。WILL GRANIS:感谢收听“我和 AI”。如果您喜欢这个节目,请花点时间给我们写评论。如果您向我们发送屏幕截图,我们将向您发送麻省理工学院 SMR 关于人工智能的最佳文章合集,限时免费。将您的评论屏幕截图发送至 [email protected]。