We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Ep518 - Ravi Bapna & Anindya Ghose | Thrive: Maximizing Well-Being in the Age of AI

Ep518 - Ravi Bapna & Anindya Ghose | Thrive: Maximizing Well-Being in the Age of AI

2025/1/21
logo of podcast Talks at Google

Talks at Google

AI Deep Dive AI Chapters Transcript
People
A
Anindya Ghose
R
Ravi Bapna
Topics
Ravi Bapna: 我们写这本书的动机有两个:一是企业只使用了极少一部分数据,原因在于惰性、无知和缺乏想象力;二是AI技术复杂且难以理解,公众对其存在误解。我们提出了AI框架,包含数据工程、传统AI和生成式AI等,并强调了公平、道德和可解释性。我们还探讨了三个关于AI的常见误解:一是所有AI都关于生成式AI;二是媒体只关注AI的负面影响;三是AI的瓶颈在于缺乏数据科学人才。实际上,传统AI在未来几年仍将产生大部分价值,而更智能的AI可以帮助我们解决偏见问题。此外,企业应超越简单的提示工程,整合自身数据,并培养领导层的AI应用能力。 Anindya Ghose: 未来AI发展需要关注监管问题,包括欺骗、串谋和反垄断等方面。定义欺骗和确定责任主体在AI领域非常困难。AI技术降低了市场准入门槛,大型企业的数据优势正在减弱,但盈利能力和用户留存率成为新的挑战。AI产业链中,芯片、云计算、AI模型和应用层存在垂直整合的可能性,这可能引发监管关注,例如捆绑销售、排他性交易和市场垄断等问题。此外,AI发展还将面临先发优势与后发优势之间的博弈,以及地缘政治因素的影响。

Deep Dive

Shownotes Transcript

Ravi Bapna和Anindya Ghose访问谷歌,讨论他们的著作《Thrive: Maximizing Well-Being in the Age of AI》(《繁荣:在人工智能时代最大限度地提升福祉》)——这本书探讨了人工智能如何积极影响我们日常生活的许多方面,从健康和福祉到工作、教育和家庭生活。人工智能是一种强大的通用技术,正在重塑现代经济,但对人工智能的误解阻碍了我们将其用于造福人类。在他们的著作《Thrive》中,Ravi Bapna和Anindya Ghose通过展示人工智能如何积极影响我们最关心的日常生活方面(我们的健康和福祉、人际关系、教育、工作场所和家庭生活)来反驳这种抵制。作者解释了这项技术的底层原理,并赋予人们必要的自主权,以塑造围绕我们如何规范人工智能以最大限度地发挥其益处并最大限度地减少其风险的讨论。Bapna和Ghose凭借在尖端研究、咨询、高管培训和咨询方面的二十多年经验,对这一主题进行了阐述,揭开了人工智能技术本身的神秘面纱。他们提供了一个新颖的“人工智能之家”框架,其中包括传统的分析、生成式人工智能以及人工智能的公平与道德部署。他们使用日常生活中的例子,展示了现代人工智能驱动的生态系统如何从根本上改善全球普通人的情感、身心和物质福祉。请访问http://youtube.com/TalksAtGoogle/观看视频。</context> <raw_text>0 欢迎收听谷歌访谈播客,这里汇聚了伟大的思想。我是Shay,本周的节目将与人工智能教授和研究员Ravi Bhatna和Anindya Ghose一起进行。谷歌访谈汇集了世界上最有影响力的思想家、创造者、制造者和行动者于一处。每一集都取自youtube.com/talksatgoogle上可以观看的视频。

Ravi Bhatna和Anindo Ghose访问谷歌,讨论他们的著作《Thrive: Maximizing Well-Being in the Age of AI》(《繁荣:在人工智能时代最大限度地提升福祉》)。这本书探讨了人工智能如何积极影响我们日常生活的许多方面,从健康和福祉到工作、教育和家庭生活。人工智能是一种强大的通用技术,正在重塑现代经济。

但是,对人工智能的误解阻碍了我们将其用于造福人类。在他们的著作《Thrive》中,Ravi Bhatna和Anindya Ghose通过展示人工智能如何积极影响我们最关心的日常生活方面(我们的健康和福祉、人际关系、教育、工作场所和家庭生活)来反驳这种抵制。

作者解释了这项技术的底层原理,并赋予人们必要的自主权,以塑造围绕我们如何规范人工智能以最大限度地发挥其益处并最大限度地减少其风险的讨论。

Bapna和Ghos凭借在尖端研究、咨询、高管培训和咨询方面的二十多年经验,对这一主题进行了阐述,揭开了人工智能技术本身的神秘面纱。他们提供了一个新颖的“人工智能之家”框架,其中包括传统的分析、生成式人工智能以及人工智能的公平与道德部署。

他们使用日常生活中的例子,展示了现代人工智能驱动的生态系统如何从根本上改善全球普通人的情感、身心和物质福祉。由Mary Maruyama主持。以下是Ravi Bapna和Anindya Ghose。Thrive,在人工智能时代最大限度地提升福祉。

我很兴奋,也很高兴能与大家一起讨论《Thrive:在人工智能时代最大限度地提升福祉》。所以我们有Ravi Bhatna。你创立了明尼苏达大学的Analytics for Good Institute(数据分析促进公益研究所)。我迫不及待地想谈谈这个。

你因在分析和数字化转型方面的工作而获得了首届INFORMS IS Practical Impacts Award(信息与运筹学学会信息系统实践影响奖)。欢迎。谢谢。还有Anindo。Anindo Ghos是纽约大学斯特恩商学院屡获殊荣的商学教授。非常有名。也是数字转型和人工智能在商业应用方面的全球知名专家。

你还是畅销书《Unlocking the Mobile Economy》(《释放移动经济》)的作者。所以看完这本书后,也要读《Tap》。欢迎来到谷歌。感谢你们的邀请。不客气。我相信你们将从演示开始,我很期待聆听。演示结束后,我们将进行问答环节,更多地讨论你们所展示的内容以及书中的其他问题。

之后,我们将向世界各地的谷歌员工以及现场的员工开放提问。所以请准备好你们的提问,随时在Dory提问或走到麦克风前现场提问。谢谢。RAVI BAPNA:好的。下午好,各位。很高兴来到这里,与Auroindo一起合作完成这项工作。我叫Ravi Bapna。

我们写这本书的动机有两个方面。Anindya和我过去20年来一直在从事这项工作,帮助公司利用数据做出更好的决策。所以,这大约是40年的集体经验,观察公司如何思考利用数据变得更聪明、更智能。

我们发现的一个反复出现的主题,实际上得到了像Gartner这样的公司行业研究的支持,那就是公司实际上只使用了他们拥有数据的一小部分。这个数字是3%。所以,实际上他们拥有的97%的数据,并没有真正用于变得更聪明、做出更好的决策。

这有很多原因,我们可以深入探讨。我们首先将其视为惯性的三个方面,对吧?人们以某种特定的方式做事情,比如以某种特定的方式进行需求预测,他们不想改变,对吧?改变是困难的。对可能的艺术的无知或缺乏认识,对吧?所以,这促使我们去揭开如何做到这一点的神秘面纱。然后,你知道,缺乏

想象力和由此产生的缺乏创新。所以这是我们的一大动力。如果数据是新的石油,人工智能和分析是将这种石油转化为能源的引擎,那么编写一些不仅能帮助外行,还能帮助公司高管和领导者的东西,对我们来说非常重要。说到人工智能,另一个重要的动机是

与之前的通用技术相比,你可以追溯到蒸汽机、印刷机,甚至是计算机或电力,这些都是有形的。人工智能要复杂得多,它分层,这些算法潜伏在后台,影响着你的约会对象、你阅读的书籍、你观看的电影

或者你是否获得贷款,或者你是否通过简历筛选算法进行工作筛选,对吧?这很难让人理解,对吧?如果你看不见它,你就无法与它建立联系,这就会变得困难。然后,这就会产生下游后果,包括一直到政策,以及思考我们如何使用这项强大的技术来自动化、创新或监管,我们稍后也会详细讨论。

这就是我们写这本书的全部动机。作为这项工作的一部分,赋予人们自主权、理解和利用人工智能的理念

我们最终消除了许多关于人工智能的错误观念。第一个错误观念是,一切都是关于生成式人工智能的。这是闪亮的新事物,每个人都在谈论它,它抓住了人们的想象力。实际上,业内一些最聪明的人仍然相信,我们的传统人工智能(我们稍后会定义),

在未来三年内,仍然会产生近70%的价值。这就是为什么,像任何优秀的学者一样,我们从一个框架开始我们的书。我们称之为“人工智能之家”。每个人都欢迎进入“人工智能之家”,它的基础是数据工程。所以,这是清理、聚合、转换数据,使其变得有趣且有用,然后进行描述性分析的艺术,

你可能会使用机器学习来检测异常值,如果你是一家金融机构的话。当然,预测是一个巨大的支柱。我们强调了将相关性和因果关系区分开的整个艺术和科学,这被认为是整个“人工智能之家”框架中非常重要的一部分,使用规范性方法优化事物。这些是基本支柱。

我今天将更多地关注其上层,它包含更丰富的数据。因此,使用更复杂的模型,深度学习模型,超越简单的电子表格中的表格数字数据,从图像、音频、视频和文本中获取见解,进入我们可能正在做出顺序决策并根据长期奖励函数(如强化学习)进行优化的环境。显然,我们将讨论生成式人工智能。

然后以一种道德、公平、理想上可解释和公正的方式完成所有这些工作。这是本书的核心。让我们快速浏览一下“人工智能之家”的顶层或次顶层。

并介绍几个有趣的用例,对吧?我将首先展示我们今天这个时代获得的丰富和细粒度数据的价值,对吧?在我们的书中,我们谈到了这个例子,一个来自Whoop的用例,这是一家位于马萨诸塞州剑桥的公司,它正在跟踪我们身体的指标

在一个非常非常细粒度的水平上,对吧?例如,每秒获取多次心率,对吧?事实证明,例如,在这张你看到的图片中,

x轴是到出生时间的距离,对吧?想象一下一个怀孕的妇女,以及到出生时间的距离。y轴,这里的指标是心率变异性,好吗?事实证明,心率变异性存在一种下降模式,直到出生前大约七周,然后出现一个拐点,对吧?所以这是正常的模式,对吧?现在想象一下,如果你住在北达科他州的农村地区

而你最近的妇产科医生可能在法戈,距离你100英里。事实上,今天美国35%的县被称为“孕产妇荒漠”,那里无法获得孕产妇护理。现在,如果WHOOP孕期教练检测到这个拐点发生在第-10周,它会发出警告。

它会说,你知道吗?你可能即将早产。今天去看医生。这可以挽救生命。这仅仅是——我们甚至还没有建立模型。我们只是从当今环境中获得的丰富数据中获得了新的见解。在这些丰富的数据之上,我们可以建立模型。所以,另一个来自我们书中医疗保健章节的非常有趣的例子。

一直到匈牙利的布达佩斯,对吧?在那里,Mama Clinica建立了这些深度学习预测模型,以检测乳房X光照片中的图像,并检测特定细胞是恶性还是良性。并且

他们构建的人工智能工具被提供给了医生。它通常与医生的意见一致,但它标记了医生在乳房X光照片中错过的区域。自2021年以来,《纽约时报》的一篇报道称,人工智能诊断出了22例癌症病例,而医生们错过了这些病例。所以,这实际上是利用特定模型挽救的22条生命。

考虑深度学习的其他用例,这张照片是我明尼阿波利斯家门前的照片,那里有很多湖泊。所以,我们在湖里做的一件有趣的事情是在夏天在这些湖里游泳,

直到我们看到这样的标志,对吧?由于细菌含量高,临时关闭海滩。有一天,我走到海滩上,看到一位来自城市公园和娱乐委员会的女士正在竖立这个标志,我问她,

你多久检查一次?你的流程是什么,对吧?她说,哦,你知道,我们进来,每两周采集一次水样,如果细菌含量高,这个标志就会在那里待两周。好的?想象一下。

现在,水是一种动态的东西。它每秒都在变化,对吧?所以,更好的方法是,同样,现在有一篇BBC报道谈到了这个新的用例,我们正在使用嵌入在水中的传感器,我们正在使用卫星图像,我们正在使用来自公共来源的土地使用记录,

我们可以实时地做到这一点,这样这个标志可能在一个小时内以数字格式出现,然后它可以消失,因为水现在已经干净了,对吧?这是一个关于环境方面的简单例子,但是深度学习模型也被用于比当前流程更快地检测加利福尼亚州的野火。所以,在环境方面有很多用例。所以这是一个使用更丰富,在这种情况下是图像数据的例子。

考虑强化学习,让我们进入人员分析的世界,让我们考虑像谷歌、亚马逊和其他公司这样的公司,招聘技术工作。我相信,当你发布技术工作时,你可能会收到1000人申请这份工作。筛选这1000份简历非常耗时

并弄清楚,好的,谁是第一批进行电话或Zoom面试的人,对吧?所以,简历筛选器大约五年前是一个非常非常流行的人工智能用例。

事实证明,当亚马逊推出其第一版简历筛选器时,它受到了媒体的批评,因为它将擅长技术与男性联系起来。所以,女性基本上被这种人工智能算法筛选掉了,亚马逊不得不将其关闭。但是,现代的做法是说,你知道吗?等等。

我们可以巧妙地利用我们拥有的数据,而不是关注那些目前被算法评分最高的候选人,让我们战略性地探索和利用。

好的,所以强化学习算法会说,你知道吗,我的20%的能力,我的20%的决策,我将找到一种方法来探索其他目前可能没有获得最高分的候选人,但这可能会让我引入一些弱势群体。它可能会让我引入一些女性,当我与她们交谈时,我发现她们非常擅长技术工作

所以,在将隐藏视为探索的背景下,强化学习算法被证明是高级模型的一个非常好的用例,在这种情况下,强化学习可以消除隐藏的偏见。这让我们想到了人工智能的第二个错误观念。

媒体喜欢隐藏人工智能的负面影响。事实上,这也是我们写这本书的另一个动机。他们会发现社会偏见的一些极端案例,这些案例会成为头条新闻,但实际上,如果你退一步思考,为什么会出现这些偏见?

这是因为数据生成过程反映了社会规范,反映了历史趋势,从某种意义上说,如果这是起点,对吧,这就是为什么,

我们有亚马逊的案例,对吧?可能甚至没有足够的女性在高中报名参加STEM课程。这就会导致一系列事件。但有趣的是,我们之前的例子表明,更多的人工智能和更智能的人工智能实际上将帮助我们处理这些偏见,对吧?所以这是我们要探讨的第二个错误观念。说到生成式人工智能,

另一个正在流行的错误观念是,嘿,如果你能真正擅长提示工程,你将从生成式人工智能中为你的公司获得所有这些有趣的值。所以,你只需要真正擅长提示工程,并且有所有这些,有很多专家在告诉你如何进行良好的提示工程。

实际上,我认为现有的证据相当复杂。如果这是我们唯一考虑的事情,对吧,Anand和我开始研究研究告诉我们关于生成式人工智能的使用与生产力和工作之间的关系,

对于每一篇基本上声称生成式人工智能使非专家受益更多或由于幻觉而降低专家绩效的可靠研究论文,都有其他研究告诉我们,它实际上使专家受益更多,因为他们更了解术语和上下文,对吧?

对于那些谈论它如何提高软件等复杂任务性能的研究,还有其他研究表明,当任务变得过于复杂时,它实际上会降低性能。研究表明它增强了解决方案的多样性。在另一个背景下,研究表明它实际上损害了解决方案的多样性,对吧?所以这里的教训是,在这个时间点,

我们对基本力量的理解是有限的。我们在组织中正确部署它的能力也是有限的,对吧?为了真正从生成式人工智能中获得价值,还需要做很多工作。特别是,我们鼓励我们合作的公司超越提示工程,对吧?

考虑整合你拥有的专有数据。假设你的表现最佳的呼叫中心代理的记录,

如果你能将这些数据与这些大型语言模型的智能结合起来,并微调像客户服务聊天机器人这样的解决方案,甚至做一些像在rag格式中提供更多上下文一样简单的事情,这就可以开始创造更多、更多的价值。所以,对于公司来说,超越提示工程并开始从

生成式人工智能中获得真正的价值,还有很大的发展空间,对吧?所以我想探讨的最后一个错误观念是,当我们说,哦,你知道,你正在为科技行业以外的财富500强公司提供咨询时,哦,你需要考虑微调,我们经常听到的一个常见抱怨是,哦,我们内部没有做微调的人才,对吧?所以,另一个错误观念是,从人工智能中获得价值的瓶颈是缺乏数据科学人才,对吧?

我给你讲个故事。我和我们分析和人工智能研究生项目(Anindya在纽约大学开设,我在卡尔森商学院开设)的一位前学生,一位联合创始人共进晚餐,我问这位学生,情况如何?你喜欢你的新工作吗?她说,是的,教授,一切都很棒。我们在你的项目中学到了很多东西,但说实话,

虽然你教了我们所有这些花哨的强化学习算法,但他们在公司让我做的是在Excel中运行报表和可视化。

这实际上表明,问题不在于数据科学人才的供应,而在于需求,在这种情况下,来自这家财富100强公司的内部高级副总裁、总监和领导者缺乏利用“人工智能之家”的想象力。他们不知道用例,对吧?所以事实上,在我们的书中,我们呼吁制定一项马歇尔计划,以重新教育领导者和高管

关于可能的艺术。说到这里,我想把它交给Anindya,他会谈谈其他方面,包括创新监管。

谢谢,Ravi。所以Ravi为我们设定了当今世界的样子,尤其是在组织需求和技能方面。我想带我们进入下一阶段,那就是未来世界、几个月或几年后的世界可能是什么样子。我认为,如果不至少谈谈监管,就很难进行这样的讨论,对吧?

我们经常开玩笑说,世界上有三种人。当他们听到“人工智能”这个词时,一种人说自动化,第二种人说创新,第三种人说监管。那么,你是哪一种呢?所以,我认为这就是背景。我们写《Thrive》这本书的部分原因是为了避免对人工智能的夸大其词,这是Ravi所说的,

我们并没有轻视负面方面。我们只是说,没有人真正谈论过它积极、引人注目的另一面。话虽如此,我认为也很难忽视欺骗和勾结的可能性,所以我将简要谈谈这一点。

然后,我将要谈论的另一部分是反垄断的世界。在谷歌工作,你们非常了解正在发生的事情。世界各国的政府都在追捕你们,试图弄清楚我们是否应该拆分公司。但我不会只针对一家公司,我会给出我对反垄断和人工智能世界未来样子的预测。

好的,首先让我们从欺骗和勾结开始。我认为你会同意我的观点,定义欺骗非常困难,对吧?尤其是在人工智能的世界里,事物并非有形的时候,对吧?例如,如果结果是负面的,无论你试图衡量的结果是负面的,你怎么知道这是故意为之还是意外的不小心造成的?很难区分这一点。

但在实际衡量任何后果甚至采取某些行动之前,你必须弄清楚这是欺骗还是故意为之。

例如,如果对某个组织或公司(例如,从事欺骗行为的公司)施加责任,你怎么知道这是故意的还是疏忽呢,对吧?有时,你知道,最好的数据科学家也可能错过了训练数据中的一些缺陷,对吧?这并不是说他们故意试图误导人们,只是他们没有足够的资源来弄清楚有缺陷的数据可能是什么。

所以在这种情况下会发生什么,

传统的责任原则并不太有效,好吗?因为它们与人工智能的背景无关。所以过去在产品营销中,如果广告标签错误,我们会关注虚假陈述等问题,然后有一个非常明确的责任部分。如果一个品牌故意错误地标注了其产品的益处,那么这就是误导性广告,对吧?并且会有后果。但在人工智能方面并不容易,对吧?

接下来出现的问题是,你如何解释后果以及谁应该负责?是人工智能的创造者吗?是人工智能的部署者吗?是最终用户吗?谁应该为此负责?最后,人工智能世界中的算法是否可能导致非法勾结,例如价格勾结?

所以这些都是开放式的问题,我认为我们仍然只是触及了冰山一角,关于我们实际上可以衡量什么,然后我们可以采取什么后果。最后,什么是责任?

你看到的人工智能最有趣的用例之一是降低进入壁垒。所以现在我将带你进入反垄断的世界,在这个世界中,所有这些正在进行的大型反垄断案件中,一个主要问题是,大型公司可以访问大量数据,这些数据会造成进入壁垒,阻止新公司进入。这通常是大家达成的共识。

人工智能真正有趣的地方在于,现在我们看到,即使是在传统的数字广告中,数据访问作为一种优势也在迅速减弱。我们不再看到大型公司像过去那样拥有这种优势。部分原因是先进的人工智能技术,如强化学习、迁移学习,使较小的参与者能够与现有公司正面竞争。

直觉上,真正推动这一点的是,如果一家专门从事数字广告的现有公司即将与一家新进入者竞争,那么这家新进入者实际上是在寻找如何创建新的数字广告。这些预训练的JNI算法使他们能够非常轻松地进入这个领域。

更深入一些细节,就像Ravi谈到的rag模型一样,对吧?我们看到的一个特点是,这些人工智能算法实际上对数据的回报递减,好吗?这意味着你拥有更多数据的优势在某个时间点之后开始趋于平稳。

A,我们看到这些预训练模型效果非常好。一旦你对它们进行微调,你就可以取得更大的进展。简单地说,在进入这个领域时面临冷启动问题的小型初创公司不再面临那么大的障碍。因为现在他们可以访问算法、数据、嵌入式智能和权重。所以过去真正绊脚石的东西现在已经不再是问题了。

没错,这是人工智能的一个非常重要的特征,它改变了进入壁垒,这对于政府如何考虑反垄断问题具有巨大的影响。我想谈论的第二个方面是基础设施层本身。底层,这是许多人,尤其是你们谷歌的人非常熟悉的模型层,对吧?这些是来自DeepMind、Facebook或Hugging Face和OpenAI等的大型语言模型。

顶部基本上是应用程序层。我们看到许多公司进入这个应用程序层的原因是他们可以访问这个基础设施。过去,他们无法访问基础设施。现在他们可以访问了。你们已经看到了。我们已经看到这些层中的每一层都有大量的新兴公司。

问题不在于进入。我们看到很多进入。问题也不在于收入。平均而言,许多这些公司已经突破了1亿美元的收入。问题在于盈利能力和留存率。

所以有趣的是,虽然生成式人工智能实际上允许新的企业家和初创公司进入,因为他们可以访问非常相似的基础设施和相似的培训,但他们无法区分他们的产品。这些垂直领域正在涌现大量新进入者,但他们都在使用相同的基础设施。他们拥有非常相似的数据集。因此,留存率和盈利能力是一个大问题。

所以我们将拭目以待。但更进一步,这真的很令人感兴趣。我认为这是一个相当简化但完整的生成式人工智能堆栈版本。

在这里,在底层,你有半导体公司,芯片,对吧?我将举一些例子。在其之上,你有云计算公司。在其之上,你有这些大型语言模型,人工智能模型。在其之上,你有应用程序,对吧?所以在上一张幻灯片中,我谈到了这两层。但在其下存在一些非常重要的基础设施,包括云计算和半导体芯片。现在,事情变得非常有趣,对吧?

我将在下一张幻灯片中向你们展示更详细的版本,让你们了解哪些公司、他们正在构建哪些产品以及这如何开始造成问题。所以,右边每一层都对应于左边的层,对吧?所以在底部,你有云计算公司,像我提到的英伟达这样的半导体公司,每个人都听说过英伟达的GPU,但谷歌也有TPU,张量处理单元,对吧?

但也有亚马逊。有多少人知道亚马逊实际上生产自己的半导体芯片?它们被称为Tranium,它们与英伟达、谷歌和AMD等公司竞争。

Ravi Bapna和Anindya Ghose访问谷歌,讨论他们的著作《Thrive: Maximizing Well-Being in the Age of AI》(《茁壮成长:在人工智能时代最大限度地提升福祉》)——这本书探讨了人工智能如何积极影响我们日常生活的许多方面,从健康和福祉到工作、教育和家庭生活。人工智能是一种强大的通用技术,正在重塑现代经济,但对人工智能的误解阻碍了我们将其用于造福人类。在他们的著作《茁壮成长》中,Ravi Bapna和Anindya Ghose通过展示人工智能如何积极影响我们最关心的日常生活方面来反驳这种抵制:我们的健康和福祉、人际关系、教育、工作场所和家庭生活。作者解释了这项技术的底层原理,并赋予人们塑造围绕我们如何规范人工智能以最大限度地发挥其益处并最大限度地减少其风险的辩论所需的自主权。Bapna和Ghose凭借在尖端研究、咨询、高管培训和咨询方面的二十多年经验,对这一主题进行了阐述,揭开了人工智能技术本身的神秘面纱。他们提供了一个新颖的“人工智能之家”框架,其中包括传统的分析、生成式人工智能以及人工智能的公平与道德部署。他们使用日常生活中的例子,展示了现代人工智能驱动的生态系统如何从根本上改善全球普通人的情感、身心和物质福祉。请访问http://youtube.com/TalksAtGoogle/观看视频。</context> <raw_text>0 然后是云计算平台。三大巨头是谷歌、微软和亚马逊。这对他们来说是一笔巨大的资本支出。这三家公司仅在维护方面就花费了1000亿美元用于云计算。现在像甲骨文这样的公司也有一些进入,但它们并没有做得很好。

在云计算之上,比如人工智能模型,有两种模型。一种是开源模型及其发布方式,另一种是闭源模型,对吧?你知道,OpenAI是闭源的。Facebook的Llama是开源的。最后,你还有应用层,好吗?所以现在,我将提出一些可能性。看看在这个领域竞争的一些主要公司。在芯片方面,你有英伟达、AMD、谷歌、亚马逊。

在云计算方面,你有谷歌、亚马逊、微软、甲骨文。在人工智能模型方面,你有谷歌、Meta、Hugging Face、微软、亚马逊。在应用方面,你同样有谷歌、Meta、微软、亚马逊、苹果,当然还有许多其他初创公司。所以如果你仔细观察一下,我们会看到什么?我们开始看到相同且经常相似的名称出现在每个级别。

所以现在,如果你是像我们这样的经济学家,你一半是经济学家,一半是数据科学家,你可能会想,好吧,这可能会导致一些非常有趣和重要的监管问题,对吧?我并不是说这些正在发生。我并不是说这些将会发生。但我们想说的是,这些可能会发生,好吗?

好的,所以当少数几个相同的名称出现在每个级别时,对吧?那么一些可能的监管担忧是什么?第一是捆绑和捆绑销售。好的,经典的经济学,对吧?捆绑基本上意味着多种服务被捆绑在一起作为一个整体出售。捆绑销售基本上意味着,如果你想使用我的产品B,你也必须使用产品A。

那么可能出现哪些问题呢?第一,大型公司是否可能捆绑他们的生成式人工智能产品,从而掩盖小型公司?也许吧。大型公司对人工智能文本法案的控制是否可能掌握在少数几家公司手中,即使它们正在竞争,它们仍然拥有控制权,它们可以利用这一点来限制一些新进入者的机会?这是可能的,对吧?

第三,上游公司,就像回到这张幻灯片,一些上游公司是否可能实行排他性交易以扼杀竞争?也许吧,对吧?但所有这些,虽然我提出了这些理论,但这些都是难以忽视的可能性,这就是为什么我们认为这些是在未来一两年内可能出现的监管问题。

此外,如果少数几家公司能够垂直整合,市场整合也是一种可能性,对吧?比如说,我不会点名一家公司,但假设X公司说,嘿,如果你想使用我的生成式人工智能模型,你也必须使用我的云计算和我的芯片。

这就是我们所说的垂直整合的一个例子,其中A、B、C、D或E,现在有五到六家公司,它们可能会说,如果你想使用我们的下游产品,你也必须使用上游产品。

最后,我认为我们将开始看到先发优势和后发优势之间,比如先发劣势和后发优势之间,一些有趣的竞争,因为这些事情随着时间的推移而迅速变化。因此,最初的进入者可能会有一些积极的反馈循环,但他们也犯了一些错误,而后来的进入者正在意识到这些错误,并在犯同样的错误之前纠正它们。

所以我认为这些都是经典的经济学,IO 101的问题,是世界顶级监管机构,包括美国司法部、联邦贸易委员会、欧盟委员会的首要关注问题,我们认为这将成为一个问题。最后,我想总结一下,这也是经济学与地缘政治相遇的地方,对吧?为什么是这样?我只会指出一点。看看这张最后的堆栈,对吧?

有一家你可能听说过名叫台积电的公司。

台积电基本上是所有东西的制造工厂。所有生产的芯片,除了英特尔拥有自己的一些晶圆厂,但台积电也为所有这些公司生产芯片,对吧?因为他们基本上只是在制造上贴上标签,每个主要的现有或未来的超级大国都想染指台积电,好吗?

所以每次你听到美国和中国之间即将爆发的冲突时,都是关于台湾的,对吧?这是关于台湾的,因为台湾拥有台积电。台积电为这里的每一家公司生产芯片。谁掌握了台积电,谁就将处于非常强大的地位。

好了,我想我会总结一下,希望通过我和Ravi,你们能够很好地了解到目前为止发生了什么,现在正在发生什么,以及我们认为未来将会发生什么。你们有一本《茁壮成长》的副本,所以希望你们都能继续茁壮成长。——好的,第一个问题。你在制作演示文稿时使用了多少人工智能?——实际上很少,令人惊讶的是。——或者根本没有。我的意思是,你知道,我认为,我甚至不知道如何使用人工智能制作幻灯片。我应该学习一下。

所以有很多问题可以问。你们最常被问到的问题是什么?因为我相信这不是你们第一次就人工智能发表演讲,因为你们的演讲非常有见地。我很高兴你们在谷歌做了这个演讲,因为你们比书中更深入地探讨了这个问题。首先,在与这些人交谈之前,请阅读这本书。但其次,你们最常被问到的问题是什么?

我可以先开始,然后你再接着说。所以对我来说,我们都在世界各地谈论过这本书。显然,问题有一些相似之处,但也有一些不同之处。我经常被问到一个问题,你可能也会被问到同样的问题,那就是你们是否认为,这种人工智能的广泛应用没有负面影响,没有缺点?

这基本上回到了我们写这本书的原因。我们写这本书并不是因为我们对负面影响和缺点不屑一顾。我们承认这一点。但我们想澄清的是,就像任何通用技术一样,它可以被利用或滥用。

人工智能已经带来了很多好处。我们在书中对此进行了记录。所以我们并不是对负面影响不屑一顾,我们只是想分享故事的另一面,那就是已经有很多积极方面了。是的,我认为实际上,Sandra关于Dory的问题可能与一个非常常见的问题非常相似,那就是一个对人工智能不了解的人应该如何开始?

所以,撇开世界上排名前50位的科技公司不谈,即使是剩下的财富100强、财富500强公司,这些公司吸收人工智能创新能力实际上仍然非常、非常、非常初级。

老实说,这里真的没有捷径可走,只有教育和学习。所以要拥抱终身学习。当然,我们的书是一个很好的起点,因为它可以让你对整体情况有一个大致了解,而不会陷入实际技术细节的泥潭。

但是如果你读了这本书并且它让你兴奋,那么你可以继续学习——Coursera上有一些非常聪明的人开设了一些很棒的课程,你可以开始说,你知道吗?让我学习如何构建预测模型。让我学习这个过程。

我认为,顺便说一句,即使是一些最聪明的首席执行官和董事会主席,像里斯托·萨利斯玛这样扭转诺基亚局面的人,有人问他成功的秘诀是什么?他说实际上是重返学校。他说,他是诺基亚董事会主席,他说我休假一个月,决定回去学习如何编写机器学习系统。所以我认为没有什么可以替代这一点。

我们都是教育工作者,所以我们会宣传我们的项目。在卡尔森,在斯特朗,我们有很棒的商业人工智能项目。所以任何收听的人,请考虑申请。那么,你们作为教授为什么不停止你们正在做的事情,而是自己构建模型呢?

——你想回答这个问题吗?——是的,我的意思是,我们在研究环境和咨询中,一直在与公司合作,帮助他们构建模型来解决他们最紧迫的挑战,对吧?这可能是关于预测客户流失,这可能是关于检测早期机器故障,

这些是我们经常看到的用例。这可能是关于弄清楚,好的,你的推荐营销计划的最佳设计是什么,以及我们如何优化号召性用语?所以如果你看看Anindya的简历,或者看看我的简历,我的简历只有他的十分之一,但总是有活跃的研究正在进行。事实上,就在我们现在说话的时候,

我们已经开发了一个机器人,它将允许高管和MBA学生、经理们,他们不想实际编写代码,但仍然想使用机器学习。从某种意义上说,生成式人工智能将使人们更容易获得“人工智能之家”。

我们已经在构建一个解决方案的最前沿,经理可以与之交谈。他们说英语就像一门新的编程语言,对吧?经理可以交谈,

并说,你知道吗,你能帮我建立一个模型来,或者帮我建立五个不同的模型并比较它们的准确性,以预测他们感兴趣的任何东西,对吧?所以这在我们说话的时候正在进行。——并且补充一点,我想说的是,是的,他是对的。我们都非常积极地帮助公司构建这些模型,无论是营销组合模型、价格优化、广告。

投资回报率衡量。我认为在任何一天,我们每天可能都会花大量时间帮助现实世界的公司做到这一点。但我认为当你问为什么我们不构建模块时,我突然想到也许谈谈大局会有所帮助,那就是

在我刚才谈到的堆栈中,对吧?所以模型构建主要是在应用层进行的,也许我们会利用LLM层。但这就是为什么我们将看到的绝大多数创业活动将继续在顶层进行的原因,

而不是在后续层,因为成本的原因,对吧?当一家公司必须构建自己的LLM时,即使超越微调和预训练,Ravi有一张图表,这占总成本的40%到50%。这笔成本包括云计算等等。所以底线是,对于个人或小型公司来说,进入底层非常昂贵。

对吧,半导体,非常、非常高的资本支出,云计算,非常高的资本支出,甚至构建LLM也是非常高的资本支出。所以像我们这样的人主要会在顶层,在应用层。——这就是创新的发生地,对吧?因为这是我们解决人们面临的实际问题的地方。这可能是他们的供应链,也可能是他们的营销,是的。——关于模型和

你与客户的谈话,因为他们也是顾问。他们不仅是作家,他们不仅是教授,他们肯定还在多个董事会任职,但你们也是顾问,你们经常与企业进行交流。当你查看新闻时,似乎人们谈论的一些最大模型是Gemini、Anthropic、OpenAI,当然还有

根据你们的经验,当人们说,我甚至不知道如何开始时,你们实际上会建议他们做什么?或者你们会使用哪些现成的工具?你们是如何处理这种对话的?尤其是在现在,因为我们现在正在谈论董事会级别的人工智能战略非常重要。

我认为这不是一刀切的。所以我所在的董事会上的不同公司,我首先会尝试了解他们的背景、基础设施水平和能力。他们在实际情况方面存在着广泛的异质性。大型公司并不一定是最复杂的。在许多方面,小型公司实际上更……它们可以快速行动。所以我认为你首先必须了解背景。

然后它就变成了最终用户是谁以及他们个人最习惯使用什么。一般经验法则是,有些人会说,如果它是文本内容创作,你也许应该使用Anthropic,因为Anthropic非常擅长撰写论文。

所以我认为这有一定的道理,但我通常会建议他们使用多个模型并寻找我们所说的稳健性。不同的模型是否给出了相同或高度相似的核心结果集?

如果你认为是这样,那就很好。所以与其让他们立即采用一个模型,我个人至少在我所在的董事会中会建议他们,比如,使用多个模型,寻找稳健性,然后看看。然后将你自己的上下文数据添加到其中,你知道,可能是RAC格式,对吧?也许会进行微调,因为那时事情才开始变得真正有趣,对吧?

我认为真正的稀缺资源,再次回到我们之前提出的观点,是想象力。

在高管中,了解可能的艺术,看到所有这些用例,看到足够的重复,以便他们能够识别一个新的机会,说,你知道吗,我很想能够预测这种类型的文本中的情绪,如果我可以使用现有的模型,我可以很快做到这一点。由于生成式人工智能的进步,做这些事情的速度已经大大加快了。

现在,沿着这个相同的谈话点深入到数据的层面,作为你们都是数据科学家,我喜欢谈论数据,因为它非常、非常重要,尤其是在人们关注战略以及他们想要如何移动、如何移动以及使用什么来移动它的时候。

在底层数据方面,你们的最佳实践是什么?比如,你们是如何……因为现在我们实际上正在与一些客户一起进行ML和数据研讨会。但是你们是否看到人们转向更开放的云的共同点?或者你们如何看待数据支持所有正在进行的运动以支持人工智能?

所以我认为这里有两种观点,对吧?所以有一组公司来找我们说,你知道,我们有大量的数据。你能帮我们得到一些……你知道……顺便说一句,我们实际上投资了大量资金来建立一个数据湖,对吧?你能帮我们从中获得见解吗,对吧?

这通常并不是一个非常好的方法,因为另一种方法可能更多的是由业务驱动的,财务部门的某个人说,你知道吗,我们是一家大型医院,我们在正确安排护士方面遇到了很大的困难,对吧,我们的需求预测完全偏离了,对吧,你能帮我们解决这个问题吗?

然后我们说,哦,你知道吗?就像,是的,我可以使用你的时间序列数据来进行需求预测。但是如果我添加这七个其他协变量,也许是其他,比如说,宏观因素,它甚至可能像气候一样简单。如果我能获得温度或其他数据,那么我的预测精度,这些数据与模型的进步相结合,我的预测精度——我们实际上已经证明了这一点,可以大幅提高——

现在,与其花费大量时间创建这些数据湖,寻找各种数据,寻找见解,你已经从一个业务问题开始,并且实际上已经解决了它,对吧?那里有价值可以被看到,对吧?所以我总是鼓励人们考虑,我认为再次稀缺的资源是能够识别出好的问题来解决的人,对吧?一旦你做到这一点,我们现在正处于开始看到

像许多,你知道,像编码难度将由于生成式人工智能而降低,对吧?它在许多情况下是一个很好的副驾驶,对吧?好吧,也许不要提到副驾驶。

是的,没错。是的,对不起,我们在谷歌。是的,是的,是的,是的。我的意思是,你知道,我最近喜欢使用Colab编写代码,因为总是有,你知道,它基本上,你知道,在我甚至想到之前就完成了我的提示,我的评论,对吧,这太棒了。是的,请大家使用Gemini。谢谢。所以回到你的问题,你知道,当我与公司交谈时,我该如何考虑数据?我认为我告诉公司的第一件事是,

我使用的每个数据集在其原始格式下都是脏的,是混乱的,有很多问题。无论是小公司还是大公司。所以如果你还记得Ravi正在展示的框架,对吧,在我们“人工智能之家”的第一章中,最底层是数据工程。我们告诉公司的是,在你开始进行任何很酷、非常性感的建模工作之前,请将70%的资源用于清理数据。

因为在人工智能领域,经典的问题是垃圾进,垃圾出。如果你不花很多时间——70%是我们的推荐时间——

在清理数据上,那么你就不会做到尽善尽美。所以你无法从你之后创建的任何干预措施中得出任何推论。所以第一次谈话的重点是,当你考虑数据时,要认识到它将是原始的、脏的、混乱的。它缺少观察值,缺少变量。它在格式化、处理方面存在问题。——非结构化的。——是的,所以你必须清理这些数据。这并不酷,因为它是一项非常乏味的工作。

但这是我们告诉公司的第一件事。这就是为什么它在底层。基础性的,是的。即使在我们都运行的项目中,在Capstone项目中,这是我们告诉学生的第一件事。在头六个月不要带着任何超级有趣的模型来找我。专注于数据清理部分。所以这就是要进行的对话。你认为生成式人工智能或人工智能总体上是否会……

随着新模型的出现,自动清理它,能够识别非结构化数据或能够使用其下方的混乱数据。这是一个技术术语。

——可能会有部分这种情况,但与此同时,我个人目前在我的团队、行业或我的博士生或我的合著者中,仍然鼓励他们进行人工干预,那就是

寻找异常值,寻找这些缺失的变量、缺失的观察值,尝试理解这一点。在你自动化清理部分之前,尝试理解为什么这些会被创建。这回到了我们的去偏见问题,对吧?理论上,你可以让生成式人工智能找出其中的一些,但我个人还没有达到那个阶段,尽管我是……

你知道,人工智能的倡导者。所以我会说第一步是人工干预,然后是第二步,一旦你弄清楚了原因和模式,那么你就可以自动化它了。

——是的,我同意。我认为好的一点是,你知道,生成式人工智能可以帮助你更快地完成一些工作,对吧?所以它可以为你编写代码,但你必须知道该怎么做,对吧?我认为这就是关键所在,我认为,在那里。所以它将提高未来数据科学家的生产力。从某种意义上说,他们实际上能够解决更大的问题。

我还想问你们很多问题,但我确实想承认Dory有一个问题。那么,对于想要学习如何使用生成式人工智能的人,你推荐哪些资源呢?我相信你已经提到过一点,比如使用Coursera和其他一些现有的程序。我认为有很多这样的产品。

老实说,我自己还没有评估过所有这些,所以我不能说哪个更好。我认为我们在沃顿的同事Ethan Malik,我认为他运营着一个博客或一个子堆栈,我认为它指向了很多

有趣的资源。所以我建议人们去那里。从某种意义上说,这是一个很好的起点。是的。而你们作为教授,你们是如何保持最新的呢?因为我每天的工作都是人工智能,所以在这一点上我很幸运,我可以利用我的时间和资源来随时保持最新状态。但你们是如何做到的,你们又是如何激励你们与之合作的学生和企业公司的呢?

对我个人来说,我认为没有一站式解决方案。你基本上只需要睁大眼睛和耳朵。我们都在推特上。我在推特上关注某些经常分享知识的个人。基本上,这是免费的知识,免费的Substack。

所以我个人没有针对此的一站式解决方案。所以基本上就是睁大眼睛和耳朵。互联网上有很多明显无用的信息。所以我认为随着时间的推移,这可能与经验有关。随着时间的推移,你能够弄清楚什么真正有用,什么没用。

但同样,对我来说,就像,是的,我认为我不推荐一个来源。我们在书中谈到的一件事是,如果人工智能可以完成许多不同的智能知识任务,

人类应该考虑什么,对吧,从某种意义上说,对吧?这回到了这一点,实际上,我们两人都很幸运地嵌入在非常丰富和多样化的同事、同事、行业合作伙伴网络中,他们中的许多人都在学术界之外,

我认为我们两人,公平地说,我认为我们两人都花费大量时间和精力来培养这些网络,对吧?这些人的联系。这真的没有替代品,对吧?我的意思是,我提前一天来这里做这个演讲。我今天早上可以来,但我提前一天来,因为我想和我的同事戈德·伯奇共进晚餐,他是这个领域最聪明的人之一。每次我和他共度一小时,我都会学到一些东西。

我现在正在做一个项目,试图研究经理使用生成式人工智能对其学习人工智能能力的影响。所以我正在研究一项研究

是的,在五分钟内,你知道,上帝能够指引我找到最相关的论文,该论文已经完成,其结果与我的相反,对吧?那次谈话,那种人际互动,实际上,随着时间的推移,这将变得更加有价值。我认为人们低估了发展这些人的联系、发展这些关系、培养这些网络的时间。它们不会自动发生。对吧?

所以有一节。每个人都关注上帝,因为那是唯一的一站式商店。然后每个人都关注Ravi。我会把它还给你。但我认为我们也很幸运,在社区中资历较老。我们有这个长期跟随的非常聪明的PSA学生。所以信不信由你,即使我是顾问,我仍然经常联系我以前的PSA学生,他们现在是教授。比如,伙计,我该如何解决这个问题?上帝就是其中之一,但还有许多其他人。Panos、Vilma等等。

是的,我想和你谈谈你提到的内容,我觉得在人工智能、生成式人工智能的世界里,教育肯定正在发生变化。学生们正在使用它。学生们正在思考,我不会说他们认为自己比教授聪明,但有时他们觉得有了手中的技术,他们可以得到这些答案。那么,你如何看待教育的变化,你建议行业做些什么来继续支持自己,更重要的是,支持学生呢?

是的,我的意思是,我可以尝试一下这个。我不知道你是否会插话。我的意思是,我认为我们真的处于某种根本性的转折点,我认为,在教育方面,对吧?凭借我们今天已经拥有的技术,像可汗学院这样的实体已经用KhanMego证明了这一点,我和一些同事已经部署了类似的技术,基本上是个性化的,

无论是虚拟数据科学家还是管理教育领域的个性化导师。所以我们现在有能力基本上为每个孩子,就像字面意义上的每个拥有智能手机的孩子,提供个性化导师。

这在以前只有真正精英家庭,也许是在超级高收入的中上层阶级社区中才能获得。我们在书中谈到了Kanmigo。它的结构方式是,如果一个孩子卡在微积分上,比如说要求解决一个特定的微积分问题,它不会给你答案。它会给你下一步

下一个要问的问题,然后最终得到答案,对吧?或者相反,假设另一个孩子卡住了,不喜欢阅读文学作品,对吧?或者不……必须读一本书,但不想参与其中。

也许你可以和书中的一个角色进行对话,对吧?我认为,你知道,这在小学水平、高中水平上都是如此。我认为我们将开始看到,而且我们已经在世界管理教育的最前沿,在商学院的世界中进行这方面的实验,对吧?采用这种方法的学校将培养出训练有素、能够走出去并提高生产力的管理者,对吧?正如我们经常说的那样,你知道,

人工智能不会取代管理者。使用人工智能的管理者将取代那些不使用人工智能的管理者。我认为这里另一个相关的讯息是——你的问题很棒,因为我经常从未来的学生那里得到这样的问题,我该如何跟上人工智能的最新动态?你们的项目是如何跟上的?

我会提醒他们,你知道,在我们纽约大学商学院人工智能项目中,与卡尔森的MSBA项目类似,我们关注的是概念,而不是下一个闪亮的新事物,因为那个东西会不断变化。

因此,我们如何紧跟该领域最新和最伟大的技术,方法是在课堂上教授基本概念。例如,深度学习是关于什么的?计量经济学是关于什么的?这些东西。因为使用这些概念的工具会不断变化。六个月后,你将拥有下一个更好的实验工具。但我们并没有真正关注工具本身。

这几乎是一种手段。我们真的希望学生专注于概念。所以我认为,对于任何想要弄清楚我们如何跟踪和保持更新的人来说,这是一种信息,那就是专注于概念。

-是的,你在我们之前交谈时提到了一些事情。这很有趣,因为有时作为毕业生或我们这些在该领域工作的人,我们每天都在思考和谈论它,我们想谈论人工智能的某个特定方面,然后当你找到可能负责决策的人时,他们会问我们,哦,等等,等等,我们现在不想谈论这个。先从这个开始吧。你能也谈谈这个吗?

-当然,我的意思是,我和拉维前几天谈到了这个。在我们咨询工作的过程中,我们经常会遇到一些声称自己从事人工智能的公司,但当你深入了解时,他们却在运行逻辑回归。

那不是人工智能。这只是分析旅程中很小的一部分。所以你的问题的另一方面是,我们要求我们的高管和学生识别什么是“蛇油”,什么是真正的产品。因为事实上,每当出现一项新技术时,就会有很多组织和公司销售“蛇油”。因此,我们试图教给学生、高管和公司的一个重要部分是,请花足够的时间来识别它。

这是一个过程,所以我认为随着时间的推移,这场对话会变得更加深入。但这现在是一个良好的开端。谢谢。我们只剩下几分钟了。听众有什么问题吗?

如果没有,如果可以的话,我还有一个问题。你们的书大约是在2022年、2023年写的。现在是2024年12月左右。如你所知,情况正在发生变化,并且出现了新的更新和新技术。所以我的问题有两个方面。首先,自从你们写书以来,你们最喜欢的新品是什么?其次,你们接下来要攀登哪座山?

你可以先回答第一个问题。好的。我喜欢听音乐。我的弟弟实际上正在伦敦一所顶尖大学攻读音乐生成方面的博士学位。

所以我一直在玩音乐生成,将古典音乐与爵士乐融合在一起,他不断地给我发送一些东西。所以就我个人而言,这对我来说真的很令人兴奋,这仅仅基于我喜欢做的事情。但我认为,对我来说,接下来要攀登的山峰是帮助公司,再次强调,是那些不在前50名之外的公司,不在谷歌、爱彼迎和优步这样的公司之外,

在明尼阿波利斯,我们在零售、生物医学设备和供应链领域拥有19家财富500强公司。

这些公司如何开始攀登人工智能的顶峰?因为他们吸收所有这些技术的能力,即使他们开始使用人工智能之家中20%的组件,他们也将获得数百万美元的回报。这并不是我编造的,因为我们在过去10年中一直在做这件事。所以我们知道这一点。因此,让这些公司在利用这项技术方面变得更聪明,我对此真的感到兴奋。

我会直接回答你的问题,因为我确实是一名登山者。我也是一名认证向导,所以我登山。所以两周后,我和我的家人将前往新西兰。所以我们将在那里登山。然后在春天,我和我的女儿将前往尼泊尔,我们将进行一些非常酷的徒步旅行,在尼泊尔MLS进行一些攀登活动。

你们在这些攀登中会佩戴什么设备?是的,一直都是Garmin。哦,不是谷歌的产品。

对于生死攸关的情况,Garmin相当不错。是的。你们的书非常有趣,它不仅结合了对人工智能的基础理解,还结合了人工智能在医疗领域真正发挥作用、挽救生命的方式。同样,这也是我们谷歌喜欢做的事情。所以非常感谢你们的到来,感谢你们的谈话,感谢你们回答了我这么多的问题。我相信其他人也有一大堆问题。

但再次感谢你们。非常感谢你们的邀请。感谢你们的接待。谢谢。感谢你们的邀请。感谢收听。你可以在youtube.com/talksatgoogle观看本集和许多其他精彩内容。回头见。