We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Vol.132 | 对话李彦宏:智能体正在爆发,大模型对B端影响将超越互联网

Vol.132 | 对话李彦宏:智能体正在爆发,大模型对B端影响将超越互联网

2024/7/12
logo of podcast 第一财经

第一财经

AI Deep Dive AI Chapters Transcript
People
李彦宏
杨宇东
Topics
杨宇东:大模型商业化加速,AI应用内卷,价格战激烈。 李彦宏:大模型催生百万计应用,提升效率,降低成本,尤其利好B端。目前尚未出现与移动互联网时期超级应用比肩的AI原生应用,但大模型已在各行各业广泛应用,例如文心一言调用量两个月内翻倍,体现了其价值。 李彦宏:大模型对现有To C应用的信息增益作用显著,例如百度搜索和百度文库的改造,提升了用户体验和付费意愿。 李彦宏:智能体是基于大模型的应用,门槛低,易于开发,代表未来AI应用趋势。 李彦宏:大模型在垂直场景应用需根据场景需求选择不同规模的模型,并进行针对性调优。 李彦宏:随着技术提升,大模型的幻觉问题正在减少,但在严谨场景下仍需人工审核。 李彦宏:AI as a service在中国发展迅速,因为它增强了现有业态,而不是创造全新的业态,因此能够更好地抵御大型平台的竞争。 李彦宏:开源大模型是一种“智商税”,闭源模型在性能和成本方面更具优势。 李彦宏:价格战不可避免,但最终比拼的是技术和效率。 李彦宏:Scaling law短期内不会被颠覆,但其上会叠加新的技术创新。 李彦宏:AGI的实现需要十年以上,其标准是机器能够在任何场景下具备与人相同的能力。 李彦宏:生成式AI将IT技术栈扩展为四层,每一层都可能诞生多个大型玩家。 李彦宏:基础模型迭代速度放缓并非坏事,开发者需要相对稳定的基础模型来提高开发效率。 李彦宏:市场对中小模型的需求很大,闭源模型在中小模型方面仍然具有优势。

Deep Dive

Chapters
李彦宏认为,与其关注超级应用的出现,不如关注基于大模型的数百万种应用的诞生。这些应用可能规模小,但能有效解决特定领域的问题,并提升效率、降低成本。文心一言的调用量在两个月内翻倍,也印证了大模型在各行各业的应用价值。
  • 关注基于大模型的各种应用而非超级应用
  • 文心一言调用量两个月翻倍
  • 大模型提升效率、降低成本的价值

Shownotes Transcript

人工智能正在以前所未有的速度席卷全球。去年我们还处在百模大战的这么一个讨论当中,聚焦于AI的iPhone时刻。但是今年我们看到AI的应用已经内卷得不得了,大规模的落地应用已经成为一个新的竞技场,价格战也是硝烟四起。所以一系列的变化预示着大模型的商业化的进展正在提速。

百度作为国内最早进入大模型的科技巨头,有着非常丰富的经验和实践的深度和洞察力。围绕大模型的下一步,业界展开了非常多的热烈的讨论。开源还是闭源?C端和B端谁能够先迎来AI应用的爆发?大模型的落地还面临哪些挑战?包括我们百度踩过什么坑。今天我们邀请到了百度创始人董事长兼首席执行官李彦宏先生,硅谷101的联合创始人陈茜,一同来探讨大模型的未来之路。

姚明你好,我们知道一年多了有ChatGPT掀起的这么一个热潮。对你也曾经表达过说,接下来我们最关注的是超级应用什么时候出现。我们看到其实国内面向C端的这么一种大模型的这么一个产品形态,看起来还都差不多都是这种搜索框问答这个模式,有没有可能产生一种差异化的竞争?什么样的好的产品会出现?

对,准确的讲我倒不是说一定在等待一个超级英雄的出现,我更是觉得就是在基础模型之上,在这个大模型之上,应该能够诞生数以百万计的各种各样的应用。这些应用有些可能就是很小的这个领域,一个大家可能不太容易想到的这种应用。但是它对于那个领域的问题解决就比以前要好很多。当然也有可能是一个用户量极其庞大的,对吧,用户时长也非常长的,类似于移动互联网那样的超级应用。确切讲我觉得现在还没有看到能够比肩移动互联网时期超级应用的那样的AI时代的原生应用。但是已经看到的确实是越来越多的在各种各样的场景,尤其是to B场景。利用大模型提升效果,提升效率,产生更多的收入,或者说能够节省更多的成本的这样的情况出现。所以应该说尤其是今年以来,我们看到在各个领域,各行各业都有AI的应用的场景出现了,它的这个出现就是使得我们比如说人力大规模的节省,或者是效率大规模的提升。

也许比如说对于投资者,对于比如说创业者什么,他们没有觉得这个东西很令人兴奋。因为大家都在想,我能不能有一天从零到这个你做出一个人们想也没有想到过的这样的东西,变成一个D有10亿的这样的超级应用,这个当然很重要,我觉得假以时日也一定会出现。但是目前已经看到的,甚至我觉得是更重要的是大模型在各个领域,各个场景的应用。这方面,比如说从百度的这个文心言日调用量来看的话,已经是非常明显了。我们在四月份的时候曾经公布过一个数据,就是文心言的这个调用量每天大概是要有2亿次。到最近一次就是前几天,我们在公布的时候,这个微信年调用量已经达到了5亿次,也就是说两个月的时间调用量是more than double,就是对调用背后意味着什么?意味着它在给应用产生价值。因为没有价值的话,人家也不会花钱去做这种调用。所以这种增长速度我觉得还是非常令人兴奋的。就是说大模型对于实体产业,对于各行各业的这种提效降本什么这些作用其实现在已经是非常明显。

你更多的谈到了可能在一些垂直的行业,但我们其实想百度还是一个很强的C端的这么一个基因的这么一个公司,作为一个普通的消费者和使用者,我们也想请您聊一聊在这个C端的应用会有一些什么样的很好的场景。包括我们现在这是一个新的词,经常说了端侧新的。甚至大家说最后可能我们手机上的APP可能都已经可以被手机的硬件去调用,而不是进入一个APP的,这个你怎么看呢?

这个我觉得是分两类。一类就是大家比较关注的,就是过去从来没有的这些个应用,现在比较流行的就类似于chatGPT这样的,我们把它叫做chatbot,就是聊天机器人这样的一个形式。国内其实每一个大模型公司肯定都会推出一个相应的APP或者是网站来做这种chaff out。它的作用其实也比较明显。很多时候如果你有一个很具体的问题,那丢给他的话,他就会给你一个还不错的答案。而且这个准确率也越来越高了,很多人逐步的对这种chatbot产生了依赖,但是对于现有的这些个to c的应用,其实它的这个信息增益作用也是非常大的。我们在四月份的时候公布过一个数据,就是百度搜索,今天有11%的搜索结果会是由AI来生成的,这个比例还在不断的提升,也就是说现有的这些个大家比较常见的应用,其实也越来越多的在被大模型在被生成是AI所改造。

另外一个例子是比如说百度文库。过去百度文库是一个大家在上面找一些现成的文档,比如说一个中学老师他要备课了,初中的物理课,那么他要找一找。比如说人大附中的这个老师,最优秀的老师,他的这个教案是什么样子,去找这种现成的文档。

今天百度文库经过这个大模型的这种改造之后,已经更多的变成了一个生成式AI的这种应用。也就是说你不管想要产生什么样的文档,是power point,是PPT,是论文的格式,还是各种各样的甚至是一个漫画什么这样的,它都可以根据你的要求来生成。而且不仅它的用户量比较广,这个产品它是个收费的产品,就是今年以来已经有大约2600万个付费用户。所以这个就是你如果说用超级应用的这个标准来看的话,它也没有到这个超级应用的这个水准。但是你要是看它实际产生价值的话,有那么多人愿意为这个产品来付费,那还是很厉害的对吧?就是这些产品都是过去已经存在的,只是说你经过了大模型的改造之后,它的能力跟以前完全不一样了。人们对他的认知也在不断的迭代。

不断的在加深。因为他能力提升之后,大家更愿意付费了。是的。

或者超级的这个定义在互联网时代跟在AI时代是不一样。

了是不一样的。对,在这个互联网时代可能是某一个单一的从0到1或者到100的这样的应用,对吧?就是今天的这种所谓的超级应用,它是对现有场景的一种加持。这种加持有时候是其实它还在一个早期,我必须要承认就是它逐步的会改变现有的这个产品的形态。

比如我再举一个例子,就是小说创作,网文对吧?就是这个在国内是特别火的一个行业。过去大家就是人肉,就是靠自己的能力,靠自己的想象不断的去更新一篇文章或者一个小说,这个效率是很低的。现在有了大模型的加持,你基本上有一个什么构思,它就可以给你一个相应的这种文档。你说再丰富一点,它就再丰富。你说这个文风可能太温柔了,那么要不要强悍一点?什么你根据你的想法,它可以不断的去调整。

这样的东西就是在外界,在用户看来,我仍然在读一篇网文,读一篇小说。但是这个小说的生产成本、生产效率,它的内容的丰富度、可读性、优良率等等,都是跟以前是不一样的。所以这样的这个例子,其实在我们在几乎任何行业都能够看到。

对我们想我们前面聊的一个词,我们总结可能是也是你以前说对我们叫总结一下,比如说叫卷应用,那接下来我们想还有关键词叫智能体。因为我们也知道你都说过好多次,你认为是AI时代最看好的智能体,但是目前来看好像也没有一个特别强大的一个爆发。你为什么认为智能体是AI时代未来的一个趋势呢?

我觉得智能体正在爆发,只是说它现在基数还比较小的时候,大家的这种体感没有那么强烈。但是你要看业界这些,比如说大模型公司都在做智能体,就是业界的这些意见领袖这个基本上也算是共识。就是你问他说你看不看好大能这个智能体一般大家都会说我看好智能体。

智能体为什么?就是我觉得是代表未来基础模型,它本身是需要靠应用才能显现出来的价值,智能体就是一个几乎可以是放之四海而皆准的基于大模型的这种应用,什么意思呢?就是我根据我自己的场景,我设定一个这种角色的人设,我连编程都不用,我只要把我想要这个做的事情跟他讲清楚,有时候当然要把自己的某些比如说私有知识库什么对接进来,或者说把自己做事情的套路给他说清楚。这个专业术语叫做工作流,把工作流套进去,它就是一个非常有用的,跟基础模型不一样的东西。

对,今天,几乎不能说所有,但是大多数的这个AI的原生应用,其实你用智能体的方式都可以做出来。做出来之后效果也不错。由于它的门槛足够低了。我刚才讲可能你连编程都不用编,可以做出来一个效果不错的这个智能体。门槛足够低的话,就意味着越来越多的人可以做出他想要的这个智能体。这有点像什么呢?有点像90年代这个中期的时候,互联网的网站。

这个网站就是说你可以把它做得非常复杂,对吧?当时比如说雅虎也是一个很厉害的那种网站。但是一个比如说仍然在学校里头读书的大学生,他也可以做一个。

自己的homepage。

对吧?就是他把他比如说常用的几个网站链接列在那儿。比如说java什么这个学习攻略什么这些东西做几个链接就是一个他自己的这种网站。

其实很简单,做起来很简单,由于做网站很简单,所以在90年代的时候,从中期比如说到末期,就诞生了数以百万计的网站。这种大浪淘沙,最终会出来一些非常优秀的网站。Google、facebook,这是当然就是若干年后才出现,但是你早期看的话,你可能看到的都是,这些网站怎么都乱糟糟的。就是一个大学生就能做一个网站出来,这有啥这个就价值。但是你必须得门槛足够低的时候,让更多的人进来。更多人进来,他们发挥他们的聪明才智,就定哪一条路跑通了,它就是一个super t这是为什么?就是我觉得智能体是代表未来,是我特别看好的一个新型的业态。

但是我还是特别关注你刚才讲的问题,就是因为最近我跑那个制造业比较多,你前面说的可能有一些像车企,他直接调用了对吧?直接把这个微型或者大模型在。但在制造业里面,其实他们很多企业家都在问我,说我们觉得未来AI对于我们这个高端制造业,智能制造显然是一个重要的加持,甚至是一种革命性的突破。但是他们一直就搞不明白,比如说通用的大模型和我这个行业垂直领域的垂直大模型之间,它将来到底是一个什么样的关系。你说的OEM他们也是希望到底什么供应商和你们这样的这些平台型的大厂商之间,它最后形成什么样的一个业务链条。对这个问题其实是制造业,尤其是先进制造业特别关注。我们也采访了像工业互联,包括做得很好的海尔,其实他们都在深入的探讨这些问题,我觉得是很大的一个场景。

对,这个问题确实很重要。实际上涉及到是大模型在各个垂直的场景里头是怎么用这件事情?我们也经过了一个探索的过程。最初我们的想法就是说我把这个基础模型做得越来越强大。它大家叫通用人工智能,就是说在什么场景我都能够做得很好。

后来发现这件事情其实没有那么容易,每个场景都有他自己的道,而且他的要求也不太一样。有些地方就是你大模型你思考个两分钟再给我结果也OK。你只要给出来结果是准确的,事实是全面的就可以了。但是有些场景就是说如果你一秒钟不出结果,用户就放弃了。所以这两个场景可能就对大模型要求是不一样的。

今天的大模型还不能做到它既是最最强大的模型,又是反应最快的模型。所以有时候就是当这个应用场景需要反应快的时候,我们可能需要一个更小的模型。这种小的模型它由于没有大模型的那种通用的能力,所以在垂直场景当中,你还要对它他做金条,就是做SIT。那么把你行业的数据怎么去灌进去,再经过各种各样的调教,它才能够在这个场景里头这个效果能够跟大模型相比能够差不多。

就类似这种场景我们也见了很多,所以就是去年10月份我们发了文馨的这个4.0之后,主要精力在做什么呢?就是说根据这个最强大的模型去裁剪各种体量的小模型啊啊啊比如说这个10亿量级的模型百亿量级的模型,千亿量级的这个模型。这个模型也许是比如说擅长角色扮演,那个模型也许是擅长逻辑推理等等。根据客户的不同,使用场景的不同,要求出来各种各样的模型。这些模型大多数速度都比1比4要快,成本就是推理成本又比还要低。所以这种应用就是大家更爱用的。

即使到今天我刚才讲的就是这个武艺的调量,调用量最大的一定不是最强大的模型。因为大家都觉得说还是反应太慢了,成本太高了。但是随着时间推移,这个成本会下降,反应速度也会提升。我们比如说前几天刚发布这个EB4的turbo,turbo就是在EB4的基础上效果有提升。但是更重要的是响应速度变得比以前快了很多,然后成本下降了很多。

因为什么呢?就是我们发现真正的市场需求,可能现在更多的是要求你响应速度一定要快,足够的快,对吧?成本一定要足够的低,这样我才能用起来。至于说下一代的这种大模型到底有多强大,在哪些一些场景能够用到,那是一个我们会继续去探索的这个过程。但是今天你要看市场需求的话,其实这个就是规模更小一点的模型,市场需求量是更大的。

但其实另外还有个有趣的问题,因为我们其实这两年主要是生成式AI我们说的大型渠道。我们也很刚才聊到了,其实有些领域我们已经说到了,我们认为比如说金融、医疗,法律这些领域可能是把C端跟B端直接有一个交互的非常好的这么一个场景,会有一个巨大的一个爆发式的增长。但是还有一个问题就是说大家开始担心了。因为我们是财经媒体,我们也很关注,包括这个金融领域,就是生成式A它也会有一个叫幻觉问题是,所以这方面我跟一些业界的朋友交流,他们也说尤其在我们做金融的,我们真的是不大敢最后让这个AI的最后帮助客户做决策。对,像这种表面看好像是C端的一些日常的应用,但其实一旦碰到严谨性的问题时候,怎么去破解这么一个。

矛盾的难题呢?其实我们只要回顾一下过去这一年半的时间大模型发展的历程,我相信你的信心会大增。就是一年前如果你跟大模型进行交互,去问他一些问题的话,你会经常发现幻觉问题,对吧?今天你在用的话,其实应该说是你会很少发现幻觉问题。尤其是用最大规模最强大的模型的时候,已经很少出现幻觉问题了。

为什么呢?就是说随着技术的这种不断的提升,一开始大家就说纯粹用原教旨的这种transformer去做出来的这个大模型,他确实是非常难避免幻觉的,因为它是个概率模型。你跟他说今天星期几,对吧?他回答星期一到星期天的概率是一样的,因为确实现实是当中这七天的概率是完全一样。但是要解这个问题,你就要在原来这个transformer这个架构上要增加一些东西。就是这个专业词语叫red,就是retrial augmented generation,对吧?我只要稍微借助一点工具,我就可以消除这样的幻觉。是啊随着你使用这种工具的能力越来越强,你就会发现说在各种场景下幻觉是越来越少的。

当然了,就是我刚才也讲今天的这种深圳式人工智能更像一个扣拍了。在特别严肃,对准确度要求特别高的场景下,我们还不能让它全部自动去实现,还要靠人去把这个最后一道关。这样的话就是一方面效率提升,另外一方面在准确度上,在消除幻觉上也能够起到比较重要的作用。其实我们也必须承认,就是人也有错的时候,甚至有时候这个错误率更高,对吧?所以这就是我们也不能够完全避免。然后。

还有一个比较好奇的问题,互联网时期SARS在中国没有to b没有做起来,为什么你会觉得在AI时期这个AI as a service可以在中国做起来呢?

To b方面的话,对,就是我觉得在这个SARS时期之所以没有做起来,更多的是因为比如说像互联网大的这些平台,它既做了to c的事儿,也做了to b的事儿。换句话说,比如说将在美国的话,可能就是每一个商家都有一个自己的这种电商网站,就是用户也可以到他的网上去购物。今天,就是在比如说中国的话,大家都到电商平台去购物,这些电商平台上就是商家所需要的这些个to b的这种能力,电商平台都替他做了,所以他不需要这种东西了。但是在美国的话,你自己比如说你是duty,你要建立一个自己的网站,上面要能够卖东西,要有各种各样的这种功能,要对自己的用户进行了解,那是需要做很多投入的。所以在某种意义上讲,其实中国并不是没有这样的需求,而是说这些需求被更大的平台所满足掉了。

但是在AI时代,我觉得情况又发生了变化。刚才也讲它不是先诞生的,不是一个从0到1的,大家过去从来没有见过的这个业态。它先诞生的恰恰是对于现有业态的一个enhancement,一个增强。所以就是当现有业态被增强,效率越来越高的时候,它可能就更能够抵御类似于像互联网平台这样的公司对他的这种业务的这种侵蚀。所以这方面我倒是觉得AI的这种to b的需求,在中国会比互联网to b的需求要大很多。

好的,如果我们还感兴趣一个问题,就是其实现在行业里面争议很大,也非常有趣,大家也很关注就是开源闭源。这个是你也是亲历其中,就是说你的观点当然一直是认为这个闭源当然好了,对吧?它的质量。它的速度等等等等。但是现在我们看到其实你一方面在这么说,但是我们现在看到开源的大模型越来越多了,而且甚至有些能力都不亚于我们说的GPT4了。就这个问题你怎么看?你们还是不是还是会坚定的走这个闭源这么一个路线。

我觉得开源其实是一种智商税。就是说你仔细想一想,就是说当我们为什么要去做这个大模型?我刚才也讲的是它能够有应用,这些应用在各种场景下能够为客户,为用户提升效率,降低成本,对吧?就是产生他过去产生不了的这个作用。所以当你理性的去想,就是说这个大模型能够给我带来什么价值,以什么样的成本给我带来这个价值的时候,你就会发现你永远应该选择闭源的模型。

就是今天在闭源阵营,无论是叉GP也好,文心一言也好,以及各种各样的这个模型。你看一下它的平均水平,它一定是比这些开源模型要更强大的对你看它的推理成本,它一定是比这个开源模型要更低的。反过来,就是你用一个闭源的模型,就是算力可以跟大家共享。那么就是这些个能力的话,它有同等参数下,闭源模型一定是比开源模型能力要更强。那同等能力下,它的就是由于BI模型可能参数会更规模会更小一点,它的推理成本就会更低。所以长久来看,就是我觉得这个闭源模型,它的使用一定是supermajority,一定是非常大比例的这种会超过开源模型。

当然了,我也不能说就是开源模型没有存在的价值。其实比如说从学术研究的角度,假如说你是一个scientist,你想研究这个大模型到底它原理是啥?对,因为业界其实也一直在抱怨,就说OK大模型虽然厉害,但是它不可解释。对对对吧?你怎么解释大模型到底为什么会具有这种能力,或者说你是一个高校学生,你想学这些东西,你想拿来练练手,那你想看一看就是开这个大模型到底是怎么做出来的。在这些场景下我觉得有它的价值。但如果你是一个企业,你要的就是说大模型能够给我带来价值上的增益。你只要一算账就会发现开源模型是没有机会的。

对,但是我看百度也是用的公有云的一个方式,对吧?所以就是百度本身大模型闭源加公有云,对这样的一个一套的打法,对to b的客户来说你有什么考量吗?

我觉得again就是说to b的客户还是说他要选择一个模型对他来说性价比最好的。一方面这个模型要对它的这个应用能够产生价值,另外一方面就是说成本要足够的低。很多时候就是你看着有用对吧?一算这个成本不划算,那么客户就去放弃了。这也是为什么我刚才讲的就是开源模型打不过这个闭源模型。就是你只要理性的去看待你的收益是什么,你的成本是什么,你就会发现说你最好还是去选择这个闭源的模型。

当然闭源模型不是一个模型,它是一系列的模型,根据你的使用场景,你去balance一下,到底要多好的效果,要多快的推理速度,要不低的成本。所以那门新模型也非常多的这种变种,可以根据用户的需求让让他来选择。而这些相对来说规模更小的模型,都是从最大最powerful的模型才剪出来。这也是我觉得开源模型不具备的一个优势。当你最先进的模型是闭源的时候,我根据这个闭源往下去裁剪,裁剪出来一些更小规模的模型,仍然比那些同样规模的开源模型效果要更好。

我们也看到一些参数规模比较大的这种开源模型,其实这个就更没有道理了,对吧?当规模越大的时候,你会发现说它的这个推理速度变得更慢了。所以如果你要是不在乎这个推理速度的话,你就用最强大的地源模型,那它效果一定是更好的。而且参数规模越大意味着什么?

意味着对算力的消耗也越大对,也就是说你得准备更多的服务器来伺候这个大模型。其实这东西是根本不划算的,越往上走越应该去共享这个算力,这样才能算过来账。所以这就这我觉得大家只要是不是在那儿坐而论道,而是真的说我对这个模型有需求的时候,你就会发现这里头就几乎是一个no brain,你不可能去选择一个开源。

所以我们开始从技术问题逐步聊到我们财经里面,开始谈钱了。我会主动说他的这个用户成本问题。确实我想用户一开始是好奇,但最终他还是会看一个我们说性价比。但是我们现在看到就是价格战已经开始打起来,其实还是蛮出乎我们意料。

这么快一年多是我们看到很多闭源大模型的API的调用的费用越来越低了。而且很多又有开源大模型可以选。所以在这么一个市场的这么一个商业环境之下,我们很关注百度肯定是身在其中。那大模型靠推理这样收费的这种商业模式,他未来成立不成立,以后我们市场再去比拼大模型的话,会比拼哪些点?就是你刚才提到的可能是速度,成本等等等等。

你怎么看?对,这个是很好的问题。说实话我们也在内部不断的在思考,在讨论这个问题。价格战是我觉得几乎是不可避免的,在中国互联网干了这么长时间,其实已经对价格战非常熟悉了。但就像你讲的,确实他来的比我想象的还要更早一点,就是这么早就开始把这个价格打到了几乎不可思议的这种低的地步但。我觉得某种意义上讲也不是坏事。当你足够低甚至免费的时候,就会有更多的人来有积极性来尝试在大模型基础上去开发各种各样的应用。也就是说大模型对于各行各业的渗透速度会更快。

刚才你问的实际上就是说是那你都免费了,或者说价格足够低的话,你大模型公司靠什么赚钱,对吧?我是这样想的,就是大模型这个天花板还是很高的技术的天花板,就是今天我们还是对于大模型的能力有很多不满意的地方。我们仍然需要很多非常优秀的技术人员,需要很多的算力,需要很多很多的数据才能够训练出来下一代的这个大模型。我们还可能需要下一代的大模型,下一代的这种大模型,所以最终我觉得大家是要去拼谁的技术更好。你的技术好,你为客户产生了更好的价值,将来你还是能够收到费的。

今天之所以把这个模型达到足够低,是因为现在这个模型的能力其实还没有到最好,没有到最好的时候,大家都差不多的时候,那行,就拼价格呗,谁的价格低就用谁的。时间长了之后,市场本身会回归理性?那同样的效果,就是当我的成本比你低的时候,那你打价格战你肯定打不过我。对,时间久了之后你你你就退出了。这个最终还是说谁的技术好,谁的效率高,谁会胜出。

对对对,刚才Robin说这个价格战来的时间比你想象中要早很多,也比我想象中要早很多。对,这个才一年半的时间已经开始打价格战了。对,但你觉得这个价格战会持续多久的一个时间呢?然后我可能大家有一些人就觉得说技术不行,我没有水,我要退出了,可能就最后的winner会浮现出来。

这个很难讲,现在就是有些创业公司是玩家,但是也有很多非常大型的这种互联网平台公司是玩家。烧钱的话,其实理论上讲是可以烧很长时间的。但我觉得烧钱不是这个事情的本质,这个事情的本质仍然是谁的技术更好,谁的效率更高。当你的技术好效率高的时候,你就不怕去打这个价格战。所以多长时间都OK,最终它会是一个优胜劣汰的这样的过程。

即便不是技术为本质,即便当年那个共享经济烧钱烧到最后还是要走经济规律,走市场规律,是一样的。对,尤其是咱们直接去通过我们的质量和技术提供给客户做服务的时候,我们觉得也确确实实是这么一个大的一个规律。对,但还有一个很前面其实你已经提到一个问题我们也很关注。就是关于我们说这个规模和能力,对大模型的规模?它的能力以前大家都觉得没问题,sky in了就这个。但是最近开始不同的声音出来了,确实是我看很多行业也是他做一些小的模型,或者是做一些他速度更快,效率更高。这个第一性原理会不会这么快又被颠覆掉?

你说scaling law这个事儿?我觉得是这样的,就是scaling low本身可能还会有若干年的生命周期,但与此同时的话,就是在此之上会叠加出来各种各样的创新。刚才讲的这个智能体,它的反思的能力,它的进化的能力等等。其实跟skin已经有点low couple了,它是两个路线在发展,但是它仍然是基于这个transformer这类型大模型在再往上再做。那未来再过一两年还会出现什么新的这种技术创新,在此基础上再去叠加。我们也不知道,就是大家都在探索。换句话说我觉得skin in law短期之内倒不会被颠覆,但是在skin law之上会叠加出来很多很多我们现在可能还无法想象的创新。

对,还有就是关于这个AGI也是众说纷纭了。我们也想听听你的观点,就是说人类关于这个AGI的标准问题,各有各的说法对吧?有时候图灵,有时候啥的,你说过好像距离这个AG还有10年的美国在未来tex这个会议上面还有十年的时间。到底你个人认为这个AGI实现的标准是什么?还有哪些路径可以让我们更快的去通向AGI?

对,这个确实业界我觉得没有一个标准答案。就是在我心目当中,以前大家觉得说通过图灵测试就实现一件,实际上现在大模型已经通过了图灵测试。但是人们所说的这个AGI其实大多数时候已经不是指的通过图灵测试。那么什么叫AGI?就是在我的这个心目当中,AGI就是说是机器,或者说AI他能够具备人在任何场景下,任何场所具备的能力,就是journal in钛的人是通用的对,我不管在什么场景,我的能力都是跟人是一样的,这是一个很高的要求。其实今天你看像我们做这个无人驾驶,做了有11年的时间了,仍然不能说这个技术成熟。这还是一个专用场景对吧?AI都做不到,对。

非常的成熟。

小概率事件对你你不能容错的话,那这个就不行了,所以就是说真正要实现AG,我认为确实是还需要很多很多年。但是业界有人说,以前可能再过两年就实现了,或者再过五年什么的都有啊。但是我自己的判断是十年以上。对,也许十年,也许20年,也许更长的时间。

但我们听到很多人在讲这个AGI是一种信仰,当你把它当做一种信仰的时候,谁的信仰会明年就实现了?这是自相矛盾的对吧?如果是一个信仰,它就是你值得为之长期奋斗的这么一个目标。对,啥叫长期呢?那你如果连十年都没有的话。

容易了就不叫信仰。

那你不能把它叫做信仰。所以我觉得还是一个很有意思的问题,就是值得大家不断去探讨。

也让人兴奋,每天都可以去关注他的一个飞速的发展。没错。

是是是,将一生都奉献在这个上面。对我再加一个刚才那个加的问题,就是再回到AGI的事情上面,你觉得在中国市场会是一个winner takes all的这样的一个局面吗?还是说等价格战之后会剩下几个主要的player,可能还有一些更小一点的player,这样的一个landscape。

我这样想的,其实就是这次声称是AI,它是对于整个IT技术栈的一个大的变革。我们一般觉得认为就是过去的IT技术栈,就是说芯片层、操作系统层、应用层或者软件层,就这三层,对吧?那么到这个生成的AI之后,我们认为这个IT的技术栈变成了四层。芯片层、框架层、深度学习框架,然后是模型层,然后是应用层。

我认为就是在每一层可能都会诞生至少2到3个大的这种玩家。那到这个应用层的话,就会刚才讲的可能数以百万计甚至数以千万计的各种各样的应用都会出来,也会逐步的出现超级应用。应用当然就是by definition超级应用它就是不会很多,就可能是三五个之类的。模型层我觉得也许两三个就足够了。因为最后还是大家拼搏的是效率。你的效率如果不够高的话,慢慢就觉得说还不如用别人的去在这之上再去开发更多的应用是更划算的。所以它在每一层其实都有机会,但是就是不同的层面,它的这种发展规律,需要的这种expertise什么都不太一样。

然后再回到一个scaling law的一个问题,现在大家其实都在等GPT five,但是就一直在延后,所以我在周围听到的担忧的声音也是越来越高,就怕说比如说就是5到10万亿这样的参数加上去,但是最后大家发现说它的效果并没有这个月升这么多。那是不是会打击一些人们对scaling law跟AGI的信仰。就是说可能我们的AGI没有办法用scaling law的这个方式去带我们去实现了。你对这个有担忧吗?

我不是很担心这件事情,我觉得大家应该更关注应用,而不是关注基础模型。某种意义上讲就是基础模型迭代速度稍微放缓一点不是坏事。就是说今天的这些应用的开发者,他有一个相对稳定的base来开发这个应用的话其实是效率更高一些的。如果模型天天在那儿变,它不每天都要重写一遍,就是过去的这段代码,那是很累的。但是是在现有基础模型的这个基础上去不断的去做微调,去做一些渐进式的这种迭代和创新。其实你看到它是一直在发生的,无论是openAI不断在推4V4O什么这些东西,还是百度我们的这个turbo模型,我们的小量级的模型,可能都是在根据市场的需求在做这种迭代。但是长远来讲,我确实认为下一代的这个大模型一定会比现在这一代最强的大模型要强大得多。那么什么时候推出,我不是很着急,就是觉得说我们应该更多的sit back去看一下真实的市场需求是什么,我们下一代模型在迭代的时候,要根据这个市场需求来迭代这个模型。

如果我们认为AGI10年都达不到,也就是说下一代模型离AGI其实还有很远的距离。也就是说它有它擅长的,还有它不擅长的地方。如果它擅长的恰好不是市场需求的那这个意义是不大的,对吧?如果它就不擅长的恰好是市场需求的那我们去浪费了很多资源去做一些不该做的事情。

这也是为什么我更关注应用。我想知道就是市场上因为市场上要求的是说OK我是一名销售,我是比如说一个卖车的销售,我用什么样的话术能够丰富经典的这个人解决问题,买我的车。而不是说我怎么能够考过高中数学的这个高考?你考过高中数学又怎么样?

你还是要成为一个销售,去说服客户买车。

就是这种市场需求当不是很清楚的时候,拼命往前跑,去做一个名义上更强大的模型,其实很有可能是会走弯路,是浪费资源的。

对我也非常同意。那你觉得接下来大家在卷应用之余,会不会开始卷一些中小模型?比如说在国际上,比如说mistral这样的中小模型也是受很多开发者欢迎的,那接下来你觉得比如说百度对于中小模型上,还有一些模型蒸馏上有什么样的策划吗?

一些计划吗?会,我觉得就是我们看到的真实需求确实在绝大多数情况下都不是最大的模型,它都要求这个模型变小,变小意味着什么?速度快,成本低,对吧?就是当他比如说我干这个事儿,总共能够给我带来每年100万的增益,我一算说最大的模型要120万的成本,那我肯定不干了,对吧?那我提我给你这个大模型公司提的要求,就是说你能把成本给我降到80万,甚至降到8万,对吧?那我们就得想说我怎么把我最强大的模型蒸馏到这个足够小,也就是说足够成本低的时候,仍然能够满足你这个场景的需求。

我觉得这方面闭源模型仍然有优势,因为必然有最强大的基础模型。它根据这个模型蒸馏或者裁剪出来的这种小模型,比那些开源模型,不管是用更大的开源模型来蒸馏还是怎么样。它毕竟就是说你那个基础没有人家那个基础好的时候,你做出来的东西它还是在竞争力上会有这个劣势。所以这方面我们看到真实的需求确实是非常多的,我们也觉得这方面的机会仍然在边缘不再开。

非常感谢若冰,我们这个演播室对面就是徐汇滨江,非常漂亮。告诉大家一个很让人开心的消息,马上会建成一条缆车的这个索道横跨长江两岸,所以我们也期待以百度为代表的这样优秀公司,早日为我们建成人类通向未来的AI桥梁。谢谢。

好啊,我们努力,谢谢。