在我看来,阿里巴巴在人工智能领域取得了令人震惊的进展,他们提出了一种全新的方法来生成高质量的人工智能模型响应。这与你以前听说过的任何东西都不一样。他们刚刚发表了一篇研究论文,介绍了这项技术,名为“零搜索”(Zero Search)。它本质上允许
人工智能模型进行自我谷歌搜索,但它不使用任何人工智能模型。它将训练成本降低了约88%。所以,最大的亮点是它大幅降低了训练成本。我预计许多人工智能模型都会复制这种模板。但这绝对令人着迷。所以
阿里巴巴的研究人员提出了这个方法。在我们深入探讨之前,我想提一下,我的初创公司AI Box已经正式推出。我们的测试版AI box.ai 提供了一个游乐场,它允许你以每月20美元的价格使用所有顶级AI模型(文本、图像、音频)进行聊天。所以,你无需为每个模型单独订阅,每月20美元即可访问所有顶级AI模型,例如Anthropic、OpenAI、Meta、DeepSeek、
11 Labs(用于音频),以及所有这些顶级模型,包括Ideogram(用于图像),你可以在同一个聊天中与它们进行交互。
我最喜欢的功能之一是能够向某个模型提问,然后用另一个模型重新运行聊天。很多时候,我会让ChatGPT帮我写文档或帮我写邮件,或者修改一些措辞,但我不喜欢它的语气,所以我用Claude重新运行它,我发现效果更好;或者有时我想让它更尖锐一些,我就用Grok运行它。所以你有很多不同的选择。
然后你会有一个小标签,可以并排打开所有回复并进行比较,看看哪个最符合你的心意。如果你感兴趣,请查看AIbox.ai。链接在描述中。好了,让我们回到阿里巴巴正在做的事情。正如我提到的,他们推出这项新技术,名为“零搜索”(Zero Search)。它本质上允许他们开发他们所谓的先进搜索功能。但实际上,他们所做的是模拟搜索。
搜索结果数据。例如,你问它一个问题,它会创建一个模拟的谷歌响应页面,它实际上会生成,例如,当你使用谷歌搜索时,你会得到20个你可以查看的网站链接,它就像生成20个虚假的网站或AI生成的网站,它认为这些网站通常会
显示在该问题中。起初我有点困惑,然后它本质上让AI模型运行,它有一个算法,它会选择哪些是高质量的,哪些是低质量的,选择哪些是最好的响应。这本质上帮助它给你一个好的,嗯,
答案。这对我来说太迷人了。起初我想,为什么?为什么他们要这样做?这看起来太奇怪了。你为什么要生成多个结果?你为什么必须生成一个AM模型?这本质上只是最新的一种方法,嗯,他们实现了几件事。首先,更高质量的结果,对吧?这有点像我们提出“思维链”(chain of thought)或告诉它逐步思考过程时,它突然开始得到更高质量的结果。这真的很酷,因为它就像,
它生成20个页面,然后浏览并查看20个不同结果的内容,并确定最佳答案。所以它就像,它在某种程度上重复生成相同的东西20次。所以你会得到更好的回应。但另一个有趣的事情是,他们说,
这取代了使用昂贵的谷歌搜索API。谷歌搜索会提供一个API。如果你想根据互联网上的所有数据训练AI模型,你只需获取谷歌API,运行它,就可以根据互联网上的所有内容训练你的模型。但这非常昂贵,你为此要向谷歌支付大量资金。所以他们已经用合成数据取代了谷歌API。这听起来很疯狂,听起来不可能,但实际上并非如此。
遥不可及。有趣的是,因为,对不起,因为这些AI模型已经拥有所有数据,你知道的,在,以及整个互联网,几乎所有数据,他们已经从维基百科和他们可以获取的所有数据集中获取了所有数据。他们实际上已经拥有所有答案了。所以如果他们已经从谷歌抓取了所有内容,他们就不需要再次抓取,仅仅因为他们正在进行新的模型训练。他们可以使用旧模型的合成数据来
本质上创建新的数据进行训练。这听起来有点疯狂,但这就是他们对此的具体说法。他们说,强化学习训练需要频繁的部署,可能涉及数十万次搜索请求,这会产生大量的API费用并严重限制能力。
为了应对这些挑战,我们引入了零搜索(Zero Search),这是一个强化学习框架,它可以在不与真实搜索引擎交互的情况下激励LLM的搜索能力。这对我来说太迷人了,这是一个非常有趣的概念。他们在做这件事时发现,这实际上优于谷歌。所以
他们还提到的一件事是,“我们的关键见解是,大型语言模型(LLM)在大型预训练过程中已经获得了广泛的世界知识,并且能够为给定的搜索查询生成相关的文档。真实搜索引擎和模拟LLM之间的主要区别在于返回内容的上下文风格
返回内容。就像他们提到的那样,他们已经从预训练中获得了所有数据。当他们实际进行训练时,他们不想再次查询谷歌并再次向它支付所有费用。那么输出的质量如何呢?这是我最大的疑问,我被震惊了。
所以他们做了一系列实验。他们使用了七个不同的问答数据集,他们的新方法“零搜索”(Zero Search)不仅匹配,而且通常实际上优于使用真实搜索引擎数据的模型的性能。他们有一个70亿参数的检索模型,这并不是很大。
嗯,它实际上达到了与谷歌搜索相同的性能。所以,当你使用谷歌搜索时,他们只是说你获得的响应或你获得的前20个链接的质量,这些信息组合在一起的质量与70亿参数模型所能达到的质量相同。所以这是一个比较小的模型。
然后他们稍微提升了一下,他们有一个140亿参数的模型,这仍然不是最大的模型。我认为Meta有一个5000亿或4000亿参数的模型,嗯,它可能是他们最好的。所以还有更大的模型,对吧?但他们的140亿参数模型,嗯,
实际上优于谷歌搜索。所以70亿参数的模型与谷歌搜索不相上下,使用LLM与谷歌搜索不相上下,而140亿参数的模型则更好。因此,成本节约是巨大的,使用谷歌搜索API进行64000次搜索查询。
这将花费他们大约586美元。当他们使用他们的140亿参数模型,并且只是在A100 GPU上使用LLM进行模拟时,它大约花费70美元。所以,从580美元到70美元的训练费用。这是88%的减少。
在他们的论文中,他们引用道:“这证明了在强化学习设置中使用经过良好训练的LLM替代真实搜索引擎的可行性。”我认为我们将达到它完全取代搜索引擎的地步,就像字面意义上的那样。我们看到ChatGPT几乎做到了这一点。人们只是使用ChatGPT而不是谷歌。但我认为,
对谷歌的需求将会消失,因为谷歌上的所有数据现在都被这些模型吸收了。随着它们在吐出数据方面越来越好,并且不会产生幻觉,并以一种真实的方式提供数据,就像我们所看到的谷歌那样,谷歌实际上就不需要存在了,也不需要将人们发送到其他地方。现在,
我知道你在想什么。你可能会想,你怎么可能取代谷歌?所有这些新信息不断涌现。例如,这篇文章是新发布的信息,它不在他们的模型中,但在谷歌中。所以我认为,总会有一个地方可以容纳所谓的“新闻”,也就是新信息。你可能需要一个API来
获取新闻或新信息的来源,例如社交媒体,当然Facebook完全封锁了。所以除了Meta可以访问之外,其他都不行。但你还有Twitter或Reddit。所以我认为Twitter和Reddit,也许Twitter更多,因为它有很多第一手的新闻视频之类的东西。所以Twitter/X,无论你想怎么称呼它,我认为这个数据集非常有价值。所以我认为Grok在这个新世界中将会做得非常好。他们可以创建自己的搜索引擎,它只是将信息链接到Grok
它将链接到新闻文章和其他内容。所以他们真的拥有你所需要的一切。当然,新闻文章是另一件事。你可能想要新闻,你会看到OpenAI显然意识到了这一点,因为他们正在与Axel Springer和所有这些不同的,你知道的,所有这些不同的新闻机构达成协议,以获取他们的数据。所以,
记者撰写所有这些新的新闻文章之类的东西是很好的,但他们经常是从Twitter上获取的。所以它有点像,我认为,一个与LLM相结合的Twitter和新闻组合。你实际上不再需要谷歌了。你不需要那个API。你可以不用它运行。对于像Meta这样的拥有Facebook访问权限的公司来说,
Facebook,他们可能只需要自己就可以了,因为用户正在分享新闻。他们可以获取那里的热门内容并将其添加到他们的LLM中。好了,他们就可以使用了。然后,当然还有Twitter,很多东西都是第一手上传的,他们应该没问题。Reddit甚至可以尝试一下,或者他们正在将他们的东西授权给谷歌来做一些事情。所以我认为Reddit和谷歌之间的合作关系可能是这样的。但这太迷人了。这完全改变了我们看待信息的方式。是的。
好坏参半,因为我肯定有很多网站所有者对他们的信息被抓取后不再需要感到不满,因为它们已经被抓取,现在它们就在那里了。所以看看事情会如何发展将会很有趣,但非常令人着迷。我被成本节约震惊了。我被他们能够在这方面超越谷歌的方式震惊了。嗯,所以这是,嗯,
阿里巴巴推出的一个非常非常有趣的工具,一个引人入胜的新训练理念。非常感谢您收听今天的播客。如果您喜欢它,请务必留下评分和评论。如果您正在寻找一种方法来减少您20种不同的订阅费用,不同的AI模型,请查看AIbox.ai。我们有很多令人兴奋的新功能即将推出。
即将推出。我们可以访问那里所有30个顶级AI模型,每月20美元即可使用。所以非常有趣。非常感谢您的收听,我们下次再见。