在本期节目中,我们将揭开Meta不遗余力超越OpenAI的GPT-4的努力。内部法庭文件显示该公司高度关注Llama 3的开发,我们将探讨推动这场AI军备竞赛的雄心勃勃的战略、伦理困境和高风险竞争。从使用有争议的训练数据到公司对开源创新的痴迷,我们将发现是什么在推动这场主导AI领域的竞争——以及这对未来科技意味着什么。加入我们,一起激动人心地深入探索人工智能的尖端技术!
<raw_text>0 欢迎回到另一期AI播客,我们将一次剖析科技世界最新最伟大的故事。我是你的主持人Eli,今天我们将深入探讨一场引人入胜的高风险竞争,这场竞争正在撼动人工智能的基础。想象一下Meta,科技巨头之一。
不仅仅是在竞争,甚至可以说是痴迷于超越OpenAI具有突破性的GPT-4。没错。内部法庭文件揭开了Meta幕后发生的事情,揭示了他们在开发Llama 3(他们对尖端AI竞争的回应)时所展现的野心、创新和争议的结合。好吧,为什么我如此兴奋地与你们分享这个?嗯,AI……
一直以来都是我个人着迷的对象。
从观察AI如何改变行业到想象其未来的影响,我们并非每天都能窥探科技高管及其幕后战略的思维。这就像发现了硅谷秘密的宝藏。就个人而言,我一直对科技中创新与伦理之间的平衡感兴趣。
阅读关于Meta不遗余力地击败GPT-4的文章,让我想起了我自己的友好竞争时刻
无论是在学术界还是体育界,突破极限的感觉令人兴奋,但往往会带来关键的问题。对于Meta来说,风险要高得多,尤其是在诉讼中指控其在训练数据中使用了受版权保护的材料的情况下。这是一个关于野心、权力以及科技界允许范围的故事。所以准备好迎接这期令人大开眼界的节目吧。你知道,这次我们将关注一些非常有趣的东西,一些最近解封的法庭文件。
它们让我们看到了,嗯,基本上是Meta如何开发其AI的幕后一瞥。这非常吸引人,你知道,只是看到像这样的科技巨头的内部运作,尤其是一个试图与AI开发领域的大腕竞争的科技巨头。这些文件描绘了一幅非常清晰的画面,几乎可以说是痴迷于击败GPT-4。你们都记得GPT-4吧?OpenAI的那个非常强大的AI模型,对吧?
好吧,似乎赶上它,然后超越它,是Meta的绝对首要任务,至少根据Meta生成式AI副总裁Ahmad Al-Dali的说法是这样。有一条信息中,Al-Dali说,老实说,我们的目标必须是GPT-4。我们有64000个GPU即将到来。我们需要学习如何构建Frontier并赢得这场比赛。
我们说的是64000个专门用于处理数据和训练其AI模型的专用处理器。我的意思是,很明显Meta愿意投入大量资源到这个项目中,但这里才是有趣的地方。Meta以公开发布其AI模型而闻名,比如他们的LLAMA模型,对吧?是的,这种开源方法,许多人认为这与OpenAI和谷歌对其封闭和秘密模型的做法相反。但是这些核心文件显示了完全不同的东西。
虽然他们正在租赁开放模型,但Meta实际上正专注于击败那些封闭模型。他们将GPT-4之类的模型视为真正的考验,就像AI成功的真正衡量标准一样。他们关注的不仅仅是OpenAI。在另一条信息中,Aldali有点轻视Mistral。你们知道那个法国开源AI初创公司吗?他说,Mistral对我们来说微不足道。我们应该做得更好。
他们似乎并不满足于竞争,他们想要成为最好。主导整个AI世界,包括开放和封闭模型。这种成为AI领域第一的动力促使Meta采取了一些相当激进的策略,尤其是在获取训练模型所需的数据方面。
随着我们深入研究这些文件,我们将看到这种方法如何使他们陷入困境。从法律角度来说,我的意思是,现在它引发了一些关于AI开发伦理的棘手问题。这就是事情变得有点混乱的地方。整个数据获取的事情。看,要训练这些大型AI模型,你需要大量的数据。我说的是文本代码、图像,所有这些。
你知道,你喂给模型的数据越多,它学习得越好,效果就越令人印象深刻。但是获取所有这些数据,嗯,这并不总是那么容易。这些软木塞文件暗示Meta可能在构建超级竞争性AI模型的追求中走得太远了。一位高管甚至说,Llama 3是我唯一关心的。这足以说明为了取得成果,无论如何都要承受多大的压力。那么,在所有这些之后,这种对数据的无情追求之后发生了什么?
好吧,当Meta最终在2024年4月发布Llama 3时,这是一件大事。我的意思是,它与来自谷歌、OpenAI和Thropic的顶级封闭模型不相上下。甚至击败了来自稻草的开源模型。他们做到了。构建了一个能够与大公司正面竞争的强大AI。但是有一个问题。还记得我提到的那些激进的策略吗?好吧,看起来一些数据可能是受版权保护的,这导致了一堆针对Meta的诉讼。看起来好像在他们通往顶峰的比赛中,他们越过了某些……
你知道,道德和法律界限,整件事让你想知道,他们为什么如此专注于GPT-4?是什么让那个模型如此努力地推动他们?好吧,GPT-4不仅仅是强大。它就像一把瑞士军刀。它可以写诗、编写脚本、创作音乐、撰写电子邮件、信件,你想到的它都能做。它可以以一种有意义的方式回答你的问题。
即使它们是开放式或奇怪的,这就是它的多功能性。你知道,能够如此出色地完成所有这些不同的事情,这就是Meta想要的。他们知道,AI的未来不仅仅是关于蛮力的处理能力。它是关于能够适应各种应用程序和工作流程的模型。为此,他们需要一个能够从大量不同数据中学习的模型。甚至,你知道,稍微弯曲一下规则,我们已经看到了Meta的雄心壮志。你知道,他们想要成为最好的动力,以及他们愿意为此付出什么。但这整件事提出了一个非常重要的问题。
这对开源AI意味着什么?你知道,Meta是开源AI的大力支持者,它发布了供任何人使用和修改的模型。许多人认为这是使AI更加民主的一种方式,你知道,使这种强大的技术能够为研究人员、开发人员甚至普通人所用。但是,如果推动开源AI的公司因数据问题而陷入困境,会发生什么?这说明了整个方法的什么问题?如果获取训练这些模型的数据成为法律雷区,开源AI真的能行得通吗?
这是目前AI领域每个人都在问的问题。一方面,你可以说开源AI对于创新和协作非常重要。当模型开放时,任何人都可以帮助开发它们,这将导致更快的进展和更多AI的用途。它还有助于确保权力不会集中在少数几家大公司手中。
但另一方面,人们担心滥用。如果强大的AI模型只是摆在那里供任何人使用,还有什么能阻止它们被用来创造坏东西呢?我说的是有害内容、虚假信息,甚至是深度伪造,这些都可能真正损害我们对机构的信任。这种想要开放和需要负责任发展的张力是整个AI辩论的核心。而Meta的故事就是一个完美的例子。它展示了AI的潜力以及随之而来的问题。因此,当你继续学习AI时,