OpenAI's $6.6 billion funding round, the largest venture round ever, highlights the capital-intensive nature of developing next-generation AI models. The CFO, Sarah Fryer, emphasized that scaling laws now require orders of magnitude increases in model size, making compute resources and talent critical investments. This funding will enable OpenAI to build models that are significantly larger and more powerful, potentially unlocking new capabilities and innovations.
A 10 trillion parameter AI model, two orders of magnitude larger than current state-of-the-art models, could lead to a leap in innovation similar to the transition from GPT-2 to GPT-3. Such a model might unlock new scientific discoveries, improve reasoning capabilities, and enable applications that were previously impossible. It could also lead to a flourishing ecosystem of AI-driven companies, much like the boom seen after GPT-3's release.
The O1 model introduces a more deterministic and accurate AI, reducing the time founders spend on prompt engineering and output accuracy. This allows them to focus on core software development, user experience, and business growth. However, there is a concern that O1's power could centralize value capture within OpenAI, potentially limiting opportunities for other builders. On the other hand, it lowers the barrier to entry, enabling more competition and innovation.
AI models like O1 can significantly enhance enterprise automation by improving accuracy and reducing the need for human intervention. For example, companies have automated up to 60% of customer support tickets, leading to cost savings and improved efficiency. This allows businesses to achieve cash flow break-even while maintaining growth, creating substantial enterprise value and freeing up resources for further innovation.
AI voice applications, such as OpenAI's real-time voice API priced at $9 per hour, pose a significant threat to industries reliant on call centers. These applications can handle tasks like debt collection and logistics coordination with high accuracy and low latency, potentially replacing human workers in these roles. This shift could lead to cost savings for businesses but also disrupt traditional employment models in these sectors.
Model distillation allows larger, more expensive models like O1 to train smaller, cheaper models that retain much of the original's capabilities. This makes AI more accessible by reducing inference costs and latency, enabling broader adoption. For example, OpenAI has enabled distillation from O1 to GPT-4.0 Mini, allowing developers to use smaller models for routine tasks while reserving the larger model for more complex problems.
Developers are increasingly diversifying their use of AI models, with platforms like Claude and Lama gaining significant market share. For instance, Claude's developer market share among YC companies jumped from 5% to 25% in six months. This diversification reflects a shift away from OpenAI's dominance, as developers seek models that better suit specific use cases, such as coding or legal applications.
AI models with 10 trillion parameters could revolutionize scientific and technological progress by analyzing vast amounts of data and generating original insights. They might unlock breakthroughs like room-temperature superconductors, fusion energy, or advanced space travel. Such models could act as a 'rocket to Mars' for human intelligence, accelerating discoveries and solving complex problems that have eluded human researchers for decades.
如果O1如此神奇,这对创始人和建设者来说究竟意味着什么?一种说法是,这对建设者来说是不利的,因为O1可能非常强大,以至于OpenAI将独占所有价值。你的意思是他们将捕获所有未来价值的光锥?是的,他们将捕获所有现在、过去和未来价值的光锥。哦,我的上帝。
另一种更乐观的设想是,我们看到创始人们花费了多少时间,尤其是在批量处理过程中,用于使提示正常工作,使输出准确。但如果它变得更确定性和准确性,那么他们就可以将时间花在基础软件方面。赢家将只是那些构建最佳用户体验并正确处理所有这些细枝末节的人。
欢迎回到《光锥》的另一集。我们正处于这样一个时刻:OpenAI完成了有史以来最大规模的风险投资,金额为66亿美元,后面带个B。以下是OpenAI首席财务官莎拉·弗莱尔(Sarah Fryer)关于他们将如何使用这笔资金的介绍。首先是计算,而且它并不便宜。
其次是优秀的人才。当然,还有任何一家更传统公司的所有正常运营支出。但我认为,我们现在正处于一个规模法则中,数量级很重要。下一个模型将比前一个大一个数量级,下一个又会更大,以此类推。因此,这确实使其非常资本密集型。
所以,这实际上是关于数量级的。让我们展望未来。那里有10万亿个参数,10万亿参数的大型语言模型,比今天的最先进技术高出两个数量级。
会发生什么?人们真的会提出查询并实际使用这些10万亿参数的模型吗?看起来你每处理一个标记都要等待10分钟。是的,现在作为背景,前沿模型,我的意思是,它们并没有公开有多少参数,但大约在5000亿左右,比如Llama 3,40亿或50亿。
据推测,Anthropic有5000亿个参数,GPT-4大约也有这么多。达到10万亿,这是一个两个数量级的飞跃,对吧?我认为这种潜在创新的水平可能与我们从GPT-2看到的飞跃相同,GPT-2大约有10亿个参数,它与一篇关于规模法则的论文一起发布,这是人们弄清楚的关键论文之一,好的,这是我们已经弄清楚的Transformer架构。
如果我们只是投入大量工程并进行大量工作呢?这种规模和对数类型的缩放在哪里?当GPT-3.5.3发布时,这一点得到了证实。它大约有1700亿个参数。所以这就是两个数量级的飞跃。我们看到了结果。这创造了人工智能公司蓬勃发展的新时代。我们在2023年看到了这一点,我们亲身经历了这一点。
当我们开始看到所有这些公司建立在开始工作的GBD 3.5之上时,它创造了巨大的财富。因此,如果这种规模法则继续下去,我们可以预期
感觉将类似于我们在2022年到2023年过渡年中感受到的。是的,那一刻一切都改变了。如果这种情况再次发生,那将非常疯狂。我认为这其中有一个有趣的方面,那就是目前可用的最先进模型,特别是考虑到O1的思维链,对吧?
它们基本上与普通智力相当。你可以有力地论证说,AGI基本上已经存在了。98%的知识工作者每天所做的任务的大部分
现在,软件工程师可能坐在光标前,可以编写一些能够达到90-98%准确率的东西,并且实际上可以完成一个智商为120的人类知识工作者整天都在做的事情。
这是一种广泛的现象,就像我们过去几年合作过的数百家公司现在每天都在做的那样。你知道,奇怪而有趣的问题是,在10万亿个参数下,智商为200到300,就像某种超越普通人类所能做到的ASI。
你知道,这会解锁什么吗?《大西洋月刊》上有一篇关于陶哲轩(Terence Tao)的精彩文章,他是一位著名的台湾数学家,智商实际上超过200,以及他现在如何使用ChatGPT。它正在为他解锁新的能力。有一些例子表明这种情况正在发生,你知道,
在人类历史上有很多次,你可以说核能就是裂变。在任何人尝试进行实验之前,你必须从理论上对核裂变的可能性进行建模。是的,也许问题是......
如果我们认为现在很多能力都存在,但分布不均。如果你走在大街上,和一个普通人交谈,他们感觉不到人工智能。他们只是过着正常的生活,事情仍然很正常。没有改变。
但我认为反例是,有时这些发现需要时间才能真正实现。这就是我们正在讨论的一个例子。傅里叶变换是约瑟夫·傅里叶(Joseph Fourier)在19世纪发现的一种数学表示方法。这是他撰写的一篇开创性论文。
关于表示周期性重复的函数序列。在傅里叶变换之前,它们被写成这些长长的和,一系列的和,将它们加起来并计算出如何真正地计算起来非常昂贵。
基本上对等式进行建模,但他发现了一种非常优雅的方法,即你可以将所有这些数学函数压缩成正弦和余弦波,这些波只需要两个变量,即振幅和周期,你就可以表示每个周期信号和函数。我的意思是,这不是很酷的数学,这就像一些LLM和用例听起来一样,好的,它可以做所有这些编码。
但是傅里叶变换,直到20世纪50年代才过了150年。当人们弄清楚如何使用它时,事实证明傅里叶变换非常擅长表示信号。我们需要信号来表示模拟世界中的所有内容才能成为数字,因为位是0和1。你如何压缩它?并且
另一个重要的应用是无线电波,它使电信效率更高。图像表示、编码、信息论,它解锁了现代世界的许多内容。互联网和蜂窝塔之所以能够工作,是因为这个理论。但直到普通人能够感受到傅里叶变换,才过了150年。有趣。这是一个非常有力的想法。是的。
我的意思是,那花了一段时间。显然,在20世纪50年代,彩色电视的出现就是那个时刻。同样也是由傅里叶变换解锁的。没错。但是,如果你将其应用于今天正在发生的人工智能事件,那么,首先,你从哪里开始计时?如果不清楚你是否从......开始计时,
两年前的ChatGPT时刻,还是从几十年来一直在进行的所有研究开始,我们可能实际上只是,我们之前讨论过这个问题,但我们实际上可能已经进行了数十年,并且它可能正在达到拐点。是的,当然,如果我们采用戴安娜的观点,
快速傅里叶变换,支撑所有这些新人工智能内容的所有数学都是100年前的线性代数内容。事实证明......
但我拥有所有GPU来计算它。我想这可能是这些10万亿参数模型实际上改变人类能力的潜在方式之一。它们似乎揭示了现实的本质以及我们对其进行建模的能力。然后不知何故,它导致了核武器或彩色电视。另一件大事是,因为这一切都在软件中,是的,
与傅里叶变换相比,许多应用都看到了物理设备,比如唱机或电话,就像你说的那样,因此你的技术需要一段时间才能被采用,因为你必须购买更新的设备,而现在我们有Facebook和谷歌,
他们拥有相当大的比例,就像全世界都在使用他们的软件一样,一旦这些东西开始推出,我觉得另一件开始被注意到的事情是Meta特别推出了他们的Meta Ray-Ban,一种面向消费者的设备,我认为一旦这成为......在你的......中的视觉内容,消费者就会
智能眼镜,加上一个你可以与之交谈的语音应用程序,它与人类无法区分,这将成为改变人们世界的一个真正时刻。一旦他们可以随时与之交谈,他们就会开始感受到人工智能。我的意思是,当我们拥有这种能力时,我们可能对我们的期望存在分歧。在极端情况下,你会有一些像陶哲轩这样的人推动我们对可建模世界的理解的边缘和界限。
然后也许运行这些10万亿参数模型实际上值得数千万甚至数亿美元的推理。然后,对我们其他人来说,这种方法更有可能变得有用的方法实际上是蒸馏。例如,有一些证据表明,Meta的405b主要用于使他们的700亿参数模型变得更好得多。
你今天实际上可以看到这一点。我们曾经认为人们可能会直接使用GPD-4并提取所有权重。似乎有一些证据表明某些政府机构已经在这样做。
但是GPT-4本身和4.0,它变成了4.0,OpenAI本身现在已经在其自己的API内部启用了蒸馏。因此,你可以使用O1,甚至可以使用GPT-4或4.0将其蒸馏成一个对他们来说更便宜的内部模型,比如GPT-4 4.0 Mini。
这就是他们的锁定能力。是的,我认为这一点没有被太多讨论,但有趣的是,你拥有这些巨大的模型,比如4000亿或5000亿参数的模型,它们基本上是教师模型,因为它们是用所有东西进行大规模训练的,并且花费了很长时间。
它们是教师模型,主模型,它教导学生模型,这些模型更小、更快、更便宜,因为对40亿或50亿参数模型进行推理非常昂贵。因此,我们有证据表明所有这些蒸馏模型都在工作。在批量处理中构建最新和最优秀模型的公司,他们并没有追求......
拥有所有参数的巨大模型,并给我最大的东西,以便它能够最好地工作。我们有证据表明情况并非如此。人们并没有追求大型模型。
我们在批量处理中实际上有统计数据。我的意思是,哈希。我们谈论过它们。是的,Jared对此进行了一些计算,这很有趣。但我认为更大的元点是,即使谈论构建这些东西的初创公司或创始人也在选择较小的模型而不是较大的模型。他们有选择。甚至在一年前,当整个行业开始时
存在。所有东西都是建立在ChatGPT之上的。它是100%的市场份额,ChatGPT包装器模因。我觉得,尤其是在过去六个月里,我们看到人们开始谈论其他模型,比如Claude和Sonnet,它们几乎在Cogen方面比
ChatGBT更好,人们只是开始使用不同的模型。因此,Jared为2024年夏季批次运行的数字非常吸引人,因为似乎这种趋势仍在继续。我们对LLM和模型的多样化程度更高,这些模型在之上发展。一些真正引人注目的内容是Claude
甚至在六个月内,从冬季批次到夏季批次,开发人员的市场份额从5%跃升至25%。批次中的公司。是的,批次中的公司,这是一个巨大的飞跃。我从未见过这样的飞跃。对。
Llama从0%增长到8%。从长期运行YC以来,我们知道的一件事是,批次中的公司使用的任何东西都是对世界上最好的公司正在使用什么以及因此哪些产品的预测指标。许多YC最成功的公司,你基本上可以根据对批次中公司使用的民意调查来预测哪些公司会成功。如果我们暂时不考虑OpenAI最新的融资和最新的O1模型,那么在开发人员和建设者中,OpenAI似乎正在输。他们从唯一的游戏参与者变成了向其他市场份额流失市场份额,
以相当快的速度,有趣的是,他们可能正在回归,就像你拉出的统计数据一样,Jerry似乎是,或者说批次中的15家公司已经在使用O1,即使它还没有完全可用,它也只有两周的历史了。是的,是的。
我们看到O1的一些有趣的事情。我们现在正在现场,在我们说话的同时,楼下正在举办黑客马拉松,以便YC公司可以提前访问O1。Sam本人也在启动仪式上。有很多OpenAI的研究人员和工程师正在研究它。黑客活动只进行了大约四个小时,我们已经听说过——我实际上在路过时看到了一些团队的演示。
他们已经构建了一些以前任何其他模型都无法实现的东西。MARK MANDEL:你有一些例子吗?LESLIE KENDRICK:我正在与之合作的一家公司是Freestyle。他们正在使用TypeScript构建一个云解决方案,如果你熟悉持久对象,使用这个非常酷的框架,使前端和后端开发无缝衔接,并且使用起来非常酷。关于......很酷的是——
他们只工作了几个小时,我看到一个让我大吃一惊的演示。他们基本上让Repl.it代理与产品一起工作。他们只需要提示O1他们的开发人员,一些开发人员文档和一些代码,他们就可以提示它,为我构建一个编写待办事项列表或此内容的网络应用程序,它只是砰的一声,就能工作。它能够根据文档进行推理和推断
花费了更长的时间,但它最终构建了实际的应用程序。我们讨论的一个有趣的问题是,如果O1如此神奇,这对创始人和建设者来说究竟意味着什么?一种说法是,这对建设者来说是不利的,因为O1可能非常强大,以至于OpenAI将独占所有价值,以及所有可能对......有价值的东西
并在此之上构建的东西将由他们拥有。你的意思是他们将捕获所有未来价值的光锥?是的,他们将捕获所有现在、过去和未来价值的光锥。哦,我的上帝。另一种更乐观的设想是,我们看到创始人们花费了多少时间,尤其是在批量处理过程中,用于围绕......的工具方面......
使提示正常工作,使输出准确,人工参与,所有这些时间都花在了使核心产品正常工作上,这并不是确定的。但如果它变得更确定性和准确性,那么他们就可以将时间花在基础软件方面,比如更好的UI、更好的客户体验、更多的销售、更多的人际关系。在这种情况下,就像,
现在开始可能比以往任何时候都好,因为你甚至可能不需要学习如何使提示准确并正常工作的所有知识,这只是
不再相关的临时知识,因为这些东西变得越来越强大。实际上,我们与Casetax的Jake Heller进行了这样的对话,使法律副驾驶能够达到100%的工作效率是一个巨大的突破。这非常困难。是的。他喜欢,你知道,我们讨厌关于他必须做的事情的所有讨论,以使事情足够准确。是的。想象一下,如果他不必做任何这些事情。如果他们第一天就能保证100%的准确性,就像你只是在数据库之上构建一个网络应用程序一样。是的。
构建这些东西的进入门槛降低了,竞争将比以往任何时候都更加激烈。然后它可能会更像一个传统的赢家通吃的软件市场。Jared有一个例子。所以有一家公司,Dry Merch,你与之合作,他们将准确率从80%提高到几乎99%,或者就其目的而言,达到100%。
使用O1,它解锁了许多东西。你想谈谈它们吗?是的,只需将GPT-404替换为O1。我认为可能还有一个更乐观的版本,Harj,那就是现在有一些用例,人们......
无法使用LLM,因为即使他们试图提高准确性,他们也无法使其准确到足以实际在生产中推出。特别是如果你考虑那些后果严重的非常关键的任务,很难使用LLM来完成这些任务。随着它们变得越来越准确,这些应用程序将开始实际工作。我想在YC内部有很多证据......
更大的投资组合。我遇到了一家2017年的公司。我想我在推特上谈论过它们。
那时他们的年收入为5000万美元,但每年增长50%。一两年前,他们还不盈利。他们知道他们需要筹集更多资金。但在过去的一年中,他们自动化了大约60%的客户支持工单。他们从需要立即进行新一轮融资转变为完全现金流盈亏平衡,同时仍在增长50%。
同比增长。这对于创造企业价值来说是一种梦想中的情况,因为你足够大,你知道你是一个持续经营的企业,然后你实际上是在没有任何额外资金流入的情况下复合增长。所以,正是像这样的公司最终会达到每年5亿美元、10亿美元的收入,并且
创造数亿美元的自由现金流。我的意思是,在某种程度上,这对创始人来说是一种梦想。我认为这是我迄今为止看到的更引人注目的例子之一。我认为这并不是一个孤立的案例。你知道我们现在正在谈论2024年,我们仍然处于这种悬而未决的时刻,在这个时刻,公司在这种道路上筹集了过多的资金,你知道,
30倍或40倍,你知道,未来12个月的收入倍数,似乎很挣扎,但也永远不会再进行新一轮融资。这对他们来说实际上是个好消息,因为他们实际上可以从不盈利到盈亏平衡,然后可能变得非常盈利。我认为这种说法并不存在,我认为这对创始人来说真的是非常好的消息。我已经开始引起关注了。几周前,Klana的首席执行官并没有因为......而受到很多关注,我的意思是,目前还不清楚有多少是真实的,但至少他们正在宣传他们只是......
你知道,用自制的或LLM创建的应用程序替换他们内部的HR和销售记录系统,至少是暗示。是的,这是什么?他们摆脱了Workday。是的,就是这样。是的,这真的很疯狂,老实说。我的意思是,这很好。如果你将OpenAI视为未来20年的谷歌,你就会想投资谷歌以及谷歌支持的所有事物,比如Airbnb。谷歌可以做Airbnb。它可能不会。
是的。仅仅从......我不知道,科斯的企业理论来看,这可能只是......效率太低,太困难,需要太多的领域专业知识才能真正做到这一点。那么,正在构建的新的谷歌是什么呢?这些是垂直代理。我们可以讨论一些例子吗?我喜欢与上一批YC中的TaxGPT这家公司合作。他们一开始真的......
真的只是一个说唱歌手,你知道,名字里就有TaxGPT。但我最喜欢的关于他们的例子是,你知道,事实证明,税务建议,你知道,做基本的rag on,你知道,这有点像案例文本,实际上,它能够,你知道,
对来自国税局或国际上的现有案例法和现有政策文件进行rag on。这只是让他们接触到数万名会计师和会计师事务所的切入点。
现在他们正在建立一个企业业务,用于上传文档。因此,你可以以低价或免费获得人们正在搜索的东西。然后,一旦他们了解你并信任你,你就会获得每年1万美元或10万美元的ACV合同,然后接管实际的工作流程,这实际上消除了每位会计师数十到数百小时的工作。是的。
关于O1模型的另一个有趣的事情是,我们刚才说,最初ChatGPT是唯一可以构建在其之上的东西。OpenAI是唯一的游戏参与者。然后出现了所有这些模型。我认为我们在这里的alpha泄漏,就像现在在这个房间里一样,楼下的人们正在构建O1的尖端技术,即使公众也无法访问。我们看到这是一个真正的重大进步。O1将成为任何构建人工智能应用程序的程序员或工程师的一件大事。有趣的是,这个周期是否会重复,它是否会暂时让OpenAI领先,他们的市场份额是否会像,你知道,回到100%左右,但在六个月内,
Llama将更新,Claude将推出其新版本,Gemini将不断改进,并且将有四种不同的模型具有同等水平的推理能力。或者这将是OpenAI第一次取得真正的突破?我将真正的突破定义为实际上是可以防御的东西。如果其他人无法复制它,那么这将使他们处于非常强大的地位。但我们不知道。我认为这就是有趣的地方。OpenAI似乎总是不断地突破界限,但他们似乎总是
第一个取得重大突破的人,但到目前为止,他们从未能够保持领先地位。我认为关于O1的另一个有趣的事情是,它使GPU的需求变得更大,因为它将许多计算需求提高了很多,用于推理,因为它需要花费更多时间来进行许多推理。因此,我认为它还将改变许多人工智能基础设施公司下面的许多动态。
这是一个值得思考的问题。似乎有两种不同类型的用例。我相信他们刚刚启用了从O1到4-0的蒸馏。因此,对于相对例行和重复的用例,你可以使用O1来处理困难的用例,然后将其蒸馏出来,然后从那里支付4-0或4-0 mini的价格。
然后再次,还有另一种非常具体的问题类型。我的意思是,我想象许多代码生成情况都更像这样,你需要支付完整的O1体验的费用,因为它相当详细和具体。MARK MANDEL:这取决于你为谁构建,对吧?如果你是一家企业软件公司,你可以将成本转嫁给你的客户,他们可以容忍高延迟,并且不太关心它是否即时,
那么你可以大量使用O1。如果你正在构建消费者应用程序,可能不行。但说到消费者应用程序,关于OpenAI的另一个引人注目的事情是它发布了这个实时语音API。MARK MANDEL:超级酷。MARK BLYTH:这非常了不起。我认为对我来说最能说明问题的是,持续的基于用量的定价为每小时9美元。
它指向了一种强大的东西。如果我是一个宏观交易员,我会对那些非常依赖呼叫中心的国家非常悲观,因为你每小时9美元的费用正好与呼叫中心的成本相当。这是我们在批次中肯定看到的东西,对吧?很明显,语音是一种工具。
可以说是杀手级应用程序。我刚在这个批次中与一家公司合作,或者至少在我的团队中,Domoove,只为债务催收做人工智能语音,他们的吸引力非常惊人。它运作得非常好。S24中有很多语音应用程序都是增长最快、发展最迅速的公司。对于S24来说,这是一个明显的趋势。我还记得与......合作的公司......
在之前的两个批次中尝试过语音,但效果并不好。延迟太高了。它会被中断等事情搞混。它刚刚转过弯来,终于开始工作了。我与之合作的另一家公司Happy Robot,他们找到了这个想法,正在为协调所有这些物流电话呼叫做语音代理。想象一下,一名卡车司机需要从A点到B点。这些都是......
人们只是打电话来检查你在哪里。没有像,没有像,为它找到我的朋友。他们开始在这个方面获得很多使用量。我认为我们之前讨论过这一点,在这一点上,人工智能已经通过了两次铃声测试,并且正在解决所有这些非常
琐碎的电话问题。这太疯狂了。我想,也许讨论较少的一件事是,这些现有行业中的工程团队在多大程度上,感觉这非常二元,要么是,你知道,绝大多数公司和组织,特别是那些可能在四年前或更早成立的公司,他们实际上并没有
别把这些当真。他们在这方面实际上没有任何举措。我一直在想这有多代际性。我意识到工程经理和工程副总裁,他们现在可能和我年龄差不多。我现在43岁了。而且,你知道,如果我不在这里亲眼看到正在发生的事情,我会有点想说,这和以前一样。人工智能,是的,是的,是的。但我认为人们如果不像我们这样接近它,就不会明白改进的速度。我只是认为,普通企业人士肯定习惯了技术扰乱事物,但时间跨度相当长。如果有什么不同的话,他们会变得愤世嫉俗,因为他们会说,哦,云计算,云计算很长一段时间都是一个流行词。它确实改变了企业软件的构建和交付方式,但这花了大约十年时间。所以我怀疑每个人都对人工智能有这种感觉。这只是你的自然
默认模式是愤世嫉俗。哦,是的,它还需要一段时间才能准备好。然后,如果你甚至在六个月前查看了这些内容,就像我们刚才谈论的那样,如果你六个月前查看了一个人工智能语音应用程序,你会说,哦,这......
这几年内都不会成为我们需要认真对待的东西。而实际上,三到四个月后,它达到了一些真正的重大转折点。我认为这就是需要的。即使是科技界的人,我们所有人对这些东西发展得如此之快都感到惊讶。马克·曼德尔:我认为这是任何技术改进速度最快的一次。肯定比处理器快,肯定比云计算快。莱斯利·肯德里克:而且观看它实际上很有趣。看到批次中的另一个例子真是非凡。
因此,许多技术创始人,有时我会和他们坐在一起,我只是观察他们如何编码,之前和之后,在所有这些人工智能浪潮之前。这很标准。您有您的 IDE 和终端上的东西。人们发货,很好。但是我们在批次中看到的创始人构建的演示和产品,就像下一级别的抛光。当你看到他们并看到他们编码时,就像他们生活在未来一样。他们现在不仅仅是,GitHub Copilot 已经有点过时了。
他们正在使用最新最好的编码助手。他们中的许多人可能正在使用类似 continue 或 cursor 的东西,对吧?这是贾里德也提到的东西。当我们询问创始人时,所有 ID,对吧?是的。是的。我们调查了 2024 年夏季的创始人,一半的批次正在使用 cursor,而只有 12% 的人正在使用 GitHub co-pilot。这让我很惊讶。他们甚至没有使用完全自主的编码代理,例如,
例如,Replit,这些仍然有点像 co-pilot 阶段的东西,但仅仅是从 GitHub co-pilot 到 Cursor,这在人工智能实际执行的工作量方面是下一步,这是一个令人难以置信的突破。他们的转变非常迅速。我的意思是,这在今天的黑客马拉松中是显而易见的。我对他们构建的东西印象深刻。我正在查看他们的编辑器,例如,Cursor。就像,酷。这是创始人拥有优势的另一个迹象,对吧?在我看来,当 GitHub co-pilot 首次出现时,它似乎......
它是 GitHub 加微软。它拥有所有开发人员,加上它拥有所有资本,加上它可以访问 OpenAI 的内部轨道。任何编码 IED 如何与他们竞争?它只会逐渐被取代。Cursor 已经从无到有,在批次中调用云数量是 GitHub Copilot 的五倍。这再次像你之前说的那样,创业创始人实际上通常是这类事情的潮流引领者。
我认为某些类型的企业,将创业创始人作为您的早期客户可能没有意义。但对于开发者工具来说,绝对有意义。Stripe、AWS 都想特别拥有 YC 批次。这对他们来说非常有效。所以对于 Cursor 来说,这可能是一个非常好的迹象,因为他们在 YC 批次中拥有如此高的渗透率。是的,我肯定会说 Cursor 非常棒。但 AltaVista 也非常棒。是的。
我记得使用它作为搜索引擎,还有一个版本,下一个版本要好十倍。所以这就是它的发展方式。我的意思是,唯一获胜的人实际上是开发人员,因为所有这些竞争。所以我认为,这再次将我们带到了对所有这些东西的乐观观点,那就是随着模型变得越来越强大,获胜者将只是那些构建最佳用户体验并获得所有这些的人,例如,
细枝末节正确无误。这就是为什么 Cursor 可以成为拥有所有优势的 GitHub co-pilot。AltaVista 是一个很好的例子。就像谷歌仍然出现并击败了他们一样,对吧?所以仍然有空间让某人继续对 Cursor 做 Cursor 对 GitHub co-pilot 所做的事情。所以让我们回到 10 万亿个参数。你认为我们将生活在一个什么样的世界里,这个由 ASI 或接近它的东西实现的世界,你知道,
人类实际上会做什么,它会变得多么棒?好吧,我将为一个非常乐观的案例提供一个钢铁侠,那就是阻碍科学和技术进步速度的东西可以说是能够实际分析我们已经知道的关于世界的所有信息的聪明人的数量。已经有数百万篇科学论文,数量惊人的数据,但试着阅读所有这些。这远远超出了任何人的理解范围。如果我们使模型足够聪明,能够进行原创性思考和具有正确逻辑的深入分析,
你可以释放无限的、几乎无限的智能到我们关于世界拥有的几乎无限的数据和知识中。你可以想象它只是不断地做出疯狂的科学发现,室温核聚变,室温超导体,时间旅行,飞行汽车,所有人类尚未发明的东西。
就像拥有足够的智慧一样,也许我们最终会发明所有这些。请为那个未来签下我的名字。听起来很棒。我完全同意你的观点。我认为,这可能不仅仅是心灵的自行车。它实际上可能是一辆自动驾驶汽车,甚至更疯狂,也许是飞往火星的火箭。因此,我们下次再见。