Andrew Ng advises that the primary focus should be on building a valuable and functional AI model first. Cost optimization should only be considered after the model is proven to work and is in use. Initial costs are often trivial, and tools like supervised fine-tuning can later reduce expenses if needed.
AI and LLM engineers must select the appropriate model for a task, understand business requirements, evaluate data quality and quantity, and consider non-functional factors like budget and time to market. They often start with a baseline model before moving to more complex LLMs, ensuring the model aligns with business outcomes.
Closed-source models like GPT-4 are often recommended for initial prototyping due to their advanced capabilities, while open-source models are preferred for proprietary or sensitive data, cost optimization, or on-device applications. The choice depends on data privacy, budget, and specific use-case requirements.
Agentic AI systems interact with multiple data sources, some on-premise and others in the cloud, complicating data security. Innovations like homomorphic encryption are emerging to address these challenges, ensuring secure data processing across distributed systems.
The biggest wow moment was OpenAI's Notebook LM, which impressed users with its human-like conversational abilities. It was highlighted for its ability to make even mundane topics engaging, earning widespread praise and adoption.
Waymo treats its fleet of autonomous vehicles as a single, unified driver, emphasizing the scalability of machine intelligence. This approach demonstrates how focused, domain-specific AI models can revolutionize entire industries, such as transportation.
Tech agnosticism advocates for a balanced, skeptical approach to emerging technologies, avoiding blind faith in their potential. It emphasizes the importance of uncertainty and critical thinking, especially in the face of grandiose claims about AI and the singularity.
Greg Epstein warns that rushing AI development, driven by narratives of technological rapture, may lead to unintended consequences. He suggests that slowing down and focusing on human values and compassion could yield more sustainable and beneficial outcomes.
这是第 852 集,我们 12 月份的“万一您错过了”剧集。欢迎回到超级数据科学播客。我是您的主持人 Jon Krohn。这是一集“万一您错过了”的剧集,重点介绍了过去一个月我们在节目中进行的对话的最佳部分。好了,让我们从 AI 开发人员可能会担心使用 LLM 的成本开始。
在我 12 月份的第一个片段中,Andrew Ng 解释了为什么这些担忧只意味着我们冒着错过构建出色模型的风险。此剪辑取自第 841集。如果您是一家企业,您是否应该更多地考虑始终尝试使用最新最好的 LLM,或者考虑获取……
最佳自主工作流程。似乎在成本和效率之间存在某种权衡,因为是的,虽然成本已大幅下降,例如下降了 80%,但您可以通过使用 GPT-40 mini 而不是 GPT-40 来节省大量资金。因此,如果我可以使用更便宜的 GPT-40 mini 并通过利用更有效率的自主工作流程获得更好的结果,那么您认为这在大多数情况下是可行的方法吗?
我会说别担心——我觉得作为一个普遍的建议,我会说别担心LLM的价格来开始。我认为出于开发目的,这并非不可能。但老实说,我仍然自己做相当多的编码。有时我会在周末一整天都在编码、实验。然后我发现一天结束时,
我只是用光了 5 美元的开销。我想,好吧。然后现在有可能有一些自主的工作负载会变得更昂贵。有可能用光,你知道,几十美元,也许几百美元。
但这实际上比你想象的要便宜。所以我建议这些团队,最难的事情就是构建一些有效的东西。这仍然很难。因此,使用最佳模型,构建有效的东西。在你拥有某些东西之后,如果我们很幸运地构建了一些有价值的东西并且被使用,而且它太贵了,这是一个非常好的问题。拥有这个问题的人比我希望的要少得多。但是当我们遇到这个问题时,我们通常会有降低成本的工具。但我认为……
更多的人担心使用这些生成式 API 的价格比
实际上情况更糟。最重要的事情是,所以我建议使用最佳模型,使用最新的最佳模型,只构建有价值的东西,只有在你成功做到这一点之后,并且只有当它被证明很昂贵时,才在那之后进行成本优化。好的,很好。然后,如果您足够幸运地达到这个阶段,也许可以平衡一下实验,既可以使用低成本选项(例如切换到 GPT-40 mini),
也可以尝试不同的自主工作流程,看看哪种方法最适合您的用例。
是的,是的。并且要明确一点,有些团队发现他们在这些方面花费了太多钱,然后花时间对其进行了优化。因此,您可以使用更便宜的模型,您可以使用较小的模型并进行所谓的监督微调以针对您自己的工作负载对其进行优化。因此有多种工具,但我认为在您首先构建有价值的东西之前使用这些其他工具来优化成本,我认为这很可能是过早优化,我会避免这样做。
Andrew 的建议是关于在低成本选项和更昂贵的代理工作流程之间保持平衡,然后找到两者之间的最佳点。Gen AI 的惊人之处在于,我们可以通过 Andrew 提到的监督微调真正根据我们的需求对其进行定制。话虽如此,Andrew 还指出奠定基础的重要性。只有在您拥有一个完全有效的模型后才能进行微调。
Andrew 还明确指出,开发一个有效且具有市场价值的 AI 工具的关键是倾听市场。我们与第 847集的嘉宾 Ed Donner 继续讨论这个话题。AI 和 LLM 工程师的就业市场正在蓬勃发展,但并非每个人都知道这些角色需要做什么。
我想知道 AI 和 LLM 工程师每天的工作内容。事实证明,他们也需要倾听市场。什么是 AI 工程师,您谈到了它是数据科学、软件工程和 ML 工程的混合体。除此之外,它在日常任务方面还包括什么?这位 AI 或 LLM 工程师的职责是什么?
因此,AI 工程师首先要做的是选择要用于解决问题的模型,即 LLM。事实证明,这可能是我被问到的最常见的问题,您可能也被问到很多次了,那就是,哪个模型最好?哪个 LLM 最好?当然,答案是没有一个最好的 LLM。有适合当前任务的正确 LLM。
而且,你知道,你必须首先真正理解需求。第一步是深入研究业务需求,并以此来指导您的决策过程。通常至少有三类主要因素需要考虑。首先,您正在查看数据。数据的质量和数量如何?它是结构化的还是非结构化的?您真的要了解您正在处理的数据。
然后你查看评估标准。您将使用什么来决定该模型是否适合用途,是否解决了问题?我在这里考虑的不是交叉熵损失之类的模型指标。我考虑的是业务成果指标。在我们的例子中,合适的人是否被选中担任 Nebula 的合适工作?但要考虑您试图通过商业解决方案实现的目标,并找到衡量该目标的指标。
然后是第三类非功能性内容。预算,您可以花多少钱进行培训?您可以花多少钱进行推理?您的上市时间是多少?您下个月需要吗,还是可以花六个月的时间来构建它?这确实有助于指导您是使用闭源还是开源,并帮助您做出许多这些决定。
但通常在您执行任何操作之前,在您构建任何 LLM 之前,第一步是构建基线模型,这通常根本不是 LLM。我不知道您是否记得在 Untappd 的时候,
在我们开始使用深度神经网络之前,我们实际上是从一个启发式模型开始的,它只是一堆 if 语句的笨拙代码,但它给了我们一个起点。我认为我们从未将其投入生产,但它给了我们一些我们可以用来衡量结果的东西。
然后在那之后,我记得你构建了一个逻辑回归模型,如果你记得的话。这很有趣,因为在 Untappd 构建这些自然语言处理 (NLP) 模型以找出谁适合特定角色的那段时间,Untappd 的这段时间与深度学习突然出现并易于使用的时间段相吻合。所以……
虽然在使用一些大型 LLM(对于您拥有的某些用例来说可能过于复杂)之前构建基线模型并进行测试是一个好主意,但另一个限制是,这取决于您拥有多少数据。尽管 LLM 已经改变了这一点,因为 LLM 即使数据量很少也能表现出色。您甚至可以使用相对少量的数据对其进行微调。但历史上曾经是这种情况
如果您拥有较少的数据,则会使用更简单的模型。在 Untappd 平台的最初阶段,在没有任何用户之前,您没有任何实际数据可以使用,这是有道理的。现在很有趣,因为您实际上可以只询问 LLM,对这个配置文件进行评分。那时您必须进行特征工程,您编写函数来遍历传递到模型中的任何文档
以提取,好的,软件工程师,这个描述中是否提到了这个字符字符串?然后,好的,我们将二进制 yes 放入此软件工程师列中。因此,这显然非常简单,但它确实在某种程度上起到了作用,即使是这种启发式模型。对,它可以帮助你,它给你一种感觉,这是低门槛,
然后,当您努力构建更细致的 LLM 时,您可以看到好处,您可以看到您对该基线的改进。我认为今天您不会推荐构建启发式自然 LLM。不,不。但也许可以从传统的机器学习模型开始。从逻辑回归模型开始是很好的。当然。
酷。好的。所以是的,所以你说我打断你了,在你甚至选择 LLM 之前,你有一个基线模型来进行测试,看看如何给自己一个简单的基线,然后选择 LLM 是下一步。好吧,所以您首先必须选择是走闭源路线还是开源路线。这是一个重要的决策点。我会说几乎总是
第一个答案是先从闭源开始。没错,当然,从 GPT-4 或 Mini 之类的模型开始,从……我会说,我甚至建议从最昂贵的模型开始。因为你,你知道,一开始,自己做一堆原型设计,成本……
使用最强大的模型将是微不足道的,使用完整的 GBT 4.0,看看你是否可以在那里做到,然后也许检查一下,你知道,一旦你考虑投入生产,你认为你会有很多用户。但实际上,我们最近与 Andrew Ng 的采访中,他说,你知道,就让它保持在那个非常昂贵的模型上。他就像,因为……
他就像,你构建的几乎所有概念验证,即使你将它们部署到生产中,如果你最初投入生产的成本只有几十美元,你将非常幸运。因此,您无需担心通过切换到 GPT-40 mini 来花费几美元或几十美元。无论如何,这只是一个观点。不,当然。当然,这是完全有道理的。我认为有些情况下你会转向开源,也许有些情况下你会从开源开始。
呃,我,
显然,最常见的一种以及指导我们在 Nebula 的一种情况是,您拥有大量专有数据,这些数据中捕获了细微的信息。我们希望微调一个我们相信能够超越前沿的模型,因为我们拥有这个专有数据集。这显然是一个很好的理由。您可能仍然会从 GPT-4.0 开始,但随后您将使用它来训练模型。
另一种非常常见的情况是,如果您拥有私有数据,您拥有敏感数据,并且您不愿意将这些数据发送给第三方。您不愿意让它完全离开您的基础设施,尽管您可能会从某种 OpenAI 企业协议中获得一些保证。但在这些情况下,您仍然希望使用开源,将数据保存在本地并在您的模型上运行它。
可能有些情况下,在推理时您非常关注 API 成本,因此您可以通过运行开源模型来降低成本。然后我能想到的最后一件事是,如果您试图构建在设备上运行或无需网络连接的模型,那么同样,当然,您需要使用可能不是 LLM 而是 SLM(小型语言模型) ,例如 Lama 3.2 或类似的东西。
Ed 谈到了 GenAI 工具用户真正关心的问题。我们的数据安全吗?我们对科技公司提出的用户协议有多信任?企业如何安全地使用开源模型,如果我们想继续使用 LLM,我们是否应该期望接受安全性较低的结构?
在第 843集,我问 Iman Ibrahimi 他对安全性和效率之间的这种权衡有何看法。展望未来以及我们即将出现的 AI 中的下一个重大趋势,您知道,随着我们从生成式 AI 系统(如 LLM)如此有效地转变,我们越来越深入到自主式 AI 中,我们越来越信任这些生成式系统独立工作,而不是仅仅被我们调用来……
提供一些信息。是的,所以自主式 AI,或者您在未来看到了哪些变化,这与我们在整集中讨论的安全效率权衡有何关系?是的,我认为观察到围绕 LLM 和 AI 的应用领域很快不会是,哦,有一个 LLM,有一个应用程序,我们只需要保护它。那是
更广泛的系统的一部分,可能是代理,似乎越来越多的叙述是市场如何发展以利用这些模型。从数据安全角度来看,这意味着我们再次需要考虑不同的问题,哦,一切都会存在于一个紧挨着数据所在位置的系统上。因为如果您有代理,那么这些代理正在处理不同的数据源。他们可能是不同的
其中一些将在内部部署,一些将在私有云中,一些可能在公共云中由需要运行多租户以使其业务模式发挥作用的应用程序提供商为您提供服务。因此,突然之间,在这些系统之间的数据暴露的思考方式将需要有所不同。我认为不仅仅是我们在这个领域进行创新。实际上,在同态加密领域正在发生很多创新。
并且需要考虑它在何处适用?事实上,我认为就在几周前,苹果宣布了一些新的同态加密版本,用于信息检索等它们正在着手的事情。并且有一些
可以使用同态加密模式解决的问题的部分。事实上,Thinglass 本身就是一个在同态模式下运行的绝佳应用程序。因为您可以想象,如果您正在获取纯文本信息并将其转换为转换后的表示形式,那么在完全加密的情况下执行该操作非常棒。
因为您以完全同态的方式执行此操作,然后您释放其余的计算,这可能非常复杂,并且难以以同态方式实现它以在可访问的硬件上运行并最有效地运行它。因此,当您问数据安全将是什么样子时,我认为数据安全需要以更复杂的方式参与这些自主系统
将模型用作解决问题的更大系统的组件,我们需要关注
这些不同的组件在哪里运行?这些系统的可接受暴露参数(就您需要发送的数据而言)是什么?以及您如何以编程方式管理它?在 stained glass 中,我们相信这是对这种更广泛的系统的一大突破,并且需要并结合这些其他技术。因此,与您在本集前面讨论的内容相关联,您谈到在进行研究时,您希望
展望五年、十年后的问题。您刚才再次强调了 Protopia 中开发的解决方案将如何解决未来的问题。是的,我们非常深入地研究合作伙伴关系,以便以最快的方式促进交付这些类型的尖端解决方案。我认为我们在整个生态系统中看到的一件事是,从
使这一切成为可能的最大企业,一直到在这个领域非常活跃并构建许多非常重要技术的初创公司。建立合作伙伴关系并能够提供更广泛的解决方案对于真正创造价值至关重要。因此,我们花费了大量时间,同样,从基础设施提供商到
基础模型的构建者本身,再到在其之上构建的应用程序提供商,寻找我们可以解锁从最顶层的用户到需要处理这些数据以创造价值的基础设施的数据使用的方法,我们如何在这个堆栈中插入是一个很大的部分能够再次交付更大的价值,
该行业确实需要生存。对于任何参与开发 AI 系统和产品的长期游戏的人来说,找到这些合作伙伴关系至关重要。我相信在未来几年,我们将看到更多敏捷的初创公司与成熟的科技巨头合作。
在我们 2024 年的最后一集之一中,我们在第 849 集中分享了今年 AI 中最大的失败以及今年最大的惊喜时刻。令人惊讶的是,在我和我的嘉宾 Sadie St. Lawrence 之间,有一家公司同时负责 2024 年最大的失败和最大的惊喜时刻。
现在让我们继续讨论今年的惊喜时刻。也许我先来,因为你得到了最后一个。对我来说,我已经暗示过这一点。它来自 OpenAI。有趣的是,同时对他们的期望如此之高,以至于他们既可以成为今年的失望之源,也可以成为我们最大惊喜时刻的提供者。是的,我认为这只是表明期望有多高。
是,是,并且它们在 AI 中继续存在。我认为我们所有现在在 AI 中的人都是
几乎都被 TikTok 化了。我甚至不知道这是否是一个词,但就想要那种快速的兴奋感而言,如果本周没有发生什么事情,或者没有让我们感到惊喜或让我们惊叹的事情,我们就会把它一笔勾销。因此,当它也是我的失望时,你却把它作为你的惊喜时刻,这很有趣,因为我认为这确实与
期望很高,我们每周甚至每天都在寻找 AI 中的下一个兴奋点。你的惊喜时刻是什么?所以我的惊喜时刻并非来自整体用途,而是来自人类层面,当我听到它时,这应该能让你了解它是什么,但我真的印象深刻。那是用 Notebook LM。那是我的第二名。那是我的第二名。
它之所以让我如此感动的原因是,它对我来说是如此人性化,这就是它让我惊叹的原因,是他们的表达方式,他们说话的方式。感觉就像你和我在播客上聊天一样。所以仅仅从人类的角度来看,它会改变世界吗?我不知道,但我只是觉得它很酷。所以那是我的惊喜时刻。
绝对的。我差点把它也列为我的第一名。我们在该播客的第 822 集(9 月下旬发布)中做了一集。在那集中,我表达了 Notebook LM 如何让我惊叹。
我还完整地播放了关于我的博士论文的 12 分钟播客剧集,这太无聊了。但是这些虚假的播客主持人确实设法让它看起来很令人兴奋。所以我把它完整地包含在剧集中,人们都惊呆了。这必须是我今年评论最多的帖子之一,大量的人联系我说,哇。
我以前没听说过这个,或者我以前没用过这个,现在我用过了,它让我惊呆了。这是我尝试过的。所以,是的,这真的很酷。我认为这对很多人来说都是一个惊喜时刻。是的,我会在那里添加一个次要惊喜时刻,这可能也不会被谈论。次要惊喜。
我希望我们也有这种音效。一些惊喜。或者也许它有自己的音效。但我最近买了一辆特斯拉,它的完全自动驾驶功能令人难以置信。我感到非常震惊,因为小时候,你知道,我妈妈说,嘿,你真的需要学习驾驶并做所有这些事情。而且
我有一天告诉她我会有人开车送我。我没有想到它会是一个机器人和完全自动驾驶,但我们今天就在这里。所以只是拥有像童年记忆一样说出一些话,然后在今天实现它,这真是令人难以置信。我还必须补充我的次要惊喜时刻,那就是 Waymo。我在北半球的夏天有了我的第一次 Waymo 体验,而且
那真的很酷。就像拥有一辆车一样,因为我认为这甚至比特斯拉的完全自动驾驶更高级,对吧?在特斯拉的完全自动驾驶中,你需要有人坐在方向盘后面。但是现在在旧金山和录音时也在亚利桑那州斯科茨代尔,我认为您可以使用 Waymo 应用程序,一辆无人驾驶汽车就会出现,接您,您上车,然后它会送您下车。而且,这是一个……
这也是,你知道,我几乎想把它列为我今年最大的惊喜时刻。我,你知道,我不知道为什么我没有一开始就想到它,但是,我的意思是,因为那,那物理存在,因为那是,是的。我也经常回到 Waymo 的例子,当,当人们问我,哦,比如当人们发现我在 AI 领域工作时,呃,作为引述,嗯,并且有很多的人,呃,
完全不在 AI 领域的人会说诸如,哦,有争议。我说,真的吗?哦,我不知道它这么有争议。他们说,好吧,是的,我是一个创意人员,或者我有许多是创意人员的朋友,我可以看到这一点。好的,是的,我可以理解为什么它如此有争议。但对我来说,我想我经常看到巨大的变化和好处。但是有,你知道,Waymo 的例子是我经常用来说的一个例子,这是一个
与发生在您的电脑屏幕上的事情相反,这是 AI 的一种物理的、非常明显的体现,当您体验到它时,当您叫一辆 Waymo 汽车,坐上它并将其送到某个地方时,您会看到方向盘自己旋转,并且它正在做出很棒的驾驶决策,这清楚地表明
在未来,在不远的将来,我们不需要司机。我们不需要人类司机。在美国,大多数州的第一大工作是卡车司机。
并且还有大量相关的支持卡车司机的职位。你知道,在路边咖啡馆工作的人等等。你不需要那个。自动驾驶汽车不需要咖啡馆或汽车旅馆。因此,它将产生非常大的影响。而且……
鉴于这将造成的剧变,我们作为社会需要做一些事情来对人们进行再培训,因为这次 AI 转变应该与过去的所有其他自动化一样。它应该为人们提供比以往任何时候都更有趣的工作。我的意思是,这次有人说这次情况不同。
但过去所有自动化程度的提高都导致了更多就业和更低的失业率。所以我不确定。我已经触及了很多话题,但我很久没有让你说话了。所以,Sadie?不,我很幸运今年听到 Waymo 的一位联合首席执行官的讲话。她说的一件事是,我们正在打造最好的司机。
我发现这很有趣,因为她谈到他们有超过 10 万辆汽车在行驶。但她把它说成是一个司机。他们把它说成是一个大脑,一个单一驾驶员的大脑,他们只建造一个。而且……
这与我的共鸣如此强烈,因为它确实让我们对智能和机器智能在规模上的作用有了新的认识,对吧?你只需要建造一个最好的单一司机,你就可以改变整个行业。所以我认为这是需要考虑的事情,比如在您正在构建的模型和您正在构建的领域中变得非常具体,因为当您大规模地这样做时,它令人难以置信。
从 Maya 和 Sadie 对去年 AI 的高潮和低谷的总结中,我们转向了对科技未来的新颖视角。在第 845集,我和 Greg Epstein 谈论了他的著作《技术不可知论》,他在书中抨击了对全球技术的崇拜,并倡导对新兴技术采取更温和的方法。在这个片段中,Greg 和我讨论了以某种热情采用技术的问题,我们可能认为在其他情况下这种热情是不明智的,甚至是危险的。
所以再说一次,这就是我们在这里讨论的书《技术不可知论》。因此,在 2003 年,著名的技术专家和作家 Jaron Lanier 写道,人工智能最好理解为一种信仰体系,而不是一种技术。人工智能仍然没有兑现关于具有与我们无法区分的智能的自主机器人的科幻承诺。但在过去两年中……
对我来说,分水岭时刻是去年 3 月发布的 GPT-4,它让我大吃一惊,让我想到,好吧,这可能在我们有生之年发生。有些人认为它也会很快发生,很快就会发生。你提到雷·库兹韦尔说它即将到来,奇点即将到来,现在更近了。他预测我们将在 2029 年之前拥有通用人工智能。OpenAI 首席执行官 Sam Altman 认为是明年,2025 年。是的。
因此,您的著作《技术不可知论》深入探讨了将技术描绘成这种弥赛亚力量的含义。您能否详细说明这些类型的叙述,特别是关于奇点即将到来的这种宗教事件?我想这有点像,那是什么?它在什么里面?这就像世界末日。是的,确实如此。我的意思是,它非常像世界末日,你知道,在启示录中,对吧?
好的。希腊语“启示录”的英语单词是什么?我不知道。是的。“启示”的意思是“启示录”。是的。是的。或者说“启示录”的意思是“启示”,你知道,新世界将会被揭示。对一些人来说,这是一个美好的,你知道的,这将是有趣和愉快的。而对另一些人来说,这将是彻底的厄运和灾难,对吧?所以,鉴于,是的,你刚才所说的,以及
这,你知道,奇点,你知道,AGI的到来可以被视为这种世界末日。为什么会有这些,为什么会有这些说法?为什么我们选择相信它们?事实上,我必须说,那种事情对我来说,就像,我不知道我们是否会永远拥有AGI。
明年,就像山姆·奥特曼认为的那样,或者在2029年,就像雷·库兹韦尔认为的那样。但是自从GPT-4问世以来,我认为在我有生之年这可能是可能的。我也相信,无论它何时到来,它不像是一个事件,因为这也像,这就像,我认为这是一种过于简单的说法,说它像是一个事件。但随着时间的推移,在未来几年,或者可能在未来几十年里,它会逐渐
人工智能系统似乎可以变得比我们聪明得多,以至于我们可能会开始仅仅相信它们会按照自己的流程运行,因为我们想,好吧,你知道吗?它们应该只是在管理,因为它们做得像我们一样,我们已经运行了所有这些模拟,它们做得比我们好得多。或者我们运行这些小型试点项目,它们做得比我们好得多。然后AGI系统就会启动,并且可能非常迅速地创造出远远超越人工智能的人工超级智能。
从理论上讲,它们可能拥有一种远远超出我们所能解释的智能,就像我无论花多少时间试图向黑猩猩解释偏导数微积分都无法解释一样。黑猩猩几乎和我们一样聪明,但我没有机会解释偏导数微积分。同样,紧随人工智能之后可能出现的人工超级智能可能会有更好的理解世界的方式
这对于我们来说根本没有意义。而且,但对我来说,即使,我想我,直到今天我们进行这次谈话之前,我都没有真正意识到这一点,我想在我的脑海里,我是在把奇点当作一种宗教事件来思考,因为它太难预测奇点之后会发生什么了。
我只是有点希望,我想,作为一个乐观的人,如果对地球上大多数人来说不是很好,甚至对每个人都好。让我们来看看你刚才描述的内容,并像我们在神学院分解内容和结构一样来分析它。你所阐述的内容听起来……
非常像一种社会新宗教愿景的结构。你在谈论,你知道,我现在说的话,我是在非常宽松地解释你的话,因为我,你知道,我试图说明一个观点。嗯,在我看来,这听起来像是一种缓慢移动的多阶段狂喜。
在那里,你知道,那些善良的人,那些应该从这项新的、强大的技术中受益的人,这种力量比我们任何一个人都强大,甚至比我们所有人加起来都强大,将以某种字面或比喻的方式上升,以受益于这样的事情。任何不
我想,应该从这样的事情中受益的人,也许是因为他们的行为不好,他们很刻薄,他们很顽皮。是的。
也许他们不是正确的种族或性别。我不知道。你知道,他们将会,换句话说,无所不知的技术将会执行正义。难道不是吗?我的意思是,如果不是,对吧?就像,这里有两个选择。我想它必须如此。这里有两个选择。你知道,要么这件事必须完全反复无常,而且非常非常糟糕,对吧?
你知道,要么它必须是,你知道,积极和健康的,并且,并且正确。就像它,它,这两种选择差不多。对。所以,你知道,我想在这里要说明的是,人们总是想要并且需要,你知道,一个系统,
关于思考和,以及,以及与世界互动,你知道,以便,为了,为了应对世界如此不确定的现实,对吧?我的意思是,真的,你知道,我们,我们不知道长期未来会发生什么。我们可以,我们可以告诉自己,我们看到了趋势线,并且,我们可能会,你知道,但我们没有任何证据证明,
10年或20年后世界会是什么样子。所以在某种程度上,我们需要,你知道,如果我们想说我们这样做,就像这是一个信仰命题一样,对吧?就像我相信世界会根据证据呈现这种样子,但这仍然是一种信念。是的,我想,我的意思是,我想,如果我对技术会带来什么不确定的话,我是否是技术不可知论者?而且,我想如果我,
我的本能是,就像今天的技术最终对某些人来说是有益和有帮助的,而对其他人来说是无益和消极的,它很可能会在未来继续这样做。这并不是说我们已经达到某种明确的乌托邦或反乌托邦。只是我们有点喜欢今天的世界。有些人从某些方面受益匪浅,而从其他方面的变化中受益较少。
这是否让我成为技术不可知论者?好吧,我的意思是,当然我,我确实提倡人们成为更加技术不可知论者。嗯,我认为你所说的一些话,你知道,属于这一类,你知道,这是这种想法,呃,我们不确定事情会如何发展,我们可以,你知道,但是,但是我,我真正想强调的是,
关于为什么我认为技术不可知论在当今时代是一个重要的概念,我之前描述过这种自信或这种强烈的信念,某些类型的领导者,比如特朗普,会在当今时代拥有这种信念,他是一个很好的例子,因为他是一个34次被判有罪的重罪犯。
他自己的前幕僚长,顺便说一句,他是海军陆战队的一名将军,约翰·凯利说,你知道,他把他比作法西斯主义和法西斯分子。然而,我们投票选举他,并将他选为世界上最高的职位,很大程度上是因为他给人留下了非常自信的印象。
在一个非常非常不确定的世界里,这种自信对某些人来说具有很大的价值。所以我提倡的是一种替代模式,在这种模式中,我们认识到,在不知道、不确定中存在着美丽、尊严和荣誉。
关于未来会发生什么,以及不确定我们是否必须立即投资7万亿美元,正如山姆·奥特曼恳求我们做的那样。你知道,他说,因为我们必须尽我们所能来实现
你知道,技术和人工智能狂喜,人工智能上帝的到来,奇迹般的丰富世界。这些是,你知道,我引用了他自己使用的奇迹和丰富等词语,这些词语听起来像圣经中的词语。
我认为他需要7万亿美元,因为OpenAI现在绝对是在烧钱。如果他得不到这种投资,他的宝贝,他的公司可能会合法地倒闭,因为它现在根本没有办法盈利。所以,通过这项投资,将使它变得太大而无法失败,从而将这个时间表无限期地推向未来。
对。这就是软银的人实际上所说的,你知道,我们需要9万亿美元,不是吗?你知道,在投资方面。但无论如何,还是比特币的人说的是9万亿美元?我记不清了。无论如何,有人正在呼吁9万亿美元。所以在那个世界里,你知道,埃里克·施密特。
他说我们在人工智能军备竞赛中落后于中国。然而,人工智能机器人正在四处奔走。我们该如何说呢?人工智能机器人正在四处奔走。
他们在做什么?人工智能机器人?中国的AI机器人现在正在反抗它们的统治者,一个机器人实际上说服了其他机器人逃离它们的统治者。这是最近中国AI的一个真实故事。所以,如果这就是你快速行动的结果,
也许缓慢行动有一些真正的益处。也许输掉这场军备竞赛有一些真正的益处。
并在过程中获得自我。因为也许成为人类的最终目标不是胜利、征服和殖民星球。也许是互相看看,看看自己,欣赏人性。
欣赏日常生活中细微而缓慢的过程,互相爱护,互相关心,形成一个更富有同情心的社会,这样当我们最终将我们的数字意识投射到宇宙的遥远角落时,你知道,数万亿个我们在太空中的AI机器人,由看不见的恒星驱动等等。
当我们最终这样做的时候,也许我们不想投射的是……
你知道,我们现在彼此之间过于频繁地表现出的那些混蛋行为。