We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode Meta's Chief AI Scientist Yann LeCun Makes the Case for Open Source | On With Kara Swisher

Meta's Chief AI Scientist Yann LeCun Makes the Case for Open Source | On With Kara Swisher

2024/12/21
logo of podcast Pivot

Pivot

AI Deep Dive AI Insights AI Chapters Transcript
People
Y
Yann LeCun
一位在机器学习和计算机视觉领域具有重大影响力的法国-美国计算机科学家,现任Meta首席AI科学家和纽约大学教授。
Topics
Yann LeCun: 我认为对AI研发进行监管将会产生灾难性的后果。我是一个经典的自由主义者,在欧洲政治光谱中处于中间位置。我对Elon Musk攻击高等教育、科学和科学家感到愤怒。我在Meta拥有独立的表达声音的权利,Meta的研究实验室非常开放,我们发布所有研究成果并开源代码。我在Meta从事基础研究,不参与公司政策制定。我在Meta创建AI研究实验室的三个条件是:不搬离纽约、不辞去NYU的工作以及所有研究都公开进行并开源代码。政府应该避免制定使开源AI平台非法的法规,并应为学术界提供计算资源。政府应该更了解AI,并可能需要制定产业政策来提高芯片领域的竞争力。未来的AI平台需要是开放的,并以分布式方式进行训练,以包含来自世界各地的贡献。我反对对计算能力设定限制,因为AI并非本质上危险。开源软件的成功之处在于其平台特性,允许人们修改、改进并使其在各种硬件上运行。封闭的AI模型是为了获得商业优势。除了谷歌之外,几乎所有构建AI系统的公司都使用Meta开发的PyTorch开源软件平台。仅仅扩大LLM的规模和数据量并不能带来显著的性能提升,需要探索新的AI系统架构。LLM的局限性在于其基于预测下一个单词的机制,未来的AI系统将不会仅仅基于预测下一个单词。我们距离人工通用智能(AGI)还有很长的路要走,未来的AI系统需要能够理解物理世界并规划行动序列。Meta开发AI搜索引擎的目的并非直接与谷歌竞争,而是为了服务于需要AI系统的用户。Meta的长期愿景是:每个人都将拥有一个随时随地的AI助手,这将是一个新的计算平台。对AI的投资是基础设施建设。开源模型比专有模型更安全,因为有更多人参与其中,可以发现并修复问题。Meta有责任防止其模型被恶意使用,但开源模型的安全性也值得关注。开源LLM已经存在数年,并没有发生严重的恶意事件。为了使AI成为人类知识的储存库,所有人类知识都应该用于训练模型,即使是非版权材料。我对Hinton和Bengio对AI风险的警告表示强烈反对,认为他们的担忧被夸大了。虽然未来AI系统可能会比人类更聪明,但这需要数年甚至数十年时间,并且我们目前还没有达到人类水平的AI。用喷气式飞机的例子来比喻AI安全问题,认为在设计出安全的AI系统之前,谈论如何使其安全是没有意义的。对AI R&D 不需要进行监管,但对AI产品需要设置防护措施,并建议使用目标驱动型架构来确保AI系统的安全。应该对AI产品而非AI研发进行监管,并强调开放平台的重要性,以防止少数公司控制所有AI系统。未来AI系统将能够像人类和动物一样高效地学习新的技能和任务,这需要利用视觉等感官输入进行训练。我作为科学家,拥有科学的诚信,AI是打击仇恨言论和虚假信息的最佳工具。 Kara Swisher: 对谈话内容进行引导和提问。

Deep Dive

Key Insights

Why is Yann LeCun known as one of the godfathers of AI?

Yann LeCun is known as one of the godfathers of AI because of his foundational work on neural networks, which he has been pushing since the 1980s. This work forms the basis for many of today's most powerful AI systems, and he received the 2018 Turing Award for his contributions to deep neural networks.

Why is Yann LeCun so outspoken on social media?

LeCun is outspoken on social media because he is politically a classic liberal, which places him in the center on the European political spectrum but more on the left in the U.S. He is particularly critical of individuals like Elon Musk and Donald Trump, especially when they attack institutions of higher learning or spread misinformation.

Why did Yann LeCun choose to join Meta rather than stay in academia?

LeCun joined Meta because he was given the opportunity to create a well-funded, large-scale AI research organization with the freedom to publish and share open-source code. This was not possible in academia due to the lack of resources and the closed nature of large tech companies. Meta allowed him to maintain his academic position at NYU while leading groundbreaking research.

Why does Yann LeCun think AI is not ready for human-level intelligence?

LeCun believes that current AI systems are hitting a performance ceiling because they are primarily based on predicting the next word in a text. While these models can pass exams, they struggle to understand the physical world and perform complex tasks like cleaning a house. True human-level intelligence requires new architectures that can understand and interact with the physical world, similar to how babies and young animals learn.

Why is Meta investing so heavily in AI infrastructure?

Meta is investing heavily in AI infrastructure to support the growing number of users who will use AI assistants daily. The company forecasts that its AI systems will be used by 600 million people by the end of the year, and more powerful AI systems require more expensive computational resources.

Why does Yann LeCun support the open-source model for AI development?

LeCun supports the open-source model because it allows for faster innovation and a more distributed, democratic approach to AI development. He believes that having more people working on and fine-tuning AI systems can lead to better and safer outcomes, and it helps prevent the concentration of AI power in the hands of a few companies. The open-source model also enables a diversity of cultural and linguistic adaptations.

Why does Yann LeCun disagree with Hinton and Bengio's warnings about AI existential risks?

LeCun disagrees with Hinton and Bengio's warnings because he believes the dangers have been exaggerated. He thinks AI is still far from achieving human-level intelligence and that the technical challenges are more significant than the potential existential threats. He also argues that current AI systems are not as capable as some suggest, and that regulation of AI R&D would stifle innovation and progress.

Why does Yann LeCun think cultural institutions should make their content available for AI training?

LeCun believes that cultural institutions should make their content available for AI training to ensure that AI systems can understand and speak a diverse range of languages and cultural contexts. This is crucial for preserving and promoting cultural heritage, especially for endangered languages and regional dialects. He envisions a global, distributed AI system that can be fine-tuned for various cultural and value systems.

Why does Yann LeCun think regulation of AI R&D is counterproductive?

LeCun thinks regulation of AI R&D is counterproductive because it would make it too risky for companies to distribute open-source AI platforms. This could lead to a concentration of AI power in the hands of a few private companies, which would be detrimental to the diversity and democratization of AI. He believes that regulating products based on AI, rather than the R&D itself, is a more effective approach.

Why does Yann LeCun believe that AI is the best countermeasure against hate speech and disinformation?

LeCun believes that AI is the best countermeasure against hate speech and disinformation because it can detect and mitigate harmful content more effectively than humans, especially at scale. He points out that AI technology has significantly improved the ability of platforms like Facebook and Instagram to detect hate speech in multiple languages, and that the best protection is having more powerful AI in the hands of the good guys.

Chapters
This chapter explores the controversy surrounding the potential dangers of open-source AI models, particularly in the context of Yann LeCun's outspoken views on AI regulation and his public disagreements with Elon Musk and Donald Trump. It discusses LeCun's belief that regulating AI R&D could have negative consequences.
  • LeCun's outspoken political views and social media presence.
  • His disagreement with calls for government regulation of AI research.
  • His public disputes with Elon Musk and criticism of Donald Trump.

Shownotes Transcript

我们为您带来与Kara Swisher对话的特别节目!Kara与Meta的Yann LeCun进行了一场现场采访,他被称为“早期人工智能先知”,是全球最大的开源大型语言模型的幕后推手。两人讨论了开源模型带来的潜在危险、涌入人工智能研究的巨额资金,以及人工智能监管的利弊。他们还深入探讨了LeCun在社交媒体上的惊人言论——与许多遵循人力资源政策的科技员工不同,LeCun并不害怕表达他对Elon Musk或当选总统Donald Trump的看法。这次采访是在华盛顿特区约翰霍普金斯大学布隆伯格中心现场录制的,作为他们发现系列的一部分。了解更多关于您的广告选择的信息。访问podcastchoices.com/adchoices</context> <raw_text>0 本周,我在与Kara Swisher的四个现场节目中的第二个节目中采访了Jan LeCun。我将在华盛顿特区的新约翰霍普金斯大学布隆伯格中心录制。在2025年的每一集中,我将主持关于人工智能、政策、版权和知识产权等及时讨论。请收听我与Jan LeCun在本周节目的对话,并期待我们与约翰霍普金斯大学布隆伯格中心合作带来的更多现场讨论。

大家好。这是来自《纽约杂志》和Vox媒体播客网络的Pivot。我是Cara Swisher。我是Scott Galloway。今天我们为您准备了一集特别的额外节目。我在约翰霍普金斯大学与Meta的首席科学家Jan LeCun进行了交谈。真是太高档了。听你说,我也很高档。我很高档。约翰霍普金斯。是的,Jan。Jan是一个非常有趣的人物。我们希望您喜欢。开始吧!

大家好。来自《纽约杂志》和Vox媒体播客网络,这是与Kara Swisher对话,我是Kara Swisher。今天,我们为您准备了一集特别节目,我与Meta的首席人工智能科学家Jan LeCun的对话。这是在我与约翰霍普金斯大学布隆伯格中心合作进行的关于人工智能未来的一系列采访中现场录制的。Jan真的是这个话题的完美人选。

他被称为人工智能的教父之一。有些人甚至称他为早期人工智能先知。他自1980年代以来一直在推动计算机可以使用人工神经网络发展技能的想法,这也是今天许多最强大的人工智能系统的基础。Jan于2013年加入当时被称为Facebook的公司,担任人工智能研究主任,目前他负责的人工智能研究机构是资金最充足的机构之一。

他还是纽约大学的长期教授,并与Jeffrey Hinton和Yoshua Bengio一起获得了2018年图灵奖,通常被称为计算机界的诺贝尔奖,以表彰他们在深度神经网络方面的突破,这些突破已成为计算的关键组成部分。Jan也是一个激进分子。他在政治上相当直言不讳。他对当选总统Donald Trump或Elon Musk并不感冒,并在社交媒体上让你知道这一点。

他在自己的领域也并非没有争议。当其他人,包括Hinton和Bengio,开始警告无节制的人工智能研究可能带来的潜在危险,并呼吁政府监管时,Jan称其为胡说八道。事实上,他表示,监管人工智能研发将会产生灾难性的后果。

我想和他谈谈这场争论。我们还将讨论Meta目前在这个领域的工作,他对所有新兴生成性人工智能代理的潜力和风险的看法,以及或许最重要的是,我们距离人工通用智能(AGI)有多近。开始吧。

欢迎。感谢您在新的约翰霍普金斯大学布隆伯格中心参加这场特别的现场对话。显然,您因在神经网络方面的基础性工作而被称为人工智能的教父之一。像您这样的人不多,这也是今天最强大的人工智能系统的基础。对于那些不知道的人来说,人工智能已经陪伴我们一段时间了。它刚刚达到了一个时刻。

您知道,我们正处于一个新政府即将上任的时刻。我必须告诉您,您是我见过的最有趣的社交媒体专家。作为一名科学家,作为一个人,我认为您作为公民所谈论的内容也相当直言不讳。我向Meta的公关人员承诺,今天不会让他们失业。但是...

您是一个令人惊叹的人。我想我会读几条,我希望您能谈谈您为什么这样做。我不见得看到很多科技界的人这样做,除了Elon Musk。但您实际上我喜欢。所以您写道,特朗普是对民主的威胁。Elon是他最响亮的支持者。您不会让我停止与民主的敌人作斗争。

Elon不仅仅是买下了Twitter。他买下了一台宣传机器来影响你的思维。这些都是比较温和的评论。正如我多次提到的关于Elon,我喜欢他的汽车,他的火箭卫星网络。我不同意他对人工智能存在风险的立场。我不喜欢他不断的炒作。我非常讨厌他新近的复仇主义阴谋论者、偏执的极右翼政治。我对他的态度比您要好,这就是问题所在。您对此谈了很多,您对Donald Trump也并不太支持。我不会全部读出来,但它们比我以往的任何评论都要严厉。所以我想谈谈这个。您与Elon公开争论过。您称总统Trump为病态的说谎者。Mark刚刚在Mar-a-Lago享受了一顿美好的餐点。谈谈您与即将上任的政府的关系,以及您将如何——您是否会开始不这样做,或者您在乎吗?好吧—

我担心很多事情,但……或者我对很多问题感兴趣。我算是一个,您知道,政治上显然是一个经典自由主义者,对吧?在欧洲的政治光谱上,这让我处于正中间。在美国则不是。没有。

我对Elon感到愤怒是因为他开始攻击高等教育、科学和科学家,比如Antonio Fauci之类的机构。您知道,我是一名科学家,我也是Meta的教授。

我有一个非常独立的声音。我非常感激在Meta我可以拥有独立的声音。您知道,我并不是在进行企业演讲,正如您所能看出的那样。这告诉我一些关于公司的运作方式的事情。这也反映在我在Meta创办的研究实验室中,我们发布我们所做的一切。我们以开源的方式分发我们的代码。您知道,我们在很多事情上都非常开放,也对我们的观点持开放态度。所以这是,您知道,这是故事。那么他现在处于事情的红热中心。您将如何应对?

好吧,我见过Elon好几次。您知道,他可以是合理的。我的意思是,您必须与人合作,对吧?无论在政治或哲学观点上有多大的分歧,您总得与人合作,这就是将要发生的事情。

我在Meta不做政策,对吧?您不做。没错。我从事基础研究,对吧?我不做内容政策。我不做任何这些。我与世界各地的许多政府交谈,但主要是关于人工智能技术及其对政策的影响。但我没有。我对这方面没有任何影响。

在Meta与政治体系之间的关系上。我很好奇,您为什么不去像Meta这样的地方,而是去大研究大学或其他地方。您如何看待自己的权力?您的影响力是什么?我的意思是,您有点在说,我只是一个简单的科学家,做一些事情。好吧,我也是一名学者,对吧?我在NYU是一名教授。嗯哼。

我在NYU保留了我的职位。当Mark Zuckerberg在11年前几乎是今天的日子里接触我时,他请我为Meta创建一个人工智能研究实验室,因为他有这个愿景,认为这将会有

重大影响和重要性,他是对的。我告诉他,“我只有三个条件。我不离开纽约,我不辞去NYU的工作,我们将要做的所有研究都将在公开的环境中进行。我们将发布我们所做的一切,并将代码开源。”他的回答是,“是的,是的。”第三件事是,“您不必担心这个。这在公司的数据中。我们已经开源了我们所有的平台代码。”

所以,是的,这没有问题。这不是我在其他地方会得到的答案,那里的资源能够创建一个研究实验室。我在那里得到了机会。基本上,我得到了在行业内从零开始创建一个研究组织的机会,并基本上按照我认为合适的方式来塑造它。我在这方面有一些经验,因为我在贝尔实验室开始了我的职业生涯。所以我认为这是最令人兴奋的挑战。因此,特朗普最近任命David Sachs为人工智能和加密货币沙皇。对于那些不知道的人来说,Sachs是一位投资者,也是PayPal黑手党的成员,还是Elon Musk的长期朋友。他的政治立场发生了相当大的变化。谈谈,作为一名从事这项研究的人,华盛顿现在是否需要这样的人,或者您根本不在乎?这对您重要吗?政府投资

做这样的事情是否重要?哦,绝对重要。告诉我们为什么。好吧,有很多不同的事情。第一件事是不要制定使开源人工智能平台非法的法规,因为我认为这对未来不仅是技术进步至关重要,而且对人们使用它们的方式也至关重要,比如使其广泛传播等等。所以这是第一件事。第二件事是

顺便说一下,监管基于人工智能的产品没有问题。这完全没问题。我并不是反对监管或任何事情。第二件事是,学术界正在落后,并且很难做出贡献。

由于缺乏计算资源,因此我认为政府应该分配资源,为学术界提供计算资源。为学术界。现在,正如您所说,这一切发生了相当大的变化,因为学术界是许多早期计算研究的地方,而现在它已经远离了这一点。Andrew Ferguson被任命为FTC的负责人。前福克斯新闻主播Pete Hegseth被提名为国防部长。

Ferguson似乎想要回滚任何试图成为监管者的努力。政府在这个领域更积极是重要的吗?政府在这个领域更积极当然是重要的,正如我之前所说的,因为目前所有使人工智能成为可能的芯片都在台湾制造,由一家单一公司设计。可能在这里有一些事情可以做,以使市场变得更具竞争力,或者...

例如芯片。例如芯片。还有另一个我认为非常关键的问题,这不仅对美国政府有影响,对世界各国政府也有影响,那就是,您知道,人工智能很快将成为一种

通用知识平台,基本上,您知道,所有人类知识的存储库。但这只能通过从世界各地的数据训练的自由和开源平台来实现。您无法在美国西海岸的一家公司墙内做到这一点。您无法让一个系统说出印度的所有700种语言,或者说有多少种语言。因此,最终这些平台必须以分布式的方式进行训练,来自世界各地的许多贡献者。

并且需要是开放的。所以,我知道您担心过早的监管会扼杀创新,但您向拜登总统签署了一封公开信,反对他的人工智能行政命令。谈谈您为什么这样做,以及更广泛地说,您认为政府应该扮演什么角色。因此,我认为在该行政命令中有很多完全合理的内容。类似地,在欧盟人工智能法案中,像隐私保护这样的事情完全是有意义的。

我真正不同意的是,在欧盟人工智能法案的原始形式和行政命令中,设定了一个限制,即如果您训练一个模型的计算能力超过10的24次方,10的25次方,您基本上必须获得政府的许可。

或获得某种授权,再次基于人工智能本质上是危险的这一想法,即在某个复杂度水平以上,它本质上是危险的。我完全不同意这种做法。我的意思是,有一些,

关于人工智能安全的重要问题需要讨论,但对计算的限制根本没有任何意义。没有意义。最近,许多大型科技公司推出了LLM更新或新的人工智能代理或人工智能功能。我想了解一下您目前在Meta的工作。这有点不同。您发布了Lama 3.3作为Meta的最新更新。我谈谈LLM。

它的功能是什么,我将要求您将其与其他模型进行比较,并诚实地说。与其他模型相比,它的表现如何?您怎么看待这一点?科学家需要诚实。

我的意思是,LAMA与大多数其他模型之间的主要区别在于它是免费的和开源的。对,开源的。所以从技术上讲,它并不是开源的。向可能不理解这意味着什么的人解释一下。好的,开源软件是带有源代码的软件。因此,您可以修改它,自己编译。您可以免费使用它。

在大多数许可证中,如果您对其进行了一些改进并希望在产品中使用它,您也必须以源代码的形式发布您的改进。这使得,您知道,

平台式软件能够快速进步。多年来,这种方式在分发平台软件方面取得了惊人的成功。整个互联网都运行在开源软件上。世界上大多数计算机都运行在Linux上。

几乎所有世界上的计算机都运行在Linux上,无论是在您的汽车中,还是在您的Wi-Fi路由器中。因此,这非常成功。原因是它是一个平台。人们需要能够修改它,使其更安全、更可靠等,使其能够在各种硬件上运行。这就是发生的事情。这并不是出于设计,而是市场力量自然推动行业选择开源平台。

当涉及到人工智能时,某物是否开源的问题变得复杂。因为当您构建一个人工智能系统时,首先,您必须收集训练数据。其次,您必须在该训练数据上训练所谓的基础模型。训练代码和数据通常不会被分发。

因此,例如,Meta并不分发LAMA模型的训练数据或训练代码,或者大部分训练代码。然后,您可以分发训练好的基础模型,这就是LAMA的功能。它附带开源代码,允许您运行系统并根据需要进行微调。

您可以随意使用。您不必支付Meta费用,您不必询问问题,您不必询问Meta,您可以这样做。由于法律环境,确实存在一些限制。那么为什么这更好呢?您认为所有其他模型都不是。它们是封闭系统,开发自己的东西。还有一些其他开源平台。对,但大平台是……大平台是封闭的。是的,来自OpenAI、Anthropic和Google的那些是封闭的。您认为他们为什么选择这样做?

好吧,很可能是为了获得商业优势。如果您想直接从这种类型的产品中获得收入,并且您认为自己在技术上处于领先地位,或者您认为自己可以在技术上处于领先地位,并且您的主要收入来源将来自这些服务,那么也许保持封闭是有道理的。

但这对Meta来说并不是这种情况。您知道,对于Meta来说,人工智能工具是,您知道,整个体验的一部分,这些体验都是由,您知道,广告资助的,对吧?因此,这不是主要的收入来源。另一方面,我们认为平台将更快地进步。事实上,我们已经看到了这一点。更具创新性。因为有很多创新是...

我们本来没有想到的,或者我们没有带宽去做的,因为人们手中有LAMA系统,他们能够进行实验并提出新想法。因此,有一种批评是您落后了,这是您赶超的方式。您如何回应这一点?我从竞争对手那里听说过这个。关于这一切有一个有趣的历史,对吧?首先,您必须意识到,除了Google之外,行业中的每个人

构建人工智能系统都使用一个名为PyTorch的开源软件平台,该平台最初是在Meta开发的。Meta将其所有权转让给了Linux基金会。因此,现在它不再由Meta拥有。但是,您知道,OpenAI、Anthropic,所有人都在使用PyTorch。因此,如果没有Meta,就不会有ChatGPT和Cloud以及所有这些东西。没有今天的程度。

已经有一些发展,像ChatGPT这样的工具中使用的基本技术是在不同地方发明的。OpenAI在他们不保密的时候做出了一些贡献。Google当然也做出了一些贡献。我喜欢您把这句话放进去,当他们不保密的时候。因为他们变得保密了,对吧?他们在过去三年左右的时间里有点爬升。

Google也在某种程度上爬升。并不是完全,但他们确实如此。而Anthropic从未开放过。因此,他们试图在秘密中推动技术。我认为我们在Meta可能是一个相当大的研究组织。我们还有一个名为GenAI的应用研究和先进开发组织。研究组织被称为FAIR。以前这意味着Facebook人工智能研究。现在这意味着基础人工智能研究。

大约有500人。我们正在研究的实际上是下一代人工智能系统。因此,超越LLM,超越大型语言模型,超越聊天机器人。过去有些人认为,您可以将LLM(如,您知道的Chagipiti、Meta AI、Gemini等)放大,使用更多的数据和更多的计算进行训练。某种程度上,人类水平的智能将会从中出现。

每个人都相信这个概念。对。我们已经达到尽头,没有更多的数据。对。很明显,我们正在达到这些系统性能的某种上限,因为我们基本上用尽了自然数据。就像互联网上所有公开可用的文本一样

目前正在用于训练所有这些LLM。我们无法获得比这更多的东西。因此,人们正在生成合成数据之类的东西,但我们不会将其提高10倍或100倍,对吧?因此,它正在达到饱和。

我们正在研究的基本上是下一代人工智能系统,它不仅仅基于预测下一个单词。因此,LLM被称为大型语言模型,因为它基本上是训练来预测文本中的下一个单词。您通常收集大约20万亿个单词,差不多是这个数量。这是互联网上所有公开可用的文本,经过一些过滤。

然后您训练一个具有数十亿或数百亿可调参数的巨大神经网络,仅仅是为了预测下一个单词。给定几千个单词的序列,您能预测下一个将出现的单词吗?您永远无法做到这一点,但这些系统所做的就是它们基本上预测单词的概率分布,您可以用它来预测

然后生成文本。现在,没有任何保证,无论生成的单词序列是否有意义,不会产生虚构或编造的内容。因此,许多行业一直在努力微调这些系统,训练它们与人类互动,以训练它们执行特定任务,而不是产生无意义的内容。

还要能够质询数据库或搜索引擎,而它们实际上并不知道答案。因此,您必须拥有能够检测它们是否知道答案的系统。然后可能生成多个答案,然后选择哪些是好的。但最终,这不是未来人工智能系统的工作方式。因此,谈谈这一点。上周,Meta发布了Meta Motivo。

它旨在制作看起来更逼真的数字化身,因为我理解。我觉得这是Mark试图再次推动元宇宙的实现。但谈谈它是什么。我不太明白,因为你们在这些事情上投资了很多钱。是的,很多钱。为了制作人们想要购买的东西。

购买,对吧?不仅仅是为了做更好的广告。您必须有一个比这更大的目标。好的。我会让您知道一个秘密。我现在戴着智能眼镜。是的,我自己也有一副。很酷,对吧?它有摄像头。是的。如果您微笑,我可以拍下你们的照片。是的,是的。

这就是我们走过的路。我曾经拥有Google Glass的第一代产品,但这与之相比是个低标准。但继续。现在,事情是这样的。最终,我们将四处走动。您知道,我们谈论的是五年、十年后。我们将四处走动,戴着智能眼镜,也许还有其他智能设备。它们将内置AI助手。这款产品有一个。我可以通过这个与Meta的人工智能对话,对吧?嗯哼。

您知道,这些东西将会在我们的日常生活中帮助我们。我们需要这些系统具备基本的人类智能,甚至在许多方面超越人类智能。

那么,我们如何达到这一点?我们距离这一点还很远。就像,您知道,有些人让我们相信我们真的接近他们所称的AGI(人工通用智能)。实际上,我们距离它非常遥远。我的意思是,当我说非常遥远时,并不是几个世纪。可能不是几十年,但确实是几年。您可以通过以下方式判断:

任务的类型,对吧?我们有LLM可以通过律师考试,或者,您知道,通过一些大学考试或其他考试。但是,您知道,我们的家用机器人在哪里,您知道,清理房屋、收拾餐桌和装满洗碗机?我们没有那样的东西。这并不是因为我们不能制造机器人。我们只是无法让它们足够聪明。我们无法让它们理解物理世界。事实证明,物理世界对人工智能系统的理解要比语言困难得多。语言是简单的。我的意思是,这对人类来说是反直觉的,我们认为语言是智能的巅峰。实际上,它很简单,因为它只是一个离散符号的序列。我们无法处理这个。现实世界,我们无法处理。因此,我们正在研究的基本上是新架构、新系统...

理解物理世界,并学习以婴儿和幼动物的方式理解物理世界,基本上是通过观察世界并在其中行动。这些系统最终将能够规划一系列行动,以实现特定目标。这就是我们所称的代理系统,对吧?因此,代理系统是能够规划一系列行动以达到特定结果的系统。

现在,大家谈论的生成系统实际上并不执行这种规划。它们有点作弊。它们学习计划的模板。对,但它们无法做到这一点。您还在开发Meta的人工智能搜索引擎,刚刚报道的消息。因此,我假设您想超越Google搜索。这是真的吗?您认为这重要吗?

好吧,您想要谈论的智能助手的一个组成部分就是搜索。您想搜索事实,对吧?并链接到该事实的来源,以便您交谈的人可以信任结果。因此,搜索引擎是整体的一个组成部分,您知道,完整的人工智能系统。并围绕Google系统运行,显然。

我的意思是,目标并不一定是直接与Google竞争,而是为希望拥有人工智能系统的人服务。那么,您想象它将用于什么?因为大多数人认为Meta在人工智能竞赛中落后,尤其是在ChatGPT的炒作中。但Mark Zuckerberg刚刚表示,它的月活跃用户接近6亿,并有望在年底前成为全球使用最多的人工智能。

这与人们在ChatGPT上所做的事情非常不同,ChatGPT是一个独立的应用程序或与搜索结合使用。那么,从您的角度来看,这对您来说意味着什么,除了使广告更有效?我知道Mark谈过这个,但从您的角度来看,这对Meta意味着什么?

从Meta的角度来看,这对Meta意味着什么?这就是每个人都会随身携带一个人工智能助手的未来愿景。这将完全,我的意思是,这是一个新的计算平台,对吧?我的意思是,以前我们称之为元宇宙。但,我的意思是,这些眼镜最终将会有显示屏,您知道,增强现实显示屏。我是说,已经有关于这一点的演示,最近展示的Orion项目。

我们现在可以便宜到足够的程度,所以我们还不能出售它,但最终它们会出现。所以这是那个愿景,那个长期愿景。作为我们的助手,作为我们的代理。它将是我们的助手,我们的日常助手。我的意思是,每个人都将四处走动,带着

您知道,一个虚拟助手,就像一个人类助手,基本上。或者最终,像一群非常聪明的人,可能比您更聪明的人,为您工作。这很好。但现在,Meta的预测是支出在380亿美元到400亿美元之间。谷歌表示,它将支出超过510亿美元。今年的支出。分析师预测微软的支出将接近900亿美元。</raw_text>

我们为您带来与Kara Swisher对话的特别节目!Kara与Meta的Yann LeCun进行了一场现场采访,他被称为“早期人工智能先知”,是全球最大的开源大型语言模型背后的大脑。两人讨论了开源模型带来的潜在危险、涌入人工智能研究的巨额资金,以及人工智能监管的利弊。他们还深入探讨了LeCun令人惊讶的社交媒体动态——与许多遵循人力资源政策的科技员工不同,LeCun并不害怕表达他对Elon Musk或当选总统Donald Trump的看法。这次采访是在华盛顿特区约翰霍普金斯大学彭博中心的Discovery Series活动中现场录制的。了解更多关于您的广告选择的信息。访问podcastchoices.com/adchoices</context> <raw_text>0 过度支出。马克·贝尼奥夫最近告诉我,这是一场向下的竞赛。你担心被超支吗?为了让我得到一个更聪明的助手似乎不是一个好生意,但我不知道。我没有。

在早期的时候接受Facebook的工作邀请。所以别问我,但请继续。嗯,这是一个长期投资。我的意思是,你需要基础设施才能以合理的速度为越来越多的人运行这些人工智能助手。正如你所说,目前有6亿人正在使用Meta AI。

顺便说一下,还有另一个有趣的数字。开源引擎LAMA,MetaEA就是建立在这个基础上的,但它是开源的,已经被下载了6.5亿次。这是一个惊人的数字。

顺便说一下,我不知道这些人都是谁,但这是一个惊人的数字。从LAMA派生出的85,000个项目都是公开可用的,全部开源。大多数在世界的某些地方,这些项目基本上是

基本上是在训练Lama,例如,让它说一些来自塞内加尔或印度的语言……所以你不认为这笔钱花得不值得?不,我不这样认为,因为将会有一个非常庞大的人群每天使用这些人工智能系统。

你知道,在一两年内,然后逐渐增长。然后这些系统如果更强大就会更有用。它们越强大,计算成本就越高。因此,这项投资是对基础设施的投资。在基础设施方面,私营公司正在发生什么。现在,你说专有AA模型集中在少数几家公司手中是一个巨大的危险。显然,开源模型也受到批评。他们担心坏人可能利用它们传播虚假信息、网络战争、生物恐怖主义。谈谈区别。考虑到你是以开源方式提供这些强大工具,MED在防止这种情况发生中有什么作用?

好的,这曾经是一个巨大的辩论。是的,你知道,在,直到最近,直到2023年初,我们开始分发LAMA。第一版LAMA并不是开源的。你必须请求许可,并且必须证明你是研究人员。嗯哼。

这是因为法律环境不确定,我们不知道人们会用它做什么。所以它不是开源的。但随后我们在Meta收到了来自行业的许多请求,他们说,你必须开源下一个版本,因为这将创造一个完整的产业。它将使许多初创公司和新产品、新事物得以实现。因此,我们进行了几个月的大规模内部讨论。

每周讨论两小时,参与者有40人,从马克·扎克伯格开始。关于安全、法律环境以及各种问题进行了非常严肃的讨论。然后在某个时刻,马克做出了决定,说,好吧,我们要开源LAMA 2。告诉我怎么做。这是在2023年夏季完成的。

自那时以来,这基本上完全启动了一个完整的产业。为什么它比这些由公司控制的专有模型更安全?因为有更多的人在关注它。

因此,有更多的人在为各种事情进行微调。因此,有一个问题是,你知道,也许很多意图不良的人会接触到它,然后将其用于恶意目的。好吧,中国研究人员开发了一种用于军事用途的人工智能模型,基于旧版Meta的Llama模型。实际上,这是一种非常小的坏事,他本可以使用许多优秀的开源中国模型。其中一个叫Quen,真的很好,和最好的模型不相上下。所以,我的意思是,中国有很好的研究,优秀的工程师,

他们开源了很多自己的模型。你知道,这不是……所以你不认为这是Meta的责任?你把工具放在那里,然后人们用它做什么?不,当然在某种程度上是的。因此,LAMA团队和Gen AI组织在努力对我们发布的所有系统进行红队测试,以确保它们在发布时至少是,您知道,最小限度的……

有毒和类似的东西,对吧?而且大多数是安全的。这实际上是一个非常重要的努力。我们甚至最初将Lama 2提供给一群DEF CON的黑客,并要求他们尝试用它做一些坏事。结果是

在过去近两年中,我们没有意识到任何与我们分发的模型相关的真正坏事。还会是我会用这个词来形容的。好吧,还没有,但你知道,这早就应该发生了。我的意思是,公众并没有意识到这一点,因为他们认为它只是与ChatGPT一起出现的,但在此之前,已经有许多开源LLM可用。

我不知道你是否记得这一点,但当OpenAI推出GPT-2时,他们说,哦,我们不会开源它,因为,您知道,这非常危险。因此,人们可能会做一些非常糟糕的事情。你知道,他们可能会用虚假信息淹没互联网等等。所以我们不会开源它。我嘲笑他们,因为,我的意思是,当时这有点荒谬。系统的能力实际上并没有那么糟糕。因此,我的意思是,你必须……

接受这些东西已经存在了好几年,而没有发生任何真正糟糕的事情。确实有一些担忧,人们会在美国选举前夕使用这些东西进行虚假信息传播。还有各种各样的事情,比如网络攻击等等。实际上没有发生任何这些事情。是的。

担心这些事情仍然是好的。好吧,我的意思是,你必须保持警惕,并尽你所能防止这些事情发生。关键是,你知道,你不需要任何这些人工智能系统来传播虚假信息,正如Twitter所展示的那样。好的,很好。我喜欢你的小讽刺。我在仔细观察。你做了一个Elam,一个秘密的。

开放AI的戏剧女王。我明白了。所以你最近也因为说文化机构、图书馆、基金会应该让他们的内容可用于像Lama这样的免费开源人工智能基础模型而受到很多抨击。你是在回应哈佛发布的新数据集,提供了超过一百万本书。但那些是公共领域的作品,而不是现存作者、艺术家、学者的作品。对吧。

谈谈你对这些AO模型从创作者、作家、研究者那里吸取我们所有文化知识而不获得任何信用的担忧和抨击。我的意思是,互联网公司以抓取而闻名。我认为沃尔特称之为,我相信那是当Facebook还叫Facebook时,贪婪的信息窃贼。但他可能是在谈论谷歌。所以谈谈这个,发生的争议。好的。是的。

在所有这些法律问题之外,如果你有这样的愿景,即人工智能将成为所有人类知识的储存库,那么所有人类知识都必须可用于训练这些模型,对吧?而且大多数知识要么没有数字化,要么数字化但不公开可用。而且不一定是受版权保护的材料。它可以是法国国家图书馆的全部内容,其中很多已经数字化,但不适合训练。

所以我不是,我在那种情况下并不是在谈论受版权保护的作品。更像是,你知道,如果你在,我来自,我的家族,我父亲的家族来自布列塔尼,好吧,法国西部的部分,对吧?那里讲的传统语言,直到我曾祖父,是布列塔尼语。布列塔尼语正在消失。每天说这种语言的人大约有30,000人,这非常少。

如果你希望未来的LLM能够说布列塔尼语,就需要有足够的布列塔尼语训练数据。你打算从哪里获得这些数据?你将有文化非营利组织,收集他们拥有的所有东西,也许政府会提供帮助,类似的事情。他们会说,像,你知道,

使用我的数据。就像,我希望你的系统能说布列塔尼语。现在,他们可能不想就这样把数据交给美国的大公司。但我设想的未来,这不是公司的政策,好吧?这是我的观点。是通过以分布式的方式训练一个人工智能系统,一个人类知识的共同存储库,以便在世界各地有几个数据中心使用本地数据来贡献训练一个全球系统。你不必复制数据。但谁来运营这个全球系统?

谁写Linux?对吧。所以这应该存在于全人类中。是的。我的意思是,谁为维基百科付费?我每月支付7美元,但请继续。

好主意。或者互联网档案馆,对吧?是的。所以在这种情况下,Linux实际上主要由公司的员工支持,他们告诉他们,您知道,实际上分发他们的贡献。你可以有一种类似的系统,在这种系统中,所有人都为这种全球模型做出贡献。这是为其他人提供的人工智能。即为人们提供的人工智能。

对于那些不一定可以货币化的事物。是的。好吧,你在其上进行货币化,对吧?我的意思是,Linux,你不为Linux付费,但如果你购买一个运行Linux的设备,比如Android手机或配备Linux触摸屏的汽车,你为你购买的

设备付费。所以人工智能也会是同样的事情。人们可以这样做。基础的基础模型将是开放和免费的。确实感觉像是少数权力集中在一起控制一切。确实在这一点上。这个愿景是美好的,但它并没有发生,对吧?好吧,在我看来,这实际上是不可避免的。你一直在与其他人工智能教父进行公开辩论,你喜欢辩论。你的图灵奖共同获奖者,杰弗里·辛顿和我认为是约书亚·本吉奥?是的。他们都在敲响警钟,警告人工智能的潜在危险,我会说相当戏剧性。他们呼吁更严格的政府监管、监督,包括研发。你称他们的警告完全是胡说八道。我认为你没有含糊其辞。

告诉我为什么这完全是胡说八道。你不同意的事情之一是美国这里的第一次人工智能监管尝试,加州法案SB1047。辛顿和本吉奥都支持它。你游说反对它。你写道,监管研发将对人工智能系统产生灾难性的后果。你非常戏剧化,先生。你说,存在生存风险的幻觉是由一小部分“妄想”的智库推动的。这两个人不是。

妄想,我不相信。辛顿刚刚因他的工作获得诺贝尔奖。谈谈这一点。顺便说一下,纽森州长否决了该法案,但正在与斯坦福教授李飞飞等人合作进行改革。谈谈你为什么称其为完全的胡说八道。你对此非常强烈。我对此非常直言不讳。是的。是的。

所以杰夫和约书亚都是好朋友。我们已经是朋友几十年了。你知道,我在1987年、1988年与杰夫·辛顿一起做博士后研究。所以我们彼此认识了很长时间,已经40年了。与约书亚也是如此。我第一次见到他时,他还是硕士生,而我是一名博士后。所以我们一直在一起工作。我们一起获得了这个奖,因为我们共同复兴了人们对我们现在称之为

深度学习的兴趣,这也是今天许多人工智能技术的根源。因此,我们在许多事情上达成一致。我们在一些事情上存在分歧,而这就是其中之一。

对人类的生存威胁。生存威胁,是的。确切地说。所以,杰夫……你就像,啊,不。他们就像,哦,是的,他们要来找我们。我是说,杰夫相信当前的LLM具有主观体验。我完全不同意这一点。我认为他对此完全错误。我们之前在技术问题上有过分歧。那时的分歧更少公开,更偏向技术,但这并不是我们第一次意见不合。

我只是认为他错了。我们仍然是好朋友。约书亚从稍微不同的角度来看待这个问题。他更担心,他有点担心这个,但他更担心

坏人利用人工智能系统做坏事。是的,我和他在一起。开发生物武器或化学武器或类似的东西。坦率地说,我认为这些危险已经被提出了好几年,并且被极度夸大到一种扭曲的程度

以至于它们实际上没有任何意义。是的,妄想是你使用的词。好吧,我不称他们为妄想。我称一些其他更极端的人,他们推动像SB 1047这样的监管,是的,妄想。我是说,有些人会当面告诉你,一年前,你问他们,人工智能要多久才能杀死我们所有人?他们会说,大约五个月。对吧。显然,他们错了。

嗯哼。嗯哼。这就是你所说的。它是关于AGI,人工通用智能,以及我们离它有多近。我希望你能为人们解释一下。当他们听到它时,他们会想到《终结者》或《机器人总动员》之类的情节。因此,辛顿和本吉奥认为AGI的时间表可能更像是五年,而我们并没有准备好。你说几年的时间,如果不是十年。你知道,如果你错了,当它真的杀死我们时,你会非常错。所以谈谈为什么……

你知道,你会像,哦,我们还没死,然后我们就死了。所以谈谈为什么你不担心。首先,毫无疑问,在未来的某个时刻,我们将拥有比我们更聪明的人工智能系统。好吧?这将会发生。

是五年、十年、二十年?真的很难说。在我们的,或者至少我个人的愿景中,最早可能发生的时间是大约五年、六年,但可能更像是十年,可能更长,因为这可能比我们想象的更困难。几乎总是比我们想象的更困难。在过去几十年的人工智能历史中,人们完全低估了这有多困难。而且再次,你知道,我们没有……

或家庭机器人,我们没有五级自动驾驶汽车。今天我们有很多事情不知道如何用人工智能系统来做。因此,在我们找到一套新的技术来实现这一目标之前,我们甚至没有朝着人类水平智能的方向前进。因此,一旦我们在未来几年内拥有了一种蓝图和某种可信的演示,表明我们可能有朝着人类水平人工智能的路径,我不喜欢称之为AGI,因为

人类智能实际上是非常专业化的,所以我们认为我们拥有通用智能。我们没有。因此,一旦我们有了蓝图,我们将有一个好的方法来思考如何使其安全。这就像,你知道,如果你回到1920年代,有人告诉你,在几十年内,我们将以接近音速的速度将数百万人飞越大西洋。

你知道,有人会说,哦,我的天,你要怎么让这个安全?涡轮喷气发动机尚未发明。你怎么能在没有发明涡轮喷气发动机的情况下使其安全?我们今天正处于这种情况。因此,你知道,使人工智能安全意味着以安全的方式设计这些人工智能系统。

但在我们有设计之前,我们将无法使它们安全。因此,问题,您知道,没有意义。所以你似乎不担心人工智能会想要统治人类?不。你说过当前的人工智能比家猫还笨。好吧,

人工智能是否有意识似乎并不重要,如果它感觉真实,对吧?那么,如果它很笨,或者它不想统治我们,或者它不想杀死我们,那么你认为对人工智能和人工智能研发的限制是什么,是否合理?

我认为如果没有就是你对我说的。好吧,研发没有。我是说,显然,如果你想推出一个家庭机器人,而那个机器人可以为你做饭,你可能想要硬编码一些规则,以便当周围有人的时候,机器人手里拿着刀时,它不会挥舞手臂或其他什么的。对吧。所以这些是保护措施。因此,当前人工智能系统的设计在某种程度上是有趣的。

可以说是内在不安全的。很多Meta的人会因为我这样说而恨我,但它们有点难以控制。你基本上必须训练它们以正确的方式行为。你想要的,这是我提出的一个建议,是另一种我称之为目标驱动的架构,其中人工智能系统基本上是为了实现一个目标而存在,并且不能做任何事情,只能实现这个目标,受制于一些保护措施,这些保护措施只是其他目标。这将确保系统产生的任何输出,无论其采取的任何行动,都满足这些保护措施和目标,并且是安全的。现在,下一个问题是,我们如何设计这些目标?很多人说,“哦,我们从未这样做过。这是全新的。我们将不得不发明一门新科学。”

不,实际上,我们对此相当熟悉。这被称为制定法律。我们对人类这样做。我们制定法律,而法律基本上改变了采取行动的成本。对吧。因此,我们一直在通过制定法律来塑造人们的行为。我们将对人工智能系统做同样的事情。不同之处在于,人们可以选择不

遵守法律,而ICTM则必须这样做。现在,这两个人,辛顿和本吉奥,支持了一封信,信中由现任和前任OpenAI员工签署,呼吁人工智能公司的员工有权警告技术带来的严重风险,而普通的举报人不会保护他们。你没有支持它。与此同时,我们在欧盟看到了一些监管。他们区分高风险人工智能系统和更通用的模型。他们对某些应用实施了禁令,这些应用“威胁公民权利”。

面部图像,我想这个机器人想要用刀子刺你。这里的模型是什么,以使其更安全,使人们……你在建议我们等到坏事发生后再设置保护措施。让我们等到发生谋杀事件,或者不。我无法判断。不,不,这不是我所建议的。我的意思是,像禁止在公共场所进行大规模面部识别这样的措施,这是件好事。就像,你知道,没有人会……

真的认为这是坏事,除非你不是意大利政府。有些人认为这是件好事。是的,实际上在一些国家已经存在。但这是件好事,对吧?还有像这样的措施完全有意义,但它们是在产品层面。

此外,改变某些尴尬视频中某人的面孔之类的事情,已经或多或少是合法的。我们拥有做这件事的工具并不使其变得不合法。可能需要针对这一点的具体规则,但我对此没有问题。

我对这种人工智能本质上是危险的想法感到困扰,你需要对研发进行监管。我认为这会适得其反的原因是,在一个你将拥有我所谈论的开源平台的未来中,我认为这些平台对未来的民主是必要的。

那么这些规则将是适得其反的。它们基本上会使开源对任何公司分发来说风险太大。因此,这些私营公司将控制一切。没错。美国西海岸的少数私营公司将控制一切。现在,和任何美国以外的政府谈谈,告诉他们这个未来,每个人的数字饮食将由人工智能助手调解。

并告诉他们这将来自美国西海岸的三家公司。他们会说,这完全不可接受。对吧。就像,这是我们民主的死亡。人们如何获得多样的观点,如果这一切都来自美国西海岸的三家公司?我们都有相同的文化。我们都说同一种语言。就像,这完全不可接受。因此,他们想要的是

开放平台,然后可以针对任何文化、价值体系、兴趣中心等进行微调,以便世界各地的用户有选择。他们不必只使用三个助手。他们可以使用,您知道,很多助手。那么你担心OpenAI、微软、谷歌的统治吗?

可能还有亚马逊。Anthropic。Anthropic,实际上是亚马逊。所以最后两个问题。你获得了2024年VinFuture奖。你所在领域有这么多奖项。我从来没有获得过任何奖项。因对深度学习的变革性贡献。在你的获奖演讲中,你说,人工智能的学习方式与人类或动物不同,人类或动物从物理世界中获取大量视觉观察。

但你一直在努力使这成为现实。你已经谈论了一段时间。你想象它在几年内会是什么样子?它会像人类或动物,还是在哪里?好吧,是的,我的意思是,有一个时刻,我们将拥有学习方式有点像人类和动物的系统,并且能够像人类和动物一样高效地学习新技能和新任务,这实际上是惊人的快速。我们无法用机器重现这一点,对吧?我们有……

像特斯拉这样的公司和其他公司,拥有数十万或数百万小时的汽车由人驾驶。他们可以利用这些来训练人工智能系统,他们确实这样做。它们仍然不如人类好。我们无法购买一辆真正能自驾的汽车或一辆机器人出租车,除非我们作弊。Waymo可以做到,但有很多技巧。而且,我们仍然无法购买家庭机器人,因为我们无法让它们足够聪明。原因非常简单。

正如我之前所说,我们在所有公开可用的文本和更多文本上训练LLM和聊天机器人。这大约是20万亿个单词,对吧?一个四岁的小孩在视觉上看到的数据量与最大的LLM通过文本看到的数据量基本相同。阅读这些文本需要我们中的任何人几百千年。因此,这告诉你的是,我们永远无法仅通过训练文本来达到人类水平的人工智能。

我们必须在感官输入上进行训练,这基本上是一个无限的供应。16000小时的视频是30分钟的YouTube上传。我们拥有比我们知道的更多的视频数据。因此,未来几年人工智能进步的最大挑战是让系统通过观看世界的运转、观看视频,然后与世界互动来理解世界的运作。

这尚未解决,但有很大机会在未来五年内取得重大进展,这就是为什么你看到所有这些公司开始构建类人机器人。他们还不能让它们足够聪明,但他们寄希望于人工智能将在未来五年内取得足够的进展,以便到这些东西可以在公众中销售时,人工智能将足够强大。对吧。现在我明白了。我终于明白你在做什么。

我实际上比我……

相信硅谷的大多数人更相信一个四岁的小孩,老实说。我遇到过像你这样的人,正如我所说的,这是我最后一个问题,非常简短,所以我们得走了。谁会喜欢这个?这将改变学习。这将改变这一切。它将使一切变得更好。每个人都会和睦相处。正如你一直引用的,我尊重你这一点,存在仇恨,存在功能失调,存在孤独,女孩的自尊心,面临危险的人们。

被我们政府的亿万富翁控制。为什么我这次信任你?我?你。就你。好吧。我不是亿万富翁。什么?我不是亿万富翁。这不是第一件事。我过得还不错,虽然我猜你也是。好吧。我首先是一名科学家。

我不会,您知道,除非我有某种程度的诚信,至少是科学诚信,否则我无法在镜子前看自己。我可能是错的。所以你可以相信我没有在对你撒谎,我没有被像贪婪这样的邪恶动机驱动。

但我可能是错的。我很可能是错的。事实上,这就是科学的整个过程,你必须接受你可能是错的这个事实。而且,你知道,阐述正确的想法来自于多种想法和不同意见的人之间的碰撞。所以,但你知道,看看证据。那么,

我们看看那些说人工智能会摧毁社会的人所提供的证据,因为我们将被虚假信息或生成的仇恨言论等淹没。我们根本没有看到这一点。我们没有看到。我们没有看到。我是说,人们确实会产生仇恨言论。人们会产生虚假信息。他们试图以各种方式传播它。

很多人试图在Facebook上传播仇恨言论。这违反了Facebook的内容政策。现在,我们对抗这种情况的最佳保护就是人工智能系统。例如,在2017年,我们无法做到这一点。2017年的人工智能技术还不足以让Facebook和Instagram在世界上每种语言中检测仇恨言论。而在这之间发生的就是人工智能的进步。因此,人工智能并不是人们用来

你知道,产生仇恨言论或虚假信息或其他东西的工具,它实际上是对抗这些的最佳对策。所以你需要的是,掌握在好人手中的更强大的人工智能,而不是坏人手中的。我担心坏人,但这是一个很好的答案。非常感谢你。谢谢。我真的很感激。

《与卡拉·斯威舍同行》由克里斯蒂安·卡斯特罗-拉塞尔、卡特里·约克姆、乔莉·迈尔斯、梅根·伯尼和凯琳·林奇制作。米沙特·克尔瓦是Vox媒体的音频执行制片人。特别感谢科琳·拉夫和凯特·弗比。我们的工程师是瑞克·关、费尔南多·阿鲁达和阿莉亚·杰克逊。我们的主题音乐由Trackademics创作。

如果你已经在关注这个节目,你将获得一副免费的Meta眼镜。如果没有,注意那个刺人的机器人。去你听播客的地方,搜索《与卡拉·斯威舍同行》,然后点击关注。感谢你收听来自《纽约杂志》的《与卡拉·斯威舍同行》,Vox媒体播客网络和我们。我们将在周一带来更多内容。