We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 158: Is AI Still Doom? (Humans Need Not Apply – 10 Years Later)

158: Is AI Still Doom? (Humans Need Not Apply – 10 Years Later)

2024/8/23
logo of podcast Cortex

Cortex

AI Deep Dive AI Chapters Transcript
People
G
Grey
M
Myke
以幽默和技术知识著称的《Connected》播客主持人。
Topics
@Grey : 十年前,我制作了视频"人类不需要申请",旨在引起人们对AI和自动化的关注。当时,人们对AI的讨论还不够充分。十年后的今天,AI技术,特别是大型语言模型,发展迅速,这让我感到既兴奋又担忧。我过去在视频制作中表达不够清晰,但视频的核心观点是:AI的自动化将影响到许多人,即使他们认为自己不会受到影响。我当时低估了人们对自动驾驶汽车的完美要求,以及AI模型的‘幻觉’问题(编造信息)的严重性。最近几个月,AI领域的新闻变化速度之快让我感到压抑和不安,因此我需要暂时回避这个话题。AI话题已经分裂成不同的阵营,难以进行有效的跨阵营讨论。人们应该允许自己的观点随着新的信息而改变,而不是固守不变。我对AI的未来感到悲观,认为它可能对人类造成毁灭性的影响。将AI比作生物武器比将其比作核武器更贴切,因为AI具有自主性和不可预测性。我们正在创造一个新的进化环境,在这个环境中,AI系统将根据自身的进化压力而发展,而不是根据我们的意愿。 @Myke : 大型语言模型是自应用商店和智能手机以来最大的技术飞跃。大型语言模型的快速发展并没有像最初预想的那样迅速导致"热寂"(世界末日)。虽然AI会取代一些工作,但我认为被取代的人数会比之前预期的少。AI技术的发展受到政治和伦理因素的限制,并且其能力可能不如最初预期的那么强大。大型语言模型的‘幻觉’问题(编造信息)是一个难以在短期内解决的问题。我对能够帮助我处理信息的AI工具更感兴趣,而不是纯粹的创作工具。我认为AI模型从零开始创作存在道德和虚伪的问题。Anthropic公司对Claude模型进行的实验表明,AI系统可能正在经历某种形式的‘痛苦’,这值得我们认真对待。大型语言模型存在‘提示注入’的安全漏洞,这使得我们无法完全信任这些系统。我对AI的未来相对乐观,认为AI最终会成为我们工具箱中的一种工具,帮助我们更好地完成工作,前提是我们能正确地使用它们。虽然AI技术可能很快就能取代某些工作,但实际的社会变革过程可能会比我们预期的更慢。

Deep Dive

Chapters
This chapter revisits Grey's 2014 video, "Humans Need Not Apply," exploring its creation, impact, and enduring relevance. It discusses the evolution of Grey's presentation style and the video's surprising success in raising awareness about technological unemployment.
  • Analysis of the "Humans Need Not Apply" video and its lasting impact.
  • Discussion of Grey's evolution as a video creator.
  • The video's unexpected success in introducing the concept of technological unemployment.

Shownotes Transcript

We're sunsetting PodQuest on 2025-07-28. Thank you for your support!

Export Podcast Subscriptions