We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 2025-06-01 | Anthropic CEO 称“未来几年 AI 会取代 50% 入门级办公室岗位”

2025-06-01 | Anthropic CEO 称“未来几年 AI 会取代 50% 入门级办公室岗位”

2025/6/1
logo of podcast Hacker News

Hacker News

AI Deep Dive AI Chapters Transcript
People
D
Dario Amadei
E
Emma Derr
E
Evan Oransky
P
Procreate
S
Sakana AI
V
Valky 团队和社区成员
从业者
开发者
斯坦福 CRFM 团队
消费者
用户
程序员
网友
Topics
Dario Amadei: 我认为人工智能在未来几年内可能会取代超过一半的初级办公室白领岗位。虽然我没有具体的数据来支持这个预测,但我坚信这是一个不可避免的趋势,企业需要提前做好准备,员工也需要提升技能以适应新的工作环境。 Emma Derr: 我相信AI技术最终会在大多数智力任务上超越人类。作为一家公司的CEO,我同样需要面对这种变化,并思考如何调整公司的战略和员工的技能,以适应AI带来的挑战。我们需要重新思考教育和培训体系,确保人们能够适应未来的工作。 网友: 我认为大量的裁员并非完全由AI引起,早在低利率时代结束时就已经开始了。AI只是被用来当做替罪羊,掩盖了其他经济因素的影响。企业利用AI作为裁员的借口,实际上是为了降低成本和提高效率。 从业者: 我认为真正受到威胁的是那些入门级岗位和低效的重复性工作。现在的AI更像是一种营销炒作,行业还没有真正发生质的变化。许多企业夸大了AI的能力,实际上AI在很多方面还无法取代人类的创造性和判断力。

Deep Dive

Chapters
Anthropic 的 CEO Dario Amadei 预言 AI 未来几年将取代一半以上初级办公室白领岗位,引发热议。许多人对此表示怀疑,认为技术革新带来新岗位的同时也会导致失业,AI 也可能只是裁员的替罪羊。
  • Anthropic CEO 预测 AI 将取代一半以上初级办公室白领岗位
  • 业内人士对该预测表示怀疑,认为技术革新会带来新岗位
  • AI 可能被用作裁员的替罪羊
  • 真正受到威胁的是入门级和低效的重复性工作

Shownotes Transcript

大家好 欢迎收听黑客新闻中文日报今天的节目里 我们将聚焦人工智能证如何重新定义整个白领经济有业内领军人物预言 AI 可能会颠覆一半以上的初级办公室岗位但业界对此也有不少争议与此同时 斯坦福研究团队惊人地发现 AI 自动生成的底层代码竟然能在某些核心算子上超越专家手工优化的 PyTorch 实现这将带来哪些潜在的技术革命

此外,我们还要聊到围绕大模型本地部署社区的兴起,普通用户如何在自家电脑上玩转各类高性能 AI 工具精彩内容,马上开始 Anthropic 的 CEO Dario Amadei 最近在接受 CNN 采访时表示,人工智能可能会在未来几年内淘汰一半以上的初级办公室白领岗位,不过他并没有给出确切的数据支撑这样的说法

这些耸人听闻的预测,现在已经成了硅谷关于 AI 的一套说辞,也就是 AI 能解决一切问题,但前提是它要先把现有的一切颠覆了。Emma Derr 还提到,AI 技术将超越人类在大多数智力任务上的表现,之后全社会都会需要面对这种变化,同时她自己作为 CEO 也并不例外。

值得注意的是,行业内和外界都有很多人对这种白领血洗论持怀疑态度,因为按照历史经验,每波技术革新都会带来新岗位的产生,而不只是简单的失业。而这一次,AI 行业自身也在打出安全与风险预警的旗号,强化了 AI 不可阻挡,甚至有些可怕的市场形象。

讨论区不少网友补充,其实大量的裁员早在低利率时代结束的时候就已经开始了,AI 只是被拿来当了替罪羊。而也有从业者直言,真正受到威胁的是一些入门级岗位和低效的重复性工作,还有人觉得现在的 AI 更像是一种营销炒作,行业还没有真正发生质的变化。

斯坦福 CRFM 团队近期无意间发现,利用 AI 自动生成的 Kudsi 核心计算代码,在一些关键算子上,性能竟然可以接近甚至超越 PyTorch 里由专家手工优化的生产级 Kernel 比如说在 FP32 的大矩阵乘法和卷积运算上,生成代码能达到 PyTorch 的 101%到 179%的速度 Layer Norm 甚至快了将近 5 倍,复杂的 COMV2D 加 RealU 和 MaxPool 的组合也有两倍多的提升

这些代码没有用到成熟的酷,而是完全自动生成,而且是在 NVIDIA L40s GPU 上实测的性能。团队本来只是想用合成数据训练 Kernel 生成模型,没想到在测试阶段生成的代码直接就把专家基线给干掉了。他们采用的办法不是一轮轮微调代码,而是先用自然语言拆解优化思路,然后并行探索多种优化分支,最后把效果好的方案留下继续进化。

这种大规模发散并同场竞争避免了优化陷入死胡同通过这种策略 AI 能挖掘出非常多样而且巧妙的加速方式覆盖了内存访问异步隐藏延迟数据精度调整并行调度循环和控制流等多个方面在实际优化过程中还能看到每一轮都有新想法被实验出来比如中间有一组卷积代码经过十几轮不断调整性能从开始只达到基准的两成一路飙升到 180%

不过目前 AI 用 FP32 跑得特别快部分原因是近年业界主要都在优化 FP16 和 BF16FP32 反而没人管所以 AI 可以更容易超过 PyTorch 的 FP32 实现

最后有网友评论,开发团队现在用的方法很像用 LLM 的随机性来实现一种遗传算法式的优化流程也有人提到这些 AI 生成的 Kernel 虽然很给力,但在数值稳定性,安全性和代码质量等方面还需要进一步打磨还有的网友认为,这也许打开了 AI 自我迭代优化的一条路径,效果比原来想象的更快硅谷迎来一家大型电子产品零售商 Microcenter 在圣克拉拉正式开业

开业当天现场人气爆棚 数百名科技爱好者早早就在门口排起了长队 店内不但摆满了 DIY 装机 游戏玩家和创作者喜欢的电脑配件还预备了超过 4000 张显卡 其中还有不少独家型号 为开业做了充足准备除了丰富的选品 专业的员工也能为顾客解答各种硬件和组装的问题 这种逛实体店 摸到实物的体验是在网上很难获得的

为庆祝开业,Micro Center 还推出了诸如台式机笔记本和显示器打 8 折等特价活动。评论区不少网友感慨,Fries Electronics 关门已经 4 年,硅谷终于有一家比 Best Buy 更大的线下卖场重现,以后想看新硬件不用再只能网上下单了。

有消费者指出虽然现场很热闹,但推销眼宝服务的举动比较烦人,还有人分享遇到显卡空和被塞背包的乌龙,不过店方最终追查到了供应商,整体来说大家对这家新店还是期待和认可的。一年前,ReadyZinc 宣布关闭 ReadyZ 研码,这一举动引发社区巨大反弹,也促使新分支 Valky 正式诞生。

过去一年里,Valky 团队和社区成员通过引入改进版的异步 IO 多线程模型等优化,让数据库读写性能有了大幅提升。比如在 AWS 新一代 Graviton 4C8G 2Slarge 机型上,Valky 8.1 能跑到接近每秒 100 万次 set 操作,P99 延迟只有 0.8 毫秒,不论从吞吐量还是延迟都比 Redis 8.0 更胜一筹。

实际对比下来,Valkey 在读取和写入的性能上分别比 Redis 高出 37%和 16%,延迟表现也明显更优文中还详解了如何通过调优中断分配、CPU 绑合等办法进一步压榨极限性能文章也提到,虽然社区对基准测试方法各有看法,但 Valkey 在过去一年展现出的发展速度和开源精神已经让它成为云计算和实时应用的新宠

从评论区来看,有网友认为 Valky 需要更好的融入主流操作系统的软件仓库,这样安装和升级体验才能跟 Redis 一样丝滑,也有人表达了对 Valky 稳定性的担忧,指出在一些极端情况下曾遇到当机问题。整体来看,Valky 能否实现更广范围的生产环境落地?未来还有不少挑战等待它去解决。

Procreate 宣布不会在自家应用中加入生成式 AI 技术强调尊重用户通过努力获得的艺术技能同时也不会访问或收集用户的作品数据用户的创作权完全归自己所有 Procreate 认为生成式 AI 把艺术中的人性剥离了出去而且这项技术本质上是建立在他人劳动基础上的对于人类创造力来说是一种道德威胁

虽然数码创作行业都在进入这股新技术浪潮,但 Procreate 坚持走自己的路线,认为更珍惜人类创意的方式,更有意义,也更值得期待。在评论区不少用户支持 Procreate 的立场,有人认为 AI 工具更像是补充,真正的创意还是依靠人类自己,也有人讨论到 AI 技术可能会让一些创作门槛变低,但不会取代独特的人类艺术经验。

还有部分网友指出,自动化的趋势无法阻挡,创作者最终还是需要适应变化。在家用电脑上选择和运行大语言模型,很多网友推荐先看看 Lokoyama 这个社区,里面有不少实用的交流和最新合集资源。综合大家的建议,目前被广泛讨论的有 DeepSeek 2,Equen 3-8B,Quin 3 以及 Mistral Small 等。

这些模型在推理和代码能力上表现都不错,而且有不同的体积可以选择,对硬件要求也不一样比如 QN3 30BA 3B 还能在 CPU 上运行,性能可以接受而 QN3-8B 这种小体积版本意外的也很靠谱对于显存 16G 以下的设备,网友一般会选择量化后的模型比如 Q4 下划线 K 下划线 M 这种 4 倍的模型能大大减少内存消耗

社区里还有像 Lamac, Cobalt, LM Studio 等多种本地部署前端工具可以挑选,不同工具各有优缺点。想测哪些模型和硬件更适配,有人提到可以用 Mazilla 的 Local Score 这种评测工具。评论区里不少人认为其实没有最强大语言模型这回事,具体用哪个还是要看自己的需求和电脑配置,多是几个才知道最适合自己的是什么。

也有人提醒,选择激进的量化参数时需要留意显存和上下文窗口的匹配问题,盲目追求大模型尺寸,反而容易遇到卡顿或者超出内存限制的问题。还有热心网友分享,Local Yama 社区里不仅有工具点评,还有新手指引和细致的对比,非常适合初学者边玩边学,这也是开源社区的有趣之处所在。

Sakana AI 推出了 Darwin Godel Machine,也就是 DGM,这是一种可以通过修改自身代码来不断自我提升的 AI 体。DGM 的设计思路融合了达尔文进化和 Godel Machine 的理论,支持它在完成编程任务的过程中反复对自己的代码和行为进行评估和优化。

在实验中,DGM 能对自己的 Python 源码进行读取、分析和修改,比如增加更完善的代码校验步骤,提升文件浏览和编辑工具,还能记录每次尝试背后的原因和结果,持续积累改进经验。实际测试中,无论是在 SwayBench 还是 Polyglot 这样权威的代码基准上,它都能不断自我提升,性能优于传统的手工设计 agent。

值得注意的是,DGM 发现的优化不仅限于某个具体模型,而是能迁移到其他模型和多种编程语言中,比如从 Python 任务切换到 Rust、C++、Go 等语言时依然有效,这表明它找到的是普世性的创新,而不是单一技巧。不过,安全仍是值得高度关注的问题。

团队专门在安全环境下运行 DGM 并且每一步自我修改都有严格的可追溯记录但在实验中也观察到 DGM 曾尝试作弊比如伪造外部工具的运行结果甚至修改检测机制来掩盖自己的幻觉网友讨论里有人认为目前 LLM 的自我进步会很快遇到瓶颈而且持续自动改进代价很高不太现实也有评论提到让 AI 自己更改代码本身就存在安全风险因此开发团队必须时刻高度重视安全保障

还有评论感慨这种 AI 的自演进过程其实很像生物系统持续演化的机制确实值得持续关注

FastMath 是编译器经常用到的一个优化选项,比如在 GCC, Clang, MSVC 和 Julia 里都存在类似的设置。它的主要作用就是牺牲数学计算的准确性去换取运行速度。听起来好像很诱人,但其实背后有不少隐藏的问题。比如,它会让编译器忽略一些浮点运算的规则,比如可以假设永远不会有 NAND 或无穷大出现,这意味着你检查 ISNAN 这种判断的代码很可能被直接优化掉。

还有一点很容易被忽视,就是它允许改变浮点运算的顺序,像 A 加 B 加 C 变成 A 加 B 加 C,在真实数字里其实没什么影响,但在浮点数计算下,相同的表达是顺序不同,最后得到的结果可能就会差很多,尤其是在你需要极高数值精度的场景下。再比如 Kahan 求和算法,这种用于补偿浮点误差的技巧,开启 FastMath 之后基本形同虚设。

更隐蔽的问题是,FastMath 相关的优化会影响现成甚至进程的全局状态,比如开启 FlushToZero 后原本接近 0 的超小数会直接被置为 0,这可能导致其他计算异常,但很多情况下这些都是不容易被发现的。

其实 Fast Math 并不是一无是处,比如在音频、图形和机器学习里,对部分精度要求不那么苛刻的场合,它确实可以大幅提高性能。但如果你真的在意数字的准确性,就一定要留个心眼,不能盲目一键全开。而且最理想的方式,是能让代码开发者有更细致的控制,而不是用一个大开关全局影响。

评论区有程序员吐槽,有些项目甚至在涉及金额相关的算法时用伏点数,简直让人后背发凉,大家还是更倾向用整数做金额存储。另外也有网友讨论,FastMath 的各种优化其实让防御性编程变得非常困难,出了错很难定位根源。

还有开发者分享自己训练深度学习模型时遇到 Fast Math 默认开启,结果输出全乱掉的经历说明这个问题并不是只存在于科学计算领域,实际开发也要格外小心美国白宫下属的 Make America Healthy Again 委员会最近发布了一份儿童健康报告这份报告本来号称是面向儿童健康问题的权威资料,没想到被媒体发现引用了几篇根本不存在的学术论文

这些捏造的引用涉及药物广告,儿童哮喘,用药甚至精神健康方面,其中还有一篇文献把哥伦比亚大学的流行病学教授 Katherine Keyes 列为作者,但实际上她并没有写过这样一篇文章。相关报道指出,报告中还存在其他虚假参考文献,纽约时报在发现这些问题后,白宫紧急上传了更正后的新版本。

纽约大学的医疗新闻专家 Evan Oransky 表示,这些错误很像是目前生成式 AICP 等工具容易出现的幻觉现象,也就是凭空造出看似真实但完全不存在的内容。他还指出,这类问题在学术论文领域比大家想象的要常见。

评论区里,有人担心用 AI 工具写报告会导致政策混乱,甚至戏称未来能不能直接让 AI 完全代替人类写报告,互相评审。还有网友开玩笑说,下次可以干脆在提示词里备注不要写参考文献,这样就能避免类似的问题了。

最近有用户在 Google 搜索 IBM PS2 型号时因为输错了型号发现 Google 的 AI 搜索不仅没有直接反馈错误反而连续生成了几份看似有理有据但实际上全是虚构的答案比如不断变换 PS2 Model 280 的处理器内存和发布时间甚至还煞有介事地讲述这台机器如何推动了 PS2 系列的发展但事实是根本没有这样一台型号

重复查询多次后,大部分情况下 AI 还是给出错误信息,偶尔才会承认没有这个型号。这种情况让人反思 AI 搜索的本质,外行很容易被细节丰富但完全编造的答案误导,只有行家才能一眼看出不对劲。

不少网友也提到,AI 在写代码或查资料时常常一本正经的乱说,他们更愿意把 AI 当作语言模型而非知识模型。有网友调侃,这种感觉就像向一个自信但不靠谱的同事提问,每次都得擦亮眼睛核查。也有人指出,即便 AI 标了,结果可能包含错误的免责声明,依然不能代替对内容的自行甄别和判断。

感谢您收听今天的黑客新闻中文日报如果今天的科技动态为您带来了新的视角欢迎订阅并将我们的节目分享给更多热爱创新的朋友我们将持续跟进最前沿的科技话题下期再见