cover of episode E353. AI提示词工程师岗位风光不再 | 苹果财报发布

E353. AI提示词工程师岗位风光不再 | 苹果财报发布

2025/5/4
logo of podcast 创新灯塔

创新灯塔

AI Deep Dive Transcript
People
西
西娅
Topics
@西娅 :我观察到AI提示词工程师这个曾经热门的岗位,现在需求正在下降。2023年时,这个岗位年薪很高,对学历和编程技能要求不高。但现在,微软的调查显示,这个岗位在未来12到18个月内,公司并不想增加。招聘平台上的搜索量也从暴增变成了瓶颈。一些公司甚至已经取消了这个岗位的招聘,转而开发自动生成或优化提示词的工具,或者发布白皮书来降低门槛。虽然短期内这个岗位不会完全消失,但从长远来看,随着AI智能水平的提升和个性化发展,对纯提示词工程师的需求会逐渐减少。懂提示词工程的复合型人才会更受企业青睐。 关于AI监管,MIT教授的研究显示,即使采用嵌套可扩展监督,控制强大AI的成功率也只有52%,并且随着AI接近AGI,失控率会大幅提升。这项研究对未来AI控制至关重要。 国产开源大模型以及其他大模型都存在‘幻觉’问题,例如李彦宏提到的Deep-Seq RE模型。虽然技术开发者有一些解决方法,例如百度利用RAG技术解决部分问题,但这个问题仍然难以彻底解决。‘幻觉’并非完全没有意义,它也可能带来一定的创造力。 OpenAI和微软的合作关系也发生了微妙的变化。虽然两人在推特上秀恩爱,但微软暂停了部分AI数据中心项目,OpenAI的算力可能受到影响。双方在计算需求、访问权限和对AGI的看法上存在分歧,微软甚至开始招揽人才,构建模型来抗衡OpenAI。 与AI互动时的礼貌用语(如“请”、“谢谢”)虽然看似微不足道,但却会产生巨大的能源消耗。从心理学角度来看,人类会不自觉地将AI拟人化。 苹果公司第一季度财报显示收入和利润增长,但股价下跌,中国市场表现不佳,AI相关功能也存在滞后。

Deep Dive

Shownotes Transcript

今天的节目将探讨AI提示词工程师岗位风光不再,未来需求是否会持续减少?MIT教授关于控制强大AI的研究成果,能否真正有效应对AI失控风险?李彦宏点名批评的国产开源大模型幻觉问题突出,技术开发者手段能否彻底解决?奥特曼与纳德拉关系微妙变化,他们的合作走向会如何发展?接下来让我们来解锁这些商业科技动态吧

00:01:14 AI提示词工程师岗位兴衰及AI监管研究 

00:04:31 大模型幻觉问题及OpenAI与微软关系 

00:07:25 AI能耗及社交礼仪,苹果财报相关情况 

00:10:33 5月5日:历史上诸多重大事件回顾 

    本期主播:西娅

    后期:西娅

    收听平台:小宇宙、喜马拉雅、Apple Podcast 等。

    如果喜欢我们的节目,欢迎点赞评论转发。