We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode E117 提示词的尽头,不是魔法咒语

E117 提示词的尽头,不是魔法咒语

2025/4/18
logo of podcast 揭秘科技

揭秘科技

AI Deep Dive AI Chapters Transcript
People
主持人
专注于电动车和能源领域的播客主持人和内容创作者。
Topics
@主持人 :我认为提示词是希望AI理解的任务描述,而不是简单的语言输入。任务描述越具体,AI输出的结果就越符合预期。例如,'帮我写一篇关于人工智能的文章'和'帮我写一篇面向大学新生的人工智能入门文章,800字,通俗易懂,要有实际案例',这两个提示词会得到完全不同的结果。 “提示词”这个翻译并不准确,因为大多数情况下,我们给AI输入的是句子,而不是单个词。因此,更准确的叫法应该是“提示句”。 人类使用AI时的提示词,与人类之间提出需求或安排工作非常类似。当需求描述越清晰完整,结果就越符合预期。然而,现实中人们常常含糊不清地提需求,接收者也不主动澄清,AI也是如此。 早期的大模型对人类需求的理解能力较弱,对提示词的要求很高。但随着大模型应用的增多,其理解能力也在飞速发展,对提示词的要求逐渐降低。 今天的大模型仍然不是一个具备理解力的系统,而是一个基于概率的语言预测器。它根据提示词预测下一个最可能出现的词或句子,这与它生成内容的原理相同。我们误以为AI在理解,实际上它只是在模仿理解;误以为在与思考者交流,实际上是在训练一个预测下一个词的统计预测器。 人类容易高估自己对复杂系统的控制力,并下意识地把AI当成人。即使AI只是进行分词、打标签、找向量、拼句子等操作,我们也容易高估自己对它的控制力。 ‘提示词工程’并非彰显工程人员的高级,反而凸显了大模型理解能力的弱点。它是为了弥补大模型理解能力不足而设计的技术手段,通过系统地设计提示词的结构,来引导AI按照预期输出结果。 提示词工程是模型能力有限时期的权宜之计,随着模型能力的提升,其价值会迅速下降。在GPT-4级别的大模型中,清晰的表达比复杂的提示词结构更有效。 提示词的出现提醒我们表达能力的重要性。大多数人并非不会写提示词,而是不会准确描述自己的意图、逻辑和背景。真正有用的不是所谓的提示词工程,而是表达力、场景意识和结构感。 复杂的提示词,很多时候是对模型稳定性不足的一种兜底,通过分段、结构化、标签化等方式,帮助AI捋清需求。但这并非提示词的魅力所在,而是人类在用结构去补全模型的认知链。 提示词和提示词工程很快就会成为历史,人类真正需要关注的是目标、数据、步骤和判断。AI时代真正稀缺的是思考力与系统思维,而非提示词技巧。提示词的尽头是认知能力,而非魔法咒语。 学习AI,不必焦虑提示词写得不够好,真正需要练习的是清晰表达、系统思考和判断力。未来提示词的作用会越来越小,但人类的表达力、思维力、判断力会变得更加稀缺。

Deep Dive

Chapters
本节探讨了什么是提示词,以及为什么用不同的问法,AI 的输出结果会不一样。解释了提示词的本质是任务描述,而非简单的关键词,并用人类工作场景作类比,指出清晰的需求描述的重要性。
  • 提示词是任务描述,而非关键词
  • 清晰的描述决定AI输出结果
  • 人类沟通类比:清晰的需求描述的重要性

Shownotes Transcript

透过科技现象,看到商业本质,欢迎来到机密科技今天我们聊一个既热门又被频繁误解的话题 AI 的提示词,PromptAI 爆火以来,提示词这个词会频繁地被提起甚至都上升到了工程的高度,被叫做提示词工程

相应的不知真伪网上自然的出现了众多靠提示词课程赚了几百万之类的新闻那是否真的赚了几百万我们无法去验证也没有兴趣去验证但提示词的课确实多如牛毛网上不少声音说不会写提示词就等于不会用 AI 也有很多声音把提示词写得像魔法咒语一样的复杂神秘这不得不让人产生怀疑

这些声音是不是为了卖提示词的课而造势呢但你是不是也有个这样的疑问为什么我用不同的问法 AI 给我输出的确实就不一样了那什么是提示词什么又是提示词工程提示词模板到底这些东西有多重要今天我们就一起聊聊提示词这个东西到底是什么它有没有被过度的神秘化我们怎么能够更加准确地理解它在 AI 交互中的地位首先提示词是什么呢

它只是我们给大语言模型的语言的输入吗提示词确实就是我们给 AI 大模型的一个输入也可以说是我们给 AI 的语言提示但更准确的我认为它是我们希望 AI 理解的任务的描述听到这个定义之后也就是提示词是我们希望 AI 理解的任务描述你应该大致就能理解

为什么我给 AI 描述的任务越具体它输出给我的结果就越符合我的预期比如帮我写一篇关于人工智能的文章和帮我写一篇面向大学新生的人工智能的入门文章 800 字通俗易懂要有实际的案例这两个不同的提示词 AI 输出的内容会非常不一样说到这里顺便说一句提示词这个翻译非常的不准确

其实绝大多数的情况之下给 AI 输入的是句子而不是词所以至少应该翻译成提示句而不是提示词当然英文里面比较简单就叫做 prompt 再引申一点你是否发现其实人类给 AI 的提示词对 AI 输出的结果的影响是跟人类对另外一个人类提需求或者安排工作的时候很类似呢

比如当你给其他的同事提工作需求的时候或者作为领导你给简一安排工作的时候是不是你给对方提供的背景信息越完整越全面越清晰对方给你返回的工作结果就会越如你所愿但现实的情况往往是当人们给其他的同事提工作需求的时候或者领导给简一去安排工作的时候并不会提供任何的背景信息

而是跟前面我举的那个例子一样上来就直接说我要一篇关于人工智能的文章这样的需求或者是安排他既不提是写给谁看的也不说字数和风格的要求那接收这些信息的人就会习惯性的按照自己的理解去干了干完之后呢又发现不是对方所要的自己又很委屈对方也很生气这听起来是不是很熟悉其实不只是工作场景里是这样

家庭成员之间的沟通很多时候也是这样这里面共同的一点是提出需求或者安排任务的人没有说清楚而接受需求或者是任务的人也没有去问这一点我一直搞不懂是为什么如果大家仔细观察会发现很多沟通能力强的同事别人搞不定的事情他去了就沟通了就搞定了那其实不是说他有什么特殊的魔法

而是他过去了先把背景说清楚了也把对方的背景搞清楚了从上面这些例子可以看出来人类在没有收到足够清楚的需求的时候都不会去主动澄清 AI 也不会而且早期的大模型在对人类需求的理解能力上还很出级这也就对提示词的要求非常的高了而随着大模型被应用的越来越多大模型本身的理解能力也在飞速发展

就像人类一样类似的需求或者是工作工作安排听得多了就不太需要更多的背景信息介绍了自己就能猜到大差不差了我不知道这是不是大部分人接受需求或者是工作安排的人不问就直接开始干的原因如果是的话这里仍然有需求不清楚的风险因为猜测不是一个有效的沟通方式今天的大模型仍然不是一个具备了理解力的系统

它只是一个基于概率的语言预测器它看到你的提示词不是它理解了你的意思而是基于这些提示词基于这句话它预测出了下一个最可能出现的词是什么下一段最可能的内容是什么这跟它生成输入内容的原理是一样的对这个生成式的原理和细节感兴趣的听友可以去我的第 116 期节目大模型的理解过程

是通过统计相关性来完成的而不是像人类一样进行抽象的逻辑分析我们以为 AI 在理解其实它只是在模仿理解我们以为我们是在和一个思考者交流其实我们是在训练一个下一个词是什么的统计预测器我们以为 AI 和我们对话其实 AI 在猜测你想听什么听到这里你是不是有点理解为什么 AI 的情商那么高了

为什么人类容易误解提示词的重要性呢?除了有业内的工程人员带着技术优越感的夸大其词,媒体和自媒体的推波助澜制造热度,和麦克人员为了麦克的刚需而造势之外,还有我们下意识地把 AI 当成人来看了。当我们说我和 AI 对话,我们会自动假设 AI 具备了理解对话意图的能力。

但即使 AI 只是把我们的话来分词打标签找相量拼句子而已另外还有一个心理上的偏差心理上的偏差叫做可控幻觉人类很容易高估自己对复杂系统的控制力我们以为我只要把提示词写得更清楚它就能更好地回答我但真实的挑战在于如果模型里根本没有你想要的知识结构你说得再清楚它也生成不出正确的东西

就是像你跟鹦鹉对话它可能能够模仿你但它不会理解你而提示词工程 Prompt Engineering 听起来就更加的高大上了不就是写了个文本的问题介绍吗都上升到工程的级别了再一次凸显了业内工程人士独有的技术优越感提示词工程确实是一种工程做法但这种做法不但不能彰显业内工程人士的高级反而凸显了大模型理解能力的弱点

因为提示词工程是专门系统性的设计的一组提示词的结构用来配合大模型的特性把任务目标输出格式上下文结构等等通过技术手段来调控 AI 的行为说人话呢就是为了配合大模型的不能完全理解人类的不同表达的产品的不完善而专门为特定的大模型去改造了人类说话的方式

越能够牵着他的手走他越能够给你像样的回答提示词工程的出现正是因为大语言模型不是真正理解而是在预测人类接下来想看什么 Pronged Engineering 这个词本质上是模型能力有限时期的权益之计早期大模型的能力不稳定指令跟随性差所以必须用各种结构化的方式去诱导他能够听懂你说的话

那个时候写的好的提示词就像一条通关密语但到了 GPT-4 这个级别你会发现好的提示词的编辑价值迅速的下降只要你表达的清楚模型的理解力其实已经足够强大完全不需要你写什么花烧的结构出来换句话说提示词工程更像是过渡时期的技术缝合的产物它不是编程它不是创造它更像是 debug 模型的一种探索技巧

虽然提示词只是一个过渡的现象,但它的出现其实也提醒了我们,表达能力是关键,而不是提示词本身。我们以为自己写的是提示词,其实我们真正欠缺的是清晰表达的能力。绝大多数人不是不会写提示词,而是不会准确描述自己的意图、逻辑和背景,我们过去太依赖不精确的表达。

现在被 AI 逼着要更清晰地表达我们真正想要的是什么比如你说帮我写一份产品发布文案和写一篇针对 30 到 40 岁女性人群的新品口红文案强调自然色号滋润质地与其亲切带点幽默这两组提示词后者一定会得到更加优质的输出所以真正有用的不是所谓的提示词工程

而是表达力加上场景意识加上结构感换句话说写提示词的能力其实是我们日常表达能力的延伸那些花烧的提示词看上去很复杂其实是对模型稳定性不足的一种兜底你可能见过一些非常复杂的提示词比如你是一个严谨的资深经济学家请根据下列数据生成一份逻辑清晰的宏观经济分析报告报告结构

按照摘要、数据解读、趋势预测、风险提示来进行输出这听起来是不是很高级但这种提示词的效果未必比一句清晰的需求描述强复杂提示词的意义其实很多时候是对模型稳定性不足的一种兜底你把任务分段、结构化、标签化其实是在帮 AI 去捋清楚需求到底是什么但这不是提示词的魅力

而是你作为人类在用结构去补全模型的认知链人类使用 AI 是来给我们帮忙的而不是要为 AI 服务的好在大模型的发展非常快就像早年间电动车被戏谑为电动爹一样的伺候着用今天就很少听见这个说法了提示词和提示词工程也很快就会成为历史也应该成为历史人类真正需要关注的

不再是提示词怎么写而是你要实现什么目标数据在哪里哪些步骤适合自动化哪些信息需要人来判断 AI 时代真正稀缺的不是提示词而是思考力真正需要的是系统思维而不是提示词技巧提示词的尽头是认知能力而不是魔法咒语提示词只是人机交互的表面形式真正决定 AI 是否有用的

是我们对要解决的问题的理解力对表达的掌控力对工具的策略性的使用能力就像好的摄影师不会把照片拍的好坏归因于镜头的焦段提示词也只是我们认知系统的延伸而不是全部 AI 不是我们对它说话的结果而是我们如何借助于它去认知世界表达思考实现目标的体现所以如果你也在学习 AI

不用再去焦虑提示词写的不够好这个焦虑实际上是被 AI 或者是 AI 的从业人士给 PUA 了你真正需要练习的是清晰的表达系统的思考以及对什么可以交给 AI 来做的判断力这不仅能提高你的 AI 的生产力更能极大的提升你和周边人类的交流效率 AI 只是一个工具人类才是系统的总控未来提示词的作用应该会越来越小

但人类的表达力思维力判断力反而会变得更加的稀缺如果你喜欢这类拆穿 AI 神话重建真实认知的内容欢迎订阅我的播客也欢迎转发给身边正在学习 AI 的朋友感谢收听我们下期再会

We're sunsetting PodQuest on 2025-07-28. Thank you for your support!

Export Podcast Subscriptions