透过科技现象看到商业本质欢迎来到揭秘科技大家应该经常听到 AI 的幻觉这个说法 AI 真的会出现幻觉吗 AI 的幻觉的后果真的就只是一本正经的胡说八道这么简单吗 AI 的幻觉和人类的幻觉一样吗我们应该如何跟这个有幻觉
但能利用超乎想象的 AI 相处呢这期节目这些问题我们就一一揭秘一下我们目前常说的 AI 的幻觉都是在说大模型的幻觉我们知道现在用的大模型无论是国内的 DeepSeek、豆包等等还是国外的 GPT、Gemini 都是生成式的大模型生成式大模型的本质是一个基于概率去生成下一个内容的语言预测模型
所以当我们说 AI 出现幻觉的时候本质上是在说生成式的大模型的统计猜测失误了我举例来说明一下生成式大模型的工作方式就容易理解了生成式大模型的工作方式简单来说就是在给定一段文字的前提之下根据概率来预测下一个最有可能出现的文字是什么比如当用户输入中国的首都市这个问题的时候
大模型就会分析其训练数据当中哪些词最有可能跟在这几个字后面模型可能会发现在所有的训练数据当中北京出现的概率远高于其他词于是模型就输出北京这两个字这句话就变成了中国的首都是北京大模型在输出大篇幅的内容的时候
这个上述描述的这个根据训练数据中出现概率最高的词来生成下一个词的过程就被反复的进行大模型不是一下子写出一整句话而是一个词一个词的猜出来这个过程呢需要反复的计算需要消耗大量的算力这个过程也就是大家可能听说过的大模型的推理的过程
大模型每猜一个词,它就把新猜出来的这个词加入到上下文当中,然后继续去猜下一个。而这个猜并不是拍脑袋,而是像前面说过的,大模型根据其庞大的训练数据,这些数据来自于互联网上的文章、书籍、代码、对话等等等等,根据这些大量的训练数据来构建出了一种词语之间的概率关系的网络。
所以本质上大模型并不理解用户在说什么在问什么大模型只是看过无数类似的句子知道人们通常在谈论这个问题的时候会说什么哪种说法出现的概率最高大模型也不理解自己输出的内容到底是什么它只是根据语言的统计规律做出看似合理的输出从这个角度来看
大模型是没有所谓的人类的智能的这也是为什么它在某些任务上能展示出惊人的推理能力而在一些看似简单的常识或者是逻辑事物上却频繁的出错所以大模型的幻觉本质上是一种生成式模型的统计猜测失误它不是在记忆中找不到答案而是在大量的语料的统计相关性当中拼凑出来了一个看起来合理实际上是虚构的内容
这个幻觉不是像人类那样不小心的说错了,而是自信的在编造。比如,你问 AI 某个不存在的学者的研究成果的时候,他可能真的会一本正经的编一套出来,因为这些语句在其他的学术描述的语言上看起来非常相似。训练用的语料本身和大模型的基于概率的推测的准确性决定了生成的结果的准确性。
幻觉这个带有拟人色彩化的词汇用在这里呢并不够准确人类的幻觉是一种心理加认知双重作用产生的结果背后是一个复杂非线性的系统盲从效应集体行为中的认知偏差比如当一群人都故意给出错误的答案的时候哪怕你心里知道答案是错的也可能会跟着大家一起走为什么呢因为我们的大脑默认多数人不会出错
这是一种对社会共识的认知投射另外一个例子是信念导致的感知扭曲比如信某件事的人更容易看到支持这件事的证据 AI 本身没有意识它并不知道自己在说错话了也没有意识层面的自我教验的能力它只是在生成一个最可能出现的句子序列 AI 的幻觉如果不被外部系统反馈
AI 自己是无法自我纠正的人类是具有原认知的能力人类在认知的过程当中可以对一个想法提出质疑我们可以回溯因果链条也可以对一个结论反复地验证而目前的 AI 模型并不具备这种原认知的能力它不会怀疑自己的输出是否真实也不会在多个版本之间做逻辑的一致性的对比所以人类能够意识到自己是否可能错了
人在说错话之后可以反思、怀疑、修正,这也是为什么人类可以学习和成长,当然也不是所有的人都具备这样的能力。AI 的幻觉不是认知的错误,而是生成机制的一个自然结果,它不是模型想错了,而是因为它根本就没有在思考这个概念,它只是在输出了一个看起来合适的句子罢了。
而人类的错误大多数是基于理解但受限于认知的判断误差所以在当前阶段与其不断地指出 AI 错了或者 AI 出现幻觉了不如问我们自己在当前 AI 的发展的初级阶段我们对 AI 的期待是否合理而这背后真正的问题是我们误把当前的大语言模型当作了知识模型或者是推理的引擎
为什么人类容易信任 AI 给出的答案呢因为 AI 输出的语言的它的权威性无疑是重要的因素之一有的时候 AI 生成的结果还带有来源链接引用等等这些看起来更加增加了 AI 输出的结果给人类的信任感如果你觉得这些 AI 的幻觉只是输出文本的一种文字游戏那我们换一个场景来看一看在路上跑的 AI 会不会也是在猜
如果路上跑的 AI 猜错了会有什么后果大模型在回答人类问题的时候出现幻觉我们只是得到了编造的内容大多数情况下呢也不太可能有严重的后果但别忘了现在的自动驾驶系统也是大模型而且每个厂家都说自己是端到端的这里到端到端的端第一个端指的是这两个端其实都是指的车辆本身这个终端
第一个端字是指摄像头或者是雷达去捕获车辆周围的信息把这些信息输入给大模型去做判断然后大模型基于这些信息给车辆这个终端下达动作指令完成后面这两个字到端所以这个过程呢是由一个大模型完成而不是由之前的很多个独立的模型一起来协作完成这叫做端到端
这种端到端的大模型的做法是特斯拉率先验证的简单说这种做法最直接的好处是避免了错误或者是误差在多个子模型或者子系统当中不断的累积同时又具备了一个整体优化的能力以及更强的泛化能力泛化能力是指模型在没见过的新的场景当中依然能够做出合理的判断的能力
换句话说就是不光会做训练时交的题还能举一反三是不是所有的炒家都和周真的和他们自己说的一样是真的端到端了还只是随便说说而已我们无从判断但当自动驾驶的大模型出现了幻觉之后后果可就不是像生成了编造的文本那种幻觉那么简单了
过去的几个月曾经有几个不同品牌的电动车都出现过误判前面的路况而急刹车导致后车追尾的情况有的是把高处的广告牌中的小货车的图片检测成了前方出现的车辆有的是无法识别设置改道口的隔离水泥桩或者不知道把这个水泥桩识别成了什么而没有去刹车导致了严重的碰撞造成了不可挽回的后果如果我们了解了 AI 的工作方式
就可以发现这其实是模型在不确定环境下的一次错误的猜测就像语言大模型预测下一个词一样自动下指示系统也是在每一帧的画面中做出这是什么的判断也是一种典型的生成式的理解加概率驱动它并不是在认知世界而是在基于训练数据里面建过的图像来猜测当前这个物体最可能是什么如果你未给它的训练图像里面
倒地的标志牌和躺着的人有很多相似之处那他可能就猜错但是实际自动驾驶模型里面可能有很多原因会导致大模型对前方的物体识别出错或者根本识别不出来如果我们不了解上述大模型的工作原理就会产生出事故之后网上常见的那些个疑问比如说为什么自动紧急刹车系统 AED 没有工作每次惨烈的事故之后当看到有人问这样的问题的时候我都感到非常的无奈
有谁告诉过你 AEB 遇到状况就一定会刹车有谁给你保证过 AEB 一定不会误判前方的状况无故刹车而导致追尾我们称 AI 的失误为幻觉这个说法是不是已经揭示了其实人类已经在不自觉地把 AI 拟人化了
这些年随着 AI 逐渐走入每个人的生活媒体和自媒体开始夸张地鼓吹 AI 比人类聪明 AI 会取代人类的工作 AI 可能会对人类的安全产生出威胁等等人们也越来越倾向于用类人的思维去理解 AI 他是不是真的懂了我他是不是在思考他是不是在骗我尤其是现在的这个
AI 的大模型都把整个的思考的过程以这个思维链的形式展示出来了更给人一种暗示或者是说明示他在思考但其实大模型背后的原理非常的朴素就是一句话一句话的预测下一个词一个像素一个像素的猜测图像分类的结果当大模型在胡说八道的时候我们称之为幻觉但这只是模型在复杂的语境中做出了不准确的预测的自然结果
说到底是我们在对 AI 赋予人类的属性而忽略了它只是一套数学函数和统计程序 AI 幻觉的问题其实折射出我们对语言即真实这一信念的深层的担忧我们曾相信一个人说出来的话代表着他的思想和意图但 AI 时代其实打破了这种联系 AI 可能说得很好但他什么都不知道这是 AI 与人类之间最大的鸿沟
人类说话是在表达理解意图与情绪而 AI 说话只是在预测下一个词如果我们不能分清这一点就很容易陷入一种危险的幻觉我们以为 AI 像人一样在思考其实它从来没有真正的思考过这种误解可能会带来一些风险我们可能高估了 AI 的智能错误地相信它已经拥有了某种理解能力
完全的相信现阶段的 AI 已经无所不能了尤其是在自动驾驶领域在国内各汽车厂家花式的制驾的营销话术之下很多人错误的相信当前 AI 驱动的自动驾驶辅助已经是完全的自动驾驶了注意辅助这两个字和后面的完全自动驾驶是完全不同的辅助这两个字被汽车厂家深深的以最小的字体的形式藏在了营销文案中最不显眼的地方
并且在口头上用质架这种看起来高大上但实际上含糊不清的说法去掩盖了辅助这两个真实的本质 AI 的幻觉不是幻觉是误判是模型基于训练数据在陌生场景中做出的失败的预测而我们人类的幻觉则是更深层次的认知现象源于经验情绪和社会环境我们真正要警惕的不仅是 AI 可能会猜错
而是我们人类对当前 AI 能力的正确预期这说起来容易做起来可能很难一方面 AI 的发展日新月异外行可能很难真的跟得上另外一方面 AI 输出的内容看起来确实非常专业可信普通人如果没有很强的背景知识或者是很强的逻辑能力就很难看出来 AI 生成的内容的问题和漏洞在未来 AI 愈发普及的社会里
也许最大的幻觉不是 AI 的,而是我们对 AI 的那种似总非总的理解。所以,当我们探讨 AI 幻觉的时候,我们真正应该反思的不是 AI 错在哪里了,而是我们对它的认知是不是足够清醒。AI 不会思考,不会理解,它只是在用概率算法预测我们想听到的词儿,它可能说得头头是道,但从来不知道自己在说什么。
真正的风险不在于 AI 生成了多少错误的信息而在于我们人类是否误把它当成了会思考的存在 AI 的幻觉并不可怕怕的是我们对 AI 产生了幻觉 AI 只是一个会说话的预测器不是一个有意识的伙伴如果我们自己都不清楚这一点就可能在某些关键的时刻把命运交给了一个不会自知道自己错了的系统技术从来不是终点
它只是镜子照见的是我们人类自身的判断力和责任感在这个 AI 飞速发展的时代理解它的边界也许比追逐它的能力更重要愿我们在拥抱 AI 的未来时依然保持对它也对自己最起码的清醒感谢收听欢迎订阅与关注我们下期再会