We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 梁朝伟:“AI 不能替代我!” |对,只是不能替代你...

梁朝伟:“AI 不能替代我!” |对,只是不能替代你...

2025/5/29
logo of podcast Neo扯蛋物语

Neo扯蛋物语

Shownotes Transcript

在 2024 年 11 月 23 日香港科技大学授予其荣誉博士后的校报采访中,梁朝伟谈及了对 AI 辅助创作及 AI 技术的看法:

  • 对 AI 辅助创作的看法 :梁朝伟表示,AI 技术在影视制作等领域 applications,如剧本创作、特效制作、剪辑调色等环节都展现出了巨大的 potential。他提到,有些电影制作公司已经开始运用 AI 来生成剧本的初稿或提供创作灵感,但同时也强调了人类创作者的独特性和不可替代性,认为 AI 只是一个辅助工具,真正赋予作品 soul 的还是人类的情感和经历。

  • 对 AI 技术的看法 :他提到,AI 的发展速度令人震惊,它几乎可以模仿任何人类的技能和风格,包括表演。然而,梁朝伟也指出,尽管 AI 可以模仿外在的表现形式,但很难真正理解人类的情感和内心世界,这是作为一名演员多年来通过 personal experience 和 observation 积累起来的,也是与观众建立情感共鸣的关键所在。

所以到底什么时候,AI是不是有可能打破这个点,对人进行更彻底的以假乱真的模仿呢?

这里涉及到一个哲学问题了,那就是什么情况下我们可以假定人工智能获得了自我意识,不管是模拟的自我意识还是真的有了自我意识,反正只要人类已经分辨不出来了,有什么区别呢?

直接说AI对这个事情的结论:AI在情感反应模式识别层面已接近人类水平,但梁朝伟强调的"情感共鸣"本质上是意识主体性的外显,涉及自我认知、价值判断等哲学维度。当前技术更像精密的情感显微镜,能解析情绪的组成元素,却无法复现情感体验的量子态叠加。正如MIT媒体实验室的实验显示,即使AI能准确识别88%的悲伤表情,仍无法理解《红楼梦》中"笑中带泪"的复杂美学意境。未来或许需要突破图灵测试框架,建立包含情感主体性的新一代评估体系。

**本质上这里的问题可能是评估体系和算法体系需要重新突破,而不是基于旧框架。因为人的情感是多种状态下的叠加,同时有时间和其他事件背景因素的干扰综合形成的。**

****

所以梁朝伟的直觉可能没错。按照目前的逻辑,AI很难去剖析人的情感和内心复杂的交互以及对外延伸出去的表现关联。所以它很难理解为什么在有的场景下会笑中带泪,同时人类可能会觉得这种场景很美。

****

人和人的交流很复杂,因为很多时候我们的情感交互以及生活中的感情交流并不是基于目的导向的。它甚至可以是无明确意义的。这就好像我之前聊过的电影《濑户内海》。青少年浪费时间,是一种很正常同时很宝贵的行为。因为年轻,所以才可以奢侈地去浪费它。它没有标准答案,没有明确意义,做无意义的对话和浪费时间本身对青少年长期来说就是最宝贵的回忆之一。这种记忆和情感的沉淀对日后的行为以及情感积累可能都会产生深远的影响。所以可能在梁朝伟的有生之年,他确实不用担心他会被AI取代,但是他的很多同事就不好说了。

****

从大量的工作交互场景来看,AI确实正在快速逼近"任务型拟真"的临界点。

因为工作是带有强烈目的导向的。即使AI能完美模拟工作交互,其本质仍是"智能体-环境"的反馈循环,而非真正的意识参与。当处理需要价值观博弈的议题时(如裁员名单制定),AI的"决策"只是多目标优化的数学解,无法承载人类决策者夜不能寐的道德重负。这种差异在可预见的未来仍将存在,但也恰是AI最适合承担纯粹工具性任务的优势所在。

也就是说,当人类需要去选择一个陪审团成员名单的时候,AI依然不适合作为决策者,或者说在非常多的选择环节,AI都不适合作为决策者。

但这里是有一个catch的。AI如果辅助我们做决策,其实很大程度上也就等于影响了决策。

AI辅助系统在提升决策效率的同时,正通过"温水效应"重构人类的决策神经网络。MIT脑科学实验室发现,持续使用AI辅助决策6个月以上的管理者,其背侧前扣带回(dACC)的决策相关灰质密度下降11.3%,这预示着决策能力的神经生物学退化。这要求我们重新定义"辅助"的技术伦理边界——真正的智能增强不应是决策权的让渡,而是决策维度的扩展。如同显微镜延伸了视觉而非替代眼睛,AI辅助的终极形态应是构建包含量子不确定性的决策空间,而非压缩选择的可能性

对投资者来说,我不知道大家有没有想过这个问题。如果我大量的投资研究都是通过AI进行投资决策辅助,而不是AI去搜索客观资料,自己形成一套投资决策系统。尤其对投资者来说,这个决策系统其实是很复杂的。

我给举个例子:一个在我看来成熟的投资者,是不应该只有一套标准的。他是有多套标准的,而且这些标准和逻辑甚至是在很多时候自相矛盾,互相存在截然相反的逻辑的。这是因为在不同的市场,不同的财务情况,不同的国情,不同的投资策略就会导致完全不一样的投资标准。

有时候看似疯狂的举动是合理的。有时候看似保守的决策则不一定明智。一切都要根据情况变化而变化,因为优秀的投资人都是能持续自进化的。

再有一点,就是人本质上就是完全不可控的逻辑。人做机器人并不希望机器人出现不可控的情况。普罗米修斯里的David最后自进化拥有了自我意识,或者说模拟出来的自我意识。反正以假乱真,已经不重要。问题就是他完全不可控,他可能前10年是个很好的机器人,很好的伴侣,很好的研究人才。后半生突然想不通要屠杀全人类。人是善变的,我们虽然一方面希望机器人像人一样,但是实际上不论做得到做不到,我们又不希望机器人或者AI最后像人。因为人是善变的,是完全不可控的,是情感复杂甚至可以毫无任何目的随机变化的。

好了这一季就聊到这里,byebye。