We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode 让AI长颗“人心”:机器如何学会人类的“偏见”?

让AI长颗“人心”:机器如何学会人类的“偏见”?

2025/6/17
logo of podcast AI可可AI生活

AI可可AI生活

AI Deep Dive AI Chapters Transcript
Topics
我介绍了人工智能领域的一个新方向,即通过模拟人类的认知偏见来改进AI。传统AI基于死板的几何逻辑,导致其决策过程难以理解,并且容易犯一些在人类看来很可笑的错误。而新的研究,特别是基于Tversky相似性的方法,试图让AI像人类一样进行“特征清点”,从而更好地判断相似性。这种方法不仅提高了AI的性能,还使其决策过程更具可解释性。例如,在鸟类识别和语言模型实验中,应用新方法的AI在准确率和效率上都得到了显著提升。更重要的是,这种方法让AI的“内心世界”更容易被人类理解,比如手写数字识别的例子,AI学到的数字原型更符合人类的笔画习惯。我认为,这种跨界研究的成功表明,从AI思考问题的第一性原理出发进行优化,以及借鉴其他学科的智慧,是未来AI发展的重要方向。最终目标是创造一个更懂我们、更能与我们沟通、更值得信赖的AI。 我认为,人类在判断事物相似性时并非采用纯粹客观的几何距离计算,而是会受到各种认知偏见的影响。例如,我们常说“儿子像爸爸”,而很少反过来说,这反映了我们在相似性判断中存在不对称性。人工智能长期以来采用的几何逻辑,虽然在很多应用中表现出色,但其底层逻辑与人类不同,导致AI成为一个黑箱,无法解释其决策过程。因此,让AI学习人类的认知方式,特别是学习如何进行特征清点和评估,是提升AI性能和可解释性的关键。通过Tversky相似性等方法,AI可以更好地理解和模拟人类的判断过程,从而在各种任务中取得更好的效果。

Deep Dive

Shownotes Transcript

[LG] Tversky Neural Networks: Psychologically Plausible Deep Learning with Differentiable Tversky Similarity

[Stanford University]

https://arxiv.org/abs/2506.11035