这又是一期从微信公众号文章由AI转换为双人对谈的播客。在AI大规模落地的时代,"可解释性"成了每一个大型组织不得不面对的议题。AI的可解释性问题,从根本上说,是不确定性和责任界限的问题。今天的大语言模型、深度神经网络,往往由数百亿甚至万亿参数堆叠而成,它的每一个"判断"既无法像传统代码那样逐行追踪,也很难像人那样提供一个有逻辑的因果链。于是,风险也随之而来...