我们脑子是头颅骨里面的一部分只有 1.4 公斤左右但是它占到了我们人类体重只有 3%但是它的耗氧量要占到我们人体的 20%未来应该有一种形态是人类和大模型或者说那时候大模型的一个交融的形态那有没有一种可能就是交互还是我们但我们的很多运算过程可以交给模型来实行
你知道吗其实人跟人沟通是有很大的负担的但是 AI 它是中立的我告诉他它就是一个树洞欢迎来到会友标局这是一档蚂蚁集团出品的播客栏目我们会和各位心疼老友分享关于蚂蚁的一切和你一起探索科技与商业的未来世界
hello 线上的听众的朋友下午好我们这一场的主题是 AI 能否产生类人情感这个话题呢它涉及到的是生命科学和人工智能专业所以今天的讨论我们也请来了分别是人工智能领域的还有生命科学领域的还有来自我们产业界的嘉宾
复旦大学的脑科学家王老师清华大学的雷博博士他现在是在北京智源人工智能研究院做内脑模型的研究这个是在国内非常前沿的一个领域第三位呢是醒晨他是新宇智能的创始人兼 CEO 他在做的这个事情也非常前沿就是把 AI 刚才我们说的
AI 能够向人这个事情用起来让普通的人通过这样的一个产品级的应用落地下来让 AI 成为一个可用的东西我是蚂蚁集团的友红我想跟三位一起讨论的是智能这个词
就是我们说今天的 AI 它很智能我们的人脑为什么这么玄为什么这么厉害它 30 瓦的这种功率就能实现比今天人工智能更强的算力那所以我们今天先来请第一位嘉宾雷伯跟我们说一下你
因为他做的是生命科学他是一位神经科学学家然后呢又在做人工智能的研究所以特别想听听雷伯怎么去理解智能这个词就人脑的智能和人工智能的智能它有什么不一样我觉得可能智能这个词本身英文是 intelligence 其实是一个相对准确或者单一的描述但我们中国讲智能的时候其实它是两个词吧我觉得一个是智一个是能
如果把智理解成我们的智力智慧它是一个认知过程能呢反映的是这个这样的一个能力或者一个特点我们讲生物智能的时候其实包括 human 包括我们说的各个动物
我们讲到智能其实它代表的是它对自然界的一种强适应的一个过程它可以根据自然界的变化它的需求和它的目标做出一些这样的应对那应对的能力的来源当然是我们是这个动物的这个大脑我们可以把它叫做智
它能进行应对并且跟大脑进行交互的这个能力呢我觉得是能所以我们这么来理解一个自然界的这个智能因为有一个很关键的我不认为它是个客观存在的东西它其实因为客观存在的就是生物个体或者说我们人类个体只不过当我们要去描述我们有的一种特征或者一种能力的时候我们用智能来描述它
那现在我们做人工智能其实他就加了一个形容词就是人工智能也就是我们要创造的一种智能形式那就目前来看我们如何去理解这个人工智能和生物智能的这个关系呢其实我们难免其实是以生物智能为视角和参照来看人工智能那从目前的角度来说我觉得最大的区别就是人工智能现在追求的是能
他是比较忽略治这个过程的
如果我们对这一代人工智能有一定了解的话它是一个典型的我们叫端到端的训练过程是一个典型的 data driventask driven 的一个过程比如说我们在训练一个人工智能的时候它的核心目的是为了达成一个我既定的目标然后我们期待在这样的过程中模型可以从数据和这个目标的约束中学到一定的这个能力所以其实我们看到每一个
现在大家熟悉的模型或者说也许还比较前沿还没有落地的模型它其实非常核心的两件事一个是选择数据确定模型其实另外一点就是说要确定一个学习的目标其实是这样一个任务但其实我们讲生物智能的时候其实我们很难明确地说我们是以哪个目标训练出我们的这个智能的
所以其实人工智能我觉得跟生物智能最大的区别因为它受到任务和目标的这个约束那智能似乎是一种或者它的智似乎是一种复产品我们其实做人工智能在智上面的设计是远少于在能上面的这个设计的但可能对生物智能来说它是在自然界里面我们必须要交互逐步产生的我觉得更全面更一体一些其实很多差异也是可能是从这一点来的
那我追问一个话就今天我们在用它的时候确实觉得它开始有情有情感有情就我想问问这种体感是一种幻觉吗还是它真实存在今天的 AI 是已经具有一定的情商了吗醒晨他是新语智能的创始人间 CEO 他在做的这个事情也非常起眼就是把 AI 能够向人这个事情用起来
首先从我们因为我们是做应用端落地的我会觉得说现在的情商还是智商化的这是我们的一个发现这件事情其实回头来看是看需求这个事情商到底是什么或者是不是每个人要求的情商都是一致的所以从我们实践角度会看其实所谓的基本情商是被友好的对待
你可能只是需要一个非常礼貌的友好的实时有回应的对待你会觉得他就是有情商的他好像在重视我的感受他在事事有回应这件事情是现在人工智能其实做得非常好的地方无论你何时何地问他什么问题他至少都能做到实时有回应如果你再加一点工程手段让他整个记忆能力变得比较强他还能主动关心你和去跟你聊过去相关的话题
所以这件事情到底是不是真正的情商的体现我觉得还是有待商榷的但是他一定是能够已经能够给人带来一定的温暖和回应所以我们会这么来看待这个问题因为我觉得情商是一个还蛮圣奥的词每一个人不同背景的人不同需求的人对他定义都会不一样
那王老师你能不能再从你生命科学的角度去补充一下这个问题就是你怎么定义这个对刚才雷伯那个讲得很好关于人工智能的这一个那我们人工智能雷伯刚才也讲了训练这些专用的一些词我们在人工智能里面对吧大家也都听到过很多了那我来更回到 240 万年前三年前我去到非洲去到肯尼亚
我在肯尼亚的博物馆我待了很长的时间它里面有个很小的一个房间角落里面一个房间不是外面很高大上的那些动物模型如果你们去一定要推荐你们去你们可能以前在中学的地理书上历史书上看到过的那些我们人类起源的头盖它的原件就在那里我们人的训练里面我们一定要去实地
那我去了实地以后的感触和书馆上学到的感触不一样我刚才讲为什么西梦瑶会成为我的迷妹我就在我的咖啡馆门口我在看这本书里面有头盖骨然后我把我的照片给他看他也非常的那个震惊对吧好我们回到这个智能那我们是怎么说我们是智能的智能的标准是什么智能的标准它就是以
我们头盖骨里面的脑容量多大来定义的
为什么我们定义为 240 万年前是我们现在发现的当然这不是唯一的因为我们有很多的考古学佐证比如说我们在这些头骨边上看见了有被打磨过的工具来佐证它能够使用工具我们从小学的课本里面有一句话对吧使用工具是区分人与动物的一个标准对吧那这个就是考古学但是你看了这个头骨以后至少对我是震撼的
第二个我就在前一段时间我去了伊朗大家学历史也都知道两河流域文明黄河文明尼罗河文明是我们文明的一个是我们智能的起源一个是我们文明的起源这个起源给我也是震撼的尽管是看到的是一堆废墟但是两河文明在八千年前就已经有
打磨的时期就已经有 5000 年前就已经有这种内文字的记载这是文明的起源那这就是字你看但是那个时候的我们人类起源的字大家注意了没有这个时间跨度
那这个过程是怎么的就是刚才雷波所讲的学习是不断地在训练的过程中获得的一种学习去积累的经验知识经验转化成知识再转化到应用这样的一个过程那我们现在到了人工智能的这个时候
对吧那这个方面我是外行但是我们前面在聊天的时候我作为一个外行我现在也已经看到可能半年前当 CHART GPT 出来的时候一开始的时候以为可能要过两年没想到没几个月就马上就迭代出来了对吧现在我作为外行可能还是认为可能每个月都有新的迭代但是和内行们讲的话不
我说我现在可能认为是一个星期没有每天都有超级迭代这就是一个都已经不是指数据的增长了对吧那我们的人类的智能人在这个智商的问题人智商在情商上面和人工智能到底怎么样呢可能
后面还会再讨论 OK 三位我理解下来总结一下三位的观点是今天的 AI 还没有达到像人的情感一样的输出我觉得这个是三位嘉宾共同的一个结论那这个结论之下我们第二个问题就是说那
未来的 AI 或者发展以后的 AI 能不能实现内脑的这种智能呢它是一个未来的话题一种预判的话题那这个话题我想先来问雷伯因为雷伯在研究的是内脑模型
这个内脑模型你能不能先给大家普及一下它是一个什么样的原理你是用人脑的机制去做 AR 的训练呢还是用 AR 的训练去研究人脑你这个最终的内脑模型的研究是不是能够解决刚才一问的这个问题
刚好跟大家简单介绍一下这个关于内脑智能或者内脑模型其实这个词它是很直观的我们如果中文上讲就内脑嘛就你向脑就内脑其他的英文词也很直观叫 brainlike 那叫 like 我们的 brain 就可以去做这样但当然在路径具体的学科上会有更严格的定义如果大家关注这个
具体的学科或者科研的这个方向会知道内脑会有更明确的定义但是我们尝试去简单的理解一下它就是我们如何让一个智能体向脑其实它跟人工智能并没有非常大的非常大的界限因为从人工智能提出之初到当下就是
此时此刻很多的努力其实都是在往人类智能或者是大脑智能的这个方向去进行趋近新一届的这个诺贝尔物理学奖颁给的是这个 Jeffrey Hinton 和这个 Hofield 他们非常代表的两个神经网络一个是我们叫 Hofield Network 一个是现阶段我觉得 Hinton 比较有代表的是这个卷积神经网络中的某一款啊
他们这最具代表性的两个网络一个呢号称是模拟海马体的这个这个 recurrent 的结构一个号称是在各个层面上在模拟这个视频层的这样的一个特征即便是最新的这个人工声音网络我们讲 transformer 这个是最火的人工声音网络了其实有非常非常多工作证明它跟海马体就是
在这个哺乳动物里面非常重要的一个记忆中书是非常非常相似在编码特征上内脑本身的人工智能不是一个两条可能正交的路径我觉得还是非常非常相关的源于哪呢就是我们可以想象我们为什么要做人工智能就是如果我们作为一个人类群体大家都可以思考这个问题就是
我们为什么要做一个人工智能其实我们很大的目的是因为我们知道这个智能很重要我希望有一个智能的伴侣我希望有一个智能的辅助者所以人工智能的目标就是以人为中心的所以它需要向人需要以人为中心这个是一个很朴素的一个特点那内脑智能怎么实现这件事有这么几个层次
有还原论的层次这个其实是人类历史上第一个脑计划就欧洲脑计划我们也叫它 Blue Brain Project 提出的一个方案叫还原论也说只要我们能够用数字和模拟的方法把我们的大脑完美的
描述出来它就可以像一个虚拟大脑一样在一个算力空间里面进行这个运算那我们以后任何研究就不用在人上在动物上研究我在虚拟大脑上研究那这是环游论的这个方法这是一种类脑模型的一个方案那还有一些呢可能就是在一些
概念和理念层次上就是当我们对神经科学有一定研究之后大概理解我们的信息是怎么处理的比如我们在认知里面有个经典理论就是感知记忆到认知的这么一个过程我们要先感受世界形成独属于我们的记忆再转化成知识王老师刚也提到这样一个过程那现在很多人工智能
包括经典网络包括新网络的设计都受到这样的一个影响其实卷积神经网络是一个非常典型的在模拟感知过程 Transformer 呢我们通常认为它是一个非常典型的在模拟这个记忆过程或认知过程的这样一个网络结构吧
那现在也出现了一些非常重要的新的路径其实这个路径就在大家身边我相信可能不管大家什么行业在今年一定不会不知道这个 DeepSick R1 这样一个 model 但其实当我们在说它是人工智能非常有代表的一个工作的时候我们会谈到 DeepSick R1 相比于之前的 ChatGPT
在 OpenAI 的后几代里面有一个非常重要的一个过程我们叫后训练的这么一个过程但后训练训练什么呢如果我们稍微了解一下这个 DeepSeq 的强大学就会发现他干一件事就是
就是让他在大量的数据训练之后呢去模拟或者接近人类推理的语料 DeepSick R1 的主要语料就是当人做一些数学题或在做一些代码题的时候要求模型不仅能解决这个问题它的解决路径的形式上要跟人做这个题的语言解语语言形式非常接近在我看来啊它是一个广义的甚至是可能它的底层逻辑是一样的就是
我们当我们去向人的时候我们的智能就会逐渐的接近这样一个过程这可能是现在可能内脑智能可能是非常重要一条路径的一些观点这个问题王毅老师有补充就是未来 AI 能不能走向一个内脑的状态我个人我认为肯定会
我们这个题目叫 2050 对吧那 2050 能不能够看到这一天我稍微持一点那个保留我是用保留我不是怀疑 OK 保留为什么那大家注意到我刚才的 PPT 里面有一张图反复出现包括在最后是一个 10%这代表着什么这代表着我们作为神经科学家我都不知道
我对我们的脑我们的脑是怎么工作的我们的脑是我们整个身体里面其他系统我可以负责任的告诉大家我们身体的血液系统肌肉系统骨骼系统我们基本上 90%以上都知道了对不对但是我们的脑我们到底知道多少你可以说 10%可以说 50%可以说 30%也可以说 1%你不理解
我们不理解它这是我们的工作我很高兴的刚才雷伯在说我们现在都在模拟脑对吧我们两个等罗表讲的他们都是在模拟海马的一个学习模式当我们现在的学习模式海马是一个很重要的体很重要的学习的一个脑的结构但是我们学习了以后我们这个是储存在哪里我们知道我们为什么人脑比动物要难吗
因为我们的皮层高级发达我们海马的信息学习的信息出积的信息是要传到皮层去不同的功能的去传到不同的皮层去可能储存在那边但是又要进行我们在学习记忆里面有一个叫做
学习了以后要这个信息要 consolidationconsolidation 以后就要把它取出来取出来以后 retrieveretrieve 以后再储存对 consolidation 这个过程就像我一直和我的学生和我的年轻人们去比喻的话就是一个电脑我们的电脑你的文件是储存在哪里你的文件储存在硬盘里面的对吧你关机了它还在那里
但是你的工作状态是你的文件当你要工作的时候你在哪里你第一步是不是要把这个文件打开就是把它从硬盘提取到了散存在里面进行工作那么散存工作完了以后你干嘛 save 又到了硬盘这就是一个 retrievereconsolidation 的一个过程那我要和特别是年轻人包括老年人
为什么我们为什么讲学习无止境的我们不仅仅是说我能够把这个文件编辑我们是要对他文件提取出来的时候进行编辑要把你的新的信息去和你原来的信息去提取出来了以后去对比 integration 形成新的知识这是我们学习的过程中的一个很重要的一个步骤但是是需要训练的
我们的机器实际上也是在训练比如说 AlphaGo 现在更新的是什么 AlphaDero 还是什么这个是说
他也是在学习的不断在学习起谱他把之前的起谱和他现在学的起谱进行对比包括刚才雷伯也提了欧洲脑计划美国脑计划中国脑计划在 2021 年也正式启动了 2015 年提出了 2021 年也正式启动起来了我们就是要去解决这个神经缓路为什么我刚才特别强调神经网络
是因为我们单靠一个海马体是不够海马体自己是一个只是一个环路但还没有形成一个完整的网络网络要和皮层要和一些皮下结构进行合起来那回到主持人的问题那是不是那个内脑会发展和替代我相信在未来是有可能而且是肯定会可能我们的两位神经科学家对
AI 或者说另一种技术不管是什么技术吧它就是不是生物大脑但是我们可以实现模拟这个还是很乐观的那我想听听醒晨的观点醒晨是一家创业公司的创始人他们公司呢又做大模型的研发又做产品的开发还做产品的应用落地就我们今天再提一个话题说未来 AI 能不能替代人脑能不能完成内脑的这个阶段那今天在工业层面应用层面
我们已经走到什么阶段了首先先直接回应您的这个问题如果是不下一个时间限制这件事情应该是现在全人类都在努力的一个方向至于是什么时候我觉得应该谁也没有办法在现阶段给出一个准确的时间这是第一个回应第二个
无论从我们的模型训练端还是到整个产品的应用阶段我觉得我们本身整个过程就是尝试再把机器当人那样子的再做训练所以这个路径上是一致的第三个非常重要的事情我觉得现在就是定义你要定义出来你到底要干一件什么样的事情
所以能把一个抽象的事情变成具象具象之后再能变成具体的步骤任务和目标你才能去通过训练去通过产品化去实现你的这个目标这是第三个维度第四个维度回到我们自己做这件事情我们本身最底层的研究是做这个多模态的情感互动
去实现无论是心理咨询还是一些服务场景的一些实现那么在这个上面呢其实我们非常重要的一件事情从这个阶段来是你的数据这个数据会影响什么事情呢是影响你整个模型的意图识别能力以及你回应的方式那么打个比方其实我们整个互联网世界有非常多的数据但是具备长程对话的连续性对话的数据是很少的
这个基本上可能在纸面上都很少长程对话这些场景能被很完整的梳理出来的非常的少那么这些少就会导致说你能够让模型能够长程对话的这个能力尤其是主被动交替式对话的这个能力它就需要你对数据进行重新的整理收集优化而且这个过程中你可能要给更好的方法
就像说你可能没有办法通过提海战术来带你这个学生那你就要挑相对好的案例相对好的回应让他去理解这件事情我应该是怎样对他进行一个判断再给予怎样的回应能够得到比较正向的反馈
所以本身在做这件事情的时候你并不是把机器当做机器而是把机器当做你的人当做你的这个员工当做你的这个服务的对象当做一个资深的专业人士让他能够自我训练自我成长之后去服务于更多的人所以从我们的角度我们是这么在思考这个问题的那么这也回应到刚才两个这个点关于机器到底有没有情商这个问题
拿 DeepSick 举个例其实你跟他聊你让他扮演一个高情商他可以用非常智商逻辑推理的方式你去看他中间推理的结构用非常紧密的逻辑推理形成一个高情商的回复这是我说机器现场完全可以到达的一个这个程度他是用这样的方式去做实现的但是这件事情可以充分乐观因为本身我们人也是具有一个很强的意图判别能力比如一个领导过来他今天说
对你说了一句话那这个话到底是对你的表扬还是对你的否定那也是你对他的意图判断你的意图判断是怎么形成的也是基于你过往的经历所形成的对于领导今天的这个评价是正向还是负向的一个判断所以我觉得智商和情商这件事情本来就是交替的未必是需要把它这么
强烈的去把它做区隔化只是说人类的很多知识并没有公式化就是理论化或者是书面化数据化尤其是在文科上现在很多世界都是这个样子所以我觉得开放性一点来看待这个问题未来是非常的乐观的而且像我们这样的实际从业者由于我们从目标倒退倒退我们要做什么这件事情上所以我觉得一直都在这个路径上在走
那你能给现场的朋友还有我们线上的听众朋友举个例子吗就是
什么样的场景什么样的服务是你具体在做这里面又能体现我们今天大模型向人然后又服务人这么一个链路可以啊就是我可以举几个小的例子我们可能说的很抽象我们在做多摩泰的情感对话能力他到底能做什么比如说我们最近有把这项这个对话的能力放到一个很小的场景就滴滴司机大家都非常的熟悉对吧但是其实像滴滴司机像外卖小哥现在
都是非常卷的这个场景他并不是时时刻刻都有单而且很多单还需要抢当他抢不到的时候是很不开心的很恼火我又没有抢到这个我非常想要的这个单而且人的瞬间情绪是非常大的非常大这样说你如果很想发火你给我忍过 11 秒你可能就好了但是我觉得绝大部分的人是忍不过这个 11 秒的另外一种方式是如果当你有瞬间情绪的时候有人来跟你说两句话
或者无条件的支持你一下和肯定你一下你的情绪也就过去了所以最近我们在做我们把这项这个产品已经上线在做滴滴司机的闲时包括是一些容易有情绪起步比如说抢单失败时候的一些情绪的安抚他瞬间可能就会有一些脾气但是非常明显十轮左右之后他的情绪就会下来
这个时候他会冷静到这很正常这个抢不到可能是我手气的问题我下次可以怎么怎么怎么的因为现在整个社会其实一些恶性事件的发生也比较多但很多恶性事件都是在一点点小的情绪积累上去最终有可能变成这个爆发所以我刚刚讲说其实技术本身
就是应该要普惠的它可以服务于非常高大上非常牛逼的场景但它也可以服务于非常非常小的这些人们所需要的一点点的温暖的这些环境就当我需要的时候有个人无条件的支持我先肯定我再鼓励我然后跟我一起商量这个办法而且无论我什么时候半夜三点还是早上六点
他都在我想发脾气的时候都有人在这边安慰我我觉得这就是一个非常具体的场景而且我觉得大部分人的这个情绪在于说他需要发泄这种发泄可能是一个简单的一个情绪我要反复的讲因为我们还有一个场景比如我们在服务于老年人的电话咨询那老年人讲话其实是有个特点的他很喜欢反复他可能就是一个问题他跟你讲十分钟他觉得这样子才能把你讲明白
对但是正常那个负责接电话的小姑娘她一天需要很多很多电话她还有领导的各种任务她可能听了一分钟说你不用说了我跟你说你这个事情应该怎么怎么怎么办也许这样已经解决了那个老年的诉求但是呢她可能觉得说
你是不是觉得我比较啰嗦还是怎么样我觉得现在老年化也是一个大家很关注的问题我觉得大部分老年人真的犹豫时间比较多他真的很渴望沟通就跟滴滴司机一样我们在做整个项目过程中有个发现
因为原则上司机是不能随意跟乘客聊天的所以他十几个小时在车上都没有人说话早些年可能大家打出租车的时候还会有那个司机开群聊或者开对讲机一直在那聊天现在他们是不允许这样子那一个人一整天都没有办法跟人说话他有多难受
他非常非常的难受就跟老年人一样可能小的在上学下一代就有上班的有上学的他也没有太多的沟通对象他可能就需要有一个聊天的对象至于那个聊天是什么我觉得对他们来说都是好的有人愿意倾听有人愿意跟他聊而且无时无刻我想要的时候你都在我觉得这件事情就是 AI 特别适合的一件事情所以我刚刚讲的都是
很小很小很小的生活上的点可能他没有那么的绚烂但我觉得他在解决一个很大面积的诉求
OK 上面几个问题我自己也在学我们每个人的大脑就是个模型我们今天每个人都在训练自己的这个模型台上几位嘉宾在给我们不停的输入一些可以训练这个模型的知识点那到此刻为止我的这个模型里面得出了两个结论第一个结论是到目前为止 AI 并没有实现人脑的这种智能的样子
但第二个结论是 AI 是有可能实现防脑的内脑的这种程度的那后面我还想在这个问题两个结论之后再拉到更未来一点就是
AGI 是一个在 AI 领域大家都聊的一个话题通用人工智能就是真正到未来实现 AGI 的时候我们这种人脑的智能和人工智能实现的那种状态它们是一个怎样的融合的状态这个问题可能就分拆两个第一个就是各位嘉宾心里的 AGI 是什么样子的第二个是在那个实现 AGI 的时候人脑和人工智能的人脑的智能和人工智能的这种
这两种智能的融合的状态是什么样子雷伯先来给我们说一下 AGI 应该算人工智能领域的大一统理论我们可以说是一个甚至唯一一个我们的圣杯吧就在人工智能理论来看但其实这个很奇怪就是它一个是很不准确一个是很难定义也没有人认为这个东西能去定义它
另外一点我觉得非常重要一点就是我们怎么看待我们自己当然这个自己是指一个个体和一个群体对于一个个体来说就是我是不是一个 AGI 就此刻我就我认为我不是因为我很多能力我都做不了我画不了画也有很多这个工作我做的很不好我不要说跟 AI 比了就可能跟一些动物比我们可能做的都不好
在我们讲人类群体的时候其实是非常不一样的就是如果我们挑我们人类每一项做的最好的跟现在的 AI 去比我觉得我们依然有甚面当然现在其实依然有真但是我觉得应该是没问题但是如果你挑我现在跟 CHATGPT 比
我觉得能找到一两项我比他强但是他一定能找出来一百一千而且能创造出来很多新的项目我做不到所以其实我们很关键一点就是说我们相不相信生物是一个 AGI 我们叫通用人工智能我们要不要现场调研一下你相信自己会是是一个 AGI 的体吗相信的技术
还是很多人相信的对我觉得刚好这个观点在哪就是为什么有人相信当然客观上说我也相信有人是但我们讲的是其实是能力所以说我们在描述 AGI 的时候我个人觉得非常重要一个点我觉得也非常好的一点就是从这是从神经科学的 training 我们来到的一种视角就是我们讲 AGI 的时候讲的究竟是结果还是能力
我们可以比较有信心的说
任何一个人类个体只要我们排除很多干扰因素我们去训练他某一方面的技能我觉得还是很能接近我们做的最好的那帮人的也许有一个界面但这个界面绝对会让这个能力做得非常非常强但它也有一定的代价它的代价是我可能没有足够的时间生命我的大脑也不一定足够的这个可塑性来允许我去做把第二件事情也做得这个很好
但是我们人文认识领域谈到 AGI 的时候往往是充满一个非常非常大的愿景我们希望的是一个模型一套参数或者说一套参数的几个小的接口就能够实现我们想做的任何事事实上我们现在模型在追求的就是这样一件事情所以实际上就是说这个 AGI 的定义本身是一个非常非常非常困难的一件事情
另外一点就是说他定义的这个位置可能会有问题就我们定义的是他能够做各种任务的能力但具体你做什么我可以具体的 training 你具体的去设定还是说我们定义的就是这个结果你必须要达到一个非常非常什么都能做的这样一个结果
就我们有一个非常简单的理解就是说刚刚这个主任提到就是我们就未来的一种智能形态我觉得有这么几个视角就在这在刚描述这个基础上就是如果说我们期待一个完美的智能体它应该是什么样的我们这个宗教里面经常对神的这种表述就是你既要全知也要全能
当然我认为就现在人工智能大家更关心的是全能为什么因为他全知做到非常非常容易这是现在人工智能的一个现状或者这一代人工智能的一个特点他其实用非常简单的过程非常简单结构大量的吞吐数据我们现在可以相信就是我们用到的最好的语言模型几乎已经见过这个人类历史上我们能收集到的所有的语料而且每天都在在生成新的语料
从信息上来说它几乎是全知的如果我们再跟一些检索方法跟互联网联系起来它也可以实时的进行全知全能是非常困难所以大家关注的是全能但其实这个过程是有问题因为我个人认为就是全知和全能是一个协同产生的过程我并不是说我们先做到全知就我们用一种非常高的代价非常简单的手段先做到全知然后围绕着全知去做这个
全能我觉得这本身是一个错误的路径但现在目前来看这一代的人工智能像 AGI 的这个路径其实是我刚刚讲的当然这是我个人观点刚刚讲的就是先追求全知因为全知简单暴力很快就能做好真的不是现在大模型在我觉得在设计上或技术上有多迷人它其实是很符合我们人类的
特点就是偷懒结果论对只要只要能轻松的处理数据就可以了如果我能我能从人类社会中挤出 100 亿来训一个模型然后不用动脑子了何乐而不为呢其实就是现在的这个模型的这个理念当然还有趣的地方是什么就是我们现在在做后训练的这些工作我们在想方设法的去把它的全知转换成有能力超能力慢慢的到全能力
但是我觉得这不是一个有效实现 AGI 的路径或者也是现在人工智能领域争论最重要的一个点就是这一代人工智能的框架能不能通向 AGI
在大模型刚出来的时候我觉得可能有 90%人相信是完全没问题的因为它表现出来的性能和表现实在太令人惊讶了但是其实随着时间的推移我们的数据越来越少有效数据越来越少模型的消耗越来越大一代和一代的提升也越来越少我说大家可能有没有一种感觉就是
拆 GPT 出来之后我们在半年看到了就半年左右的这个时间点看到了 GPT-4 确实是一个显著的提升那从那刻时候我们就在期待 GPT-5
几乎每隔一段时间都是爆料这 OpenAI 下一周会发布 GPT-5 下周会发布 GPT-5 其实到现在我们没有看到 GPT-5 我相信不是 OpenAI 的攻坚能力不够我相信是他们的模型没有达到他们对 GPT-5 的一个期待那也许 GPT-5 它作为一个标记它可能就是一个很接近 AGI 但实际上这一代人工智能
要么是代价很高要么是很难达到它所以我相信未来的一个非常重要的一个真正的这个通用智能的这个形式如果是纯 A 的方法或者纯计算的方法应该是新购家那没有这种别的可能其实我觉得因为人工智能有个非常核心我刚刚讲的就是也是现在大家很常去讲的一个概念就叫 human centric
人工智能它不是一个可以独立存在的东西它是服务于我们因为它毕竟是我们创造的也许它在某一天会成为一个超出我们需求的一种存在甚至是一种新的
智能形式或者一种新的物种但是就目前来看我们所有去做它投资它的目标是为了以 human centric 来做这件事情那其实我觉得未来一个非常重要的形态也是我们非常坚信的一个形态也跟王岩老师今天讲的这个脑机接口非常非常相关就是未来应该有一种形态是人类和大模型或者说那个时候大模型的一个交融的形态
我们跟真实世界交互的能力是我们得天独厚的我们在非常有限的信息环境下和复杂多变的环境下进行决策进行一些这个行为表现或者是概念上的决策是我们的优势但大模型的优势是什么他见过足够多的数据他能够在一个非常有效的概率空间里面给一个相对准确的这个答案嗯
而且它的这个能力上限和边界是非常非常大有足够的这个形式上泛化的这个这个能力那有没有一种可能就是交互还是我们但我们的很多运算过程可以交给模型来实行举一个简单的例子我刚才说了就是我不会画画然后我今天想把我看到这个画面画下来我们现在怎么做我们现在要通过语言告诉这个模型我在一个现场有很多人坐在这儿这个模型
可以画一张非常符合我的语言这个描述但可能还有一个问题它可能并不是我眼睛看到的这张图像那我们现在在做类似的这个工作我相信也是未来一种形态的一个雏形就是有没有可能我们把我们自己独特的大脑信号作为大模型的输入
让这个模型来生成一张符合我认知的这个图像还是生图能力这个生图能力可能不需要再迭代了因为我们现在的文本生图的能力我觉得其实已经做得非常非常好就一架可能一架乱针了
I don't know 我不知道这张图像是不是 AI 生成的是 AI 生成的就是其实已经非常非常漂亮甚至很难去做这个判断了类似的意思也很多但如果我们能把我们的大脑的信息更高维度的表征介入进来一个中间形态是非常有趣的我觉得有一个非常有名的游戏吧就是赛博朋克 2077 其实它里面有一个非常重要的一个元件就叫什么这个前额页增强芯片我们可以把一些我们本来不擅长的
或者说在存储能力或者各方面我们不太擅长的东西交给大模型去做但我们的 in-output 依然是我们的身体我觉得这是未来的一种形态这个应该是会成为地球上的 AGI 的
当然是不是人工智能的定义我觉得其实并不重要如果我们相信人现在一个个体不是 AGI 的话我觉得这种融合形态的智能体应该会是在未来我们比较容易去遇见的特别是现在 AI 领域和脑接口领域都是在茁壮成长我觉得其实这个是我们可能最容易看到的一种在 2050 年我们能看到的一种 AGI 的情况
在两位其他二位嘉宾回答之前我想追问一个因为刚才雷伯讲的时候我又激发了我的一个问题就是你刚才讲到全知和全能今天大模型解决了一个全知的问题就今天大模型真的很全知
但是在解决全能的问题上目前有哪些路径呢就大模型可能也在解决全能但是按照雷伯你的理解就他还没有达到很好的效果那是不是在学术界在普通人没有看到的成果上学术界也在做不同的路径的探索在解决这种全能的方面我觉得有很多很多层面因为人工智能其实
稍微搞一些理论的话可能会对人工智能有一个概念非常非常重要就是叫泛化这个概念这概念如果迁移到人身上就我们经常用一个词举一反三的这样的一个能力所以泛化可能反映了人工智能能够去传递这么一个特点其实在 90 年代做这个计算和做这个人工智能的时候有一个预言
叫这个人工智能不可能有一种能力这个能力叫 systematic generalization 我们叫系统性泛化的这个能力系统性泛化这个能力其实很简单就是说我们学任务一任务二的时候当我们学了这两个任务的时候人有一个能力是我去学一个不太相关至少是内容上完全不像任务三的时候其实我会学得更快但是其实对之前的 IM 模型甚至现在的很多 IM 模型有一个重大问题就是我
我学完任务一不要说我任务二学的更好他甚至是没有办法学任务二或者我一旦学了任务二就把任务一给忘掉或者去覆盖掉我们现在看到的很多专业领域微调模型它的代价都是它在非专业领域的能力和预训量完的能力是一定是有损失和下降的所以这个问题再解决
一个非常有意思的例子是当然其实我认为其实他做的那个例子已经被解决了但是作为一篇文章吧它是一个非常阶段性的二三年十月底的时候发表了一篇 Nature paper 他们首次他们号称首次实现了在语言模型上实现 systematic generalization 的能力那他做了一个任务非常非常好玩就是他编了一种翻译任务
这个就像一种对应的语言但这个语言是他编出来的他找了一帮人去做这个任务然后让人做这个翻译那人是会犯一些错误的因为这个语言并不完备而且学习时间也有限所以经常他会误解这个是那个意思然后他让这个语言模型一个小的语言模型其实还不是大模型小的语言模型去学习这个任务
但是他不要求模型学会这个人物因为模型学会这个人物要比人容易得多他要求是要跟人犯一样的错误跟人有一样的错误率犯错误的类型要一模一样这样的一个模型训练完之后他其实没有任何实际的能力因为他学的跟我们语言没任何关系
但发现当这个模型再出过我们标准的语言论文的时候它就会获得这个系统语言方案能力它学一个任务之后它在其他任务上就会有初步的这个能力但是普通的语言模型其实结构没有变都是传播的就直接去训练的这个传播学了任务一周对任务二三的能力是非常差的
所以其实这些努力我觉得如果大家关注这个问题其实这个非常非常我觉得既专业又非常前沿的一个问题就是我们如何让模型有非常非常好的泛化能力我们能学到数据之外的或者说有限数据之外的表现
这个就是现代能 AI 通向全能这件事情的一个基本理念它的手段也是非常非常多的有很多包括模仿脑也是一个非常重要的特点所有的 AI 模型加一些内脑的约束之后其实最大的提升都是在泛化这一点但是泛化本身对纯 AI 问题来说也是一个非常非常底层的一件事情其实我们现在看到的一代一代模型的迭代很多努力都是在
提高放害能力上的我就不细节展开了就是大家应该相信这件事情其实这件事本身就非常非常的关键甚至是很多 AI 方向认为可能是 AI 唯一的科学问题
那除了 Transformer 架构有其他的架构在训练这样的模型达到这个效果吗我插一句因为现场确实有小朋友 Transformer 是个啥它是训练大模型的一种方式一种架构可以这么理解就是我要训练大模型我按照它这个方法我就能训出来简单这么理解我就快速回答人工声音网络的类型有很多就 Transformer 表达的是一种比较有代表性的它是最早用来做这个语言模型的那这边文
文章在爱领阅非常非常有名它一共八位作者我们经常叫这个传送的八字这个反正非常非常有名的这么这么一篇文章他非常意外的是他后来发现不光做语言模型就是做任何数据他表现的都
非常非常非常漂亮但实际上呢就是说有很多新的构架挑战传说门也成为这个学术界的一个非常重要的一个方向比如在前两年有一个类传说门的模型叫这个 Mamba 的
这样这个模型当然很多理念上说很像但还有它非常大的优势我们再经典一点的就是这个 Hinton 他拿诺奖背后非常有代表的这个模型就是这个卷积成绩网络卷积成绩网络设计之后就是从视觉提升来的还有一类我们刚才提到就是这个诺奖的另一个网络像海马的这个网络后来衍生出来的一个特点现在也有回归的趋势他似乎做大模型也很有优势我们叫这个 Recurrent Neural Network 就是
RN 这个网络网络构架迭代一直在这两年还有基于物理学的一些知识做这个物理的网络基于大脑的测点做的这个 SNS 其实网络构架的变化一直是这个领域非常底层探索的一个测点 Transformer 的优势实在于它太简单它非常容易做叠加就是它你想加一个就加一个
只要加的足够多数据足够多它都能完成训练但是对于很多网络来说就随着参数的迭代你的复杂度是在增加的你的训练会非常非常非常困难
所以其实传说梦就还是我那观点还是偷懒的一个目的它最大的优点就是随着它的叠加不影响训练的复杂其实也影响但是它比较好攻克所以它成为了大模型的一个侧点所以它是为数据而生的这个是传说梦的侧点其他网络其实我认为是新的网络就是下一代人工智能的关键
至于是什么我觉得这个有讨论有两句很经典的话 Transformer 为数据而生的另一句话是它足够的简单所以它今天如此的神奇
OK 刚才雷伯的这个分享还是有点门我想降一降这个门槛就同样的问题想再让另外两位嘉宾去回答一下就是特别是先问王博士王老师你是一个神经学家脑科学研究家就是今天我说我们说 AGI 你相信 AGI 吗就 AGI 在于就今天刚才也有很多人举手说我们的人脑
我们的人体就是一个 AGI 那是不是把我们的增强之后它就是真正实现大家口里的 AGI 呢你自己相信吗你怎么解释这句话好吧我对于 AGI 的这些东西就是说我是两个方面悲观的和乐观的两个方面悲观的我总是放在我自己身上那 AGI 的发展我相信它肯定会来而且肯定会超过我们人类
最起码就是刚才是叫雷伯已经给大家讲了那我们的就说这个是整个的这个神经网这个是 AGI 的一个叫基本的一个东西那为什么我说他会超过我先讲一下我的感受就我为什么双方向呢我对我自己我总是讲我很幸运我又经历了 AI AGI 因为我的年龄已经到这里了我不怕我被他下岗
因为我已经再过一个星期我就到退休年龄了我就退休了我已经下岗了我自动下岗了对吧那我就完成了这个但是我和年轻人讲的是你要去拥抱 A 家人
不是每个人都是像雷伯这样的专业从业你要去拥抱这个 HRI 你要去适应 HRI 你要去学会使用 HRI 雷伯刚才直接讲了我们是使用对于绝大多数人来讲是一个使用你要去拥抱它你要去使用它你要去适应它那么一个平衡的共存状态那么回到我们人脑是不是一个 HRI
从神经科学家的角度来讲的话我也可以很负责任地讲我们可能是超过 A 加 L 为什么我刚才为什么放了这么多的我刚才坐在这里的时候也讲我们到底对我们的人脑知道 10%还是 1%对吧但是我为什么又讲 A 加肯定超过我们的矛盾的对不对这是因为上帝在造我们人的时候把我们限制住如果你想象一下人可以活一万年或者是永生的
然后我们人可以不断的学习我们可以不吃饭不睡觉 24 小时都在学习我们只要 30 瓦我们的所有的现在最起码现在或者说是将来的硬件都比不过整个这栋楼的硬件都比不过我们这么小小的一个脑子
那我们为什么不会超过他或者说他永远超过不表我们只是我们现在我们达不到或者说刚才雷波士他一开始就讲了这个问题我们一个个体来讲的话我们肯定比不过但是我们 population 来讲的话呢我们群体来讲的话呢很有可能 AGI 是超不过的 AGI 本身是我们设计为我们来服务对不对这就是我的观点
我才是想留个时间特别是如何让 AGI 让我们人类能够用上对 先总分享一下先总可能更接地气去谈这个话题我们希望看到他他到底啥样子他到底能够已经到啥阶段在走什么你相信了他的样子是什么
首先呢我觉得作为一个产业落地的这么一个环节我是支持鼓励拥抱 AGI 尤其是学术界和包括大厂一系列的这些方面投入的这些科研人员这是第一个
这件事情第二个呢我觉得这件事情现在并没有发生对于我或者是大部分可能不是这件事情的专业领域之后我们该思考什么事情是它是一个确定性的技术正在做研发至于什么时候研发完可能并不是所有人能参与的但是这个确定性上你要反过来思考这个社会会发生什么变化
我可以给两个我简单的一个思考不一定成熟第一个从我的角度会认为人工智能这个技术最大改变的或者是在之前技术当中都没有改变的一个事情叫做关系因为互联网本身已经有了它本身是促进信息传递的效率的人工智能是极大的促进了信息传递的效率但是有件事情是互联网信息技术干不到的就是关系
它有机会去影响人与机器之间的关系这是第一个我们的一个思考第二个到底这个社会形态这个组织形态对于工作这件事情所谓刚才智能的能方面那个能干你到底能干什么机器能干什么人能干什么这件事情也是需要你思考的那这件事情让我们的感觉是说越来越多可以被垂直化的工作
它被机器的这个可能覆盖性会变得很强但是很像贯穿性质的这个能力是现在机器有点困难的地方
在这里就会有两个思考第一个人是不是要极大的去做融会贯通这件事情那这背后想思考的就是一个架构的能力是一个工作流架构的能力是一个复杂体系架构的能力这是我们人可以非常擅长的地方第二个你要搭建出怎样的一个平台怎样的一套产品
把人工智能技术把一系列过去的技术现在的技术未来的技术整合到这套产品里让它去实现一个越来越复杂的工作目标所以我认为说在产业的这个从业者你永远是拥抱和期待技术但是它一定是你工具箱当中的其中一环任何一个复杂的内容一个任务都没有办法通过一样工具去进行完成
所以我觉得这个复杂度就是未来很重要的一个思考的点你让机器实现多复杂事情你自己能够实现多复杂事情的一个思考这会带来差异那背后就是一种效率的提升比如说原来公司你需要设很多工种你做一个网页前端后端然后算法然后通信你有一系列的这样的工种都是垂直线上面的
现在我们这一条链路上就是一个人在完成因为他就是负责设计和架构其他所有的环节都是 AI 和 coding 然后他在负责改和调整但是如果不是有一个人在架构这件事情本身这些场景跑不通因为没有人把这些环节全部串联起来干过如果你跑通了你的效率你的成本就大大的跑赢了别人这是一个第二个我再举个例子比如说你简单做一个客服
你可能需要打电话给客户你还需要在系统里录入他的信息你还需要把你这公单转给你的同事你还需要联系发货的人去发货或者补货他所涉及到工作场景在整个电脑的界面和手机界面或电话界面是涉及到非常多的场景的那你是否能通过整一套产品和技术的整合让他完成真正的一个任务流的自动化
在人工智能技术的这个加持之上所以我觉得商业其实一直都存在所有的技术只是在改变商业的效率你要去思考这件事情你就会有机会所以这可能是从我们这一个角度去看到的那回到刚才那个话题关系到底是什么比如说我们现在在做的情绪服务也好还是说客户服务也好你人与人之间有一个很宝贵的东西叫什么叫信任
感受到友好感受到信任感受到你的这个 friendly 是有溢价的这是有溢价的这个溢价它有社会层面的溢价也会有商业层面的溢价这件事情是人工智能大大优于其他技术的地方所以这也是我们非常坚定的在探索的这个努力的方向
醒晨的发言启发了我一点就他对关系的解释就今天我们的这个社会组织人作为一个小原子已经能够去处理关系所以组成了我们复杂的社会但是今天 AI 不能
那 OpenAI 的对于 AGI 的定义里面从 chat 推理到智能体再到创新它最高的那一级就是组织 organization 就是他们对于 AGI 的最高的理解就是它能够完成组织那实际上今天人已经完成了这个
所以我刚才做过一个调研调查现场的就是你相不相信大脑就是最强的 AGI 这么分析完之后我现在答案很坚定了我觉得人脑就是最强的 AGI 只是说现在我们没有表现出来的原因是王老师说的我们的某些开关被固定到个体的时候被关掉了
但是如果占到全人类的这么大的广度和这么长的历史长河里面我们这个群体是不是最强的 AGI 我觉得按照雷伯的那个分析我觉得是的所以我想再做一次调研三位在这么分析之后刚才的同样的话题你还相信人呢人脑是不是最强 AGI
我们还有一个问题到最后我们要统一 QA 的环节这个问题我们在现场调研大家能再举一次手吗就是刚才的话题比刚才真的多了多了有一半
刚才的乘以二大家的这种思想碰撞我们每个人的这个大脑模型还是在还在疯狂的运转的在不同的阶段得出一些结论 OK 我们还有还有几个问题我觉得是现场大家都关注情感这个话题就是因为我们我们今天的话题是说 AI 能否产生类人情感前面我们一直在分析 AI
的尺度就 AI 是什么样子 AI 如何到这个层面那实际上我们还是想再倒过来去解释一下这个话题就是情感是个什么东西站在脑科学的分析上目前情感的这种状态和 AI 能够实现它的状态双方的博弈或者说双方的互相增持
已经到什么样的阶段就因为今天我们其实已经得出结论就是它实际上是现在不行但未来行那未来的那个样子如果今天用数学模型用生命科学里的内容去形容这个情感的状态情绪的状态你会去怎么去描述它王老师先来情感这个东西它肯定是存在的
特别是在高级动物上面包括我们人我们人作为一个最高级的动物那么肯定是存在的这个现象是存在的但是它背后的生理学机制神经生物学机制还不是特别的清楚
就像我们的科学研究就像盲了墨像的一个我们现在已经知道了很多的点但是我们是不是能够把它已经串起来因为是构建成了一个完整的一个大象现在肯定还没有做到到底我们现在只是知道了多少个点我们肯定不知道所以说情感还是一个我们可以叫做一个黑匣子但是既然现象在我们就可以对它进行一些描述对它进行一些
知道他的一些偏差的地方我们可以对他进行干预就像行种在做的工作就是和这个相关的一个方面对吧那么情感和人工智能为什么我今天在 PPT 里面专门放了几张关于和抑郁症相关的因为抑郁症就是和情感密切相关的一类我们叫神经系统的一个疾病或者叫精神类疾病
实际上我们用人工智能是完全可以来通过人工智能的方式去解决这样的一个问题也包括了就是为什么我今天也是在去年的那个外团大会的上面实际上我就加入了很多的关于脑机接口的那个上面的
因为我们已经知道就说像瑞金医院已经有这样的一个 IRT 的研究临床的研究就说我们用脑机接口的方式可以对重度抑郁症进行干预对吧那么这些都是说明我们是可以通过人工智能去进行干预那么人工智能自己到底是不是能够有情感那
从我刚才所讲的话作为一个我们人类作为一个最强 AGI 的话我们能够有那人工智能 AGI 它的一个 developmental 的这个过程中我们通过了几百万年他们在多少年内难道就不能够 developmental 到发育到这样的一个过程吗我个人还是持乐观的态度的我不知道两位专家会怎么想
雷伯能不能给我们具体特别一个具体的问题情绪情感可见膜吗我觉得这个很复杂我们可以问我们自己一个问题神经科学家如果我们把智能 intelligence 作为我们一个最高纲领最上面的这个东西那情绪跟它有没有关系首先我认为一定有关系
我换一个词我刚才用的是 developmental 我用错了应该是 evolution 应该是 evolution 那我们的 AGI 我们现在我不知道的这是你们是专家我们现在的人工智能是在走 evolution 的路还是在走 developmental 的路我认为他都没做他更直白就如果我们把
一个人智能形成我觉得您这个视角非常非常好这是我们现在在提一个新的内脑大模型的一个基本理念就是如果我们把一个人的智能形成过程归因到几个阶段的话第一首先是进化我们是跟自然界反复交互有各种各样的动物组成进化成我们现在这个结构比如我们在出生的时候我们大脑就已经有一定的复杂结构第二是 development
就是发育这个过程我们在发育的过程中如果有一些干预我们的智力也会有问题我们的认知也会有问题这个也是非常经典的这么一个发现
但是如果我们发育完了之后不学无术不跟外界交互我们也没办法获得这个智能所以我们至少有三个过程一个是进化赋予我们的一些最原始的结构信息它写在我们的基因里面第二是我们的发育过程它需要我们一段的时间发育过程既需要基因也需要你丝绷人的交互在发育完成之后我们的大脑基本上是固化的
那结构上是固化的我们参数上还是能更新的就我们讲的学习记忆的这个过程三个过程就现在人工智能其实只有第三个过程它只有一个参数更新的过程
它的结构变化是非常非常小的或者说它也许有一些方案是允许它发生一些结构性变化但它的核心还是来自于参数的变化所以我们现在想赋予一种新的人工智能就是你要有进化的过程你要去寻找一个适应于你未来要面临任务场景的一个基础结构然后你在这个结构上要根据你更
所在的这个生态位你再去调整你的这个结构的微组成最终在一个固有的结构上进行参入更新这是我个人认为能通向 AGI 的一种理念和结构它也符合我们人类的这样的智能的一个来源 OK 然后我们再到智能和情绪这块那其实有一个重要的问题是
如果我们把智能作为我们的最高纲领那我们需不要情绪我们经常好像说一个非常智慧的人他似乎看起来是这个没什么情绪的或者他能把他的情绪完全给覆盖下来我们甚至把这个叫一种智慧但实际上
这不太符合进化因为如果这个东西对我们一点用都没有我们在进化上为什么需要这个情绪所以我想提一个观点就是我们看到的情绪是它的一个表现不是它的目的就是我会喜怒哀乐不只是表现
它的内在目的并不是这个其实情绪的这个特征我觉得是服务于人来描述自己选择的王老师分享报里面讲到多巴胺多巴胺应该是最出圈的一个神经地址大家会把它跟愉悦联系起来但其实多巴胺有一个非常非常重要的功能就是学习的功能
有一个非常重要的概念叫 prediction error 这个中文应该的预测误差它标准的更具体叫 reward prediction error 什么叫 reward prediction error 它是多巴胺来负责的而且是同一个脑区就这个似乎是这个神经元它又负责情绪又负责这个但我希望我讲完大家能理解就是我们在进化上为什么需要情绪这个表示什么比如说现在我这个
这个会结束了我给大家每人发一百块钱以后大家听我报告我就给大家发一百块钱结果有一天突然大家来听我报告我不发了你就会觉得很不满意这个人道德有问题如果我给你发一百块钱你会觉得理所应当我一直是这么来获得的但如果我今天大发慈悲我发一个亿每个人发一个亿你就会非常非常的高兴或者非常非常的意外
这个其实就有一个非常经典的一个过程在大脑里面如果这个事的结果符合你的预期你的多巴胺是不法化或者说是 basal level 如果低于预期它会被抑制高于预期会被激活这就形成了一个非常好的对自然界的预估你想想一个动物
现在这个我老来这块有食物但是每次的食物就这么多那我不需要增强其实多巴胺是一个非常重要的一个增强的信号就是我要不要更新我的知识当然这是个理论我们也在研究这方面这只是个理论我要不要更新我的知识跟我想的一样我就不用更新但是如果发现我老来这捕猎但是突然发现食物没了
我得更新我得往反向更新这块没那么好我得换个地方那如果说猎物非常多了我得重新更新一下这应该是一个更优的一个选择这是不是情绪其实是情绪我认为我们看到的喜怒哀乐这种非常我们说可能不太有用的引号有用的这个情绪只是这样机制的一个外化因为我们大脑需要给我们一个信号是太好了这个地方比我想象的好的多
那我们的外化出来的是一种情绪在人类社会里面这个情绪就变得非常重要因为我们有社交的需求这可能已经高于我们基本生存的需求所以在进化上我觉得情绪的特征是类似于我刚刚讲的 prediction error 的这个那为什么举这个例子呢其实我们知道的强化学习我们最有名的第一代可能打动大家的人工智能应该是 alpha go 它的内在核心就是 prediction error
就是当一个智能体做出一个决策我给它一个评分如果评分高于它的预期我就认为这是对的我就正向更新低于预期我就负向更新符合预期我就不更新其实当然具体没我描述的这么简单但是基本上这样一个理念我们的强爱学习包括我们今天看到的 DeepSick 强爱学习就是这样一个理念
如果说情绪的本质是这个那我认为它是产生智能或者学习非常重要的一个特征而外化的情绪是我们看到的这些东西可能人非常需要有这样的一个情绪包括我们的表情也很丰富动物有没有表情其实有争议
有些研究说这个小老鼠也是有表情的虽然我们看不出来它有表情但 AI 可以看出来它有表情但实际上也代表它可能对这个需求并不大它真正需求的是情绪背后的那个调节性的机制所以我觉得这可能是我们对多巴胺最好的一个理解而我们看到的我高兴我愤怒或这样的过程我觉得它只是一种外化这是我的视角所以站在我的这个视角上理解这个问题我觉得就是人工智能需求
不是有没有情绪而是他需要情绪而且已经非常重要的展现出来的情绪他的 prediction 以及对 prediction 的这个评价体系就是情绪的内在机制的一种雏形那在这个基础上他有没有可能发展出来我们看到的那种外化的好像不讲什么道理跟最后有用有关的情绪我认为现在这代不太可能因为他的任务是确定的
我们是要让他达成那个任务他没有必要产质量特征但是如果我们未来的人工智能不是在 GPU 上或者不是仅仅在 GPU 上而是他要在人类社会里他需要在某些特点他会发现你想我就是做任务比如我现在派一个机器人就是要拦住闯红灯的行人
那我看闯黄灯我就说请不要闯黄灯但我后来发现如果我带点情绪如果他老闯我带点情绪我会发现我这个行为更有效因为我非常有情绪的说你不要闯黄灯他就真的不闯了那对于模型来说那简单了那原来我这么做就会让我的这个 loss 降低那我以后就这么做就可以那这是不是情绪呢它还是浮于智能的话我觉得是可以产生的当然前提有一个场景这个场景需要这样的外化
前提就是大家可以想象一下什么样的场景需要这种方法从人文认识的角度上只要你需要它都能造雷伯刚才讲的神经生物学的那些概念简单的就是我们社会上知道的舒适圈当你形成了舒适圈以后你要进一步的学习然后你的舒适圈就会扩大你的舒适圈不断的扩大所以说我们一定要跳出舒适圈然后进入学习圈然后能够获得更多的一个自由
我得出了两个二位的结论一个是情绪背后的驱动机制人工智能是可完成的可建模的第二特别重要的一个涉及到伦理就是今天人类的情绪表现后
的机制驱动机制如果是以情绪化来表达那模型可能未来也会学习那如果这个情绪到了无可控制的地步我觉得可能就到了一个科技伦理 AI 伦理的层面那醒晨你在分析这个问题的时候能不能从伦理层面更强调一下因为更接现实更接社会就是
机器到目前为止机器 AI 的情绪我们没有太体现出来它就是一个我们告诉它什么 Promit 输进去它就干那这种完全完成我们指令的这种动作会不会导致这种虚拟和现实进行错愕我先就是承接一下前面的话题然后回答您的这个问题我想问一下大家其实情绪情商都没有这个学科吧
没有这个学科对吧那也就是说压根就还没有整理出来他的整个知识结构体系这是一个第二个呢再说个简单点场景所谓现在比较热门的你会付费的这种情商课对吧是什么呢它就是一种话术训练只是一个话术训练
所以说这是第一个难题就这件事情本身都没有被结构化过就在人这个层面都没有被结构化过刚才大家听了两位非常专业的老师的分享是他有一个前提是你的数据已经是有足够的量你放到一个非常简单的 transformal 的架构里面做海量的这个 scan law 然后得出了这样的一个大语言模型这是有个基本前提的所以首先是我们要认知这是一个客观事实人都还没有把这件事情干出来
这是一个第二个呢新技术一上来咱先别把目标定的太高上来就把它变成一个比较高智商的一个这个期待这个是其实会给从业人员也比较大的这个压力对吧凡事都是一个循序渐进的过程现在不能拿终局去思考说哎他好像有情商他好像没情商
这是第二个我的一个观点第三个回到友宏刚才提到这个问题到底这件事情会不会导致虚拟跟现实之间的一个脱节我觉得吧这个也就是有点
就何不释柔谜那个感觉就相当于什么呢你看我先问一下咱先别说到抑郁这么严重因为那个数据其实也挺可怕了已经就现在能被确诊为抑郁症的这个数据官方数据都是非常可怕的那么就说有没有不开心的时候吧你大概是不是三天两头都会有点不开心的时候我觉得这个数字应该约等于全人类吧是吧约等于全人类都会有三天两头不开心的这个时候
好那如果我们能不能用这个技术先去解决最基础的但是面积非常广的这些简单的喜怒哀乐这是一个思考问题的这个逻辑我到底需要解决最顶级的那些非常非常复杂的这种情感诉求还是最基础的平常的这个喜怒哀乐再回到一层我们来思考这个问题是不是你每次一抹不开心的时候你身边总有一个人能说话这件事情能做到吗能做到吗
做不到吧这是不是个非常简单的就是我不开心的时候无论我男朋友我老公还是我老婆还是我爸我妈他能够就坐那儿半夜两点就坐那儿让我嗶嗶嗶然后把我的情绪放完然后我去睡觉我不管他怎么样这个事情是不是非常非常的困难所以我觉得现在还没有到谈论过剩这件事情我觉得是大量的需求不足
需求不足我觉得所谓的最终的那个形态病理性的形态抑郁也好或者焦虑也好或者再到更严重的形态它前面还是无数的情绪的叠加所造成的
那我们也会说有些小孩会说他原生家庭很好充满爱的环境长大长大之后这个心态自我内核都很强大他无非是在可能大部分他需要支持的时候他的家庭他的环境给予了他一些反馈但这件事情我负责人来讲是非常非常非常稀缺的非常非常非常稀缺在你所需要肯定的时候有人给你肯定在你所需要倾听的时候有人给你倾听
在我们过往服务的案例当中会有很多人对着机器人会去讲他其实自己有问题你知道吗其实人跟人沟通是有很大的负担的因为我们是有所谓的道德标准我做一件事情也许我知道我有不好的一面但是我不想告诉你我只想说服你支持我但是 AI 它是中立的我告诉他他就是一个树洞我可能吐完了之后我自己也会发现我的问题
所以我会认为就是我对于技术思考还是它未来在那我会知道它现在能解决什么问题这是一个第二个技术应该是要入泥土的就是它能解决什么样的大规模的这个现状能够带给社会产生一些正向的价值
这件事情是我觉得技术最重要的一个点至于它情商到达哪一位我觉得放眼来看这么多努力的优秀的科学家工程师都在努力我就给予他们足够的信任和空间让他们干这个事情我们先把前面的这个基本盘去定义出来无论是需求还是产品还是服务然后等这边技术好了这边的产品灌进去它的能力会变得越强
所以这就是一种大家双向的在平行世界里在准备但是一定是会奔赴的所以这是我可能的一些观点醒晨的观点已经做了最好的 ending 了我最后留一个问题我们只问问题不回答
我希望三位嘉宾分别问一个问题你这个问题留给线上的听众朋友或者你这个问题指定给某个嘉宾也行你可以提一个你想提的问题站在你所在的研究的领域你觉得在这个大话题下你想了解但是今天可能并没有给你很好的回答王老师这就是 20502050 可能这个状态就是这样的那这
2050 可能我已经不存在了大概率的情况下 2050 我是不存在那个时候我想问的是年轻人到了 2050 的时候你是选择怎么样的一种生活选择怎么样的生活状态那为了这个 2050 你选择这个生活状态你今天在 2025 你要做什么
我问一个这可能跟人工智能也没关系但我觉得也可能可能会非常有关的一个关系吧有很多科幻小说也描述过类似的假如存在一个星球它也有
类似于我们这样的智能智慧体存在你觉得它会跟我们的大脑一不一样当然这个问题如果我们换一个翻译就是说如果靠这种自然界交互的形式能形成智能体的话人类是不是唯一的智能形式
如果它不是唯一的对我们做人工智能有什么样的启发或者我们怎么看待人工智能这件事情我觉得大家可以想象如果还有一种形式你觉得它应该符合什么样的标准或者有什么样的特征有什么样的可能性就存不存在第三种智能应该是很多种其实我觉得人这一生就是一个巨大的 game 真的就是一个巨大的游戏在这个游戏当中如果你有机会参与一些周期
就比如说现在人工智能是一个非常好的周期它刚起来对于青年人就今天因为主题有一个是青年人我可能也想问青年人的如果你把人生当一个然后在这么一个非常好的周期里面你想打什么怪你想生什么鸡
我也想提一个问题也是我的疑问
我在想是不是智能它本来就存在就像人脑我们看到了人脑是一堆浆糊但是它在里面有智能它本来就存在生下来就存在 AI 的形式下 GPU 里存的 GPU 里存的计算机里存的那个 AI 的智能是不是本来也存在今天我们用这些 GPU 用这些算力去把它
各种经历各种算法之后发现了它那今天我们还在发现更多的智能更多的智能是不是能涌现这是我们发明的还是它本来就存在我们在发现它这是我的问题
那本期的会友标局就聊到这里啦如果喜欢我们欢迎点赞也期待大家在下方评论区的精彩留言哦更多节目信息欢迎关注 show notes 添加小助手微信了解更多节目相关信息感谢收听我们下期再会啦