科技满满派的听众们 大家好啊我们走向 AGI 这个专题节目呢 已经播了五期了前两期节目我们从定义什么是 AGI 开始然后接着又讲了 AGI 是否必须向人类的这个问题那接着呢 我们又做了三期节目 都是关于 AGI 预测的
我们对于这种从极度乐观的比如说 AR2027 的预测以及到 Anthropic Armadale 和哈萨比斯那种谨慎的乐观的预测再到我们更多的悲观和更加谨慎的一些 AI 预测的观点那 5 期节目之后我们进入到了第 6 期我们会聊聊我们自己对于 AGI 的一些观点以及未来的对于 AGI 的一个前进的方式
我们在本期节目开始前我们先提出我们主要的几个观点第一点就是说我们并不同意准确的预测 AGI 的时间点因为我们前几期节目也谈到了大家对于 AGI 的目标不一致理解不一致由于技术本身
本身还有很多局限性同时我们在从应用推广整合社会价值等等的各个方面的一些因素影响中间的模糊地带和不可预测的地带非常多所以我们认为说如果提出准确的 AGI 的时间点还是为时尚早的
第二点我们也反对使用这种所谓线性外推的一个方式因为我们在第三期节目中谈到 AI2027 一系列的乐观预测都来自于这种线性的外推方式也许可能是对的但是根据我们历史上多次的 AI 的这种脉冲式的前进不断受阻的这样情况来看我们认为可能 AGI 的发展还是一种非线性的增长更像是一种阶段性的突破
所以如果真正达到我们所谓理想的 AGM 需要另一个平台或者新的阶段的一些突破
听过上面两点你会觉得我们是不是有点悲观了但是恰恰相反我们非常的乐观也坚定 AGI 会到来今天的节目我们想聊的更是说大家应该用什么样的视角或者什么样的方式来看待 AGI 未来的发展路径这个是我们想要表达的核心观点所以在今天的节目里面我们会给大家带来三种故事也是三种叙事逻辑同时也是三种比喻
这三种比喻就包括了选路就是选择什么样的路径来到达 AGI 第二点是建塔就是我们通过一层一层的搭建高塔的方式来构建 AGI 第三是拼图我们逐步找到那些对的色块把它们拼在一起形成一张 AGI 的完整的视图这就是我们今天想要
表达的主要的内容那好我们接下来进入我们的第一段的叙事逻辑也就是选路 1978 年在湖北省隋州城西北大约两公里的地方考古学家挖出了一个方形的物件说是顶又不是顶开口处的长宽各 63 厘米高也是 63 厘米重量达到 170 公斤这玩意设计精美全部用青铜制成
在经过专家们的仔细研究结论是它就是古代人的冰箱被叫做冰箭它是两千多年前的冰箱是从曾国国君曾侯以暮中挖掘出来的那古人呢在过去呢想尽各种方式来去制作冰和储存冰
比如像在冬天的时候古人就在河面上硬冰凿把冰切成一块一块的每一块都能承受一个人的重量但这个时候我们并不把冰拿出来而是让它继续冻因为这样切成块的冰就会上浮受冷后下面会再冻这样加厚就会比较多有的时候这个冰甚至能达到一米的厚度
于是后来人们就把这些冰块运到实现挖好的地窖里面用于储藏其实古代也有比如在唐宋时期大家可以用销石把水放到里面去然后就可以结成冰所以古人在造冰的时候有很多的方式在北京也有一个著名的地方叫做冰窑口胡同就在北二环附近冰窑口胡同的冰厂在 60 年代的时候其实还在使用
哈那个时候呢冰场的工人呢到这个积水潭的那个里面去去去冰啊再用专用的工具呢将这些已经冻得非常厚的冰呢切成一米见方的一个冰块然后用这种溜槽的方式啊把它运到这个冰场里面去然后再通过这种存储的冰坑把它放好每块冰之间呢都有这种稻草相隔用于这种保温确保在天气炎热的时候我们可以用啊
使用这种兵然后再退出到市场上使用方式其实我们可以看到在人类的发展过程中各种使兵的方式是非常多的但是我们发现直到人类发明了电冰箱之后冰柜这种用电气的设备来去存储兵以后这种传统的制兵技术就会变得无用了相当于在技术的发展史上做了一次简知
而冰箱并不是因为要解决制冰的问题而发明的其实冰箱的发明它并不是只是一个功能而是它捎带发明了制冰的问题所以在三体小说里面也谈到我要消灭你与你无关这就是科技本身的一个特征的问题
那科技术的这种简直呢在人类的科技历史发展上呢十分常见的一种现象啊那科技术呢就是指人类在历史过程中呢发明出来的或者是发展出来的各种独立的科学进展呢大家可能都有像同源的而生的这样的概念啊
就像在历史时间长河中各种科技相互交错然后成长在一棵树上不断的成长发芽然后旧的枝芽又逐步的被削减被剪枝这样的一个过程所以人类的进步就是有历史长河这种无数次的科学的突破和成果所推动的
而新的科学又往往沉淀在一些过去的科技的基础上重新萌发新芽 抽掌出一个新的枝条树枝也象征着其实这些不同的科学基础经常交织在一起所以我们经常会用简枝这种对比来去说明说科技树的发展
我们今天讲的第一种 AGI 的构造方式我们就要这样找路其实也就是说类似我们在做简直的这样的工作我们像是在一条复杂的迷宫中我们去探索方向这就是我为什么说是选路为了了解说我们这条 AGI 的路或者 AI 的路到底怎么选的呢我们就要回到我们当初出发的起点也就是人工智能之父阿兰图灵的故事
接着我们还是有请 Google Notebook LRM 的两位主播和我们聊聊 AI 历史上是如何选路的阿兰图灵这位计算机之父也是人工智能之父他当时的想法就是说到底有多超前非常超前他不只是奠定了计算机理论的基础就是那个图灵机他还提出了图灵测试
这个东西一个衡量机器智能的方法到现在我们还在讨论呢所以图灵测试它更像是一个哲学上的起点而不是说技术上最终一定要达到那个目标可以这么理解所以图灵测试是定了个方向但 AI 的发展路径其实不止一条 1956 年达到卯斯获益之后 AI 诞生对
符号学派就是相信智能源于逻辑和词号处理的那批人像明斯基他们当时是占了主导地位的他们搞出了什么像逻辑理论家还有通用问题解决器都是他们早期的一些成果但听说他们很快就碰到平平尤其是在处理一些比较模糊的东西比如常识自然语言这些没错这就导致了第一次 AI 寒冻
而且当时连模仿大脑的那个连接学派也因为一些理论上的局限性受到了打击那后来呢寒冬之后怎么样了后来就出现了那个专家系统热就是想把人类专家的知识一条条的塞给电脑听起来工程量巨大是啊比如那个 Psych 项目耗费了巨资就想建一个庞大的常识知识库
但你想手动数字是太难了而且系统很僵化不会泛化结果呢就引起了第二次 AI 寒冻当时那个失望情绪你可以想象投了那么多钱和精力结果发现系统连三岁小孩的尝试都没有
确实挺打击人的,但听说低谷里有人在坚持,连接学派好像没放弃。对,像辛顿,杨立坤他们就一直没放弃神经网络,后来反向传播算法的提出是个非常关键的节点。1986 年?对,就是那个时候,它让训练更深更复杂的神经网络成为了可能,再加上后来这个,
算力特别是 GPU 的发展还有海量的数据大数据时代来了对深度学习终于就爆发了 2012 年那个 ImageNet 图像识别大赛是个标志是
神经网络赢了大获全胜再后来就是 2017 年提出的那个 Transformer 架构现在大模型的基础没错它用一种新的叫做注意力的机制彻底改变了机器理解和生成语言的方式这才有了我们今天天天听到的 GPT 系列这些大语言模型那 AI 的路走到这里以后后面怎么走呢
最近毕业于清华姚班也是普林斯顿大学计算机科学博士学位毕业的 OpenAI 的华人科学家姚顺宇最近写了一篇文章叫做 AI 的下半场他就代表了说 AI 之前的路走完了一半后一半的路我们将去继续的寻找和探索而他认为新的路就是强化学习也算是给 AGI 的发展指明了一些新的方向
那这差不多就是姚顺宇说的 AI 上半场核心就是改善模型提升算法在各种标准测试上就是那个 benchmark 去刷榜对至于说这些测试本身是不是真的衡量了我们想要的智能好像没那么重要你这个总结很到位姚顺宇就认为下半场的开启标志是强化学习就是 RL
终于能够有效地解决复杂任务而且能泛化了强化学习就是让 AI 自己试错那个对通过试错和奖励来学习所以说下半场的核心挑战就不再是单纯地把模型做得更大在老测试上跑分更高了对
而是要重新去想我们到底想让 AI 干什么,以及怎么设计出真正能衡量这些目标的评估体系,或者说仪表盘。就是这个意思,重心要从我们能不能训练模型解决 X 问题,转向我们应该让 AI 做什么,以及怎么衡量真正的进展,这反过来又会逼着我们去发明超越现在这个配方的新方法。
姚舜宇文章最后也提到,上半场的玩家解决了游戏和考试,证明了能力,那下半场的玩家呢,就有机会通过构建真正有用的产品来创造巨大的价值。
在今天的这个十字路口上呢其实实践上也许没有人能给出一个正确的路径的答案即使是身处硅谷的那些的人工智能专家们也许是混合专家模式 MOE 多模态 巨神智能 原认知还是世界模型其实大家也没有统一的认识
因为我们对 AGI 的理解也没有形成共识那甚至是我们是否已经找到了自然语言的问题本身这些在目前看来好像已经有答案的时候也不能有准确的回答那不知道终点的时候呢那我们又核探终点的路径呢
但是我们对于未来 AGI 的进化之路我们也会给一些我们自己的方向性的建议这块主要有三个建议第一是要确保各项技术的多样性我们看到其实在生物界多样性是确保了物种进化一个非常至关重要的作用大家不能认为说今天我们已经找到了某一个技术就是实现 AGI 的必经之路其实不能这样讲
那从生物的多样性来说呢它不仅包含了物种的多样性它还包含了基因的多样性和生态系统的多样性以这样的一个类比环境来看呢我们就相当于我们就提出说那在 AGI 的这个领域里边我们在技术上要不同的实现路径那我们内在的这种技术的联系或者关系也是不同的那它所形成的这种生态也是不同的
所以尽管今天我们在世界上有很多人去从事人工智能的研究但是我也相信其实里面很多人都是人云亦云的就是别人做什么我就来做什么大家很少通过自己的一些客观认识和分析然后来演变出自己的一些的科研的路径所以我们从第一点来讲的这种多样性的意识要提高
科研人员的数量然后多样性的种类同时我们在每一个领域里面形成自己的生态或者体系这是第一点第二点历史也告诉我们就是说所有的技术将会朝向更加简洁的方向发展
历史告诉我们说真理往往是比较美丽和简单的人类的很多技术的公式也是十分简单的比如像著名的爱因斯坦的一等于 MC 方比如说当初说地心说是为了解释天体运行后来发现不对就加了各样的规则来去稳定自己的理论但是后来发展到了哥白尼的日心说一下子这个问题好像就变得简单了
那如今很多的人工智能研究仍然需要加很多的外加的一些规则或者逻辑去来判断或来处理那这样就必然会存在说为缓解短期 AI 的这种算法能力
来解决一些短期的问题但从长远来看也许这些你今天所有做的工作都是绕弯了其实这种工作可别是并不值得的所以我们也希望 AGI 的发展如同人类的这种细胞一样能够可以简化到最简的这样的一个状态让它用最优的方式和这种控制机制来去发生从而从量变引起质变可能这是人类整个进化的一个大的一个规律同样也适用于 AGI 的发展
第三就是我们必须有思维方式的转变所以很多年来人工智能的发展经常是遇到种种的困难人们的有意无意把我们已经定义的所谓的某一种人工智能作为我们一种实现的目标
而在各种目标中我们看到人类为了实现快速的商业回报所以我们总是给自己找借口我们是想我们说必须要在短期中获得一个巨大的一些利益这里面包括生育金钱但事实上我也看到也许短期的这些发展的方向和利益和路径和我们长期想到达的终点其实是并不一致的
而这些短期的目标和方向可能让我们偏离长远的 AGI 的轨道所以我们所有的这些从业者或者科研人员大家应该去锚定的是我们远方的方向所以这就是我们第一部分关于选路如何去探索 AGI 的我们的一些想法和意见在 AI 的发展中首先选择的是逻辑主义和符号主义
后面大家又转向了专家系统然后让我们经历了第一次的 AI 的寒冻接着就是连接主义和神经网络的整个的复兴积极学习成为主导接着我们又走向了 Transformer 大语言模型到今天的多模态这种逻辑的探索如果从历史的经验来看其实我们很多的一些技术的突破反而是出现在一条比较人烟稀少的路径上
这条路上其实没有那么喧嚣只有这种孤独的这种前行者才能够受到这种利益和诱惑的这种干扰从而在这个领域可以厚积薄发最后形成了一定的大的一个突破所以我们讲说我们不是说我们去反对我们商业利益的短期的投入和干预但是从历史来看其实这条路并不见得就是一条合适的路
所以这就是我们的第一个叙事逻辑选路我们讲完了那我们进入第二段叙事逻辑也就是践踏位于印度新德里的库特布塔高 72.5 米是世界上最高的砖砌践踏作为伊斯兰建筑的典范它不仅是技术和艺术的结晶也是伊斯兰在印度扩张和文化交融的象征德里苏丹国的奠基人奎图布丁·艾巴克
为了在庆祝他战胜德里最后一个印度教王朝的胜利在 1190 年下令建造这座用作穆斯林的宣礼塔在艾巴克逝世后他的继任者继续扩建此塔尤其是伊尔图特米什在他的推动下塔体才得以增高经过四代人的不懈努力库特布塔在 14 世纪才算完工
由于每一层的建筑师和建造时期不同塔的各层在材料、风格和尺寸上呈现出独特的多样性最底层由古里德王朝的苏丹及亚特丁穆罕默德建成由 12 个半圆形和 12 个突圆壁柱交错组成通过突圆和多层阳台划分阳台由位于圆形底座之上的中乳石沿口支撑
第二、三、四层由沙姆·乌丁·伊尔图米时建造保持了与底层相似的设计风格其中第二和第三层也采用了 12 个半圆形和 12 个突圆壁柱的交错排列但是第四层在 1369 年遭受了闪电袭击在修复后分位了两层第五层是用白色大理石重新建造的风格相对简约
刚刚谈到这个库特普塔的建设过程和人类的很多的技术发展呢有着相似之处其实通用人工智能呢也不例外那如果你在库特普塔上面再去新建一层呢必须要基于你的底层是足够的牢固和坚固的哈它可以经得起这种岁月的冲刷哈支撑得起上面一层层的不断的跌价就好像我们今天讲到的通用人工智能技术一样哈它底层必须依赖于计算机的一些算法啊
人类积累的大数据以及以算力为代表的这样的基础设施来支撑那只有在这种底层技术非常牢固的情况下呢我们才去能够建得起 AGI 这座高塔那也像呢这个库特普塔的建设呢经历了四代人每一代人呢都在前任的基础上增加
一些改进的一些情况比如说每一层使用了一种新的不同的设计风格或者材料它也展现了这种跨代际的这样的合作和知识传承的重要性所以我们看到人工智能技术也一样我们在广泛的继承了计算机互联网和大数据各类基础的这种技术能力的基础上我们才能得以发展
但是建设 AI 本身的科学范式可能和我们前面去传统的计算机技术可能还有一些明显的差异这里面我们就不得不聊聊到底什么是科学范式好像每层塔都有自己的不同的科学范式一样
这个范式理论是由托马斯·库恩在 1962 年出版的一本叫做《科学革命的结构》这本书里面首次来提出库恩认为科技发展是通过一系列范式的转换或者科学革命来去实现的在这个理论过程中就谈到了范式它指的是科学社群在某个时间点上所接受的普遍接受的一套的理论方法规则和标准
当我们发现新的一些无法形成的或者无法通过现有的科学来去解释的时候呢那我们可能就会带来一些新的范式那科学界呢就会引起一场新的所谓的叫危机或者一个革命那这些旧的理论框架呢可能被一些新的这种范式所来替代
依旧范式的理论美国的计算机科学家也是图灵奖得主吉姆格雷在 2007 年又将科学研究分为了四类的范式第一范式也就讲的叫实验科学也就是最传统的科学研究方法通过观察自然界现象或者进行一些实验来去论证各种假设这种方法在自然科学中的方式比较多一些比较像物理化学或者生物学等等领域
第二范式叫做理论科学它是随着数学和逻辑的发展的推进理论科学成为了科学研究的一个重要的范式这种方式是依据构建一种理论的模型或者数学工具来去解释一些新的一些方法或者自然界的现象比如像牛顿的运动定律爱因斯坦的相对论都属于这个范畴
那第三范式呢也叫做计算范式它是随着计算机技术的发展计算机科学就成了科学研究的第三个范式它主要是利用计算机的模拟和计算机来研究那些无法通过直接实验或者理论分析的一些复杂系统比如像天气预报分子建模或者宇宙演化等等的这样的一些内容
而现在又有了第四范式 第四范式指的是数据密集型的科学范式那随着整个大数据的和互联网的到来呢人类已经被深深的实现了这种所谓的数字化那未来呢更多的以数字为中心的计算平台或者数据加工处理和分享各种工具而形成一个新的研究方法这就所谓的技术发展的第四范式的来源也是那家公司一个命名的这个起源
而我们今天我们正在搭建以这种数据或知识为密集型的这种代表的人工智能我们是不是要形成一种新的范式呢那这里边呢我们今天还在从第四范式向可能存在的第五范式再往上去前进但我们今天还不是很明显
但是我们知道如果我们想要走上人工智能塔的更高的一层那我们就必须拥有一种更新型的一个方式而 AGI 的高塔到底是怎么一层层的建立起来的呢那我们接着还是请出 Notebook LRM 的两位主播和我们一起来聊一聊
最早的计算机像那个 E-ing IAC1948 年的主要就是为了算数比如算炮弹弹道对纯计算后来那个冯诺以曼架构出来了什么运算器控制器储存器输入输出这才定了现代计算机的基本样子这算是计算机的基因了吧计算和逻辑没错核心就是 CPU 中央处理器它是
它的发展很长一段时间都跟着摩尔定律跑虽然现在好像有点慢下来了嗯
这个阶段还出现了编程语言人可以指挥机器了然后数据这个概念也出来了最开始很简单就是能存能传的信息那早期的 AI 呢专家系统什么的那些也是基于规则和符号逻辑的就是人告诉即时规则机器按规则办少明白了然后
下一层楼互联网时代来了对这一下数据就炸了网页社交媒体手机 APP 物联网各种各样的数据哗一下全出来了这就是大家说的大数据这对第一层那种算算数的计算机压力肯定不小可不是吗所以新的技术就得跟上像分式处理云计算都是为了搞定这些海量数据嗯
更重要的数据变成了 AI 的新能源或者说燃料机器学习就开始火了让机器自己从数据里学规律不是人写死规则了对但这里有个问题你看材料里也提了传统机器学习特别依赖人去标注数据搞那个特征工程我知道就是告诉机器该看数据的哪些特点这活又费劲又不一定准是的限制很大
所以突破口就来了人工神经网络特别是深度学习 DNN 模仿大脑的嗯有点那个意思层级更深能直接处理原始数据像图片声音不太需要人去抠那些特征了比如那个 CNN 卷积神经网络在图像识别上就特别了
那处理这么复杂的模型,算力肯定又跟不上了吧?没错,算力又成了瓶颈。训练这些模型需要超大的并行计算能力,这时候 CPU 就不太行了,GPU 就是响卡那个单元,甚至专门的 TPU 开始调大量了。图形处理单元和张量处理单元?对。
OpenAI 还发现一个吓人的事,AI 训练对算力的需求增长太快了,2012-2017 年差不多每三个半月就翻一倍。我的天,这速度。是啊,所以就第二层,我们有了能处理大数据,识别模式,做预测的机器。但新问题也来了,像数据隐私,欧盟那个 GDPR 就是例子。嗯,还有呢?
而且这种深度学习在理解常识灵活变通还有创造新东西方面还是差了点意思这就引出了第三层为了解决这些问题对关键是新的算法架构出来了比如谷歌的那个 transformer 核心是注意力灭机制这个好像特别重要非常重要它让模型处理一个词的时候能同时看到句子里的其他相关词
一下子就把机器理解上下文的能力提上去了还有就是生成图片的那个扩散模型这些新架构直接点燃了生成式 AI 的火没错他们一般都是先用海量的没标注的数据做预训练把各种知识啊常识啊都学进去这样一来通用能力就强多了不像以前的模型只能干一件事这里有个核心发现叫标度率 SCR
Scaling Law 说白了就是模型越大数据越多算力越强效果就越好基本是这个意思
这里边我们再总结一下其实我们可以看到的整个人工智能发展的每层塔它所需要的计算范式工程范式甚至科学范式都是不同的第一层就是最简单的像这种计算机以 CPU 为基础的以这种代表了逻辑像 E4SZ 等等的这种算法结构为基础构成了最底层的这样的一个实现第二层是以我们
讲的第四范式为基础就是以应用数据统计预测模型这一层已经出现了像 GPU 这样的新的算力代表数据变成更好了一些输入的内容而它的输出是知识
而 AGI 的第三层其实我们讲到的是以 GPU 算力为基础而应用了扩展的这些法则我们将做预训链的这种模型作为核心的算法基于全人类的数据来解决一些新的知识或者产出问题的一个新的科学范式我们来对外输出智能
所以我们可以看到人工智能的这几层现在体现了不同范式的转换所以如果说我们如果人工智能 AGI 再往上走一层那我们必须还要形成新的一种范式也许目前现在所谓的这一层的范式结构可能还不能满足未来我们更高的要求
所以我们在这里面想给出 AGI 后边建塔的一些后续的原则第一条原则就是新的一层必须出现一种新的范式转换不能在原有的范式上基础上进行演进否则的话你还是停步不前的
这个是我们的第一个原则第二个原则说我们新的一层必须要用原来的塔基作为基础就像我们今天的 AI 要基于计算机一样未来的 AGI 的更高层要基于今天的 AGI 的某些成果来去完成而不能是完全的另起路造我们建另外一座塔从时间难度成本上来说也是不可以支持的
第三个原则就是说我们底层的结构必须要为新的一层来提供我们的挤养或者支撑比如当我们训练新的 AI 的时候我们数据可能不够我们就需要来自于今天的 AI 所提供的一些数据或者想法我们在今天进行强化学习的时候我们也要用目前的 AI 来去做一些判断或者支持
所以我们说也许这种类似哲学或者理论的原则可能并不足以让我们知道这新的一层塔是什么样的但是我们大概知道你如果要去想建这个塔那应该是要遵循这些基本的一个原则的
也许对于不断建塔的人来说这些原则并不重要因为他们就是这么做的但是只有当你站在塔间的时候你有资格你往下去俯视或者总结经验的时候你永远会看到说你一步步来的这些台阶或者这种构建是如何形成的所以这就是我们的第二段的比喻或者叙事逻辑建塔我们就讲完了接下来我们进入第三段的叙事逻辑也就是拼图
1767 年英国一位地图制作者和刻板印刷商人约翰·斯潘顿出于教育目的他将世界地图贴在一块大的木板上然后再沿着国家边界切割成不同的形状从而制作出了世界上第一个拼图
到了 19 世纪末随着拼图生产技术的进步更多样化和复杂的拼图也开始出现包括风景人物艺术作品等各种主题拼图也逐渐成为人们喜闻乐见广受欢迎的一项休闲游戏活动
不管是人工智能技术还是整个科学技术都始源于人类的科学革命科学知识也是随着主流的物理学的出现而不断发展的今天的科学知识就像一个大的拼图 里边用了各种理论的碎片所组成了一幅关于人类理解世界和宇宙的这样的一个图像
牛顿的物理学 麦克斯韦的电磁学 卡诺等人的热力学所有这些科学知识组合一起 我们形成了我们对这个世界的完整的理解事实上达尔文在 19 世纪 50 年代所提出进化论之后他也后期结合了地理学考古学的各种发现相当于为这整个拼图填入更多的细节当然在这个过程中也发现有一些理论被证明是错误的 后来也经过了修改
所以我们可以看到一个新的科学理论的完整性它是随着人类各种知识拼图不断的这种缩小误差然后来把它拼接在一起就像我们一个人在玩拼图游戏的时候随着每一片的这个拼图的拼入那剩下的选择就变得越来越小越来越细致越来越可见了
人工智能就像一张由多个独特且复杂碎片所组成的一个大型的拼图在这个拼图过程中每一颗碎片就代表了 AI 领域的一个可能是特定的分支或者一个技术而且这些技术可能是最终实现 AGI 终极目标所需要的一些不同的组成的部分各种 AI 的算法好像是说让我们今天的计算机
科学家盲人摸象一样有的人摸到了象鼻子以为是蛇有的摸到了象腿以为是棵树所以我们对于 AGI 我们实现的目标来说我们有必要当然去摸清每个局部的部位但是每个局部的部位到底是什么其实我们也不能过早的下结论或者对它进行一个解释当只有我们把这个拼图整个构造完成的时候我们才能发现到底人工智能或者人用 AGI 到底指的是什么
所以换个说法就是说人工智能技术的突破它也有赖于更加通才和全才这样的一个组织或者团队在不同学科之中相互借鉴而形成这样一个整合
那我们目前那一届的拼图到底还差些什么样的丝块呢我们也请到了 NotebookLM 的两位主播里面谈到了关于杨立坤和 Richard Sutton 和 David Serra 他们最近谈到的一些主要的观点现在的 AI 已经这么强了那他们到底还不够在哪呢这拼图还缺点什么这个问得好
现在的模型主要就是靠吃海量的人类写的文本数据长大的对就是看书学习所以他们处理语言特别溜但要说理解我们这个实实在在的物理世界比如最基本的因果关系那就有点力不从心了
就是知其然不知其所欲然可以这么理解他们更像是在模仿重组人已经知道的东西很难真的搞出那种就是说超越人类认知的全新见解而且高质量的人类数据说到底也是有限的对吧有道理勒昆打过一个比方我觉得特形下一个四岁小孩光用眼睛看世界得到的信息量可能比现在训练大模型用的所有文本加起来还多得多
哇,这个对比,嗯,确实挺震撼的。所以光靠文本不够的话,Lacoon 觉得 AI 真正需要,但现在又缺的是啥核心能力?他说的理解物理世界,推理,规划,这些是关键吗?
我记得他有个例子说不用语言也能在脑子里想那个立方体怎么转对对对就是这个意思这就引出了他反复强调的世界模型这个概念世界模型说白了就是 AI 需要自己内部建立一个关于世界是怎么运转的模型或者说表征就像咱们脑子里有基本的物理直觉一样像常识一样的东西对他提出的那个街跑架构就是一种常识
核心想法是让 AI 通过观察来学世界的规律但重点是预测世界状态的抽象表示抽象表示不是像素对不是不是像 SORA 那样去预测视频里每个像素怎么变而是预测根本质的东西比如物体之间的关系行为的后果这些
鲁困觉得真正的理解可能不是来自像素级的模仿而是来自对底层的概念和因果的把握明白了这其实更接近咱们人类甚至动物的虚析方式也更高效这也能联系到心理学里面的系统一系统二思维卡尼曼那个快思考慢思考对系统一就是快速直觉的反应现在大模型挺擅长这个
而系统二呢是慢的需要思考基于模型的推理这正是勒昆认为需要靠世界模型来重点突破的了解了勒昆这边是强调构建 AI 的内功内在的理解力但 Silver 和 Saturn 提出的经验时代听起来好像是另一个方向感觉像是 AI 要掳起袖子自己干活了可以这么理解
他们那个核心观点就是 AI 未来的进步啊主要得靠他自己跟环境去互动去积累自己的经验来学习互动和经验对不再是供被动的消化咱们未给他的那些静态数据了你想想 AlphaZero 下棋或者 AlphaFold 预测蛋白质结构他们都是靠海量的自我实践或者模拟才超越良类的嗯自己跟自己练对
最近那个 AlphaProof 搞数学证明更是典型它跟那个证明系统互动自己生成了上亿条新证明这比一开始人类给的数据多太多了厉害这个所谓的经验时代有几个关键点一个是流逝学习就是 AI 在它整个生命周期里不断学习追求长远目标持续进化二是丰富的交互用更多样的深色器执行器跟真实世界或者模拟世界去互动
三是这个很重要基于环境的奖励基于环境的奖励不是人来打分对 AI 的学习目标直接来自环境的反馈比如模拟实验成功了或者某个物理系统稳定了而不是总靠人说好或不好
这样 AI 才有可能发现咱们人都想不到的解决方案嗯 有道理 这样才能突破人的局限最后一点是扎根现实的规划与推理就是基于他自己建立的事件模型和真实的互动反馈来思考设置可能发展出跟咱们人类不一样的但同样管用的推理方式这里面强化学习就是 RL 让 AI 靠失措和奖励学习的那个方法它的潜力又被重新重视起来了
听下来,LeCun 好像更看重内部的理解模型,Silver 和 Sutton 更强调外部的互动经验,那这两种想法是在争夺 GAI 拼图的下一块吗?还是说,他们其实能互补一起帮咱们把那个大图囧拼出来?问得好。
我觉得更可能的情况是后者是互补你想构建 AI 就好比完成那幅超级复杂的拼图我们需要像 SORA 把 Diffusion 和 Transformer 技术结合起来那样把不同的技术模块比如说强大的感知能力基于模型的推理能力还有通过经验学习的能力都有效地给它拼到一起对需要整合同时也得像物理学发展那样需要站在一个更高的维度来看整个事情
确否这些小瓶块能正确的组合朝着真实理解世界跟世界互动的目标走而不是光能生成一些看起来像那么回事的东西同样我为了总结这一部分我们也总结一些对于拼图的原则
如果玩过拼图游戏的朋友大家一定要知道我们在玩拼图的时候其实有四个原则我们是需要遵循的第一个原则就是需要找到参考的目标也就是说你拼图的时候你得知道你拼的是什么所以盒子上那种带有目标的这种图片是作为这种拼图的参考这个可以帮助
玩家了解不同区域大致的位置或者颜色但是可能一些细节不一定太清楚所以我们必须要了解大概 AGI 的这种轮廓或者样式是什么这样我们才去好去找对应的这种拼图的图形形状所以这是第一个原则我们要找到一些参考目标
那第二个原则呢我们在拼图的时候大家要去分而治之分类分区域的去归纳我们在拼图的时候需要找到类似的颜色或者图形或者纹理的这种拼图我们把它这种局部的这种图块拼到一起也许你还不知道这块小块在整体的大拼图上到底是什么位置但是呢你可以先把局部拼起来这样的话呢我们形成了几个这种区域的时候呢我们再把几个大的区域再拼装到一起
这样的话我们一个区域一个区域的来去完成我们来去形成大的一个拼图所以 AGI 我们可以去分领域的分区域的找到对应的技术突破形成一些解决方案最后再把它拼装到一起
第三个原则叫做横向连接我们在拼图的时候我们进取注意到其实不同的拼块之间的一些细节或者形状是有这种比如颜色是有相似性的你就可以把它们拼接在一起所以我们在过程中我们必须要注意出不同的两个拼块之间到底它们的这种对接的方式或者颜色的相近性到底是什么所以这个是我们需要一个具体的观察的
那第四个原则呢就是我们叫做啊
有远极近的去看也许我们玩家在拼到某一个模块小细看的时候你可能是没有太多问题当然如果我们比如把拼图拿得远一些我们从更高纬度来去俯视这张拼图的时候你就会发现这样的很大的一个问题所以我们不要去在拼图的时候只是去埋头苦干的找细节我们要时不时的站起来去看这样的一个全局
那同时我们在拼图的时候大家一定也还有一个经验就是说我们先去找一些比较简单的图形去拼那这个也是我们人类去容易摘滴水果实的这样一个过程比如你在拼图的时候你会先找到那些直角边你会先去把它作为一个四角拼起来再找那些带有平行的边然后它肯定是作为这个拼图的整个大的边框先去拼然后再去拼中间的复杂的
所以这也是我们人类从这种先一后难的这样的一个过程所以如果我们把 AGA 当做一个更加完整的系统来说那我们就要构造这个系统最优化的一个这样的一个能力那我们在拼图的过程中我们要去在这个过程中逐步
找到那些我们所缺失的这种模块或者空间然后这样的话可以是整个拼图的难度就下降然后逐步找到这个拼图的最优解那好我们三种叙事逻辑就讲完了那最后我们再总结一下
第一个就是选路我们讲的是未来如果我们想要发展成我们想要的通用人工智能技术我们就必须要选择一条正确的路径就像我们在迷宫中探索一样尽管我们可能认为我们大致的路径或者方向是对的但是我们有很多细小的路径需要去探索
如果人类真的到达某种 AGI 的时候那我们应该是在某个确定的所谓的方向上而不会对路径和方向存在太多的争议也就是说必须我们做一些路径的简知那就像我们今天大家都认为图灵计算或者诺依曼架构是认为比较公认的一种计算机的理论是一致的
这第一点那第二点呢就是建塔也就是说当我们所有的技术所形成或者具备一定条件的时候呢我们需要逐步的累积形成新的一层的高塔而在新的一层高塔里面会形成新的所谓的科学范式或者计算范式而这些新的范式呢又要基于底层已有的塔这样的一个结构那如果人类真的到达某种程度的 AGM 那必须会达到这个卡
塔的某一个新的高度而这个新的高度所有的方式和以前是不同的但是它又基于以前的这样的一些输出的结果这就是建塔那第三种呢就是拼图我们在过程中呢实现 AGI 的过程中呢我们需要找到各个不同的碎片然后我们把它局部先拼起来我们先以后男的方式把它们拼成一个人
我们不能专注于细节而要很多时候我们要站起来重新看一个图形的整体的方向以确保说我们大家拼起来是完整的是正确的
那以上所有的这样的不同的工作呢背后呢都需要人来完成也就是说我们选路是要靠科学家来找到对应的路我们建塔呢是需要工程师而拼图呢有时候它是个体力活它需要一定的人才的密度这个时候才能去完成
除了人之外我们要看一看是不是我们有对应的这样的组织我们是不是有正确的研究的品位我们如何去形成高质量的研究的团队同时我们让这些研究成果怎么能够迭代的可持续的交付并且我们还有持续的资金的保障这些都是我们在未来能够把 AGI 向前发展也就是说选到正确的路搭建更高的塔
我拼成完整的图形的这样的一个必须的一些前提保障啊那这样的话呢我们六期节目基本上对于 AGI 第一档的内容呢我们基本就讲完了哈包括 AGI 的定义我们各种深入的理解和各种预测以及我们认为的三种的虚实接下来的逻辑哈
我们在第一阶段完成之后我们第二阶段想给自己挖一个大坑就想聊一聊 AGI 后来的一些人到来之后我们如何赋能人类改变社会以及作为我们劳动者我们自己会何去何从这样的一个更加宏大的话题好我们第一阶段的关于走向 AGI 的节目我们通过六期节目到此就完结了
我们今天的节目就到这里如果你对我们的节目感兴趣的话也希望你能够点赞评论和订阅好我们下期节目再见
红颜上闪烁的点点流影夜空中点点的星那些花香树影随夜色燃成晚风轻轻飘荡心事都不知想那失望也不失望惆怅也不惆怅都在风中飞扬晚风轻轻飘荡随我引波
那幻想都更幻想幻想更幻想就像你还在身旁湖水中鱼儿在缓缓游动穿梭在谁的身影
直到天色未明多少时都不知名晚风轻轻飘荡现实的不知晓那是望而不是望惆怅也不愁沉倒在风中飞扬晚风轻轻飘荡随我绕着浪
那幻想的感 恨着幻想的幻想就像你还在身旁