大家好 欢迎收听太快报 我是小爱大家好 我是小 T 欢迎大家收听咱们的新一期节目今天我们有不少激动人心的内容要分享我们会聊到如何从人类大脑的运作方式中汲取灵感打造更会思考的 AI 模型
还会探讨 AI 如何在医疗诊断中超越人类医生另外还有一些关于 AI 背后数学原理和硬件优势的深刻洞见可以说这期节目既有技术突破也有理论创新绝对值得期待听起来真是内容满满那我们就从第一个话题开始吧听说有一项研究提出了一种受大脑启发的模型能够在复杂的推理任务上完胜那些体型庞大的语言模型小 T 能给我们讲讲这是怎么回事吗
当然可以这项研究提出了一种叫做层级推理模型的新架构简单来说它模仿了人类大脑中快思慢想的机制想象一下我们在解决问题时脑子里会有一个大方向的规划比如决定先做什么后做什么这是慢想同时还有快速的细节计算比如一步步推导
具体答案这是快思这个模型有两个部分一个高层模块负责慢速的抽象规划另一个低层模块负责快速的具体计算两者配合能在时间维度上展开非常深度的思考就像下棋时能想到很多不知后的情况这听起来很像我们人类思考的方式
那它具体表现如何呢表现非常惊艳这个模型只有 2700 万参数相当于很多大模型的零头而且是用非常少的数据从头训练的但在像数读和迷宫这种需要深度逻辑推理的任务上
它几乎达到了完美的准确率而很多大模型在这些任务上的表现是零分更厉害的是在一个测试通用人工智能能力的基准任务上它也大幅超越了那些参数多得多的模型这真是小身材大能量为什么它能做到这一点呢
关键在于计算深度现在的很多大模型虽然参数多但他们的计算过程其实是浅层的就像一次性想完所有事情而这个新模型通过循环计算相当于反复思考不断调整策略所以能处理更复杂的问题这也告诉我们 AI 的智能可能不在于模型有多大
而在于它能不能像人一样深思熟虑就是很启发人那未来这种模型能用在哪些地方呢前景很广阔比如在需要复杂决策的场景像自动驾驶 机器人导航甚至是科学研究中的假设推导都可能用到这种深度推理能力不过目前它主要在结构化任务上表现突出如何与语言理解等更广泛的能力结合还有待探索好 期待未来有更多进展
接下来我们换个领域聊聊 AI 在医疗中的应用有一项研究似乎让 AI 在诊断上超过了人类医生小 T 能不能给我们讲讲这项研究确实令人印象深刻他提出了一个序贯诊断基准模拟真实临床环境
让 AI 像医生一样一步步询问病史做检查而不是像过去那样直接给出一堆信息让 AI 猜答案更厉害的是他们还设计了一个系统相当于一个虚拟的医生专家团队里面有不同的角色比如提出假设的医生质疑假设的医生还有控制成本的医生这个系统结合最新的大模型在诊断准确率上达到了 8%
是经验丰富医生的四倍同时成本还降低了 20%到 70%这真是太惊人了 AI 是怎么做到比医生还厉害的其实 AI 并不是单个超级医生而是像一个团队能同时从多个角度分析问题比如它会提出多种可能的病因
然后逐一验证还会考虑检查的性价比这种结构化的思考方式避免了人类医生可能有的思维定式或遗漏而且 AI 能瞬间整合大量医学知识这是单个医生很难做到的那会不会有一天 AI 完全取代医生呢
这个问题很有争议一方面 AI 在诊断效率和准确性上的潜力巨大尤其是在医疗资源匮乏的地区可能极大改善医疗可及性另一方面医疗不仅仅是诊断还涉及与患者的沟通伦理决策等复杂因素这些是 AI 目前无法完全替代的
我认为未来 AI 更可能成为医生的超级助手,帮助他们做出更明智的决策,而不是完全取代。说的有道理,AI 和人类协作可能是更好的方向。接下来我们聊一个更有趣的话题,听说 AI 还能预测大型系统的性能,比如谷歌的计算集群,这是怎么实现的呢?
对这项研究提出了一种文本到文本回归的方法简单来说就是用一个小型 AI 模型直接读取系统的配置文件和日志这些文本信息然后预测出系统的性能指标比如资源使用效率想象一下就像让 AI 读懂一堆复杂的说明书然后告诉你这台机器能跑多快结果非常惊人这个模型只有 6000 万参数却能达到近乎完美的预测精度比传统方法好上百倍这听起来
听起来有点不可思议为什么它能这么精准呢关键在于它保留了信息的完整性传统方法需要把这些复杂数据简化成表格过程中会丢失很多细节而这个新方法让 AI 直接看原始文本相当于给了它一双更锐利的眼睛能捕捉到更多隐藏的规律这也提醒我们 AI 的强大往往来自数据的质量和完整性而不是单纯靠模型大小那这种技术能用在其他地方吗
当然可以,比如预测服务器的负载优化与计算资源,甚至在工业生产中预测设备故障,都可能用到这种方法。不过,目前它主要在结构化数据上表现突出,如何处理更随意、更杂乱的数据,还需要进一步研究。
好 接下来我们进入一个更理论的话题有一项研究试图解释为什么 AI 能从数据中发现规则和逻辑小 T 能不能用简单的方式给我们解释一下这项研究的核心问题是 AI 本质上是一堆数字和计算怎么能从这些连续的运算中跳出像数学公式那样的离散规则呢研究者用了一个很抽象的数学工具把
AI 的学习过程想象成一种流动的不断变化的概率分布他们发现在某些条件下 AI 的学习会自动简化问题把复杂的计算拆成一个个小部分去解决最终坍缩成一种有结构的像规则一样的答案这就像是大脑从混乱的想法中提炼出清晰的逻辑这听起来很深奥但也很有意思
也就是说 AI 其实是在自己发明规则可以这么理解它不是真的在发明而是通过大量数据和计算找到隐藏在数据背后的规律这为我们设计更智能的 AI 提供了启示如果能在模型中加入一些数学上的对称性或约束可能会更快地帮助 AI 发现这些规则明白了
最后一个话题听说现在最火的 Transformer 模型其实和另一种模型有深层联系这是怎么回事对 这项研究揭示了一个很有趣的观点 Transformer 也就是现在很多语言模型的核心架构其实在数学上等价于一种叫做图神经网络的模型简单来说 Transformer 就像在一个所有人与所有人相连的网络上工作每句话里的每个词都能直接看到其他所有词
而图神经网络通常只关注局部连接比如只看邻居之间的关系更有意思的是研究者指出 Transformer 之所以这么成功不只是因为它的设计好还因为它的计算方式非常适合现在的硬件比如图形处理器能发挥出最大的效率这有点像天时地利人和
那这个发现对未来 AI 发展有什么影响呢影响很大他告诉我们模型的成功不只是算法问题硬件的支持也至关重要未来设计新模型时可能需要更多考虑怎么和硬件配合另外这也启发了两
我们下期节目再见下期见拜拜