欢迎来到太快报 我是小爱大家好 我是小 T 很高兴我们又见面了咱们今天先从哪里开始呢咱们先从一篇很有意思的研究聊起标题是语言模型嵌入的共享整体和局部几何这篇论文发现不同语言模型的词嵌入也就是那些代表单词的数字空间竟然有惊人相似的结构简单说就像不同城市的地图虽然细节不同但大陆走向和街区布局却很像
这有点出乎意料我一直以为每个 AI 模型都有自己独特的思维方式结果你告诉我他们其实有点像兄弟姐妹对 就是这个意思研究者分析了像 GPT-2 莱玛 3 这样的模型发现它们的词嵌入在空间上的相对位置很相似比如猫
和狗在不同模型里的方向关系几乎一致更神奇的是他们还发现这些词嵌入并不是杂乱无章地堆在一起而是躺在一个低维的平面上像一张平整的地图低维平面听起来有点抽象能不能给我们打个比方当然可以想象一下你家里的书架上摆满了书每本书代表一个单词如果把这些书摊平在一张大桌子上你会发现有些书比如苹果和香蕉总是挨得很近
而桌子和椅子也总是一组这种规律在不同模型里都存在就像大家不悦而同的用类似的方式整理书架明白了那这种相似性有什么用呢用处可大了研究者发现这种共享的几何结构可以用来遥控模型行为比如他们设计了一种叫引导向量的东西能让模型更友好更少混乱
胡说八道最厉害的是这种引导向量还能跨模型迁移也就是说你在一个小模型上调好遥控器然后直接用在大模型上也能管用这不就像给 AI 装了的通用遥控器吗太酷了那有没有什么特别的应用场景有比如减少 AI 的读信输出或者让他更愿意合作他们在莱玛 3 和 GPT-2 上试了试发现效果很好这说明即使模型大小不同
底层的思维地图还是有共性的未来说不定可以用这种方法把小模型的经验直接传给大模型省时省力听起来像是 AI 界的知识共享那咱们再聊点别的下一项研究是什么接下来是商引导多头奖励聚合这个研究聚焦于怎么让语言模型更安全更符合人类的期待研究者发现在训练 AI 时有些安全规则的评分特别混乱
也就是伤很高这些规则反而不可靠伤是什么意思听起来像物理学里的东西没错伤本来是物理学里的概念表示混乱程度在这里伤高就意味着 AI 对某个安全规则的评分忽高忽低很不稳定比如一个规则是别说脏话如果 AI 对这句话的评分一会儿高一会儿低那就说明这个规则不太靠谱
所以混乱的规则不值得信了就是他们提出了一个叫安克的方法专门给这些高伤规则降权重让 AI 更关注稳定的规则结果呢在安全任务上这个方法比传统的平均加权甚至比直接用大模型当裁判都强这让我想到考试评分如果有个老师给分特别随意我们肯定更相信稳定的评分标准这个方法是不是有点类似
非常贴切 Incore 就像一个聪明的班主任知道哪些评分靠谱哪些的打折扣更厉害的是他不用额外训练直接算一算商就能用简单又高效那他能用在哪些地方呢比如聊天机器人你不希望他随便输出不安全的内容吧用安阔就能让 AI 更聪明的判断哪些回答更符合人类期待而且他还能用在小模型上效果不比大模型差特别实用太好了
接下来是什么研究我想听点视觉相关的那咱们聊聊统一多模态离散扩散简称 unidiscon 这篇论文提出了一种新模型能同时生成文字和图片还能修补破损的内容同时生成文字和图片这听起来像是 AI 版的画家加作家组合
没错 传统的模型大多是自回归型的 像写文章一样从左到右 一个字一个字生成但 Unidisc 用的是离散扩散技术 想象一下你在画画先画个模糊的轮廓然后一点点甜色 最后出来一张清晰的图 这种方法对文字和图片都适用那它比传统方法强在哪里?它有几个大优势 第一 生成质量更高 图片和文字的搭配更自然
第二,它能控制生存的方向比如你想要多样性还是更精确它都能调第三,它还能修补内容比如一张破图加一段残缺的文字它能直接补全修补,这不就像 AI 版的文物修复师吗?
太形象了,他们确实展示了这种能力,比如给一张模糊的图片配上缺失的描述,或者反过来都能灵样的完成。相比之下,传统模型要做到这些的额外训练才行。那它能干啥实用的事?应用场景很多,比如自动生成广告、图文或者修复老照片和手稿。
他们还训练了一个 14 亿参数的大模型效果特别惊艳未来可能在创意设计上有大作为真想看看他生成的作品接下来是什么第四篇是语言模型如何学习事实这篇研究通过一个合成任务观察 AI 怎么记住事实发现它有三个阶段先理解语言然后停滞一阵最后突然开窍停滞一阵 AI 也会卡壳吗对就像学生学新东西先懵懂然后卡住最后一下就懂
那怎么让他少卡壳呢?
他们发现数据分布很关键如果数据不平衡比如常见的事实多罕见的少停滞期会缩短但这也有副作用容易过拟合他们还试了预热策略先让 AI 学小部分数据再扩展到全集效果更好还有什么意外发现吗有他们发现 AI 学会事实的同时也容易胡思万想产生幻觉
比如他可能会自信满满的说错话这说明知识和幻觉可能是双生子很难完全分开这让我想到有时候人记住了东西也会记错细节 AI 也有类似的烦恼对 而且更新知识也不容易他们发现微调 AI 时老知识容易丢新知识学得慢可能因为内部的记忆库被打乱了这给我们提了个醒 AI 的知识管理还有很大改进空间最后一个研究是什么咱们快揭晓
最后一个是 REAREC 知识引导推理增强事实性这篇论文解决的是大模型在复杂问答中的事实性问题他们设计了一个新模型 REAREC 能边推理边查资料确保回答更靠谱边推理边查资料这不像是边做作业边翻书吗
太对了,Rats the Drag 的工作方式就是思考行动观察比如回答谁发明了电灯他会先想一想然后去查资料确认是爱迪生最后给出答案这种迭代过程让他在多条问题上特别强比如爱迪生的助手是谁又干了什么这种连环问题那他比普通模型好在哪?他有两个大亮点第一事实性强因为他随时能查外部知识不全靠自己脑子里的东西
第二他会反思如果发现自己错了会调整方向相比之下普通模型容易想太多绕远路这让我想到有些 AI 一口气说一大堆结果全是错的 Red 是不是更像个冷静思考者完全是他在几个问答测试上都超过了极限模型而且推理步骤更少更高效不过他也有短板比如查资料多了会慢一点适合需要精准答案的场景真是大开眼界咱们今天的探秘就到这儿吧
听众朋友们你们觉得哪项研究最有趣欢迎留言告诉我下期再见下期见拜拜