We're sunsetting PodQuest on 2025-07-28. Thank you for your support!
Export Podcast Subscriptions
cover of episode AI的“一招鲜”:如何只训练一次,就让模型十项全能?

AI的“一招鲜”:如何只训练一次,就让模型十项全能?

2025/6/17
logo of podcast AI可可AI生活

AI可可AI生活

AI Deep Dive AI Chapters Transcript
Topics
主持人:目前的大语言模型虽然知识渊博,但缺乏针对特定任务的专业能力,需要进行微调。传统的微调方法成本高昂、不够灵活且更新速度慢,因此行业需要一种更高效的方法来训练模型。 主持人:最近的研究提出了一种新的范式,即多样本上下文微调(Many-shot In-Context Fine-Tuning),它通过提供大量的样本,让模型学习通用规律,从而实现“精装修一次,适应所有户型”的效果。这种方法的核心在于“研码所有目标”,即一次性将大量样本丢给模型,并遮盖住所有答案,让模型去预测,从而迫使模型学习样本之间的通用规律。 主持人:这种方法具有显著的优势。首先,它能够实现一通百通,不再需要为每个任务都训练一个专家模型。其次,它能够快速响应新任务,只需少量样本即可高质量地完成工作。最后,通过这种方式训练出的模型,其性能能够逼近专家模型。这种方法的核心在于提升模型的学习能力,而不是简单地增加知识储备,这是一种通往通用人工智能的更聪明的捷径。我认为这种方法代表了AI协作的未来,它更优雅、更灵活,也更高效。

Deep Dive

Shownotes Transcript

朋友们咱们今天聊一个所有跟 AI 打交道的人都会遇到的头疼事现在的大语言模型比如我们熟知的那些是不是特别像一个刚毕业的天才大学生他博览全书什么都懂一点知识渊博但问题是你把他招进公司想让他干点具体的活比如专门写影像文案或者当个法律助理他就有点抓瞎了怎么办

过去的主流方法叫做微调 Find Tuning 这就像给这个天才大学生搞港钱培训让他把你公司过去所有的营销文案都学习一遍把他训练成一个营销专家这个方法效果确实好他很快就上手了写出来的文案有模有样但你马上就会发现三个巨大的麻烦第一成本高为每个岗位都专门培训一个专家时间和金钱成本都不得了第二不灵活市场部训练好的专家

你让他去法务部帮忙他干不了你得为每个任务都维护一个专家模型家里孩子太多管不过来第三更新换代快好不容易把这个大学生培养好了外面又出了一个更聪明更厉害的新一代模型你说你该怎么办把所有的港钱培训再做一遍这简直是个无底洞

所以整个行业都在寻找一个更聪明的方法有没有可能我们不去培训一堆专才而是直接打造一个通才一个超级学习者呢最近一篇 You only fine-tune onceMany short in contextFine-tuning for large language model 的文文就给了我们一个极具启发性的答案

他的核心思想翻译成大白话就是你只需要精装修一次就能适应所有户型这篇论文提出了一个叫《多样本上下文微调》

也就是 Many Short In-Context Fine Tuning 简称 Many ICL 的新范式它到底聪明在哪呢我们先说说过去另一种偷懒的办法叫做上下文学习 In-Context Learning 这就像你不对新员工搞系统培训而是直接扔给他几个范例说小王你看这是我们之前的三分报告你照着这个样子把第四分也写了这个方法快是快

但通常效果不好尤其是任务稍微复杂点新人就很容易跑偏这就是少样本 FuShot 学习的局限

而这篇论文的思路是既然给几个样本效果不好那我一次性给你几百个甚至上千个样本让你学个够这总行了吧这就叫多样本 Many Short 它把模型的临时记忆也就是我们通常说的上下文窗口用海量的粒子给塞满这就像不是给员工看三份报告而是把过去五年所有的优秀报告都堆在他面前让他一次看个够在海量信息的浸泡下他自然就能领悟其中的道

你可能会说这不就是简单的增加例子数量吗这谁想不到别急真正的杀手锏在于它的训练方法过去我们训练模型是给它看了 99 个例子和答案后让它去预测第 100 个例子的答案而这篇论文提出一个绝妙的招数叫研码所有目标 Mask all targets 这是什么意思呢它把上千个问题和答案组成的样本对一次性丢给模型然后把所有答案都给正确

遮盖住让模型去一次性地预测出所有被遮住的答案这个小小的改动简直是神来之笔这相当于把每一个样本都从参考资料变成了随堂测验模型为了答对所有的题目就必须拼命地去学习和归纳所有样本之间隐藏的通用规律和模式它的学习效率就被压榨到了极致这么做带来了什么革命性的好处呢第一

一通百通我们不再需要为营销法务客服等各个任务都训练一个专家模型我们只需要用这个方法把一个基础模型训练成超级学习者这个超级学习者本身不是任何领域的专家但他拥有了超强的看样学样的能力第二急速响应当遇到一个全新的他从未见过的任务时比如分析用户评论的情绪你不需要再搞什么劳民伤财的微调了你只需要把几百个评论情绪的例子扔给他

它就能在几秒内领悟这个新任务的精髓然后高质量地完成工作这大大降低了 AI 应用的门槛和成本第三性能逼近专家

最关键的是通过这种方式调教出来的超级学习者在处理具体任务时他的表现已经非常接近那些经过专门港前培训的专家模型了他几乎完美地结合了专才的深度和通才的广度所以你看这篇论文的启发是什么他告诉我们人工智能的进化路径可能不只是让模型本身变得越来越大知识越来越多更聪明的路径是提升它的学习能力

与其给一个人脑子里塞满无数的知识点不如教会他一套高效的学习方法

这篇论文的思路就是从受人以鱼转向了受人以鱼它不再执着于打造一个固化的什么都懂的博士而是致力于打造一个瞬间适应任何新环境新任务的超级学霸这种只训练一次就能应对万变的思路不仅极大的提升了效率降低了成本更重要的是它为我们展现了一种更优雅更灵活的与 AI 协作的未来这可能就是通往通用人工智能的一条更聪明的捷径