多 agent 微调方法通过让多个模型协同工作,每个模型承担不同角色(如生成初始答案或评估改进答案),从而提升 AI 模型的性能。这种方法避免了单一模型自我训练时数据单一化和模型固执的问题。实验表明,多 agent 微调在多个推理任务上优于传统单 agent 方法,且能在多次微调中持续提升性能,甚至在未见过的数据集上表现良好。
模型对齐搜索(NAS)通过分析不同神经网络在处理同一问题时的内部表示,帮助理解其内部机制。它使用线性变换让不同网络之间传递信息,从而对齐它们的表示方式。这种方法不仅能对齐整个网络,还能针对特定概念(如技术)进行对齐,深入挖掘神经网络的内在逻辑,而不仅仅是表面的输出相似性。
Soup to go 方法通过在训练过程中动态平均当前模型和之前训练好的模型,缓解灾难性遗忘问题。与传统模型平均不同,它是在训练过程中实时混合模型,类似于边煮边混合汤。实验表明,这种方法在图像分类和跨领域语言任务中有效减轻遗忘,且性能优于其他方法,同时保持高效性,无需存储大量数据。
GEMO 框架通过离散扩散方法生成分子结构,逐步从混乱的分子片段生成合理的分子。与传统方法相比,GEMO 是一种通用框架,能处理多种药物发现任务,且使用非自回归方式并行生成分子序列,显著提高效率。实验表明,GEMO 在分子生成任务中表现优异,为药物研发提供了强大工具。
生成式流网络(GifloNet)通过将生成过程视为序列决策问题,结合约束条件构建模型,有效处理离散和组合对象的建模。它避免了马尔可夫链蒙特卡罗方法的问题,并支持贝叶斯结构学习,从而更准确地推断因果关系。这种方法在探索不同因果模型时能表示不确定性,为因果推断提供了新的工具。
本期“TAI快报”带您深入了解AI领域前沿研究!告别单打独斗,多智能体协同进化如何提升AI性能?如何用因果分析揭示神经网络的秘密?持续学习如何摆脱遗忘魔咒?还有药物发现的AI新思路和图结构学习新方法!更有大型概念模型和小型语言模型颠覆你的认知!本期内容干货满满,带你一览AI最新进展!