微信扫一扫,关注公众号

  • 科技行者

  • 算力行者

见证连接与计算的「力量」

首页 适应再学习:四川大学团队提出的革新性连续学习框架

适应再学习:四川大学团队提出的革新性连续学习框架

2025-06-08 16:44
分享至:
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-
2025-06-08 16:44 科技行者

在人工智能和机器学习领域,一项重要的新突破近期引起了广泛关注。这项由四川大学的陆奥军、四川大学的丁春晖、四川大学的孙亚男(通讯作者)、清华大学的冯涛以及浙江大学的袁杭杰共同完成的研究,于2025年6月4日发布在arXiv上(arXiv:2506.03956v1),标题为"Adapt before Continual Learning"(适应再连续学习)。这项研究提出了一种全新的连续学习方法,旨在解决当今机器学习系统面临的一个关键挑战:如何在学习新知识的同时保留已有知识。

想象一下,如果我们的大脑每学习一项新技能就会忘记之前掌握的技能,那将是多么令人沮丧。例如,当你学习弹钢琴时,突然发现自己忘记了如何骑自行车。这就是人工智能系统经常面临的"灾难性遗忘"问题。连续学习(Continual Learning,简称CL)正是为解决这一问题而生,它致力于使神经网络能够增量获取新知识(可塑性),同时保留现有知识(稳定性)。

在近年来,预训练模型(Pre-trained Models,简称PTMs)在连续学习中变得越来越重要。这些模型就像是已经接受过广泛教育的"大脑",拥有丰富的通用知识。目前主流的方法通常会冻结这些预训练模型的"骨干"部分,以保持其稳定性,同时只训练一些轻量级的、特定任务的模块(例如提示词或适配器)来学习新知识。这就像保留一个知识丰富的顾问(预训练模型),只在需要解决特定问题时向他询问建议(通过轻量级模块)。

然而,这些方法存在一个关键问题:当预训练模型的知识领域与新任务之间存在较大差距时,冻结的预训练模型往往难以为新任务提取有用的特征,导致学习新知识的能力(可塑性)受限。另一方面,如果完全重新训练整个预训练模型来适应每个新任务,又容易导致灾难性遗忘,丢失之前获得的通用知识。

这就像是一个资深物理学家(预训练模型)被要求解决一个复杂的生物学问题。如果他只能用物理学知识(冻结的模型)来思考,可能难以找到最佳解决方案;但如果他完全转行学习生物学(完全重新训练),又可能会逐渐忘记物理学知识。

针对这一挑战,四川大学的研究团队提出了一个创新性的解决方案:在连续学习的核心过程之前,先对预训练模型进行适应性调整(Adapting PTMs before the core CL process,简称ACL)。这种方法像是让那位物理学家在保持物理知识的基础上,通过短期强化学习来获取足够的生物学知识,使他能够更好地解决生物学问题,同时不忘记物理学知识。

一、ACL框架的工作原理

ACL框架的核心理念非常直观:在学习每个新任务之前,先对预训练模型进行短暂的适应调整,使其更好地适应当前任务的数据分布,然后再使用现有的连续学习方法(如提示词调整)进行学习。这个过程分为两个阶段:

首先是"适应阶段"(Adaptation Phase)。在这个阶段,研究团队对预训练模型的权重进行调整,使其能够为当前任务生成更具辨别力的特征。想象成一位教师在讲授新课程前,先花一些时间熟悉课程内容和学生背景,以便更有效地教学。

接下来是"核心学习阶段"(Core Learning Phase)。在这个阶段,适应后的预训练模型被冻结,而分类头部和轻量级模块继续进行微调,以学习特征的分类。这就像教师已经掌握了教学内容,现在专注于帮助学生理解和应用这些内容。

研究团队在理论上证明,通过鼓励模型的输出嵌入向其原始类原型靠近,同时远离其他类原型,可以有效地增强可塑性,同时保持稳定性。这种方法就像教导学生在学习新概念时,既要理解其独特性(与原型靠近),又要明确其与其他概念的区别(与其他原型远离)。

二、适应性调整算法的详细设计

那么,ACL框架是如何实现这种平衡可塑性和稳定性的适应性调整的呢?这里涉及到一些有趣的理论基础和算法设计。

研究团队首先分析了增强可塑性的目标。他们发现,对于同一类的样本,如果能够减小其嵌入表示之间的距离,使它们更加集中或紧密聚集,就能增强模型的辨别能力。这就像在一个派对上,让来自同一个家庭的成员站得更近,这样就能轻松识别出谁和谁是亲戚关系。

但是,仅仅关注可塑性是不够的,还需要考虑如何保持稳定性。研究团队采用了特征蒸馏的方法,通过最小化原始嵌入和适应后嵌入之间的均方误差来促进稳定性。这就像让学生在学习新知识的同时,不时回顾和复习之前学过的内容,以防遗忘。

通过数学推导,研究团队证明,对于最佳稳定性,适应后的嵌入应该向其原始类原型(即该类样本的平均嵌入)靠近。更有趣的是,这种向类原型靠近的方法不仅有利于稳定性,还有助于增强可塑性,因为它减小了同类样本嵌入之间的距离。

然而,仅仅让嵌入向其原始类原型靠近可能还不足以在多类场景中获得最佳特征辨别能力。为解决这个问题,研究团队引入了对比学习的原理,不仅鼓励嵌入向其真实类别的原型靠近,还同时推动它们远离其他、不正确类别的原型。这就像教导学生不仅要理解一个概念是什么,还要明白它不是什么,从而形成更清晰的认知边界。

具体来说,对于每个适应后的嵌入和每个类原型,算法计算一个相似度分数。然后,使用SoftMax函数将这些分数转换为概率分布,训练目标是最大化嵌入与其真实类别原型之间的概率。这种对比训练目标通过最小化交叉熵损失来实现:L = - log o_{i,yi},其中o_{i,yi}是样本i属于其真实类别yi的概率。

这种方法的美妙之处在于,它既增强了模型的可塑性(通过使同类样本的嵌入更加集中),又保持了稳定性(通过向原始类原型靠近),从而在两者之间取得了良好的平衡。

三、实验设置与结果分析

为了验证ACL框架的有效性,研究团队在两个具有显著领域差异的数据集上进行了广泛的实验:ImageNet-R和ImageNet-A。这两个数据集与预训练模型通常使用的ImageNet系列数据集有很大不同,因此代表了现实世界中常见的领域差异挑战。

研究团队将每个数据集平均划分为多个任务,形成两种任务配置:(1) 20个任务,每个任务10个类别(Inc-10);(2) 10个任务,每个任务20个类别(Inc-20)。这样的设置模拟了连续学习中数据以流式方式到达的现实场景。

实验中,研究团队将ACL框架与六种最先进的基于预训练模型的连续学习方法进行了比较:L2P、DualPrompt、RanPAC、FeCAM、SSIAT和MOS。由于ACL被设计为即插即用的组件,他们将其整合到这些基线方法中,以系统地评估其有效性。

实验结果令人印象深刻。在ImageNet-A-Inc20数据集上,集成ACL后,所有基线方法的性能都有显著提升。以平均最优准确率(AOA)衡量的可塑性提高了高达10.41%,以最终准确率(LA)衡量的整体连续学习性能提高了高达7.85%。

更令人惊讶的是,ACL不仅提高了可塑性,还保持了稳定性。研究结果显示,适应过的PTM不仅能更好地学习新任务,还能更好地保留之前学到的知识,这在t-SNE可视化结果中得到了明显体现。

研究团队还进行了消融研究,以深入了解ACL框架中各个组件的重要性。结果表明,对整个预训练模型骨干使用提出的对比损失进行连续适应对于实现最佳性能至关重要。此外,增加适应阶段的训练轮数超过两轮后,性能提升变得微不足道,这表明ACL框架在计算效率方面也有优势。

四、ACL框架的广泛适用性

ACL框架的一个显著优势是其广泛的适用性。实验表明,它不仅能与各种连续学习方法无缝集成,还可以应用于不同类型的预训练模型。

研究团队在ViT-B/16-IN21K(仅在ImageNet21K上预训练的模型)上进行了额外实验,结果显示ACL持续提升了各种连续学习方法的性能,证明了其在不同预训练模型上的通用性。

更值得注意的是,尽管该研究主要关注视觉模型,但其中提出的见解也可能适用于视觉-语言模型,如CLIP。实验结果表明,ACL显著提升了Continual CLIP的连续学习性能,展示了该框架在视觉-语言模型领域的应用潜力。

这种广泛的适用性使ACL成为一个非常实用的解决方案,可以帮助研究人员和实践者在各种连续学习场景中提高模型性能。

五、研究意义与未来展望

这项研究的意义不仅限于提出一个新的连续学习框架,更在于它重新审视了基于预训练模型的连续学习中的稳定性-可塑性平衡问题。传统观点认为,保持稳定性需要牺牲可塑性,反之亦然。然而,ACL框架证明,通过精心设计的适应机制,可以同时增强可塑性和保持稳定性,从而取得更好的整体性能。

从更广泛的角度来看,这项研究为如何更有效地利用预训练模型应对变化环境的挑战提供了新的思路。在当今数据不断演化的世界中,模型需要不断适应新的数据分布,同时保持对先前数据的良好表现。ACL框架为解决这一挑战提供了一种简单而有效的方法。

未来的研究方向可能包括探索更有效或高效的适应算法,以进一步提高ACL框架的性能和适用性。此外,将ACL框架扩展到更多类型的模型和任务,如自然语言处理或多模态学习,也是一个有前景的方向。

总的来说,这项研究为连续学习领域注入了新的活力,为解决人工智能系统中的灾难性遗忘问题提供了一条有前途的路径。随着人工智能技术的不断发展,像ACL这样的创新方法将有助于构建更加智能、灵活和可持续的学习系统,使它们能够像人类一样,在保留已有知识的同时,不断学习和适应新知识。

分享至
0赞

好文章,需要你的鼓励

推荐文章
----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.- ----..---.-...-/--...-.-......./-...-....-..--../-............-.-