人工智能AAAI2024M2SD:通过特征空间预构建策略重塑小样本类增量学习个人文章

小样本类增量学习(Few-shotClassIncrementalLearning,FSCIL)代表了机器学习领域中一个高度挑战性的议题,其核心目标在于能够在仅有限的数据支持下识别新类别,同时保留对已学习类别的认知,而无须重新训练整个模型。这一目标在模型需适应新类别的同时使用有限训练数据的情况下尤为艰巨。

针对上述挑战,我们提出了一种创新性策略,称为多重混合自蒸馏(MultipleMixingSelf-Distillation,M2SD)。该策略特别设计了一种双分支架构,旨在有效扩展特征空间,以纳入新的类别。更进一步,我们引入了一种特征增强机制,通过自蒸馏过程将增强的特征反馈给基础网络,从而在引入新类别的同时,显著提升模型的分类性能。训练阶段完成后,系统将仅保留主网络部分,用于对新类别实例进行准确分类,这一策略确保了在不损害模型效率的条件下,实现对新旧类别的高效识别。

小样本类增量学习任务核心面临的挑战是如何同时应对小样本学习中的过拟合问题(Overfitting)以及类增量学习中的灾难性遗忘问题(Catastrophicforgetting),这两个问题相互交织,共同影响模型的学习效率和最终性能。

小样本学习场景下,由于数据极度有限,模型更易学习到样本的特异性,增加了过拟合的风险。引入类增量学习需求时,即模型需不断学习新类别数据,使过拟合问题更加复杂,因模型既要从少量数据中学习新知识,又要保持对旧知识的记忆,这在有限数据情境下易导致新数据过拟合,忽略旧知识的泛化和记忆。同时,类增量学习中的灾难性遗忘问题也特别明显。尝试学习新类别少量数据时,新信息可能干扰存储的旧类别信息,导致先前学习知识的遗忘。因此,即便模型在新类别数据上适应良好,过拟合和灾难性遗忘的双重影响下,其整体性能可能下降,无法保持多类别识别的一致性。

针对以上的挑战,大量现有研究通过在类增量过程中引入更加严格的正则化,致力于微调新模型参数以最小化对原始模型的影响,从而在学习新类知识的同时,最大程度保留旧类知识。然而,与这些传统正则化方法不同的是,FACT[1]理念提出了一种前瞻性的解决方案,即通过为新数据的到来做好准备,类似于软件更新中的向前兼容性,着重于在小样本类增量学习的基础学习阶段(BaseSession)构建一个适用于后续增量学习阶段(IncrementalSessions)的特征空间。受到FACT理念的启发,我们提出了一种创新的方法——多重混合自蒸馏(MultipleMixingSelf-DistillationforFew-shotClass-IncrementalLearning,M2SD),旨在为类增量学习阶段准备一个具有高度可扩展性和包容性的特征空间。整体思想可以参考图-2。

M2SD方法通过利用多尺度特征提取和融合技术,为每个数据实例提取并合成不同尺度的特征,以全面捕捉实例的多维特征。这种特征的综合相较于以往研究中单一尺度的特征,使得特征模块能够更深入地理解实例的多方面特性,进而提高模型的包容性。进一步地,我们引入了一种双分支“虚拟类”机制,以增强特征提取模块的可扩展性。通过对双分支“虚拟类”的优化,模型能够预见并适应潜在的新类别,从而提前为未来可能加入的新类别预留特征空间。这一策略不仅提高了模型对新类别的适应能力,也为持续的类增量学习提供了坚实的基础,确保了模型在面对新旧知识的挑战时的鲁棒性和灵活性。

方法的整体框架如图-3所示。我们提出的方法分为三个关键阶段,其中前两个阶段集中于BaseSession,而第三个阶段则专注于IncrementalSessions。本方法的核心在于第二阶段,它是整个学习过程的关键环节。本文将着重介绍这一阶段的细节和实现,展示其在整个学习框架中扮演的核心角色。

受到以往研究的启发,我们采用了一种创新的方法,通过引入多实例构建来自不同集成视角的“虚拟类”,旨在为未来新类别的加入预留特征空间。在我们的多分支框架中,使用的是Mixup[2]和CutMix[3],以实现不同的目标。Mixup通过对配对实例进行线性插值,生成“虚拟”实例,重点在于创造较大的多样性,这一点对于“虚拟类”的构建至关重要(公式-1)。此方法通过混合不同实例的特征,促进模型学习到更泛化的特征表示,为新类别的接入提供了灵活的特征空间。与Mixup相辅相成,CutMix采用了剪切和粘贴配对图像的方式,更加注重于生成具有现实感的实例。这种方法通过在图像中直接融合不同类别的局部区域,模拟了更加复杂的现实世界场景,从而增强了模型对于真实性的捕捉能力(公式-2)。

通过这种方式,我们确保了模型在处理由Mixup和CutMix等技术生成的复杂“虚拟类”时,能够以一种一致的方式理解和适应这些“虚拟类”的分布。KL散度的使用,不仅帮助模型在“虚拟类”空间中维持分布的一致性,还促进了模型在遇到新的、未知的类别时,能够更加平滑和有效地进行适应和学习。这种方法的引入,进一步提升了我们模型的泛化能力和稳定性,为处理增量学习中的新类别挑战提供了强有力的支持

在我们的研究中,我们主要将基于知识蒸馏的方法与其他领先技术(SOTA)进行了对比分析。我们的实验结果涵盖了三个主要数据集,结果汇总展示在图-1中。这些结果明显表明,我们提出的方法在性能上超越了当前的SOTA方法。具体而言,对于CUB200数据集,我们的方法在各个阶段的平均性能提升超过了2.0%。在CIFAR100数据集上,我们实现了平均超过2.1%的性能提升。特别是在miniImageNet数据集上,我们的方法以平均超过SOTA方法3.2%的显著优势表现最为突出。

在我们的分析中,我们采用了t-SNE[12]来可视化特征空间的分布,确保了两个t-SNE图的距离坐标尺度保持一致。具体地:

通过这种对比,我们能够清楚地展示我们的方法相较于传统基线方法在增量学习任务上的优势,特别是在特征表示和类别分离方面的显著提升。这不仅证明了我们方法的有效性,也强调了其在处理复杂学习任务时的实用价值。在基于特征向量的分析中,我们的方法相较于基线方法实现了显著的性能改善:平均类内距离降低了27%,同时平均类间距离提高了22%。这一结果不仅展示了我们方法在增强模型区分不同类别能力方面的有效性,也突出了其在优化特征表示以促进更好的类别分隔上的优势。通过减少类内差异同时扩大类间差异,我们的方法显著提升了模型的泛化能力和分类性能,证明了其在处理高度挑战性的学习任务中的实用价值和优越性。

为了有效应对小样本类增量学习问题,我们的方法首先引入了双分支虚拟类蒸馏策略,旨在扩展特征空间,以便它能够同时容纳现有的类别及未来可能加入的类别。我们通过数值分析和视觉化手段验证了这一策略的有效性。进一步地,我们采纳了特征增强和自我蒸馏技术,以充分挖掘“虚拟类”特征的潜力并提升特征空间的兼容性。这些技术共同作用,使我们能够构建出适应FSCIL挑战的特征空间。

THE END
1.增量学习方法分类及近两年论文汇总增量学习分类按照近两年的论文情况,增量学习方法可以粗略分为三大类:基于模型结构的方法、基于回放的方法、基于正则化的方法。 基于模型结构的方法随着增量学习不断地对网络结构进行修改。例如对于增量任务增加新的模型结构,这样旧任务可以通过旧的模型权重进行保持,同时新增的模型结构适应了增量任务,从而达到了既适应旧任务,也适应新https://blog.csdn.net/weixin_36474809/article/details/116720597
2.Classifiers论文详解基于持续进化分类器的小样本类别增量学习Few Shot Incremental Learning with Continually Evolved Classifiers论文详解 基于持续进化分类器的小样本类别增量学习CVPR2021,程序员大本营,技术文章内容聚合第一站。https://www.pianshen.com/article/17072584485/
3.万文长字总结“类别增量学习”的前世今生开源工具包然而,我们的人脑却有这种非凡的能力, 能够学习大量不同的任务, 而不会出现任何负面的相互干扰。 持续学习(Continual Learning)算法试图为神经网络实现同样的能力, 并解决灾难性的遗忘问题。 因此, 从本质上讲, 持续学习执行的是对新任务的增量学习(Incremental Learning)。https://www.thepaper.cn/newsDetail_forward_17451573
4.宇航学院赵丹培副教授团队在IEEETPAMI连续发表多项高水平研究论文简介与算法效果 受类脑持续感知模式启发,赵丹培团队从对国画美学的思考出发,提出了一种基于人类认知模式启发的可解释的持续语义分割模型,能够在少样本条件下实现有效的增量学习。基于类脑感知模式中的神经相关性模式的数学建模,构建可解释性强的解耦知识蒸馏策略,通过建立语义不变性和样本相关性的分层蒸馏模型,能够在https://news.buaa.edu.cn/info/1005/63243.htm
5.持续学习算法的研究进展【摘要】:持续学习(又称终身学习)是一类适应场景数据的机器学习算法,具有时序渐进获取、依序及时分类或回归等特征,也是许多真实场景应用AI技术之急需。目前占主导地位的机器学习范式是孤立学习的,并不断从非平稳数据分布中获取增量可用信息通常会导致灾难性遗忘或干扰。本文介绍了持续学习模型及相关知识,总结了在人工神经https://cpfd.cnki.com.cn/Article/CPFDTOTAL-GCKZ202107001259.htm
6.2022年第1期湖南建设人力资源网湖南省※获奖论文※ 基于职教集团背景下的高职“543+N”产教融合 办学模式研究与实践 湖南城建职业技术学院 王柯 摘要:依托职教集团进行集团化办学是解决产教融合、校企合作的有效途径和方式,高职院校如何用好职教集团这一平台, 对于深化办学模式、人才培养模式改革, 提高人才培养质量起着至关重要的作用。文章以湖南城建职https://www.hnjsrcw.com/Magazine/?ID=242
7.多机协同智能发展战略研究丨中国工程科学研究基于云端主动增量学习的群体感知认知模型持续更新方法,实现云 ? 边 ? 端多模态感知数据的广域融合和多模式协同决策。面向复杂多目标实际任务场景,研究无人车基站、多功能传感器和无人机载模块组成的边端智能动态组网方法。搭建虚实结合的应急响应演练仿真环境https://mp.weixin.qq.com/s?__biz=MzI4NjcwODgyOA==&mid=2247487180&idx=1&sn=685b0e0fae34f25de58ec4f11965ecfe&chksm=ebd98bffdcae02e9da61ea6a4c8a8b544e321d6b89b3a9e88a3fd3cdd59962a02505a0264f92&scene=27
8.企业管理的论文15篇(优秀)企业管理的论文15篇(优秀) 在日常学习和工作中,大家对论文都再熟悉不过了吧,论文一般由题名、作者、摘要、关键词、正文、参考文献和附录等部分组成。怎么写论文才能避免踩雷呢?下面是小编帮大家整理的企业管理的论文,欢迎阅读,希望大家能够喜欢。 企业管理的论文1 https://www.fwsir.com/shangwu/html/shangwu_20240528081247_3856654.html
9.管理学论文15篇管理学论文 15篇 在学习和工作的日常里,大家都有写论文的经历,对论文很是熟悉吧,借助论文可以有效提高我们的写作水平。你写论文时总是无从下笔?下面是小编帮大家整理的管理学论文 ,仅供参考,大家一起来看看吧。 管理学论文 1 一、林业经济管理学科出现的问题 https://www.ruiwen.com/lunwen/7185239.html
10.当小样本遇见增量学习,智能如何实现,超详细最新综述来袭!但与人脑不同,传统的AI系统通常需要海量数据才能学到新知识。当面对有限的信息时,这些系统往往显得力不从心。而小样本类增量学习(FSCIL)的出现,就如同给AI领域注入了一剂强心针。它让AI能在只有少数标注样本的情况下,迅速掌握新任务并且不遗忘旧知。 论文下载地址:https://www.cvmart.net/community/detail/8256
11.企业可持续发展问题研究论文(通用9篇)企业可持续发展问题研究论文 篇3 摘要:本研究结合辽宁省大连市农村经济发展以及社会发展的实际,在分析大连农村住宅现状存在问题的原因以及制约因素的基础上,有针对性地提出大连新农村建设的可持续发展思路与对策,以期为提高大连市农村住宅建设质量、改善农民生活环境提供参考。 https://www.yjbys.com/bylw/MBA/57137.html
12.[NatureMachineIntelligence论文简读]三种类型的增量学习论文摘要 从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏一个通用的框架,它们的性能比较困难。为了帮助解决这个问题,作者描述了持续学习的三种基本类型或“场景”:任务增量https://cloud.tencent.com/developer/article/2202902