类别增量学习研究进展和性能评价

尊敬的读者、作者、审稿人,关于本刊的投稿、审稿、编辑和出版的任何问题,您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

类别增量学习研究进展和性能评价

ZHUFeiPh.D.candidateattheInstituteofAutomation,ChineseAcademyofSciences.HereceivedhisbachelordegreefromTsinghuain2018.Hisresearchinterestcoverspatternrecognitionandmachinelearning

ZHANGXu-YaoAssociateprofessorattheInstituteofAutomation,ChineseAcademyofSciences.HereceivedhisbachelordegreefromWuhanUniversityin2008andPh.D.degreefromtheUniversityofChineseAcademyofSciencesin2013.Hisresearchinterestcoverspatternrecognition,machinelearning,andhandwritingrecognition

LIUCheng-LinProfessorattheInstituteofAutomation,ChineseAcademyofSciences.Hisresearchinterestcoversimageprocessing,patternrecognition,machinelearning,andespeciallytheapplicationstodocumentanalysisandrecognition.Correspondingauthorofthispaper

图1真实开放环境中机器学习系统的工作流程

Fig.1Illustrationsofthelifecycleofamachinelearningsystemintheopen-worldapplications

Fig.2Illustrationsoftaskandclassincrementallearning(Wefocusonclassincrementallearning)

图3类别增量学习方法分类图

Fig.3Theclassificationofclassincrementallearningmethods

图5类别增量学习中的知识蒸馏策略

Fig.5Knowledgedistillationstrategiesinclassincrementallearning

图7特征蒸馏减少特征分布漂移

Fig.7Featuredistillationlossalleviatesfeaturedistributiondeviation

图9增量学习中样本关系知识蒸馏的不同策略

Fig.9Illustrationofrelationknowledgedistillationstrategiesinclassincrementallearning

图10基于数据回放的类别增量学习方法主要包括(a)真实数据回放;(b)生成数据回放

Fig.10Datareplaybasedclassincrementallearningmethodsinclude(a)realdatareplayand;(b)generativedatareplay

图11启发式旧类别采样策略示意图

Fig.11Illustrationofheuristicsamplingstrategies

图13基于梯度匹配算法的数据集提炼方法示意图

Fig.13Illustrationofgradientmatchingalgorithmfordatasetcondensation

图18PASS方法示意图

Fig.18IllustrationofPASS

图20两种特征生成方法示意图

Fig.20Illustrationoftwotypesfeaturegenerationstrategies

图24代表性类别增量学习方法在CIFAR-100和ImageNet-Sub数据集上的性能比较.数据回放方法为每个旧类别保存10个样本.从左到右依次为5,10和25阶段增量学习设定

Fig.24Comparisonsofthestep-wiseincrementalaccuraciesonCIFAR-100andImageNet-Subunderthreedifferentsettings:5,10,25incrementalphases.10samplesaresavedforeacholdclassindatareplaybasedmethods

表1不同增量学习设定对比

Table1Comparisonofincrementallearningsettings

表2类别增量学习评价指标

Table2Evaluationmetricsofclassincrementallearning

表3类别增量学习中的知识蒸馏方法总结

Table3Summarizationofknowledegedistillationstrategiesinclassincrementallearning

表4基于数据回放的类别增量学习中的新旧类别偏差校准方法总结

Table4Summarizationofbiascalibrationstrategiesindatareplaybasedclassincrementallearning

表5类别增量学习公用数据集的数量信息

Table5Quantitativeinformationofclassincrementallearningpublicdatasets

表6基于样本回放的方法在CIFAR-100,ImageNet-Sub和ImageNet-Full上的平均增量准确率(%)比较

Table6Comparisonsofaverageincrementalaccuracies(%)onCIFAR-100,ImageNet-Sub,andImageNet-Full

表7基于样本回放的方法在CIFAR-100,ImageNet-Sub和ImageNet-Full上的遗忘率(%)比较

Table7Comparisonsofaverageforgetting(%)onCIFAR-100,ImageNet-Sub,andImageNet-Full

表8非样本回放类别增量学习方法平均增量准确率(%)比较

Table8Comparisonsofaverageincrementalaccuracies(%)ofnon-exemplarbasedclassincrementallearningmethods

表9类别增量学习方法对比与总结

Table9Comparisonandsummaryofclassincrementallearningmethods

THE END
1.终生学习(LLL):知识保留迁移与模型拓展终生学习(增量学习)概述 概念 终生学习(Life Long Learning,LLL),又称为Continuous Learning、Never Ending Learning、Incremental Learning,就是机器可以不断学习新知识,而不会忘记学过的知识。LLL需要解决三个问题:Knowledge Retention、Knowledge Transfer、ModelExpansion。本文内容总结自李宏毅的PPT。https://blog.csdn.net/qq_37394634/article/details/119818409
2.机器学习增量学习(IncrementalLearning)小综述模型可以从新任务和新数据中持续学习新知识,当新任务在不同时间出现,它都是可训练的。 由于增量学习问题的复杂性和挑战的多样性,人们通常只讨论特定设置下的增量学习。以一个图像分类模型为例,我们希望模型具有增量学习新的图像和新的类别的能力,但前者更多地与迁移学习有关,因此任务增量学习(Task-incremental Learninghttps://blog.51cto.com/u_15671528/8086369
3.NatureMachineIntelligence三种类型的增量学习今天给大家带来一篇剑桥大学有关增量学习的文章。从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏共同的框架,很难比较它们的性能。为了解决这个问题,我们描述了持续学习的三种https://cloud.tencent.com/developer/article/2202907
4.持续学习/终身学习/增量学习(CVPR2024合集(2)2024.10.20)文章通过在三个不同设置的数据集上的广泛实验,展示了FCS方法相对于现有最先进的类增量学习方法的优越性。代码已在GitHub上提供。 此外,文章还讨论了以下几个关键点: - 介绍了非范例类增量学习(NECIL)的背景和挑战。 - 讨论了现有方法的局限性,尤其是在模型持续更新时,旧类的保留原型会偏离新模型中的特征空间,以https://www.bilibili.com/read/cv39507533
5.机器学习之增量训练未来,随着硬件和算法的不断发展,增量训练将会变得更加普遍和成熟。深度学习领域的研究也将着重解决增量训练中的各种挑战,推动机器学习向持续学习的方向发展。 增量训练技术为机器学习模型的持续学习提供了强大的工具。 它使得模型能够更好地适应动态变化。https://www.clzg.cn/article/570990.html
6.轻量级持续学习:0.6%额外参数把旧模型重编程到新任务算法卷积持续学习的目的是模仿人类在连续任务中持续积累知识的能力,其主要挑战是在持续学习新任务后如何保持对以前所学任务的表现,即避免灾难性遗忘(catastrophic forgetting)。持续学习和多任务学习(multi-task learning)的区别在于:后者在同一时间可以得到所有任务,模型可以同时学习所有任务;而在持续学习中任务 一个一个出现,模型https://www.163.com/dy/article/IGUNDED00511AQHO.html
7.什么是增量学习增量学习的特点增量学习是一种机器学习范式,允许模型逐步从新数据中学习并更新,而无需从头开始重新训练,以适应数据流的连续变化。https://www.amazonaws.cn/en/knowledge/what-is-incremental-learning/
8.王鹏中国科学院大学基于大量样本的视觉深度网络已在诸多领域获得了成功应用,机器人视觉由于其搭载平台、应用场景等特殊性,亟待研究面向小样本、轻量化、先验嵌入、多模态信息融合,具备增量和持续学习能力的新型深度学习模型。 5、类脑与神经拟态机器人 以机器人为载体,借鉴生物神经机制,对类脑感知、认知、决策、控制等计算模型进行验证和https://people.ucas.ac.cn/~wangpengcasia
9.信息学院在计算机视觉领域取得多项重要成果(第三期)类别增量学习要求模型能够在不遗忘旧概念的基础上不断理解新概念, 这也是迈向自适应视觉智能的关键一步。具体来说,需要考虑如何在增量学习中仅记忆有限数据点的情况下实现更好的模型稳定性与可塑性的平衡。为了达到这一目的,研究人员提出了一个新颖的基于可动态扩展表示的两阶段学习方向。在三个常用类别增量学习基准包https://sist.shanghaitech.edu.cn/2021/0506/c2858a63430/page.htm
10.持续学习平台,持续探索创新,逸思长天旗下全自动持续学习工具长天ML持续学习平台 逸思长天(南京)数字智能科技有限公司旗下长天ML持续学习平台,支持更高程度的自动化机器学习和持续学习能力。用户仅需提供训练数据,无需具备任何机器学习知识即可构建机器学习模型,并且随数据变化自动更新,让普通人的AI建模能力达到专家水平。加速各行各业智能化场景探索与落地。 登录SaaS版本私有化部https://www.changtianml.com/