AAAI2024针对存储受限在线持续学习的流数据总结方法算法样本实验数据流大模型

在这一工作中,我们提出了一个流数据总结方法,以提升基于重放的在线持续学习方法中memory的信息量。通过将流中的信息进行整合,总结样本相比于原始样本对于原始数据分布更具有代表性。在较小的额外计算开销下,SSD帮助显著提升了重放的效果,尤其是在memory空间受限时。该方法的有效性启发后续的工作为构建memory设计更好的方法。

持续学习(ContinualLearning,CL)的目标是在一个任务序列中持续地累积知识。但由于对过去所有任务的数据进行存储以及微调(fine-tuning)不论对存储还是计算资源都是不现实的,持续学习面临着对过去知识的灾难性遗忘(CatastrophicForgetting)问题。基于记忆重放(MemoryReplay)的方法维护一个较小的空间存储过去任务的知识,并在训练当前任务时混合过去的数据。通过对过去知识的直接接触,记忆重放方法在较小的额外资源消耗下取得了在持续学习任务上稳定的性能提升。过去已经有很多工作设计了给定memory时更好的训练方法,但memory中的样本所包含的信息量却一直没有得到充分的研究。

当存储空间非常受限时,memory中所存储的每个样本所包含的信息量都非常重要。我们提出,仅使用少量的原始样本,存储空间并没有得到充分的利用。因此,我们在这篇工作中提出了一个全新的流数据总结方法(SummarizingStreamData,SSD)。如图所示,我们将在线持续学习中的数据流进行总结,得到一些富含信息量的总结样本(SummarizedSamples)。这些样本相比同等数量的原始图片对整体原始数据分布更具有代表性,从而大幅提升了记忆重放的效果。在有限的额外计算量下,流数据总结取得了在多个在线持续学习任务上稳定的性能提升。

二、流数据总结方法2.1在线类别增量持续学习任务

持续学习是一个在减少对过去知识遗忘的前提下持续学习新的任务的方法。持续学习可以根据任务划分方式分为任务增量学习和类别增量学习。其中,类别增量学习(task-incremental)提供了任务编号,根据不同的任务编号可以使用不同的神经网络;而类别增量学习(class-incremental)则不提供任务编号,且在不同的任务中数据的类别没有重叠。

对于更普遍的离线持续学习,算法可以在每个任务上进行多轮微调达到收敛。但是在现实场景中,我们往往不知道不同任务的边界,数据往往是以流的形式进行获取。因此,在线持续学习就是一种模拟现实场景的更实用的任务。其中,每个数据都只会流过一次,并且不会有任务编号提供。本文所研究的就是最具挑战性的在线类别增量持续学习任务(onlineclass-incrementalcontinuallearning)。

2.2流数据总结

我们提出流数据总结方法以增加memory中存储的样本的信息量,从而达成对空间更好的利用。方法的流程如上图所示。

2.2.1DynamicMemory

首先,我们设计了一个dynamicmemory以同时包含总结样本和原始样本。当数据流带来新的类别时,memory中指定数量的空间会由这一新类别的图像初始化。此后,这些位置的图像将会固定,只由总结过程进行更新而不会被其他图像直接替换。memory中的其他未初始化位置会按照正常的持续学习方法使用原始图像进行随机替换。这样,memory中的空间可以被充分地利用。

2.2.2数据总结

流数据总结的主要目的是增加样本的信息量,以减少有限数量的样本与原始数据分布之间的差异。因此,我们使用与原始数据之间的训练梯度距离作为总结样本更新的损失函数:

其中,M代表memory,B代表mini-batch,D代表距离度量函数。

2.3过去辅助总结

除了训练梯度之外,我们提出对在持续学习中积累的知识进行更好的利用,来帮助当前任务的信息总结。

2.3.1总结模型训练

由于训练梯度的计算依赖于一个特定的模型结构,在实际实现中,这一模型往往会同步进行更新以提供更丰富的梯度监督信号。对于持续学习,在整个训练过程中类别数并不是固定的。因此,在新类别加入到数据流中时,往往涉及到模型的重新初始化。如果只将模型在当前任务的数据上进行更新,得到的训练梯度将会失去过去知识的信息。因此,我们提出将memory中包含的过去任务的真实图像也加入到总结模型的训练中,帮助模型建立更好的决策边界。

2.3.2关系匹配

我们将过去的总结样本提取的特征作为锚点,约束当前正在进行总结的样本和真实样本对这些锚点有一致的关系:

\代表了从前者中除去后者剩下的部分。关系匹配有助于在memory中建立更好的总结样本整体分布。整体的训练损失函数由训练梯度和关系的匹配组成:

三、实验结果

我们在多个在线持续学习benchmark上进行了实验。上图展示的是memory容量为100时在CIFAR-100上的持续学习平均精度。当容量受限时,原始图像所能携带的信息量是非常有限的。我们提出的SSD方法大幅提升了memory中的信息丰富程度,从而以较少的额外训练开销显著提升了持续学习的性能。下表中展示了在更多设置中的实验结果:

为了更好地说明我们方法的有效性,我们将总结前后的样本对比可视化展示如下:

一个可以观察到的普遍规律是总结样本相比原始样本具有更丰富的颜色信息。对于第一排中的兰花类别,初始化的样本是黄色的,但是实际更多的数据是粉色的。通过将图像中的黄色部分转换为粉色,总结图像一方面纠正了bias,另一方面保留了多样性。对于第二排和第三排的自行车和罐头类别,总结给图像带来了更丰富的结构和纹理信息。这些总结样本相比原始样本包含了更加丰富的信息,从而帮助达成了更好的记忆重放效果。

四、结论

IllustrationFromIconScoutByDelesignGraphics

-TheEnd-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

投稿内容

//前沿资讯解说/心得经历讲述//

投稿须知

投稿方式

发送邮件到

chenhongyuan@thejiangmen.com

关于我“门”

将门是一家以专注于数智核心科技领域的新型创投机构,也是北京市标杆型孵化器。公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

THE END
1.创业过程中如何不断学习和成长摘要:本文章从创业认知与心态、团队建设、市场分析、产品开发与迭代、市场营销策略、财务管理与资金筹集、法律与合规、领导力提升、创新思维与持续学习、创业过程中的挑战与应对以及成功创业案例等多个方面,详细探讨了创业过程中如何不断学习和成长。文章旨在为创业者提供一套系统的学习和成长方法,帮助他们在创业道路上取https://blog.csdn.net/universsky2015/article/details/144320322
2.大模型「终生学习连续学习增量学习」最新综述!!!分享一篇大语言模型的终生学习|连续学习|增量学习(Lifelong Learning | Continual Learning | Incremental Learning)的最新综述!扩展自「机器之心」Arxiv专栏:整合 200 多项相关研究,大模型「终生学习」最新…https://zhuanlan.zhihu.com/p/3352669117
3.NatureMachineIntelligence三种类型的增量学习今天给大家带来一篇剑桥大学有关增量学习的文章。从非平稳的数据流中渐进地学习新信息,被称为“持续学习”,是自然智能的一个关键特征,但对深度神经网络来说是一个具有挑战性的问题。近年来,许多用于持续学习的深度学习方法被提出,但由于缺乏共同的框架,很难比较它们的性能。为了解决这个问题,我们描述了持续学习的三种https://cloud.tencent.com/developer/article/2202907
4.万文长字总结“类别增量学习”的前世今生开源工具包然而,我们的人脑却有这种非凡的能力, 能够学习大量不同的任务, 而不会出现任何负面的相互干扰。 持续学习(Continual Learning)算法试图为神经网络实现同样的能力, 并解决灾难性的遗忘问题。 因此, 从本质上讲, 持续学习执行的是对新任务的增量学习(Incremental Learning)。https://www.thepaper.cn/newsDetail_forward_17451573
5.怎么使LLama3模型具备持续学习和自我修正的能力问答要使LLama3模型具备持续学习和自我修正的能力,可以采取以下几种方法:1. 增量学习:通过不断输入新的数据和信息,让模型持续学习和更新自己的知识库,以适应不断变化的环境和需求。2. 强化学习https://www.yisu.com/ask/76731041.html
6.一文概述联邦持续学习最新研究进展(2)简介:一文概述联邦持续学习最新研究进展 3、Federated Class Incremental Learning 3.1 本地灾难性遗忘补偿 通过在分散的客户端上进行数据私有的协作训练,联邦学习吸引了越来越多的关注。然而,大多数现有的方法假设整体框架的对象类别是固定的。这使得全局模型在现实世界的场景中遭受了严重的灾难性遗忘,因为本地客户端经常https://developer.aliyun.com/article/1263653
7.学习“把党纪学习教育成果持续转化为推动高质量发展的强大动力中共中央总书记、国家主席、中央军委主席习近平近日作出重要指示强调,党纪学习教育取得积极成效,要巩固深化党纪学习教育成果,坚持融入日常、抓在经常,把党纪学习教育成果持续转化为推动高质量发展的强大动力。要善始善终抓好党纪学习教育任务落实,抓好党纪学习教育收尾工作。要常态化推进学纪知纪明纪守纪,建立经常性和集中性https://www.meipian.cn/56uymou0
8.持续学习平台,持续探索创新,逸思长天旗下全自动持续学习工具长天ML持续学习平台 逸思长天(南京)数字智能科技有限公司旗下长天ML持续学习平台,支持更高程度的自动化机器学习和持续学习能力。用户仅需提供训练数据,无需具备任何机器学习知识即可构建机器学习模型,并且随数据变化自动更新,让普通人的AI建模能力达到专家水平。加速各行各业智能化场景探索与落地。 登录SaaS版本私有化部https://www.changtianml.com/
9.我院赵丹培老师团队在IEEETPAMI连续发表多项高水平研究成果针对持续学习技术中对旧数据依赖程度高的问题,赵丹培老师团队提出无数据回放条件下的持续语义分割方法。通过研究持续学习中的灾难性遗忘和语义漂移问题的内在数学机理,针对类别增量持续语义分割任务提出了一种基于多层级知识蒸馏和非对称区域对比学习的模型增量更新方法,克服灾难性遗忘难点,能够在无数据回放的条件下实现模型的http://www.sa.buaa.edu.cn/info/1050/10631.htm
10.市场监管个人工作总结13篇搭建“政企互惠通”平台,达成银企对接合作意向44项,企业意向金额2·28亿元,银行发放贷款6千万余元。评选出十家“莲都区小微企业成长之星”。三是主体增量持续提升。全区共有各类在册市场主体41285家,新增8589家,同比增长15·3%,其中企业8009家,农民专业合作社845家,个体32431家,市场主体的总量及增量均居全市首位。https://mip.oh100.com/a/202302/6237146.html
11.好书推荐《好好学习》:拥有学习临界知识的心态,持续提升学习能力这里,推荐你不妨阅读《好好学习》这本书,此书被几位商业大咖作序,封面也赫然注明为个人知识管理精进指南,书中给出了关于学习和应用所学知识的一些原则性方法,以及大量的可实操性的案例,是一部具有很强指导和落地价值的好书。 作者成甲先生,根据自己多年的知识管理和应用实践,进行了全面思考和提炼,提出了一个贯穿始https://www.jianshu.com/p/f5d081402686
12.银行客户经理心得体会(通用15篇)持续学习,与时俱进:金融行业日新月异,新产品、新政策层出不穷。作为客户经理,我们必须保持学习的热情,紧跟时代步伐,不断提升自己的专业素养。无论是金融市场动态、政策法规变化,还是新兴金融科技的应用,都是我们需要关注和学习的内容。只有这样,我们才能为客户提供更加专业、全面的服务,赢得客户的信任和支持。 https://mip.ruiwen.com/xindetihui/2884809.html