AAAI2024针对存储受限在线持续学习的流数据总结方法算法样本实验数据流大模型

在这一工作中,我们提出了一个流数据总结方法,以提升基于重放的在线持续学习方法中memory的信息量。通过将流中的信息进行整合,总结样本相比于原始样本对于原始数据分布更具有代表性。在较小的额外计算开销下,SSD帮助显著提升了重放的效果,尤其是在memory空间受限时。该方法的有效性启发后续的工作为构建memory设计更好的方法。

持续学习(ContinualLearning,CL)的目标是在一个任务序列中持续地累积知识。但由于对过去所有任务的数据进行存储以及微调(fine-tuning)不论对存储还是计算资源都是不现实的,持续学习面临着对过去知识的灾难性遗忘(CatastrophicForgetting)问题。基于记忆重放(MemoryReplay)的方法维护一个较小的空间存储过去任务的知识,并在训练当前任务时混合过去的数据。通过对过去知识的直接接触,记忆重放方法在较小的额外资源消耗下取得了在持续学习任务上稳定的性能提升。过去已经有很多工作设计了给定memory时更好的训练方法,但memory中的样本所包含的信息量却一直没有得到充分的研究。

当存储空间非常受限时,memory中所存储的每个样本所包含的信息量都非常重要。我们提出,仅使用少量的原始样本,存储空间并没有得到充分的利用。因此,我们在这篇工作中提出了一个全新的流数据总结方法(SummarizingStreamData,SSD)。如图所示,我们将在线持续学习中的数据流进行总结,得到一些富含信息量的总结样本(SummarizedSamples)。这些样本相比同等数量的原始图片对整体原始数据分布更具有代表性,从而大幅提升了记忆重放的效果。在有限的额外计算量下,流数据总结取得了在多个在线持续学习任务上稳定的性能提升。

二、流数据总结方法2.1在线类别增量持续学习任务

持续学习是一个在减少对过去知识遗忘的前提下持续学习新的任务的方法。持续学习可以根据任务划分方式分为任务增量学习和类别增量学习。其中,类别增量学习(task-incremental)提供了任务编号,根据不同的任务编号可以使用不同的神经网络;而类别增量学习(class-incremental)则不提供任务编号,且在不同的任务中数据的类别没有重叠。

对于更普遍的离线持续学习,算法可以在每个任务上进行多轮微调达到收敛。但是在现实场景中,我们往往不知道不同任务的边界,数据往往是以流的形式进行获取。因此,在线持续学习就是一种模拟现实场景的更实用的任务。其中,每个数据都只会流过一次,并且不会有任务编号提供。本文所研究的就是最具挑战性的在线类别增量持续学习任务(onlineclass-incrementalcontinuallearning)。

2.2流数据总结

我们提出流数据总结方法以增加memory中存储的样本的信息量,从而达成对空间更好的利用。方法的流程如上图所示。

2.2.1DynamicMemory

首先,我们设计了一个dynamicmemory以同时包含总结样本和原始样本。当数据流带来新的类别时,memory中指定数量的空间会由这一新类别的图像初始化。此后,这些位置的图像将会固定,只由总结过程进行更新而不会被其他图像直接替换。memory中的其他未初始化位置会按照正常的持续学习方法使用原始图像进行随机替换。这样,memory中的空间可以被充分地利用。

2.2.2数据总结

流数据总结的主要目的是增加样本的信息量,以减少有限数量的样本与原始数据分布之间的差异。因此,我们使用与原始数据之间的训练梯度距离作为总结样本更新的损失函数:

其中,M代表memory,B代表mini-batch,D代表距离度量函数。

2.3过去辅助总结

除了训练梯度之外,我们提出对在持续学习中积累的知识进行更好的利用,来帮助当前任务的信息总结。

2.3.1总结模型训练

由于训练梯度的计算依赖于一个特定的模型结构,在实际实现中,这一模型往往会同步进行更新以提供更丰富的梯度监督信号。对于持续学习,在整个训练过程中类别数并不是固定的。因此,在新类别加入到数据流中时,往往涉及到模型的重新初始化。如果只将模型在当前任务的数据上进行更新,得到的训练梯度将会失去过去知识的信息。因此,我们提出将memory中包含的过去任务的真实图像也加入到总结模型的训练中,帮助模型建立更好的决策边界。

2.3.2关系匹配

我们将过去的总结样本提取的特征作为锚点,约束当前正在进行总结的样本和真实样本对这些锚点有一致的关系:

\代表了从前者中除去后者剩下的部分。关系匹配有助于在memory中建立更好的总结样本整体分布。整体的训练损失函数由训练梯度和关系的匹配组成:

三、实验结果

我们在多个在线持续学习benchmark上进行了实验。上图展示的是memory容量为100时在CIFAR-100上的持续学习平均精度。当容量受限时,原始图像所能携带的信息量是非常有限的。我们提出的SSD方法大幅提升了memory中的信息丰富程度,从而以较少的额外训练开销显著提升了持续学习的性能。下表中展示了在更多设置中的实验结果:

为了更好地说明我们方法的有效性,我们将总结前后的样本对比可视化展示如下:

一个可以观察到的普遍规律是总结样本相比原始样本具有更丰富的颜色信息。对于第一排中的兰花类别,初始化的样本是黄色的,但是实际更多的数据是粉色的。通过将图像中的黄色部分转换为粉色,总结图像一方面纠正了bias,另一方面保留了多样性。对于第二排和第三排的自行车和罐头类别,总结给图像带来了更丰富的结构和纹理信息。这些总结样本相比原始样本包含了更加丰富的信息,从而帮助达成了更好的记忆重放效果。

四、结论

IllustrationFromIconScoutByDelesignGraphics

-TheEnd-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

投稿内容

//前沿资讯解说/心得经历讲述//

投稿须知

投稿方式

发送邮件到

chenhongyuan@thejiangmen.com

关于我“门”

将门是一家以专注于数智核心科技领域的新型创投机构,也是北京市标杆型孵化器。公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

THE END
1.知识点增量学习在线学习离线学习的区别增量学习是一种动态的学习技术,通过不断使用新数据来扩展现有模型的知识。相比离线学习,增量学习可以在面对新数据中的新类别时更有效地进行处理,并且具有记忆已学知识的功能。离线学习是一次性将所有数据参与训练,完成目标函数的优化后不再改变。增量学习不需要访问已用https://blog.csdn.net/qq_32342205/article/details/133271326
2.增量学习:让AI能够持续适应新数据的能力腾讯云开发者社区在人工智能领域,随着数据的不断增长和应用的不断扩展,AI系统需要具备持续适应新数据的能力。传统的机器学习方法往往需要重新训练整个模型,这在大规模数据和复杂任务下效率较低。而增量学习作为一种新兴的学习方法,可以让AI系统在不丢失之前学习的知识的情况下,通过增量https://cloud.tencent.com/developer/news/1230521
3.增量学习概览增量学习是一种机器学习方法,模型逐步学习和增强其知识,而不会忘记以前获取的信息。从本质上讲,它通过随着时间的推移获取新信息来模仿人类的学习模式,同时维护和建立以前的知识。在数据按顺序到达或无法存储所…https://zhuanlan.zhihu.com/p/691181754
4.NeurIPS2022离线强化学习新范式!京东&清华解耦式学习算法离线强化学习算法 (Offline RL) 是当前强化学习最火的子方向之一。离线强化学习不与环境交互,旨在从以往记录的数据中学习目标策略。在面临数据收集昂贵或危险等问题,但是可能存在大量数据领域(例如,机器人、工业控制、自动驾驶),离线强化学习对比到在线强化学习(Online RL)尤其具有吸引力。在利用贝尔曼策略评估算子https://baijiahao.baidu.com/s?id=1748460613920583591&wfr=spider&for=pc
5.机器学习中在线学习批量学习迁移学习主动学习的区别电子online learning包括了incremental learning和decremental learningincremental learning增量学习,是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。增量学习非常类似于人类自身的学习模式。因为人在成长过程中,每天学习和接收新的事物,学习是逐步进行的,而且,对已经学习到的知识,人类一般http://eetrend.com/node/100016949
6.2020届计算机科学方向毕业设计(论文)阶段性汇报基于深度学习的跨年龄人脸识别 通过引入对抗模块使得身份相关特征最大程度上和年龄解耦,一定程度上提升了模型性能。 张哲恺 图排序的硬件加速器设计 加速器的最终硬件架构、重要细节及实验结果。 蒋泽天 多图的离线协同式匹配和在线增量式匹配 介绍多图的离线协同式匹配和在线增量式匹配,MGM-FLoyd,MGM-SPFA和FastSPFA。https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3709
7.介绍增量学习袋鼠社区介绍增量学习 - 一、增量学习1.增量学习的愿景是,在新的数据以流式到达,同时出现新的类别或者新的任务的情况下,人工智能系统能够做到增量学习,在保留旧的知识的情况,能够较好地适应新的领域,学习新的知识。2.增量学习目前需要解决的问题:新知识时往往会遭遇“灾难性https://www.dtstack.com/bbs/article/4953
8.TPAMI2022基于图神经网络实现强化的增量和跨语言社会事件北京航空航天大学、美国伊利诺伊大学芝加哥分校和澳大利亚莫纳什大学联合提出了一个全新的强化、增量且跨语言的社会事件检测体系结构FinEvent在离线、在线和跨语言社会事件检测任务中,FinEvent的模型质量有了显著和持续的提高,分别提高了14%-118%、8%-170%和2%-21%。 https://www.zhuanzhi.ai/document/247a2dcefd61c0025c6693638d8e84c5
9.chapter111.md·StarTogether/mlopsbook要加强模型实时性最重要的做法是改变模型的训练方式,按照实时性强度排序,是全部样本更新、增量更新、在线学习。不同的更新方式当然也会带来不同的效果,例如全量更新,模型会利用某时间段内的所有训练样本进行重新训练,再用训练好的新模型替代老版本的模型,这样的训练方式需要的训练样本量、训练时间长、数据延迟长,但是https://api.gitee.com/StarTogether/mlops-book/blob/master/chapter-11-1.md
10.基于增量学习的CNNLSTM光伏功率预测电气技术2024年05期基于增量学习的CNN-LSTM光伏功率预测,光伏功率预测,长短期记忆(LSTM)网络,增量学习,弹性权重整合(EWC)算法,针对目前大部分光伏功率预测模型采用批量离线训练方式,且新建光伏电站训练数据较少的问题,本文提出一种基于增量学习的卷积神经https://wap.cnki.net/qikan-DQJS202405004.html
11.基于深度学习的类别增量学习算法综述期刊近年来,深度学习模型在众多领域取得了广泛成功.现有的深度学习模型大多部署在静态环境下,依赖提前收集好的数据集进行离线训练,模型一经确定,便无法进一步更新.然而,现实中开放动态的环境往往存在以流形式不断到来的数据,包括随时间演进不断产生的新类别数据.因此,理想的机器https://d.wanfangdata.com.cn/periodical/jsjxb202308002
12.阿里云离线数仓)谷粒学苑课时16 : 16_ODS_离线全量表格数据同步完成09:32 课时17 : 17_ODS_离线增量表order_info首次初始化同步05:58 课时18 : 18_ODS_离线增量表使用DataWorks批量一次性同步功能16:13 课时19 : 19_ODS_表格管理设置08:16 课时20 : 20_ODS_增量表的实时同步19:18 https://www.gulixueyuan.com/course/622
13.[图像分割/增量学习]ModelingtheBackgroundforIncrementalLearn一个在数据集A上训练好的模型,再在B上进行训练的时候会完全打乱对A知识的学习。 不同学习算法 offline learning and online learning: 离线学习是训练好后在做预测,在线学习是持续添加训练数据并持续更新模型。 incremental learning and decremental learning: 增量学习是不断学习新的知识并保存以前的知识,递减学习是https://www.cnblogs.com/nrocky/p/13822325.html
14.DiDiFood中的智能补贴实战漫谈架构滴滴技术因此,我们无法如一般线性或者树模型一样直接产出所有特征对于最终输出【增量】的重要度。我们在实践中使用的方法是用一个新的 LightGBM 去拟合离线评估最优模型产出的【预测增量】,并用这个新模型的特征重要度来近似评估各个维度特征的重要性,以此来决策是否加入和剔除特征。选择 LightGBM 的原因是我们对于这个模型的https://www.infoq.cn/article/mpkjAbSW9mwmy5AdArhM
15.西工大潘泉团队:如何解决增量学习中的灾难性遗忘问题?针对类增量学习中的灾难性遗忘问题,该文提出一种不同类的数据流和特征空间双分离的类增量学习算法。进一步,利用实测和仿真数据构建了一个飞机目标高分辨率距离像增量学习数据集,实验结果表明该算法相比其它几种对http://www.myzaker.com/article/66cd1cb28e9f092ed30909ad
16.面向流数据分类的在线学习综述?的流式数据中增量学习一个从输入变量到类标变量的映射函数,以便对 随时到达的测试数据进行准确分类.在线学习范式作为一种增量式的机器学习技术,是流数据分类的有效工具.主要 从在线学习的角度对流数据分类算法的研究现状进行综述.具体地,首先介绍在线学习的基本框架和性能评估方法, 然后着重介绍在线学习算法在一般流数据https://jos.org.cn/jos/article/pdf/5916
17.连续迁移学习跨域推荐排序模型在淘宝推荐系统的应用工业界推荐系统一个重要的特点是模型训练遵循连续学习(Continual Learning)范式,即模型需要使用最新的样本,利用离线增量更新(Incremental Learning)或在线学习(Online Learning)等方式学习最新的数据分布。对于本文研究的跨域推荐任务而言,源域和目标域的模型都是遵循连续学习的训练方式。我们由此提出了一个学术和工业上将有广https://www.51cto.com/article/717581.html
18.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
19.科学网—[转载]强化学习在资源优化领域的应用随着强化学习在围棋、游戏等序列化决策领域大放异彩、在多智能体协作等领域取得较好表现,它的一些优秀特性也得到了资源优化领域的关注。首先,基于强化学习的解决方案决策非常高效。虽然强化学习策略的训练非常耗时,但是这些训练工作可以离线进行,实际中只需要利用训练好的模型进行推理,因而在绝大部分情况下可以做到近似实时https://blog.sciencenet.cn/blog-3472670-1312677.html