AAAI2024针对存储受限在线持续学习的流数据总结方法算法样本实验数据流大模型

在这一工作中,我们提出了一个流数据总结方法,以提升基于重放的在线持续学习方法中memory的信息量。通过将流中的信息进行整合,总结样本相比于原始样本对于原始数据分布更具有代表性。在较小的额外计算开销下,SSD帮助显著提升了重放的效果,尤其是在memory空间受限时。该方法的有效性启发后续的工作为构建memory设计更好的方法。

持续学习(ContinualLearning,CL)的目标是在一个任务序列中持续地累积知识。但由于对过去所有任务的数据进行存储以及微调(fine-tuning)不论对存储还是计算资源都是不现实的,持续学习面临着对过去知识的灾难性遗忘(CatastrophicForgetting)问题。基于记忆重放(MemoryReplay)的方法维护一个较小的空间存储过去任务的知识,并在训练当前任务时混合过去的数据。通过对过去知识的直接接触,记忆重放方法在较小的额外资源消耗下取得了在持续学习任务上稳定的性能提升。过去已经有很多工作设计了给定memory时更好的训练方法,但memory中的样本所包含的信息量却一直没有得到充分的研究。

当存储空间非常受限时,memory中所存储的每个样本所包含的信息量都非常重要。我们提出,仅使用少量的原始样本,存储空间并没有得到充分的利用。因此,我们在这篇工作中提出了一个全新的流数据总结方法(SummarizingStreamData,SSD)。如图所示,我们将在线持续学习中的数据流进行总结,得到一些富含信息量的总结样本(SummarizedSamples)。这些样本相比同等数量的原始图片对整体原始数据分布更具有代表性,从而大幅提升了记忆重放的效果。在有限的额外计算量下,流数据总结取得了在多个在线持续学习任务上稳定的性能提升。

二、流数据总结方法2.1在线类别增量持续学习任务

持续学习是一个在减少对过去知识遗忘的前提下持续学习新的任务的方法。持续学习可以根据任务划分方式分为任务增量学习和类别增量学习。其中,类别增量学习(task-incremental)提供了任务编号,根据不同的任务编号可以使用不同的神经网络;而类别增量学习(class-incremental)则不提供任务编号,且在不同的任务中数据的类别没有重叠。

对于更普遍的离线持续学习,算法可以在每个任务上进行多轮微调达到收敛。但是在现实场景中,我们往往不知道不同任务的边界,数据往往是以流的形式进行获取。因此,在线持续学习就是一种模拟现实场景的更实用的任务。其中,每个数据都只会流过一次,并且不会有任务编号提供。本文所研究的就是最具挑战性的在线类别增量持续学习任务(onlineclass-incrementalcontinuallearning)。

2.2流数据总结

我们提出流数据总结方法以增加memory中存储的样本的信息量,从而达成对空间更好的利用。方法的流程如上图所示。

2.2.1DynamicMemory

首先,我们设计了一个dynamicmemory以同时包含总结样本和原始样本。当数据流带来新的类别时,memory中指定数量的空间会由这一新类别的图像初始化。此后,这些位置的图像将会固定,只由总结过程进行更新而不会被其他图像直接替换。memory中的其他未初始化位置会按照正常的持续学习方法使用原始图像进行随机替换。这样,memory中的空间可以被充分地利用。

2.2.2数据总结

流数据总结的主要目的是增加样本的信息量,以减少有限数量的样本与原始数据分布之间的差异。因此,我们使用与原始数据之间的训练梯度距离作为总结样本更新的损失函数:

其中,M代表memory,B代表mini-batch,D代表距离度量函数。

2.3过去辅助总结

除了训练梯度之外,我们提出对在持续学习中积累的知识进行更好的利用,来帮助当前任务的信息总结。

2.3.1总结模型训练

由于训练梯度的计算依赖于一个特定的模型结构,在实际实现中,这一模型往往会同步进行更新以提供更丰富的梯度监督信号。对于持续学习,在整个训练过程中类别数并不是固定的。因此,在新类别加入到数据流中时,往往涉及到模型的重新初始化。如果只将模型在当前任务的数据上进行更新,得到的训练梯度将会失去过去知识的信息。因此,我们提出将memory中包含的过去任务的真实图像也加入到总结模型的训练中,帮助模型建立更好的决策边界。

2.3.2关系匹配

我们将过去的总结样本提取的特征作为锚点,约束当前正在进行总结的样本和真实样本对这些锚点有一致的关系:

\代表了从前者中除去后者剩下的部分。关系匹配有助于在memory中建立更好的总结样本整体分布。整体的训练损失函数由训练梯度和关系的匹配组成:

三、实验结果

我们在多个在线持续学习benchmark上进行了实验。上图展示的是memory容量为100时在CIFAR-100上的持续学习平均精度。当容量受限时,原始图像所能携带的信息量是非常有限的。我们提出的SSD方法大幅提升了memory中的信息丰富程度,从而以较少的额外训练开销显著提升了持续学习的性能。下表中展示了在更多设置中的实验结果:

为了更好地说明我们方法的有效性,我们将总结前后的样本对比可视化展示如下:

一个可以观察到的普遍规律是总结样本相比原始样本具有更丰富的颜色信息。对于第一排中的兰花类别,初始化的样本是黄色的,但是实际更多的数据是粉色的。通过将图像中的黄色部分转换为粉色,总结图像一方面纠正了bias,另一方面保留了多样性。对于第二排和第三排的自行车和罐头类别,总结给图像带来了更丰富的结构和纹理信息。这些总结样本相比原始样本包含了更加丰富的信息,从而帮助达成了更好的记忆重放效果。

四、结论

IllustrationFromIconScoutByDelesignGraphics

-TheEnd-

扫码观看!

本周上新!

“AI技术流”原创投稿计划

投稿内容

//前沿资讯解说/心得经历讲述//

投稿须知

投稿方式

发送邮件到

chenhongyuan@thejiangmen.com

关于我“门”

将门是一家以专注于数智核心科技领域的新型创投机构,也是北京市标杆型孵化器。公司致力于通过连接技术与商业,发掘和培育具有全球影响力的科技创新企业,推动企业创新发展与产业升级。

将门成立于2015年底,创始团队由微软创投在中国的创始团队原班人马构建而成,曾为微软优选和深度孵化了126家创新的技术型创业公司。

如果您是技术领域的初创企业,不仅想获得投资,还希望获得一系列持续性、有价值的投后服务,欢迎发送或者推荐项目给我“门”:

THE END
1.增量学习与在线学习在线增量学习每获得一个新样本就进行一次模型更新。显然,在线学习时增量学习的特例,而增量学习可视为“批模式”的在线学习。 3. 迁移学习 3.1 原理 Transfer Learning 将从源数据集学到的知识迁移到目标数据集上。虽然ImageNet数据集的图像大多跟XX无关,但在该数据集上训练的模型可以抽取较通用的图像特征,从而能够帮助识别边缘https://blog.csdn.net/MusicDancing/article/details/114385776
2.增量学习:让AI能够持续适应新数据的能力腾讯云开发者社区综上所述,增量学习作为一种能够持续适应新数据的学习方法,在人工智能领域具有重要的意义。它可以在不丢失之前学习的知识的情况下,通过增量地学习新数据来提高性能。常用的增量学习方法包括在线学习和增量式学习。增量学习在自然语言处理、计算机视觉等领域都有广泛的应用。未来的研究方向包括如何平衡新数据和旧数据的权重https://cloud.tencent.com/developer/news/1230521
3.可在线增量自学习的聚焦爬行方法的英文翻译英语怎么说海词词典,最权威的学习词典,专业出版可在线增量自学习的聚焦爬行方法的英文,可在线增量自学习的聚焦爬行方法翻译,可在线增量自学习的聚焦爬行方法英语怎么说等详细讲解。海词词典:学习变容易,记忆很深刻。http://dict.cn/%E5%8F%AF%E5%9C%A8%E7%BA%BF%E5%A2%9E%E9%87%8F%E8%87%AA%E5%AD%A6%E4%B9%A0%E7%9A%84%E8%81%9A%E7%84%A6%E7%88%AC%E8%A1%8C%E6%96%B9%E6%B3%95
4.一种适于在线学习的增量支持向量数据描述方法支持向量数据描述增量学习二次规划样本迁移 分类号: TP391(计算技术、计算机技术) 在线出版日期: 2012-06-26(万方平台首次上网日期,不代表论文的发表时间) 页数: 7(186-192) 参考文献 (8) 仅看全文 排序: 发表时间 被引频次 查看引文网络 [1]李自国.基于支持向量数据描述的故障诊断方法研究[D].2007. https://d.wanfangdata.com.cn/periodical/xhcl201202006
5.2020届计算机科学方向毕业设计(论文)阶段性汇报复现了业界领先的基于深度学习的跨年龄人脸识别模型并在少量测试数据集上做了数值上的检验和对比。 张哲恺 图排序的硬件加速器设计 Gorder图排序算法的简单介绍,硬件加速Gorder的基本思路,模拟实验结果。 蒋泽天 多图的批量协同匹配与在线增量式匹配方法第一阶段工作汇报 https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3709
6.机器学习模型迭代方法(Python)3、增量(在线)学习的方法,如sklearn中算法可调用partial_fit直接增量学习,可以直接利用新增的数据在原来的模型的基础上做进一步更新。增量学习对于模型迭代是很有效率的(特别适用于神经网络的学习,如 arxiv.org/abs/1711.03705)。实际使用中,在线学习和离线的全量学习经常是结https://mp.weixin.qq.com/s?__biz=MzU0NjgzMDIxMQ==&mid=2247607030&idx=5&sn=ae3ae103466361be8125c1f876e3c811&chksm=fb54c01acc23490c3e8a8e57d231d179cf78dd5c58df17aa3a18fa9eb2c1c4718ee53941a372&scene=27
7.机器学习顶刊汇总:EESNat.Commun.EnSMACSAMIES&T等成果(<14个月)和来自基于物理模型的模拟数据来实现电池容量和退化模式的晚期寿命估计(2~4年),其不同之处在于如何利用廉价且现成的物理模拟数据:1)方法1是一种数据增强方法,将早期实验老化和模拟数据组合成一个增强数据集,用于训练机器学习模型以估计三种退化模式的容量和状态;2)方法2是一种增量学习方法,首先使用模拟https://www.shangyexinzhi.com/article/5029661.html
8.工作方案范文15篇老师们十分重视培养学生的学习方法,各学科针对学生的薄弱环节制订措施,进行针对性的辅导,特别是使学生能认真上课,听课,积极动脑,认真完成作业等。认真组织了家长函授学习活动,进行家校联系,提高教育效率。 值得一提的是,我们组的田冬梅老师,她爱学习,工作从不讲价钱,学校本学期多次给她布置的工作任务时间短,任务重,三https://www.wenshubang.com/fangan/3068469.html
9.面向流数据分类的在线学习综述?的流式数据中增量学习一个从输入变量到类标变量的映射函数,以便对 随时到达的测试数据进行准确分类.在线学习范式作为一种增量式的机器学习技术,是流数据分类的有效工具.主要 从在线学习的角度对流数据分类算法的研究现状进行综述.具体地,首先介绍在线学习的基本框架和性能评估方法, 然后着重介绍在线学习算法在一般流数据https://jos.org.cn/jos/article/pdf/5916
10.人工智能中小样本问题相关的系列(四):知识蒸馏增量学习基于特征空间进行匹配的方法其实是知识蒸馏的主流,类似的方法非常多,包括注意力机制的使用、类似于风格迁移算法的特征匹配等。 3. 知识蒸馏算法的展望 知识蒸馏还有非常多有意思的研究方向,这里我们介绍其中几个。 3.1 不压缩模型 机器学习模型要解决的问题如下,其中y是预测值,x是输入,L是优化目标,θ1是优化参数。https://m.nowcoder.com/discuss/353156472483815424
11.强化学习基础篇(十八)TD与MC方法的对立统一假设只有有限的经验,比如10幕数据或100个时间步。在这种情况下,使用增量学习方法的一般方式是反复地呈现这些经验,直到方法最后收敛到一个答案为止。给定近似价值函数 ,在访问非终止状态的每个时刻 ,使用下面两式计算相应的增量但是价值函数仅根据所有增量的和改变一次。 https://www.jianshu.com/p/65f86ec8a5bd
12.《NCX》软件是否提供了在线学习和增量学习的功能?以一名数据分析师为例,他通过《NCX》软件的在线学习和增量学习功能,逐步掌握了数据分析和处理的各项技能。起初,他只对Excel的基本操作有所了解,但在使用《NCX》软件进行学习和实践后,他逐渐掌握了更高级的数据分析工具和方法。通过在线教程和社区讨论,他了解了更多关于数据清洗、数据可视化和数据挖掘的知识。随着技能https://www.sousou.com/wd/517044.html
13.在线学习on在线机器学习(Online Machine Learning)是一种机器学习方法,其中模型实时从数据点流中增量学习。这是一https://www.zhihu.com/question/38713098/answer/3403288638
14.江西专升本《数学分析》考试大纲之萍乡学院3.了解含参变量的广义积分的连续性,可微性与可积性定理,了解含参变量的定积分基本方法. 4.了解函数与函数的定义、性质及其联系. 关注江西专升本之家微信公众号,回复【招生院校】四个字即可获取院校招生简章、考试大纲、考试范围,更可订阅更多升本资讯,更多升本问题可咨询【在线老师】为你解答。 http://www.jxztc.com/show-938-318228-1.html
15.Heygen算法是否支持增量学习和在线学习嘲问答是的,Heygen算法支持增量学习和在线学习场景。增量学习是指在已有的模型基础上,通过不断地添加新的数据进行学习,不需要重新训练整个模型。在线学习是指在接收到新数据时,立即更新模型以适应新数据的特点。Heygen算法可以通过增量学习和在线学习实现模型的持续优化和更新,以适应不断变化的数据环境和需求。 0 赞 0 踩https://www.yisu.com/ask/36320953.html
16.微软:两个AI相互纠错,数学再涨5分针对LLM解决数学问题时反馈信息有限、标注数据质量不高等问题,团队提出了一种新的方法。 那就是通过在线学习流(Flow)和直接偏好优化(DPO)学习来生成高质量的推理轨迹。 具体分为2个部分: 1.增量输出生成Flow(Incremental Output Production Flow) Flow-DPO采用了增量输出生成Flow,其中有两个独立的LLM(Answer LLM和Sthttps://m.thepaper.cn/newsDetail_forward_29519108
17.当小样本遇见增量学习,智能如何实现,超详细最新综述来袭!基于传统机器学习的小样本类增量学习方法从监督方式、统计优化和函数优化等角度出发,具有较高的模型可解释性。这些方法通常有较少的超参数,因此更容易理解和调整。如Cui等人将半监督学习方法引入到FSCIL中,基于前人研究,他通过在每个增量阶段加入了50个未标记的数据,而训练过程中将无标签数据与有标签数据协同训练来提高https://www.cvmart.net/community/detail/8256