连续学习与概念表征

连续学习(ContinualLearning或CL),又称终身学习(LifelongLearning)是指人类所具有的可持续学习的能力。目前,人工智能(AI)中的机器学习(MachineLearning或ML)还缺乏连续学习的能力,在连续学习的过程中会出现困扰AI领域长达30年之久的著名“灾难性遗忘”问题:例如在学会了识别数字“0”和“1”之后,再学“2”和“3”的话,就会倾向于忘记之前学会的“0”和“1”。所以,现在的AI需要事前知道需要学习的类别,当遇到事先未知的类别数据时,就需要和原来的类别数据(如果保留了的话)一起重新学习。但许多实际应用(如自动驾驶、产品推荐等)中,我们不可能知道将来会遇到怎样的新场景新产品内容,这就导致很多实际应用难以展开,或者需要付出很大的重新学习代价。

近年来,人们开始重视“灾难性遗忘”问题,并取得了一些进展。2019年,美国DARPA启动了LifelongLearningMachines(L2M)专项。经过这几年全球科学家们的努力,一些方法得到发展,使得“灾难性遗忘”问题这个瓶颈得到一定程度的缓解。

这些方法中比较著名的有LwF(LearningwithoutForgetting)、EWC(ElasticWeightConsolidation)、SI(SynapticIntelligence)、ICARL(IncrementalclassifierandRepresentationLearning)、GEM(GradientEpisodicMemory)、OWM(OrthogonalWeightModification)、BIR(Brain-inspiredReplay)等。我国中科院自动化所的余山研究员团队提出的基于权重正则化保护的正交权重修正方法(称为OWM方法),也取得过不错的连续学习分类效果,有关论文发表在2019年AI顶刊《NatureMachineIntelligence》上。由于大脑具有明显的连续学习能力,这些方法的主要思路也是对大脑连续学习能力的机制的某种猜测或假设,并用机器学习的方法去实现。例如保留部分“样本”的重放思路,就是利用了大脑的短期和长期记忆能力以及长期记忆的调用与回放的可能机制。但这些方法,还都没有脱离当前AI中的核心算法:误差反向传播(BP)算法。而有趣的是:BP算法是被绝大多数脑科学研究者认为在大脑中并不存在的算法。所以这些方法并不完善,实际效果和大脑相比还相差较远。此外,这些方法还有一个明显的缺点:Sloooooo…ooooooow!所以,还难以应用,尤其难以面对在开放环境中较大规模很多类别的应用场景。

为促进产学研深度融合,欢迎有需求有兴趣的企业联系我们,给我们反馈信息。或许您的需求和我们提供的演示不完全一致,但我们的核心算法很可能一样能帮助到您。我们所提出并坚持研究的类脑智能不是一句口号或一个概念,是对大脑的理解是类似于大脑的算法。Together,wecanbestronger.

1.ChenW,DuF,WangY,etal.ABiologicallyPlausibleAudio-VisualIntegrationModelforContinualLearning[C]//2021InternationalJointConferenceonNeuralNetworks(IJCNN).IEEE,2021:1-8.

2.DingY,WangY,CaoL.ASimplifiedPlasticityModelBasedonSynapticTaggingandCaptureTheory:SimplifiedSTC[J].FrontiersinComputationalNeuroscience,2021,15.

4.曹立宏,邓雅菱.遗忘的机器-记忆、感知与“詹妮弗·安妮斯顿神经元[M].电子工业出版社.2021

5.陈雯婕,杜凤桐.2019年国际大学生类脑计算大赛,决赛三等奖,“采用类脑SNN的视听整合实现连续学习”,2019

二、概念表征

当我们想到“狗”时,会想到这是一种特殊的动物、有尾巴、有毛、会发出“汪”声、可以当宠物等等,这是我们人脑对“狗”这个概念的一些表征。当我们把概念通过语言的形式表达出来时,则可称为概念的语义特征。自2005年,科学家发现人脑中的概念细胞以来,虽然对概念细胞的形成机制还不清楚,但主流的观点是:语言是概念细胞形成的重要条件。显然,概念的语义特征依赖于人脑的记忆、抽象和语言等高级认知功能,是心理学、神经科学、语言学等多学科研究者一直在努力研究的方向之一,也是近年来人工智能,尤其是类脑智能的前沿研究的一个重要方向。

图1你脑中的“狗”是什么样子的?

已有的研究发现,关于概念的各属性知识分布式表征在大脑相应区域,并且人脑存在基于感觉的和基于语言的两种概念表征系统。人们在回忆信息时也是通过语义网络的搜寻而进行的,因此,在语义上与其他词汇有更广泛连接的词更容易被记住。然而目前尚不清楚人脑如何表征概念之间的关系。目前对于概念之间关系的度量主要依据概念之间共享的特征,如果两个概念有较多的共享特征,则这两个概念就具有很高的相似性。基于这一观点,我们采用了特征产出范式(Toglia,2009),请被试列出概念的属性,即给定一个单词,让被试对这个概念的特征进行描述,被试想到什么特征就写下什么。

本数据库共包含1410个概念,均为实体概念(名词)。共有204名被试参与本实验(男性44名)。年龄在18-57岁之间(M=23.495,SD=4.806)。所有的被试均为中国人,母语为汉语。平均每个被试完成了对202个概念的评定。本数据库中,1410个概念共得到378533个有效描述,平均每个概念获得的描述为268个,平均每个概念有37个特征。

我们还统计了哪些特征是多个概念所共有的,哪些特征是某些概念所特有的。如果某特征是3个及以上的概念都有的,则算共有特征,如果某特征只有1或2个概念拥有,则算特有特征。平均每个概念有31个共有特征,6个特有特征。

有研究表明,不同类别的物体拥有的共享特征数量不同,例如,动物类概念具有更多的共享特征(如都有眼睛、耳朵和鼻子),而工具类物体则共享特征较少而特有特征较多(Clarke&Tyler,2015)。我们将1410个概念分成了28个小类和7个大类,并统计了每个类别的概念数量以及概念具有的共享特征数、特有特征数和特征总数,分析了不同类别的差异,发现:动物、植物、食物拥有较多的共有特征和较少的特有特征,而自然物、人造物、身体部位则拥有较多的特有特征和较少的共享特征。结果如下图所示:

图2各类别共有特征和特有特征所占比例

概念之间的相似度分析:

苹果和香蕉这两个概念显然要比苹果和网球这两个概念更相似,即使网球从外形上看要比香蕉更像苹果。对于概念的语义表征,我们采用余弦距离计算概念之间的距离,以此作为相似度的指标。数值越大表示概念之间的距离越近,概念相似度越高。我们对比了本数据库与目前已经被广泛使用的英文版概念语义特征数据库CSLB(Devereux,Tyler,Geertzen,&Randall,2014)在概念相似度方面的情况。结果如图3所示。其中图3(a)是本研究的结果,图3(b)是CSLB的结果。可以看出:大类概念上基本是一致的,在某些小类之间还是有一定的差异。例如花与水果在CSLB中分的更开一些。这或许反映出文化上的一些差异。

图3概念之间的相似性矩阵

分层聚类:

本研究还基于概念的特征,对所有概念做了分层聚类。由于概念太多,无法全部可视化呈现,因此,仅可视化了动物这一大类的分层聚类结果,如下图所示。从分层聚类的结果可以看出,在动物类别下,本数据库与CSLB相似,可以很好地细分为鸟类(绿线)、昆虫类(红线)、水生动物类(紫线)和陆生动物类(青线)。

图4动物大类分层聚类的结果

总结:

本研究建立了一个数据量上千的中文版概念语义特征数据库。共有1410个概念,都是对以汉语为母语的被试而言很熟悉的实体概念,涵盖7个大类,28个小类,平均每个概念有约37个特征。根据概念的特征计算出的概念之间的相似性分析结果显示,同一类别内的概念具有相似性,不同类别之间的概念相似性较低,但也并非完全无关。这与我们日常对事物的认识是一致的,即使是不同类别的物体,我们仍然可以以非类别的关系产生一定的关联,如经常在同一场景中出现的筷子和面条,前者属于餐具,后者属于食物。

通过与已有的标准化的英文版数据库进行各方面对比,本研究提出的CCPD无论从数据量还是质量上看,都是可观的。与英文版数据库最大的区别在于具体的概念和特征有所不同,尤其是食物这一大类有很大的区别,食物中包含一些人们非常熟悉却又非常具有文化差异的概念,如臭豆腐、皮蛋、冰糖葫芦等只有中国人才熟悉的概念,因此,这是一个更适合中文被试和中文研究的数据库。通过对比中英文的概念特征数据库,也可以系统地考察中西方的差异,包括概念的差异、相同概念的不同特征的差异等。

通过分析概念各个特征被提及的频次,可以看到哪些特征是核心特征,哪些特征是边缘特征,如何根据这些特征定义一个概念,也是语言和认知心理学家研究的重要问题。并且本数据库的数据显示,根据这些概念所具有的特征可以对概念进行分类,甚至可以按层级分类。但是人脑如何表征概念的范畴和概念的层级关系还有待探索。本数据库可以为此类研究提供数据支持。本研究还发现,不同类别的概念拥有的共享特征和特有特征的数量具有差异,自然生物,如动物、植物等概念具有更多的共享特征,而人造物,如工具等概念具有更少的共享特征,这与以往的研究结果是一致的(Clarke&Tyler,2015)。

1.DengY,WangY,QiuC,etal.AChineseConceptualSemanticFeatureDataset(CCFD)[J].BehaviorResearchMethods,2021:1-13.

2.WangY*,DengY,CaoL,ZhangJ,YangL.Retrospectivememoryintegrationaccompaniesreconfigurationofneuralcellassemblies[J].Hippocampus,2021.

3.WangY,GaoY,DengY,etal.ModelingofBrain-LikeConceptCodingwithAdulthoodNeurogenesisintheDentateGyrus[J].ComputationalIntelligenceandNeuroscience,2019,2019.

THE END
1.ContinualLearning/LifelongLearning/IncrementalLearning1.任务增量学习 对于持续学习,任务增量学习(TIL)通常作为基本设置,即在训练和测试中都提供任务标识。TIL只需要在相应的任务空间中对实例进行分类,换句话说,任务增量学习事先告诉测试的类属于之前学习的时候划分的哪一个任务,只需要评估出当前测试的类属于给定任务中的哪一个类即可,它不需要跨任务的辨别能力。TIL比CILhttps://blog.csdn.net/Si_ang_/article/details/129872099
2.深度学习如何避免遗忘问题,如何解决增量学习的问题?增量学习和持续学习有什么区别?增量学习和持续学习经常互换使用,但它们有细微的区别。增量学习侧重于模型https://www.zhihu.com/question/427433372/answer/3517666901
3.NatureMachineIntelligence三种类型的增量学习持续学习领域,又称终身学习,致力于缩小自然智能和人工智能在增量学习能力上的差距。近年来,在医疗诊断、自动驾驶或金融市场预测等应用中部署持续学习算法的潜在效用推动下,机器学习研究的这一领域迅速扩张。持续学习有三种基本类型,或“场景”:(a)在任务增量学习中,算法必须增量地学习一组明显不同的任务;(b)在域增量https://cloud.tencent.com/developer/article/2202907
4.万文长字总结“类别增量学习”的前世今生开源工具包然而,我们的人脑却有这种非凡的能力, 能够学习大量不同的任务, 而不会出现任何负面的相互干扰。 持续学习(Continual Learning)算法试图为神经网络实现同样的能力, 并解决灾难性的遗忘问题。 因此, 从本质上讲, 持续学习执行的是对新任务的增量学习(Incremental Learning)。https://www.thepaper.cn/newsDetail_forward_17451573
5.怎么使LLama3模型具备持续学习和自我修正的能力问答要使LLama3模型具备持续学习和自我修正的能力,可以采取以下几种方法:1. 增量学习:通过不断输入新的数据和信息,让模型持续学习和更新自己的知识库,以适应不断变化的环境和需求。2. 强化学习https://www.yisu.com/ask/76731041.html
6.增量学习机器之心增量学习作为机器学习的一种方法,现阶段得到广泛的关注。对于满足以下条件的学习方法可以定义为增量学习方法: * 可以学习新的信息中的有用信息 * 不需要访问已经用于训练分类器的原始数据 * 对已经学习的知识具有记忆功能 * 在面对新数据中包含的新类别时,可以有效地进行https://www.jiqizhixin.com/graph/technologies/09134d6a-96cc-409b-86ef-18af25abf095
7.各地区各部门传达学习十八届中央纪委五次全会精神(七)持续发扬“钉钉子”精神,坚持一个节点一个节点地抓,一件事一件事地改,确保把改进作风抓出习惯、抓出长效来。要始终保持惩治腐败的高压态势。加大对群众身边不正之风和腐败问题的查处力度,坚持无禁区、全覆盖、零容忍,严肃查处腐败分子,减少腐败存量、遏制腐败增量、重构政治生态,着力营造不敢腐、不能腐、不想腐的https://www.ccdi.gov.cn/special/wcqh/xxgc/201501/t20150122_50464.html
8.当小样本遇见增量学习,智能如何实现,超详细最新综述来袭!(6)增量学习:与FSCIL稍有不同的是,增量学习为每个新增类别提供了充足的样本。这个领域也被称作持续学习或终身学习。 2 小样本类增量学习方法 2.1 基于传统机器学习的方法 基于传统机器学习的小样本类增量学习方法从监督方式、统计优化和函数优化等角度出发,具有较高的模型可解释性。这些方法通常有较少的超参数,因此https://www.cvmart.net/community/detail/8256
9.AI模型的持续学习能力亟待提升“AI模型持续学习的解决方案简直是一个价值数十亿美元的问题。”他说,“一个真正的、全面的解决方案将允许你不断更新模型,从而显著降低训练这些模型的成本。” 此外,模块化设计和增量学习也被视为提升AI模型持续学习能力的有效策略。模块化设计通过将AI模型拆分为多个独立模块,实现了任务处理的灵活性和高效性。当面对https://www.cnii.com.cn/rmydb/202408/t20240829_597297.html
10.增量学习Incrementallearning/百科/HyperAI超神经Hyper增量学习指新增数据时,只做关于新增数据的更新,增量学习可以不断从新样本中学习新的知识,同时保存大部分以前学习到的知识。 增量学习类似于人类学习模式,是一个逐渐积累和更新的过程。 传统学习方式为批量学习,其通过准备好所有数 […]https://hyper.ai/wiki/4281
11.西工大潘泉团队:如何解决增量学习中的灾难性遗忘问题?针对类增量学习中的灾难性遗忘问题,该文提出一种不同类的数据流和特征空间双分离的类增量学习算法。进一步,利用实测和仿真数据构建了一个飞机目标高分辨率距离像增量学习数据集,实验结果表明该算法相比其它几种对http://www.myzaker.com/article/66cd1cb28e9f092ed30909ad
12.银行客户经理心得体会(通用15篇)我告诉自己不能总在有业绩和没业绩这件事上徘徊,要把目光放远点,放在实实在在的东西上,所以我开始努力学习业务。我在厅堂的日常维护中学习零售业务,也会帮助公司客户经理走访客户,办理业务,这样一来,虽然我还是没有业绩,但是我每天都在忙碌,不断地学习新知识。我感到一些充实和满足,而不再深陷于能不能转正、https://mip.ruiwen.com/xindetihui/2884809.html
13.机器学习中在线学习批量学习迁移学习主动学习的区别电子六、增量学习与减量学习 online learning包括了incremental learning和decremental learningincremental learning增量学习,是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。增量学习非常类似于人类自身的学习模式。因为人在成长过程中,每天学习和接收新的事物,学习是逐步进行的,而且,对已http://eetrend.com/node/100016949
14.人工智能中小样本问题相关的系列(四):知识蒸馏增量学习知识蒸馏被广泛的用于模型压缩和迁移学习当中。 本文主要参考:模型压缩中知识蒸馏技术原理及其发展现状和展望 1. 基本概念 知识蒸馏可以将一个网络的知识转移到另一个网络,两个网络可以是同构或者异构。做法是先训练一个teacher网络,然后使用这个teacher网络的输出和数据的真实标签去训练student网络。 https://m.nowcoder.com/discuss/353156472483815424
15.2024年社工工作者总结(精选21篇)以上是这一年来我所做的工作,取得的成绩同上级部门的关心与社区两委会的支持和广大村民朋友的积极配合是分不开的,当然我也有做得不够的地方,在今后的工作中我要继续加强业务知识的学习,提高自己的工作能力,切实为老百姓办好事。 谢谢大家! 社工工作者总结 3 https://www.wenshubang.com/gongzuozongjie/2835840.html
16.银行工作亮点总结(精选24篇)以上是我今年工作以来的一些体会和认识,也是我在工作中将理论转化为实践的一个过程,在以后的工作中我将加强学习和掌握财务各项政策法规和业务知识,不断提高自己的业务水平,加强财务安全意识,维护个人安全和公司的利益不受到损失,做好自己的本职工作,和公司全体员工一起共同发展,新的一年意味着新的.起点、新的机遇、https://www.yuwenmi.com/fanwen/gongzuo/3650571.html