[译]深度神经网络的多任务学习概览(AnOverviewofMultitaskLearninginDeepNeuralNetworks)Shuzirank

多任务学习有很多形式,如联合学习(JointLearning),自主学习(LearningtoLearn),借助辅助任务学习(LearningwithAuxiliaryTasks)等,这些只是其中一些别名。概括来讲,一旦发现正在优化多于一个的目标函数,你就可以通过多任务学习来有效求解(Generally,assoonasyoufindyourselfoptimizingmorethanonelossfunction,youareeffectivelydoingmulti-tasklearning(incontrasttosingle-tasklearning))。在那种场景中,这样做有利于想清楚我们真正要做的是什么以及可以从中得到一些启发。

2.动机

3.深度学习中两种多任务学习模式

4.多任务学习为什么会有效?

5.非神经网络模型中的多任务学习

5.1块稀疏正则化(Block-SparsityRegularization)

现有的许多方法都对模型参数做出稀疏性假设。文献[8]认为所有模型共享参数的一个小集合。从任务参数矩阵A的角度来看,这就意味着除了少数几行外全部是0,与之对应的只有少数特征是可以在不同任务间共享的。为了强制做到这一点,在多任务学习中强制加L1正则化项。我们可以记得的是L1正则化是对参数之和上的约束,强制除少数几个外的其他所有参数为0。L1正则化又被称为LASSO(LeastAbsoluteShrinkageandSelectionOperator)。

5.2学习任务间的关系

文献[16]为SVM方法提出了一个类似的约束。这个约束是受贝叶斯方法启发得到的,它寻求使得所有模型接近均值模型。因此它的损失函数是每个SVM所对应的大间隔损失以及与均值模型的距离。文献[17]假设潜在的聚类正则化可以显式表示为A上的聚类约束(当聚类数C已知时),将该聚类正则化分解为三部分:

6.深度神经网络的多任务学习的最新进展

尽管最近的许多深度学习的工作都或显式或隐式使用了多任务学习作为其模型的一部分,但是使用方式仍然没有超出我们前面提到的两种方式:参数的硬共享与软共享。相比之下,仅有少部分的工作专注于提出深度神经网络中好的多任务学习机制。

6.1深度关系网络(DeepRelationshipNetworks)

6.2完全自适应特征共享(Fully-AdaptiveFeatureSharing)

从另一个极端说起,文献[35]提出了一个自底向上的方法。从瘦网络(thinnetwork)开始,使用对相似任务自动分组的指标,贪心的动态加宽网络。这个加宽的过程动态创建分支,如图4所示。然而这种贪心的做法并不能得到全局的最优。为每个分支分配精确的一个任务,并不能允许模型学到更复杂的任务间的交互。

6.3十字绣网络(Cross-StitchNetworks)

6.4低层次监督(LowSupervision)

相形之下,自然语言处理领域中近年来的多任务学习的工作重点在于找到一个好的层次结构:文献[37]展示了一些NLP中的基本工作,如词性标注,命名实体识别等,应该被作为辅助任务,在较低层次时进行有监督学习。

6.5联合多任务模型(AJointMany-TaskModel)

基于这种发现,文献[38]预先定义了一个包含多个NLP任务的层次结构,如图6所示,并用来做多任务学习的联合模型。

6.6用不确定性对损失进行加权(WeightinglosseswithUncertainty)

6.7多任务学习中的张量分解

6.8水闸网络

最后我们说一下文献[41]中提到的水闸网络,它是对多种基于深度神经网络的多任务学习方法的泛化。如图8所示,这个模型可以学习到每层中哪些子空间是必须共享的,以及哪些是用来学习到输入序列的一个好的表示的。

6.9我的模型中应该共享些什么?

早期用于深度学习的多任务模型需要预定义任务间的共享结构。这种策略不适合扩展,严重依赖于多任务的结构。早在1997年就已经提出的参数的硬共享技术在20年后的今天仍旧是主流。尽管参数的硬共享机制在许多场景中有用,但是若任务间的联系不那么紧密,或需要多层次的推理,则硬共享技术很快失效。最近也有一些工作研究学习哪些可以共享,这些工作的性能从一般意义上将优于硬共享机制。此外,若模型已知,学习一个任务层次结构的容量也是有用的,尤其是在有多粒度的场景中。

7.辅助任务(AuxiliaryTasks)

7.2对抗性(Adversarial)任务

7.3提示(Hints)性任务

如前所述,多任务学习可以学到单任务学不到的特征。使用Hints就是这样一种有效的机制:在辅助任务中预测特征。最近的一个例子是在自然语言处理中,文献[47]在情感分析中将一个输入句子中是否包含正负面情感词作为辅助任务。文献[48]在错误名字识别中将判断一个句子中是否包含名字作为辅助任务。

7.4注意力集中

辅助任务可以用来将注意力集中在网络可能忽略的图像的某部分上。例如,对于学习方向掌控的任务中,单一的任务模型通常忽略那些图像的细微之处,如路标等。那么预测路标就可以作为一个辅助任务。迫使模型学会去表示它们,这样的知识可以用于主任务。类似的,对于脸部识别来说,既然这些脸是不同的,我们就可以将预测脸部特征的位置作为辅助任务。

7.5量化平滑

对于多任务来讲,优化目标是已经被量化的。通常连续型的是受欢迎的,而可用的标注是离散集合。在大多数情况下,需要人工评价来收集数据,例如,预测疾病的风险或情感分析(正面、负面、中立),由于目标函数是光滑的,所以使用较少量的量化辅助任务会使学习变得容易。

7.6预测输入

在一些情况下使用某些特征作为输入并不会对预测目标输出有益。然而,它们可能能指导监督学习的过程。在这些情形下,特征是作为输出的一部分,而非输入。文献[49]展示了这些问题在实际应用中的场景。

7.7用未来预测现在

许多场景中一些特征仅在做出预测后才可用。例如,在自动驾驶中,一旦汽车经过障碍物或路标,便可以对它们做出准确的度量。Caruana于1997年举了一个肺炎的例子,只有事发后才能又额外的诊断案例可用。对于这些例子来讲,这些额外的数据由于在输入的时刻并不可用,所以并不能作为特征。然而,可以用作辅助任务来为模型传授额外的知识以辅助训练。

7.8表示学习

8.为什么辅助任务对主任务是有益的?

文献[52]发现具有完备且统一的标注分布的辅助任务对于序列标注主任务应该更有益,这一点在实验中已经得到验证。此外,文献[53]发现non-plateauing的辅助任务也会为plateauing的主任务带来改善。

然而这些实验都是具有范围局限性的。近期的这些研究成果只是为我们进一步理解神经网络中的多任务学习提供了一些线索。

9.结论

10.参考文献:

[1]Caruana.R.(1998).MultitaskLearning.AutonomousAgentsandMulti-AgentSystems.27(1).95-133.

[2]Caruana.R.MultitaskLearning:AKnowledgebasedSourceofInductiveBias.ProceedingsoftheTenthInternationalConferenceonMachineLearning.1993.

[3]Baxter,J.(1997)ABayesian/InformationTheoreticModelofLearningtoLearnviaMultipleTaskSampling.MachineLearning.28,7-39.

[4]Duong,L.,Cohn.et.al.2015.LowResourceDependencyParsingCross-LingualParameterSharinginaNeuralNetworkParser.ACL2015.

[5]Yang,Y.et.al.2017.TraceNormRegularizedDeepMulti-TaskLearning.ICLR2017workshop.

[6]Abu-Mostafa,et.al.1990.LearningfromHintsinNeuralNetworks,JournalofComplexity.

[7]Baxter,J.2000.AModelofInductiveBiasLearning.JournalofAritificialIntelligenceResearch.

[8]Argyriou,A.2007.Multi-TaskFeatureLearning.NIPS2007.

[9]C.ZhangandJ.Huang.2008.ModelSelectionConsistencyoftheLassoSelectioninHighDimensionalLinearRegression.AnnalsofStatistics.2008.

[10]Yuan,MingandYiLin.2006.ModelSelectionandEstimationinRegressionwithGroupedVariables.JournaloftheRoyalStatisticalSociety.2006.

[11]Lounici.K,et.al.2009.TakingAdvantageofSparsityinMulti-taskLearning.stat.2009.

[12]Negahban,S.et.al.2008.JointSupportRecoveryunderHighDimensionalScaling:BenefitsandPerilsofL1,\inf-regularization.NIPS2008.

[13]Jalali,A.et.al.2010.ADirtyModelforMulti-TaskLearning.NIPS2010.

[14]Liu,S.et.al.2016.DistributedMulti-TaskRelationshipLearning.AISTATS2016.

[15]Evgeniou,T.et.al.2005.LearningMultipleTaskswithKernelMethods.JournalofMachineLearningResearch2005.

[16]Evgeniou,T.et.al.2004.RegularizedMulti-TaskLearning.KDD2004.

[17]Jacob,L.et.al.2009.ClusteredMulti-TaskLearning:AConvexFormulation.NIPS2009.

[18]Kim,S.andXing,EricP.2010.Tree-GuidedGroupLassoforMulti-TaskRegressionwithStructuredSparsity.ICML2010.

[19]Chen,X.et.al.2010.GraphStructuredMulti-TaskRegressionandAnEfficientOptimizationMethodforGeneralFusedLasso.

[20]Thrun,S.et.al.1996.DiscoveringStructureinMultipleLearningTasks:TheTCAlgorithm.ICML1998.

[21]Ando,R,K.et.al.2005.AFrameworkforLearningPredictiveStructuresfromMultipleTasksandUnlabeledData.JMLR2005.

[22]Heskes,T.2000.EmpiricalBayesforLearningtoLearn.ICML2000.

[23]Lawrence,N.D.et.al.2004.LearningtoLearnwiththeinformativevectormachine.ICML2004.

[24]Yu,K.et.al.2005.LearningGaussianProcessesfromMultipleTasks,ICML2005.

[25]Bakker,B.et.al.2003.TaskClusteringandGatingforBayesianMulti-TaskLearning.JMLR2003.

[26]Xue,Y.et.al.2007.Multi-TaskLearningforClassificationwithDirichletProcessPriors.JMLR2007.

[27]DaumeIII,H.et.al.2009.BayesianMultitaskLearningwithLatentHierarcies.

[28]Zhang,Y.et.al.2010.AConvexFormulationforLearningTaskRelationshipsinMulti-TaskLearning.UAI2010.

[29]Cavallanti,G.et.al.2010.LinearAlgorithmsforOnlineMultitaskClassification.JMLR2010.

[30]Saha,A.et.al.2011.OnlineLearningofMultipleTasksandtheirRelationships.JMLR2011.

[31]Kang,Z.et.al.2011.LearningwithWhomtoShareinMulti-taskFeatureLearning.ICML2011.

[32]Kumar,A.et.al.2012.LearningTaskGroupingandOverlapinMulti-TaskLearning.ICML2012.

[33]Crammer,K.et.al.2012.LearningMultipleTasksUsingSharedHypotheses.NIPS2012.

[34]Long,M.et.al.2015.LearningMultipleTaskswithDeepRelationshipNetworks.

[35]Lu,Y.et.al.2016.Fully-AdaptiveFeatureSharinginMulti-TaskNetworkswithApplicationsinPersonAttriuteClassification.

[36]Misra,I.et.al.Cross-StitchNetworksforMulti-TaskLearning,CVPR2016.

[37]Sogaard,A.et.al.DeepMulti-TaskLearningwithLowLevelTasksSupervisedatLowerLayers.ACL2016.

[38]Hashimoto,K.2016.AJointMulti-TaskModel:GrowingANeuralNetworkforMultipleNLPTasks.

[39]Kendail,A.et.al.2017.Multi-TaskLearningUsingUncertaintytoWeighLossesforSceneGeometryandSemantics.

[40]Yang,Y.et.al.2017.DeepMulti-TaskRepresentationLearning:ATensorFactorizationApproach.ICLR2017.

[41]Ruder,S.2017.SluiceNetworks:LearningWhattoSharebetweenLooselyRelatedTasks.

[42]Zhang,Z.2014.FacialLandmarkDetectionbyDeepMulti-TaskLearning.ECCV2014.

[43]Liu,X.et.al.2015.RepresentationLearningUsingMulti-TaskDeepNeuralNetworksforSemanticClassificationandInformationRetrieval.

[44]Girshick,R.2015.FastR-CNN.ICCV2015.

[45]Arik,S.O.et.al.2017.DeepVoice:Real-timeNeuralText-to-Speech.ICML2017.

[46]Ganin,T.2015.UnsupervisedDomainAdaptationbyBackpropagation.ICML2015.

[47]Yu,J.2016.LearningSentenceEmbeddingswithAuxiliaryTasksforCrossDomainSentimentClassification.EMNLP2016.

[48]Cheng,H.2015.Open-DomainNameErrorDetectionUsingaMulti-TaskRNN.EMNLP2015.

[49]Caruana,R.et.al.1997.PromotingPoorFeaturestoSupervisors:SomeInputsworkBetterasoutputs.NIPS1997.

[50]Rei,M.2017.Semi-supervisedMultitaskLearningforSequenceLabeling,ACL2017.

[51]Ben-David,S.et.al.2003.ExploitingTaskRelatednessforMultipleTaskLearning.LearningTheoryandKernelMachines.

[52]Alonso,H.M.et.al.2017.WhenisMulti-TaskLearningEffectiveMultitaskLearningforSemanticSequencePredictionUnderVaryingDataConditions.EACL2017.

[53]Bingel,J.et.al.2017.IdentifyingBeneficialTaskRelationsforMulti-TaskLearninginDeepNeuralNetworks,EACL2017.

THE END
1.小学生正确使用网络10篇(全文)三、让学生明确上网的目的,引导学生使用网络做一些有益身心的事情 现在,有许多小学生玩电脑的目的只有游戏和聊天而已,不仅失去了使用网络的真正价值,还会让孩子沉迷在游戏或网络聊天中[2]。让小学生明确上网的目的,利用网络搜索自己需要的信息,可以让孩子们充分体会到强大的网络资源和信息,也能使孩子合理安排上网的时间https://www.99xueshu.com/w/file3p7okxu5.html
2.2013年“三下乡”活动全体队员进行公交车文明礼仪宣讲,就现在的公交车上的让座、卫生等问题对市民进行讲解。并有部分队员打扫公交车,分发公交车文明传单部分。部分队员协助义工大队帮助健康快车的病人。晚上整理当天的照片、视频及编写当天的新闻。 7月16号 部分队员做关于住房等民生问题的调研,联系培智中心,在人民医院帮助病人做各项检查。晚https://www.htu.edu.cn/math/2013/0924/c1386a22890/page.htm
3.Contents/premium.mdatmaster·Newslab2020/Contents·GitHub如何在大学教育中积极利用AI。 646 如何研究社会运动中的媒介技术 2023/1/23 “因果关系”框架的缺陷; 我所提出的基于“行动者网络理论”的框架; 用新的框架研究2019年香港的手机直播。 645 芭芭拉·沃尔特斯: 打破玻璃天花板的女主播 2023/1/19 从歧视女性的职场中脱颖而出; https://github.com/Newslab2020/Contents/blob/master/premium.md
4.网络安全防范知识预警防范信息6、培养良好的网络公德 要有公德心,在公共场所、学校或家庭上网,不要改变计算机的设置,未征得别人同意,不要删除别人的文件,以免影响别人的工作和使用计算机。 7、利用网络有益一面 不浏览不健康的网站,切不可沉迷上网(或玩电子游戏),把它当作一种精神寄托。要经常与父母交流网上有趣的事情,让父母了解自己在网上的https://gaj.zhumadian.gov.cn/html/1345/2020-06-15/content-4787.html
5.如何有效地管理时间?看沃顿商学院时间管理课(沃顿商学院时间管理忙成狗,哪有时间进行时间管理!恰恰相反,越忙,才越需要时间管理,将有效的时间放在最有价值的事情上——这是我从《沃顿商学院时间管理课》学到的。《沃顿商学院时间管理课》一书单是看书名,我严重怀疑“沃顿商学院时间管理课”有具体的线下和线上课程,不知道实际费用是多少?不过,不管多少钱,可以肯定的是,我是不https://book.douban.com/review/14259946/
6.关于网络安全教育教案(精选17篇)充分利用主题班会、课堂等有效形式,在全校广泛宣传和普及网络安全教育的法律、法规政策和相关知识,强化全校师生对网络安全教育工作的参与意识和责任意识。 经过这次活动,使同学们对网络安全教育有了新的认识。知道了怎样利用网络,怎样文明上网、健康上网,特别是个别沉迷手机网络游戏的学生,知道了沉迷网络的危害,一再表示要https://mip.ruiwen.com/jiaoan/4223549.html
7.20172018年八年级政治校本作业校本作业8.下列属于合理利用网络的表现的是() ①善于利用网络技术,解决工作、学习生活中的问题 ②帮助别人解决一些困难,做一些对他人和社会有用的事情 ③在网络上尽情地发表自己的言论 ④帮助名不见经的人闻名天下 A.③④B.①②C.①③?http://www.fjxyyz.com/ptyz_news_show-658.html
8.区块链技术b类数据上链是什么意思事情是这样的,最近我的室友Hasaki一直在问我区块链和比特币的事情,我尝试了很多种不通的姿势以求简单通俗形象生动地跟他解释什么是区块链技术,但是最后都失败了。因此我萌生了要写一篇BlockChain for Babies(又名:如何向你的弱智室友解释区块链)的想法,以求能简单直观生动形象地向对区块链技术不了解但是想知道区块https://blog.csdn.net/heqinghua217/article/details/79026483
9.餐饮连锁的分类优缺点经营特点(3)如果来的顾客有网络红人,顾客在自己的抖音或者快手平台上发段视频,可以给予免单。 (4)餐饮店主自己要运作媒体平台,例如抖音,想一些创意内容拍摄段视频上传。 (5)建立顾客微信群,发的内容包括:每天采购的视频、推出活动的详细、每天的销售额、每天的客流量等等对自己餐饮店有益的事情。 https://www.cnpp.cn/focus/24935.html
10.《财务自由之路》德博多.舍费尔人生意义:做自己认为有趣的,符合自己才能的,有益于他人的事情。 想拥有一台赚钱机器,而非穷其一生当一台赚钱机器。 解决的方法是:将你的事业建立在你最大的爱好之上。 “整天工作的人是没有时间来赚钱的” 优化自己 优化自己指的是, 学习如何以最佳的方式来运用时间,方法,才能,金钱以及与其他人合作,其目的是https://www.jianshu.com/p/e9917c264c3a
11.网络营销策划方案15篇网络营销策划方案 网络营销策划方案15篇 为了确保工作或事情能有条不紊地开展,就需要我们事先制定方案,方案可以对一个行动明确一个大概的方向。你知道什么样的方案才能切实地帮助到我们吗?下面是小编整理的网络营销策划方案,欢迎阅读与收藏。 网络营销策划方案1https://www.pinda.com/zhichang/cehuashu/207898.html
12.网络安全教育主题班会教案(精选14篇)(1)帮助网络成瘾者正确了解网络,指出网络的益处和缺点,让受治者学会去分辨什么是对自己有益的,利用网络扩展知识做偶尔的放松和娱乐。 (2)帮助网络成瘾者做自己我认知。 (3)与网络成瘾者一起制定人生规划,帮助其找出自己的理想和目标,增强自己的责任和使命。 https://www.fwsir.com/jiaoan/html/jiaoan_20220812090050_1931711.html
13.八年级政治上册知识点整理(3)提高辨别觉察能力。网络信息良莠不齐,个别不法分子利用网络实施违法犯罪活动。作为网络游客,只有不断提高自己的辨别觉察能力,提高自己的抗诱惑能力,才能保护自己。 3. 遵守网络规则 (1) 网络交往要遵守道德。 网络是我们共有的生活空间,我们共负建设文明、健康的网络环境的责任。 https://mip.oh100.com/chuer/790383.html
14.人教版《道德与法治》八年级上知识点微步凌波一剑屠龙(4)自觉遵守道德和法律,做一名负责任的网络参与者。 3.(1)充分利用网络平台为社会发展建言献策,可以向政府部门积极提出意见和建议,为决策科学化、民主化贡献力量。 (2)我们要在网上传播正能量,共同培育积极健康、向上向善的网络文化,让网络公共空间充满正能量。 http://blog.xxt.cn/showSingleArticle.action?artId=7501268
15.汽车销售技巧现在有很多介绍促销技巧的书,里面基本都会讲到促销员待客要主动热情。但在现实中,很多促销员不能领会到其中的精髓,以为热情就是要满面笑容,要言语主动。其实这也是错误的,什么事情都要有个度,过分的热情反而会产生消极的影响。 三、借力打力 销售就是一个整合资源的过程,如何合理利用各种资源,对销售业绩的帮助不可http://mip.pincai.com/article/2525200.htm
16.社会课程:车的停靠家的港湾(如东县掘港镇新苗幼儿园许银华李究竟设计什么样的停车位可以解决绿化与停车位共存的难题呢?我们参观了国美空中停车场,这样的停车就能充分利用空间,合理节约资源了。我们还和爸爸妈妈一起上网、在阅览室找来关于停车位的书籍,书里所看到的先进停车位可是我们从来没有见过的,太酷了吧!我们也来当一回小小设计师吧,看我们设计的各式各样停车场,有没有https://fzzx.rdedu.net/Item/3760.aspx
17.雷霞:中国社会科学院新闻与传播研究所副研究员新华访谈网络时代大家随时随地可以发信息,因此也可以有更多角度去拼接。一个谣言传播开来之后,网民可以通过自己的理性验证,通过“我发一点儿、你发一点儿”,多角度拼接还原事实真相,这就是一种发动网民力量可以做到辟谣的事情。 新华网 作为辟谣工作者,如何破解网络辟谣工作的滞后性? 辟谣平台 功夫在日常。不管是政府http://www.piyao.org.cn/ftzb/wlyyzl/index.htm
18.浅论网络舆情在公共政策制定过程中的影响许多政府部门都借助于甚至依赖于网络民意来做出决策,他们认为利用网络民意了解人民的利益诉求既方便又直接。政策制定者根据网络上公民的意愿可以发现有待解决的民生问题和社会深层次的问题,及时提上政府议事日程,这不仅缩短了问题进入政府议事日程的时间,还可以互相交流讨论,谋求一个更优或最优的方案,使政策顺利执行。https://m.wydbw.com/show.asp?Id=78211
19.智慧树知到章节测试答案汇总智慧树知到创新创业基础心理降答案汇总近日北京大学智慧树共享课程还是很受大家喜欢的,不过在学习之后需要完成见面课和章节测试的,很多小伙伴不清楚答案,今天小编就给大家整理了一些,有关爱生命急救与自救技能,走进故宫,互联网与营销创新章节等测试答案的汇总,一起来看看。 智慧树知到互联网与营销创新章节测试答案 https://www.qqtn.com/article/article_319268_1.html