带GroupLasso正则项的PiSigma神经网络在线梯度算法研究OnlineGradientAlgorithmforPi

带GroupLasso正则项的Pi-Sigma神经网络在线梯度算法研究

刘乐,范钦伟

西安工程大学,陕西西安

收稿日期:2022年2月21日;录用日期:2022年3月17日;发布日期:2022年3月24日

摘要

Pi-Sigma神经网络是隐层带有求和神经元,输出层带有求积神经元的一种前馈神经网络,该网络具有较强的非线性映射能力。在误差函数中添加正则项是神经网络常用的优化方法,和传统的L2、L1/2正则项相比GroupLasso正则项可以在组级别上消除不必要的权值,具有良好的稀疏效果。众所周知,利用梯度法进行权值更新的学习方式有两种:一种是批处理学习算法,另一种是在线学习算法。本文提出带GroupLasso正则项的在线梯度学习算法来训练Pi-Sigma神经网络。最后,数值实验结果表明改进后的算法收敛速度更快并且具有较好的泛化性能。

关键词

Pi-Sigma神经网络,在线梯度算法,GroupLasso正则项

OnlineGradientAlgorithmforPi-SigmaNeuralNetworkswithSmoothGroupLassoRegularizer

LeLiu,QinweiFan

Xi’anPolytechnicUniversity,Xi’anShaanxi

Received:Feb.21st,2022;accepted:Mar.17th,2022;published:Mar.24th,2022

ABSTRACT

Pi-Sigmaneuralnetworkisafeedforwardneuralnetworkwithsummationneuronsinhiddenlayerandquadratureneuronsinoutputlayer,whichhasstrongnonlinearmappingability.Addingregulartermstotheerrorfunctionisacommonoptimizationmethodforneuralnetworks.ComparedwiththetraditionalL2andL1/2regularterms,theGroupLassoregulartermscaneliminateunnecessaryweightsatthegrouplevelandhaveagoodsparseeffect.Asisknowntoall,therearetwolearningmethodsforweightupdateusinggradientmethod:oneisbatchlearningalgorithm;theotherisonlinelearningalgorithm.ThispaperproposesanonlinegradientlearningalgorithmwithGroupLassoregularizedtermstotrainPi-Sigmaneuralnetworks.Finally,numericalresultsshowthattheimprovedalgorithmconvergesfasterandhasbettergeneralizationperformance.

Keywords:Pi-SigmaNeuralNetwork,OnlineGradientAlgorithm,GroupLassoRegularTerm

ThisworkislicensedundertheCreativeCommonsAttributionInternationalLicense(CCBY4.0).

1.引言

人工神经网络已经被广泛应用于各种领域[1]。其中前馈神经网络以其结构灵活性,具有与不同训练算法的兼容性的特点成为最受欢迎的体系结构之一。Pi-Sigma神经网络(简称PSNN)由Shin和Ghosh在1991年首先提出,它是前馈神经网络中的一种,具有良好的收敛性和泛化性能,该网络也具有较为规则的结构,并且具有更快的学习速度,能够通过增量添加单元来达到所需的复杂度水平[2],在分类实验和函数逼近实验中得到了良好的收敛性和准确性。该网络利用乘积神经元作为输出单元,在使用较少的权值和处理单元的同时,间接结合了高阶网络的能力,并且成功地应用到了许多领域[3][4][5]。但该网络隐层中的求和神经元个数不易太多,否则会因为使用的权值太多而使该网络的学习速率降低,因此网络中隐层神经元的个数的多少很重要。合适大小的网络可以提高其泛化性能,因此寻找最合适的网络体系结构一直是一个重要的问题。正则化方法可以用来确定具有好的泛化性能的网络结构。

各种正则项已经被广泛应用,并且不同的正则项具有不同的作用,L0正则项能够得到稀疏解,但它面临着NP难题且很难求解;对于L1正则项来说,它的求解较为容易并且具有稀疏性;L2正则项是很常用的一个正则项,它可以抑制权值过大的增长,但是没有稀疏性[6];L1/2正则项具有稀疏性并且可以使网络具有好的泛化能力[7],但它只能删除接近于零的个体权值,而不能删除连接权值都接近于零的隐藏神经元;GroupLasso正则项可以在组水平上修剪不必要的权值和节点,使网络结构更稀疏[8]。综上所述,L2正则项不具有稀疏性,L1/2正则项虽然具有稀疏性,但是稀疏效率不高,只能去掉个别稀疏的权值但并不能去掉整个的神经元节点,所以针对这一关键问题,在这里我们借用GroupLasso的思想在训练PSNN的过程中消除隐藏层的分组权重。GroupLasso正则项具有稀疏性,在网络结构的稀疏方面具有良好的效果,它的优势是具有组水平上的稀疏性,当保留必要的节点,同时将冗余的节点作为一个组进行惩罚时,修剪将更加直观和有效。

3.Pi-Sigma神经网络算法描述

Figure1.StructurediagramofPi-Sigmaneuralnetwork

3.1.带L2正则项的在线梯度算法

3.2.带L1/2正则项的在线梯度算法

3.3.带GroupLasso正则项的在线梯度算法

4.数值模拟

为了验证该算法的有效性,这里使用一个函数逼近实验为例,利用带L2正则项,L1/2正则项,Group

Figure2.AlgorithmapproximationdiagramwithL2regularterm

Figure3.AlgorithmapproximationdiagramwithL1/2regularterm

Figure4.AlgorithmapproximationdiagramwithGroupLassoregularterm

Figure5.Errorfunctiondiagramofthreealgorithms

Figure6.Normofgradientgraphofthreealgorithms

5.结束语

本文中,我们考虑了GroupLasso惩罚项的良好稀疏性能,提出了带GroupLasso正则项的Pi-Sigma神经网络的在线梯度学习算法。通过函数逼近实验,根据三种算法的逼近效果图,误差函数图以及梯度范数图验证了该算法的有效性。

THE END
1.腾讯音乐娱乐科技申请神经网络模型训练专利,得到适用于终端的神经腾讯音乐娱乐科技申请神经网络模型训练专利,得到适用于终端的神经网络模型 快报金融界灵通君 北京 0 打开网易新闻 体验效果更佳猎豹饿肚子一周,为了活着牺牲太多,强者从不抱怨环境! 爱搞笑的晨晨 1212跟贴 打开APP 猥琐之王封神之作,学长任昌丁花式追女神,让人看得又笑又哭 小古趣影 481跟贴 打开APP 严格追究https://m.163.com/v/video/VPI2DMLA6.html
2.利用EdgeImpulse在线网站自行训练神经网络进行分类识别而基于STM32H7的OpenMV机器视觉模组和云端AI平台Edge Impulse合作,就很好的打通了从数据收集、打标,NN模型训练、优化到部署的整个流程。 去年4月份我们的新品OpenMV4 H7 Plus上市啦,今天我来给大家介绍一下OpenMV4 H7 Plus的新功能——利用EdgeImpulse在线网站自行训练神经网络进行分类识别。 https://www.elecfans.com/d/1532483.html
3.随时间在线训练脉冲神经网络模型的图像数据分类方法与流程10.为了克服上述现有技术的不足,本发明提供一种基于随时间在线训练的脉冲神经网络模型进行图像视觉数据分类的方法,方法取名为ottt(online training through time)。通过本发明提供的方法,可以在训练snn模型时极大地减小训练内存的开销,将训练得到的模型用于计算机图像数据和神经形态图像视觉数据的分类与识别等视觉任务,能够https://www.xjishu.com/zhuanli/55/202210694741.html
4.如何训练YOLOv5神经网络(本地+云端)yolo在线训练1. 本地上训练YOLOv5 # 指定好训练好的模型的路径,然后用这个训练好的模型来初始化我们网络当中的参数,一般训练时都是一开始来进行训练,即default为空 # default='' Yolov5s.pt Yolov5m.pt Yolov5l.pt Yolov5x.pt parser.add_argument('--weights', type=str, default='', help='initial weights https://blog.csdn.net/m0_52127604/article/details/124810089
5.精雕细琢:如何训练一个卷积神经网络在线免费阅读前一章讲解了如何构建一个卷积神经网络,如何使一个卷积神经网络达到期望的分类或预测效果,这就需要对网络进行合理的训练。本章将结合案例介绍卷积神经网络训练的方法、步骤和技巧。 3.1 基本概念一点通 从数学角度看,机器学习的目标是建立起输入数据与输出的函数关系,如果用x代表输入数据、用y代表输出,机器学习的目标https://fanqienovel.com/reader/7109745755388120079
6.机器学习术语表:机器学习基础知识MachineLearningGoogle训练神经网络涉及多次迭代以下两步循环: 在正向传递期间,系统会处理一批用于生成预测结果的样本。系统会将每个 根据每个标签值进行预测。两者的区别在于 预测值,标签值是该样本的损失。 系统会汇总所有样本的损失,以计算总的 当前批次的损失。 在反向传播(反向传播算法)期间,系统会通过以下方式减少损失: 调整所有神经元https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
7.智能车竞赛技术报告智能车视觉中国矿业大学我们独立完成了控制方案及系统设计,包括电磁信号采集处理、赛道图像信号采集处理、循迹控制算法及执行、动力电机驱动、十分类神经网络训练、靶标图片识别、单片机之间通信等,最终实现了具有 AI视觉功能的基于电磁与摄像头的快速寻迹智能车控制系统。 智能车是一个软硬件与机械相结合的整体,其中硬件主要包括电源模块、电机https://www.eefocus.com/article/503552.html
8.科学网—[转载]群视角下的多智能体强化学习方法综述通过训练神经网络参数化的策略,能够以完全分散的方式控制集群中的单个无人机。仿真实验展示了先进的群集行为,在紧密队形中执行攻击性机动,同时避免相互碰撞,打破和重新建立队形以避免与移动障碍物碰撞,并在“追赶—逃避”任务中有效协作。此外,模拟环境中学习到的模型可以成功部署到真实的四旋翼无人机上。 2.6 可扩展https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
9.带惩罚项的BP神经网络在线梯度法带惩罚项的BP神经网络在线梯度法,BP神经网络,惩罚项, 在线梯度法, 有界, 收敛,多层前传神经网络在许多领域有着广泛的应用。网络的泛化能力,即网络在训练集以外的样本上的精度,是标志神经网络性能的一个重要https://wap.cnki.net/touch/web/Dissertation/Article/2004094593.nh.html
10.2020年最值得收藏的60个AI开源工具语言&开发李冬梅你可以用开发者训练好的深度神经网络来编辑所有类型的人脸照片。SC-FEGAN 非常适合使用直观的用户输入与草图和颜色生成高质量的合成图像。 项目地址:https://github.com/JoYoungjoo/SC-FEGAN LazyNLP (用于创建海量文本数据集) LazyNLP 的使用门槛很低——用户可以使用它爬网页、清洗数据或创建海量单语数据集。 https://www.infoq.cn/article/2uabiqaxicqifhqikeqw
11.基于机器学习的自适应码率算法的进一步探索与改进2、改善训练效率,在线终身学习 第二个挑战来自强化学习的低训练效率。在强化学习方案中,智能体通过与环境交互获得{状态,动作,回报}集合,随后通过学习增大每次动作获得的回报。然而,在学习过程中,智能体无法获取在当前状态下的最优动作,因此不能为神经网络提供准确的梯度方向更新,基于强化学习的ABR算法也遭受着这个缺点https://www.thepaper.cn/newsDetail_forward_8338381
12.分析股市预测的深度学习技术持续学习是一种用于连续地学习用于若干任务的模型同时牢记从较早任务学习的信息的技术,其中在训练新任务期间旧任务中的数据不再可用。因此,持续学习允许神经网络在股票预测的不同任务中连续地积累知识并且减轻灾难性遗忘。对于股票预测任务,深度模型主要在静态均匀分布的数据集上进行训练,这些数据集无法随时间调整或扩展其https://maimai.cn/article/detail?fid=1810610871&efid=k8hnL1-NvJ2kAfW8I85mSg
13.7.3.2用Deeplearning4j训练卷积神经网络.pdf范东来7.3.2用Deeplearning4j训练卷积神经网络.pdf-范东来-人民邮电出版社 关闭预览 想预览更多内容,点击免费在线预览全文 免费在线预览全文 254第7章Spark深度学习:Deeplearning4j络的感受野以一个像素的步长进行滑动,C1层选用了6种卷积核,代表了6种特征。从这里可以看出,卷积层的 https://max.book118.com/html/2021/0819/7031135200003162.shtm
14.机器学习:使用批归一化有哪些缺点?典型的在线学习管道 由于它依赖于外部数据源,数据可以单独到达,也可以成批到达。由于每次迭代中batch size的变化,它不能很好地概括输入数据的规模和shift,这最终会影响性能。 不适用于循环神经网络 在卷积神经网络中,尽管批归一化可以显著提高训练速度和泛化能力,但事实证明,它们很难应用于循环体系结构。批归一化可以应https://www.51cto.com/article/616760.html