几种常见的优化算法MwingFly

我们每个人都会在我们的生活或者工作中遇到各种各样的最优化问题,比如每个企业和个人都要考虑的一个问题“在一定成本下,如何使利润最大化”等。最优化方法是一种数学方法,它是研究在给定约束之下如何寻求某些因素(的量),以使某一(或某些)指标达到最优的一些学科的总称。我们学习和工作中遇到的大多问题都可以建模成一种最优化模型进行求解,比如机器学习算法,大部分的机器学习算法的本质都是建立优化模型,通过最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型。常见的最优化方法有梯度下降法、牛顿法和拟牛顿法、共轭梯度法等等。

梯度下降法是最早最简单,也是最为常用的最优化方法。梯度下降法实现简单,当目标函数是凸函数时,梯度下降法的解是全局解。一般情况下,其解不保证是全局最优解,梯度下降法的速度也未必是最快的。梯度下降法的优化思想是用当前位置负梯度方向作为搜索方向,因为该方向为当前位置的最快下降方向,所以也被称为是”最速下降法“。最速下降法越接近目标值,步长越小,前进越慢。梯度下降法的搜索迭代示意图如下图所示:

梯度下降法的缺点:

(1)靠近极小值时收敛速度减慢,如下图所示;

(2)直线搜索时可能会产生一些问题;

(3)可能会“之字形”地下降。

从上图可以看出,梯度下降法在接近最优解的区域收敛速度明显变慢,利用梯度下降法求解需要很多次的迭代。

在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。

比如对一个线性回归(LinearLogistics)模型,假设下面的h(x)是要拟合的函数,J(theta)为损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的样本个数,n是特征的个数。

1)批量梯度下降法(BatchGradientDescent,BGD)

(1)将J(theta)对theta求偏导,得到每个theta对应的的梯度:

(2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向,来更新每个theta:

(3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度会相当的慢。所以,这就引入了另外一种方法——随机梯度下降。

对于批量梯度下降法,样本个数m,x为n维向量,一次迭代需要把m个样本全部带入计算,迭代一次计算量为m*n2。

2)随机梯度下降(StochasticGradientDescent,SGD)

(1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:

(2)每个样本的损失函数,对theta求偏导得到对应梯度,来更新theta:

(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

随机梯度下降每次迭代只使用一个样本,迭代一次计算量为n2,当样本个数m很大的时候,随机梯度下降迭代一次的速度要远高于批量梯度下降方法。两者的关系可以这样理解:随机梯度下降方法以损失很小的一部分精确度和增加一定数量的迭代次数为代价,换取了总体的优化效率的提升。增加的迭代次数远远小于样本的数量。

对批量梯度下降法和随机梯度下降法的总结:

批量梯度下降---最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小,但是对于大规模样本问题效率低下。

随机梯度下降---最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向,但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近,适用于大规模训练样本情况。

1)牛顿法(Newton'smethod)

牛顿法是一种在实数域和复数域上近似求解方程的方法。方法使用函数f(x)的泰勒级数的前面几项来寻找方程f(x)=0的根。牛顿法最大的特点就在于它的收敛速度很快。

首先,选择一个接近函数f(x)零点的x0,计算相应的f(x0)和切线斜率f'(x0)(这里f'表示函数f的导数)。然后我们计算穿过点(x0,f(x0))并且斜率为f'(x0)的直线和x轴的交点的x坐标,也就是求如下方程的解:

我们将新求得的点的x坐标命名为x1,通常x1会比x0更接近方程f(x)=0的解。因此我们现在可以利用x1开始下一轮迭代。迭代公式可化简为如下所示:

已经证明,如果f'是连续的,并且待求的零点x是孤立的,那么在零点x周围存在一个区域,只要初始值x0位于这个邻近区域内,那么牛顿法必定收敛。并且,如果f'(x)不为0,那么牛顿法将具有平方收敛的性能.粗略的说,这意味着每迭代一次,牛顿法结果的有效数字将增加一倍。下图为一个牛顿法执行过程的例子。

由于牛顿法是基于当前位置的切线来确定下一次的位置,所以牛顿法又被很形象地称为是"切线法"。牛顿法的搜索路径(二维情况)如下图所示:

牛顿法搜索动态示例图:

关于牛顿法和梯度下降法的效率对比:

从本质上去看,牛顿法是二阶收敛,梯度下降是一阶收敛,所以牛顿法就更快。如果更通俗地说的话,比如你想找一条最短的路径走到一个盆地的最底部,梯度下降法每次只从你当前所处位置选一个坡度最大的方向走一步,牛顿法在选择方向时,不仅会考虑坡度是否够大,还会考虑你走了一步之后,坡度是否会变得更大。所以,可以说牛顿法比梯度下降法看得更远一点,能更快地走到最底部。(牛顿法目光更加长远,所以少走弯路;相对而言,梯度下降法只考虑了局部的最优,没有全局思想。)

根据wiki上的解释,从几何上说,牛顿法就是用一个二次曲面去拟合你当前所处位置的局部曲面,而梯度下降法是用一个平面去拟合当前的局部曲面,通常情况下,二次曲面的拟合会比平面更好,所以牛顿法选择的下降路径会更符合真实的最优下降路径。

注:红色的牛顿法的迭代路径,绿色的是梯度下降法的迭代路径。

牛顿法的优缺点总结:

优点:二阶收敛,收敛速度快;

缺点:牛顿法是一种迭代算法,每一步都需要求解目标函数的Hessian矩阵的逆矩阵,计算比较复杂。

2)拟牛顿法(Quasi-NewtonMethods)

拟牛顿法是求解非线性优化问题最有效的方法之一,于20世纪50年代由美国Argonne国家实验室的物理学家W.C.Davidon所提出来。Davidon设计的这种算法在当时看来是非线性优化领域最具创造性的发明之一。不久R.Fletcher和M.J.D.Powell证实了这种新的算法远比其他方法快速和可靠,使得非线性优化这门学科在一夜之间突飞猛进。

拟牛顿法的本质思想是改善牛顿法每次需要求解复杂的Hessian矩阵的逆矩阵的缺陷,它使用正定矩阵来近似Hessian矩阵的逆,从而简化了运算的复杂度。拟牛顿法和最速下降法一样只要求每一步迭代时知道目标函数的梯度。通过测量梯度的变化,构造一个目标函数的模型使之足以产生超线性收敛性。这类方法大大优于最速下降法,尤其对于困难的问题。另外,因为拟牛顿法不需要二阶导数的信息,所以有时比牛顿法更为有效。如今,优化软件中包含了大量的拟牛顿算法用来解决无约束,约束,和大规模的优化问题。

具体步骤:

拟牛顿法的基本思想如下。首先构造目标函数在当前迭代xk的二次模型:

启发式方法指人在解决问题时所采取的一种根据经验规则进行发现的方法。其特点是在解决问题时,利用过去的经验,选择已经行之有效的方法,而不是系统地、以确定的步骤去寻求答案。启发式优化方法种类繁多,包括经典的模拟退火方法、遗传算法、蚁群算法以及粒子群算法等等。

还有一种特殊的优化算法被称之多目标优化算法,它主要针对同时优化多个目标(两个及两个以上)的优化问题,这方面比较经典的算法有NSGAII算法、MOEA/D算法以及人工免疫算法等。

THE END
1.科技巨头推出新一代人工智能算法预计将彻底改变数据处理效率新算法的核心技术 人工智能领域的最新进展显示了一个重大突破:新一代的人工智能算法,其核心技术在于一种全新的神经网络架构设计。该设计能够显著提高计算机学习和数据处理的速度与效率。这意味着未来的人工智能系统将能够更快地分析大量复杂数据,从而在医疗、金融、交通等行业中发挥更大的作用。 https://www.vjvqxysd.cn/bai-jia-dian/512055.html
2.机器学习找不到创新点?三种特征选择的方法包你拿下顶会!3.提供了七个黑盒AI模型在合成和真实世界网络入侵数据集上的实证比较。 4.开源了基于XAI的特征选择框架,供社区使用和扩展。 轻量级特征选择 shap-select框架 文章解析 文章介绍了一种新的特征选择框架shap-select,该框架通过在验证集上对目标变量与原始特征的SHAP值进行线性或逻辑回归,并根据回归系数的符号和显著性水https://www.bilibili.com/read/cv40067807
3.深入探索神经网络反向传播算法是最基本的优化算法,每次更新参数都是基于当前样本的梯度计算。虽然收敛速度较快,但由于随机性较大,容易受到噪音的影响,收敛不稳定。 算法在SGD的基础上引入了动量项,可以加速模型训练,并且在梯度方向改变时有一定的惯性,有利于减少参数更新时的震荡。 算法根据参数的历史梯度调整学习率,可以自适应地调整各个参数的学习https://www.jianshu.com/p/2548f5df22f1
4.《光谱学与光谱分析》2023年,第43卷,第02期最后,利用所训练出的模型对太赫兹频域高频区域图像进行盲去噪,并用重建图像分别与原始成像结果和传统太赫兹去噪算法结果进行比较,分别从主观和客观两个方面评价了不同算法对太赫兹频域高频图像的去噪效果。实验结果表明,通过该算法实现了极限空间分辨率约为157 μm,去噪后图像极限空间分辨率处的瑞利判据鞍-峰比约为0.623,http://www.sinospectroscopy.org.cn/readnews.php?nid=97530
5.独家发布!10个2024年新算法跑10个测试集!2024新算法每个算法都是独立.m文件,高效管理,所有结果均可一键运行自动保存,可用于算法对比、学习、改进等等,趁现在知道的人少,先用先发,可定制改进算法和各种应用。 一、10个2024年新算法介绍 1.苦鱼优化算法(Bitterling Fish Optimization,BFO) 摘要:苦鱼是自然界中为了生存而表现出智能行为的典型例子。苦鱼用牡蛎产卵的https://blog.csdn.net/2301_82017165/article/details/136943200
6.几种现代优化算法的比较研究(通用7篇)【导语】下面是小编为大家整理的几种现代优化算法的比较研究(共7篇),供大家参考借鉴,希望可以帮助到有需要的朋友。 篇1:几种现代优化算法的比较研究 几种现代优化算法的比较研究 摘要:现代优化算法主要包括遗传算法、蚁群算法、禁忌搜索算法.这些算法主要是解决优化问题中的难解问题.由于这些算法在求解时不依赖于梯度https://www.hrrsj.com/wendang/qitafanwen/760240.html
7.2022下半年盘点:20+主流数据库重大更新及技术要点汇总在即将发布的新版本中,PieCloudDB Database将为用户带来内核和云原生平台多方位的大幅提升,包括极速vacuum、全新的缓存实现、极速Analyze、用户数据存储的分布式处理增强、HDFS/NAS支持,Kafka支持以及ETL/ELT增强等多个重大新特性。? 云原生、分布式发展如火如荼 https://www.51cto.com/article/744621.html
8.人教版三年级数学上《口算两位数加两位数》教学反思范文(通用10篇)在新知的教学上,我通过创设学生熟悉的跳绳场景,在生活情境中使学生经历提出数学问题——列出算式——探究算法——巩固算法的过程。其中探究算法这一部分,我们先研究不进位加法,我通过组织学生小组活动,让学生充分阐述自己的算法,在交流中不自觉的对算法进行比较,一方面使学生感受算法的多样化,另一方面寻找最优化算法。在https://www.ruiwen.com/jiaoxuefansi/3461381.html
9.一种边缘计算环境中功耗优化的负载任务迁移算法在边缘计算架构中,边缘节点处于远离云计算中心的地理位置,其对迁移时间的影响不可忽视,所以在边缘环境中的任务迁移调度算法必然要考虑到迁移时间对服务质量带来的影响。另外一方面,目前尚未存在针对边缘计算的功耗、CPU利用率和温度等度量指标对节点任务进行优化调度的算法,而边缘计算本身也是一个近几年来出现的新概念,https://wenku.baidu.com/view/5b4900a368d97f192279168884868762caaebba8.html
10.基础研究新进展和新成果非线性光学晶体、量子信息和通信、超强超短激光研究居国际前列;纳米材料和纳米结构、蛋白质结构与功能、脑与认知、动物克隆、创造新物质的分子工程学、古生物学、海洋科学等领域取得系列创新成果,整体研究水平显著提高,在国际上产生重要影响;数学机械化、辛几何算法等方面保持我国特色和优势。 https://www.most.gov.cn/ztzl/jqzzcxxqx/jqzzcxxqxxtp/200606/t20060612_33902.html
11.美颜技术近几年的数据图片分析怎么写帆软数字化转型知识库美颜技术在过去几年的发展中取得了显著的进步,其普及率、用户群体、技术多样性和复杂性都得到了极大的提升。未来,美颜技术将继续在算法优化、新功能开发和应用场景扩展上实现创新和突破。随着人工智能和深度学习技术的不断进步,美颜技术将更加注重个性化和自然化,通过深度学习算法实现更为精准的面部识别和优化调整。同时https://www.fanruan.com/blog/article/357819/
12.果蝇优化算法的加权策略研究AET关键词: 加权因子;果蝇优化算法;线性递减策略;先增后减策略 果蝇优化算法FOA(Fruit Fly Optimization Algorithm)是由台湾博士潘文超于2011年提出的,与蚁群算法和粒子群算法类似,是基于动物群体觅食行为演化出的一种寻求全局优化的新方法[1-3]。它不同于顺序执行的传统智能算法,而是以果蝇群体自组织性和并行性为基础,http://www.chinaaet.com/article/3000004316
13.科学网—[转载]进化集成学习算法综述【摘 要】进化集成学习结合了集成学习和进化算法两方面的优势,并在机器学习、数据挖掘和模式识别等领域被广泛应用。首先对进化集成学习算法的理论基础、组成结构及分类情况进行了概述。然后根据进化算法在集成学习中的优化任务,从样本选择、特征选择、集成模型参数组合优化、集成模型结构优化以及集成模型融合策略优化几个方面https://wap.sciencenet.cn/blog-951291-1312816.html
14.OpenAI公布强化学习新算法,可控制复杂机器人OpenAI公布强化学习新算法,可控制复杂机器人 近日,OpenAI 发布了一种新型的强化学习算法:近端策略优化(Proximal Policy Optimization,简称 PPO),这种算法不但在性能上比肩甚至超过当前最先进的方法,而且更容易实现和调试。由于 PPO 易于使用并且性能优秀,OpenAI 已将其设为默认的强化学习算法。https://cloud.tencent.com/developer/article/1109341