1、基础知识续人工神经网络常用学习规则人工神经网络常用的学习规则人工神经网络常用的学习规则lMP模型是于1943年由美国心理学家McCullochPitts建立的第一个神经元模型,也可以称为处理单元(ProcessingElement),它是一个多输入多输出的非线性信息处理单元。如图5-6所示,图5-7为MP模型的作用函数。MP神经元是人工神经元模型的基础,也是人工神经网络模型的基础。基础知识续人工神经网络常用学习规则图5-6MP神经元模型)(ixfi01(x)F(x)基础知识续人工神经网络常用学习规则l人类具有学习能力,人类的知识和智慧是在不断的学习
2、与实践中逐渐形成和发展起来的。关于人工神经网络的学习机制,涉及到神经元如何分布、处理和存储信息。常用的人工神经网络学习规则如下,图5-8是权值调整的一般情况,其中:Wj为联接到神经元j的权值向量,X为输入向量,r为学习信号,d为导师信号。权向量的调整准则为基础知识续人工神经网络常用学习规则l式中为学习速率。权值调整的迭代格式为)()(),(),()(tXtdtXtWrtWjjj)()(),(),()()1(tXtdtXtWrtWtWjjjj基础知识续人工神经网络常用学习规则权值调整的一般情况wXr(w,x,d)dj信号生成器OjjwjX基础
3、知识续人工神经网络常用学习规则1)Hebbian学习规则l1949年,心理学家D.O.Hebb最早提出了关于神经网络学习机理的“突触修正”的假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。根据该假设定义的权值调整方法,称为Hebbian学习规则。在Hebbian学习规则中,学习信号简单地等于神经元的输出基础知识续人工神经网络常用学习规则l式中W为权向量,X为输入向量。权向量的调整公式为XWfrTjXXWfW
4、Tjj基础知识续人工神经网络常用学习规则权向量中,每个分量的调整由下式确定l上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。在这种情况下,Hebbian学习规则需预先设置权饱和值,以防止输入和输出正负始终一致时出现权值无约束增长。此外,要求权值初始化,即在学习开始前(t=0),先对Wj(0)赋予零附近的小随机数。Hebbian学习规则代表一种纯前馈、无导师学习。该规则至今仍在各种神经网络模型中起着重要作用。ijiTjijxoxXWf基础知识续人工神经网络常用学习规则2)Perceptron(感知器)学习规则l
5、1958年,美国学者FrankRosenblatt首次定义了一个具有单层计算单元的神经网络结构,称为感知器(Perceptron)。感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差jjodr基础知识续人工神经网络常用学习规则l式中为期望的输出,。感知器采用了与阈值转移函数类似的符号转移函数,其表达为WWfoTjjjd0,10,1sgnXWXWXWXWfTjTTjTjj因此,权值调整公式应为XXWdWTjjjsgnnixXWdiTjjij,1,0sgn基础知识续人工神经网络常
6、用学习规则l式中,当实际输出与期望值相同时,权值不需要调整;在有误差存在情况下,由于、,l权值调整公式简化为l感器学习规则只适用于二进制神经元,初始权值可取任意值。l感知器学习规则代表一种有导师学习。由于感知器理论是研究其他神经网络的基础,该规则对于神经网络的有导师学习具有极为重要的意义。1,1sgnXWTjXWj2jd基础知识续人工神经网络常用学习规则l3)(Delta)学习规则l1986年,认知心理学家McClelland和Rumelhart在神经网络训练中引入了规则,该规则亦可称为连续感知器学习规则,与上述离散感知器学习规则并行。规则
7、的学习信号规定为jjjTjTjjnetfodWWfWWfdr基础知识续人工神经网络常用学习规则l上式定义的学习信号称为。式中是转移函数的导数。显然,规则要求转移函数可导,因此只适用于有导师学习中定义的连续转移函数,如Sigmoid函数。l事实上,规则很容易由输出值与期望值的最小平方误差条件推导出来。定义神经元输出与期望输出之间的平方误差为基础知识续人工神经网络常用学习规则l式中,误差E是权向量Wj的函数。欲使误差E最小,Wj应与误差的负梯度成正比,即l式中,比例系数是一个正常数。由式(5-12),误差梯度为222121XWfdodETj
8、jjjEWjXentfodEjjj基础知识续人工神经网络常用学习规则l可以看出,上式中与X之间的部分正是式(5-11)中定义的学习信号。Wj中每个分量的调整由下式计算l学习规则可推广到多层前馈网络中,权值可初始化为任意值。nixnetfodijjjij,1,0基础知识续人工神经网络常用学习规则l4)Widrow-Hoff学习规则l1962年,BernardWidrow和MarcianHoff提出了Widrow-Hoff学习规则,又称为最小均方规则(LMS)。Widrow-Hoff学习规则的学习信号为XWdrTj基础知识续人工神经网络常用学
11、规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有p个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元,即基础知识续人工神经网络常用学习规则l只有获胜神经元才有权调整其权向量,调整量为XWXWTipiTm,2,1maxmmWXW基础知识续人工神经网络常用学习规则l式中,是学习常数,一般其值随着学习的进展而减小。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使Wm进一步接近当前输入X。显然,当下次出现与X相像的输入模式时,上次获胜的神经元更容易获胜。
12、在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。在有些应用中,以获胜神经元为中心定义一个获胜领域,除获胜神经元调整权值外,领域内的其他神经元也不同程度地调整权值。权值一般被初始化为任意值并进行归一化处理。基础知识续人工神经网络常用学习规则l7)Outstar(外星)学习规则l神经网络中有两类常见节点,分别称为内星节点和外星节点,其特点见图5-8和5-9。图5-8中的内星节点总是接受来自四面八方的输入加权信号,因此是信号的汇聚点,对应的权值向量称为内星权向量;图5-9中的外星节点总是向四面八方发出输出加权信号,因此是信号的
13、发散点,对应的权值向量称为外星权向量。内星学习规则定内星节点的输出响应是输入向量X和内星权向量Wj的点积。该点积反映了X与Wj的相似程度,其权值按式(5-23)调整。因此Winner-Take-All学习规则与内星规则一致。基础知识续人工神经网络常用学习规则l下面介绍外星学习规则。外星学习规则属于有导师学习,其目的是为了生成一个期望的维输出向量,设对应的外星权向量用Wj表示,学习规则如下)(jjWdW基础知识续人工神经网络常用学习规则l式中,的规定与作用与式(5-23)中的相同,给出的外星学习规则使节点j对应的外星权向量向期望输出向量d靠近。WijWnjW
14、1jjWijWnjW1jj基础知识续人工神经网络常用学习规则2.4神经网络学习神经网络学习表2.1常用学习规则一览表权值调整学习规则向量式元素式权值初始化学习方式转移函数HebbianXXWW)(Tjjfi)(xfwTjijXW0无导师任意PerceptronXXWW)(Tjjjsgn-di)(xsgn-dwTjjijXW任意有导师二进制DeltaXW)()(jjjjnetf-odijjjijxnetf-odw)()(任意有导师连续Widrow-HoffXXWW)(Tjjj-diTjjijx-dw
16、络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。基础知识续人工神经网络常用学习规则l在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于20世纪50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算法),实现了Minsky的多层网络设想。基础知识续人工神经网络常用学习规则l神经网络对控制领域和反问题研究有吸引力的特征表现在:(1)能逼近任意L2上的非线性函数;(2)信息的并行分布式处理与存储;(3)可以多输入、多输出;
17、(4)便于用超大规模集成电路(VLSI)或光学集成电路系统实现,或用现有的计算机技术实现;(5)能进行学习,以适应环境的变化。基础知识续人工神经网络常用学习规则l决定网络整体性能的三大要素包括:(1)神经元(信息处理单元)的特性;(2)神经元间相互联接的形式拓扑结构;(3)为适应环境而改善性能的学习规则。表5-1为对神经网络发展有重要影响的神经网络基础知识续人工神经网络常用学习规则l神经网络通过相继给网络输入一些样本模式,并按照一定的规则(或学习算法)不断改变网络各层的连接权值,使网络的输出不断地接近期望的输出值,这一个过程称为神经网络的学习或训练。学习的实质是
18、可变权值的动态调整的自适应过程。改变权值的规则称为学习规则或学习算法(相应也称训练规则或训练算法)。单个处理单元,无论采用哪一种学习规则进行调整,其算法都十分简单。大量处理单元集体进行权值调整时,网络就呈现出“智能”的特性。基础知识续人工神经网络常用学习规则l神经网络结构和功能不同,学习方法也各不相同。在人工神经网络的结构和转移函数决定以后,如何设计权使网络达到一定的要求,就成为决定神经网络信息处理性能的第三大要素。学习问题归根结底就是网络连接权的调整问题,其方法有以下几种:基础知识续人工神经网络常用学习规则名称提出者年代典型应用领域局限性特点Perceptro
19、n(感感知器知器)FrankRosenblatt(康康奈尔大学奈尔大学)1958文字识别、声音文字识别、声音识别、声纳识别、声纳信号识别、信号识别、学习记忆问学习记忆问题研究题研究不能识别识别复不能识别识别复杂字符,对杂字符,对字的大小、字的大小、平移和倾斜平移和倾斜敏感敏感最早的神经网络,已最早的神经网络,已很少应用;有学很少应用;有学习能力,只能进习能力,只能进行线形分类行线形分类Adaline(自适应自适应线形单元线形单元)和和Madaline(多个多个Adaline的的组合网络组合网络)BernardWidrow(斯斯坦福大学坦福
21、rellatron(小(小脑自动机)脑自动机)D.Marr(麻省理工(麻省理工学院)学院)19691982控制机器人的手控制机器人的手臂运动臂运动需要复杂的控制需要复杂的控制输入输入类似于类似于Avalanche网网络,能调和各种络,能调和各种指令序列,按需指令序列,按需要缓缓地插入动要缓缓地插入动作作BackPropagation(误差反传误差反传网络网络)P.Werbos(哈佛大学哈佛大学)Davidumlhart(斯坦斯坦福大学福大学)JamesMeClelland(斯斯坦福大学坦福大学)19741985语音识别,工业语音识别,工
23、机器人控制,工人控制,工业过程控制,业过程控制,图像压缩,图像压缩,专家系统等专家系统等模式类型数模式类型数需预先知需预先知道道对输入样本自组织对输入样本自组织聚类,可映射聚类,可映射样本空间的分样本空间的分布布Hopfield网络网络JohnHopfield(加州理工加州理工学院学院)1982求解求解TSP问题,问题,线性规划,线性规划,联想记忆和联想记忆和用于辨识用于辨识无学习能力,无学习能力,连接要对连接要对称,权值称,权值要预先给要预先给定定单层自联想网络,单层自联想网络,可从有缺陷和可从有缺陷和有噪声输入中有噪声输入中恢复完整信
25、向联想记忆网记忆网)BartKosko(南南加州大学加州大学)19851988内容寻址的联想内容寻址的联想记忆记忆存储的密度存储的密度低,数据低,数据必须适应必须适应编码编码双向联想式单层网双向联想式单层网络,具有学习络,具有学习功能,简单易功能,简单易学学CounterPropagation(CPN,双向双向传播网传播网)RobertHecht-Nielsen1986神经网络计算机,神经网络计算机,图像分析和图像分析和统计分析统计分析需要大量处需要大量处理单元和理单元和连接,需连接,需要高度准要高度准确确一种在功能上作为一种在
26、功能上作为统计最优化和统计最优化和概率密度函数概率密度函数分析的网络分析的网络基础知识续人工神经网络常用学习规则AdaptiveResonanceTheory(自适应共振理论ART)有ART1、ART2和ART33种类型G.CarpenterandSGrossberg(波士顿大学)19761990模式识别领域,擅长识别复杂模式或未知的模式受平移、旋转及尺度的影响;系统比较复杂,难以用硬件实现可以对任意多和任意复杂的二维模式进行自组织学习,ART1用于二进制,ART2用于连续信号BrainStateinaBox(盒中脑BSB
27、网络)JamesAnderson(布朗大学)1977解释概念形成,分类和知识处理只能作一次性决策,无重复性共振具有最小均方差的单层自联想网络,类似于双向联想记忆,可对片段输入补全Neocognition(新认知机)FukushimaK福岛邦彦(日本广播协会)19781984手写字母识别需要大量加工单元和联系多层结构化字符识别网络,与输入模式的大小、平移和旋转无关,能识别复杂字形基础知识续人工神经网络常用学习规则l图5-1有导师学习神经网络模型图5-2无导师学习神经网络模型期望输出实际输出学习机输入ANN比较实际输出学习机输入ANN自我比较基础知识续人工神经网络常用学习规则l1)有导师学习(SupervisedLearning,SL),在学习过程中,网络根据实际输出与期望输出的比较,进行联接权值的调整,将期望输出称为导师信号,它是评价学习的标准。这种学习模式采用纠错的规则,学习方法要在给出