基础知识续人工神经网络常用学习规则

1、基础知识续人工神经网络常用学习规则人工神经网络常用的学习规则人工神经网络常用的学习规则lMP模型是于1943年由美国心理学家McCullochPitts建立的第一个神经元模型,也可以称为处理单元(ProcessingElement),它是一个多输入多输出的非线性信息处理单元。如图5-6所示,图5-7为MP模型的作用函数。MP神经元是人工神经元模型的基础,也是人工神经网络模型的基础。基础知识续人工神经网络常用学习规则图5-6MP神经元模型)(ixfi01(x)F(x)基础知识续人工神经网络常用学习规则l人类具有学习能力,人类的知识和智慧是在不断的学习

2、与实践中逐渐形成和发展起来的。关于人工神经网络的学习机制,涉及到神经元如何分布、处理和存储信息。常用的人工神经网络学习规则如下,图5-8是权值调整的一般情况,其中:Wj为联接到神经元j的权值向量,X为输入向量,r为学习信号,d为导师信号。权向量的调整准则为基础知识续人工神经网络常用学习规则l式中为学习速率。权值调整的迭代格式为)()(),(),()(tXtdtXtWrtWjjj)()(),(),()()1(tXtdtXtWrtWtWjjjj基础知识续人工神经网络常用学习规则权值调整的一般情况wXr(w,x,d)dj信号生成器OjjwjX基础

3、知识续人工神经网络常用学习规则1)Hebbian学习规则l1949年,心理学家D.O.Hebb最早提出了关于神经网络学习机理的“突触修正”的假设。该假设指出,当神经元的突触前膜电位与后膜电位同时为正时,突触传导增强,当前膜电位与后膜电位正负相反时,突触传导减弱,也就是说,当神经元i与神经元j同时处于兴奋状态时,两者之间的连接强度应增强。根据该假设定义的权值调整方法,称为Hebbian学习规则。在Hebbian学习规则中,学习信号简单地等于神经元的输出基础知识续人工神经网络常用学习规则l式中W为权向量,X为输入向量。权向量的调整公式为XWfrTjXXWfW

4、Tjj基础知识续人工神经网络常用学习规则权向量中,每个分量的调整由下式确定l上式表明,权值调整量与输入输出的乘积成正比。显然,经常出现的输入模式将对权向量有最大的影响。在这种情况下,Hebbian学习规则需预先设置权饱和值,以防止输入和输出正负始终一致时出现权值无约束增长。此外,要求权值初始化,即在学习开始前(t=0),先对Wj(0)赋予零附近的小随机数。Hebbian学习规则代表一种纯前馈、无导师学习。该规则至今仍在各种神经网络模型中起着重要作用。ijiTjijxoxXWf基础知识续人工神经网络常用学习规则2)Perceptron(感知器)学习规则l

5、1958年,美国学者FrankRosenblatt首次定义了一个具有单层计算单元的神经网络结构,称为感知器(Perceptron)。感知器的学习规则规定,学习信号等于神经元期望输出(教师信号)与实际输出之差jjodr基础知识续人工神经网络常用学习规则l式中为期望的输出,。感知器采用了与阈值转移函数类似的符号转移函数,其表达为WWfoTjjjd0,10,1sgnXWXWXWXWfTjTTjTjj因此,权值调整公式应为XXWdWTjjjsgnnixXWdiTjjij,1,0sgn基础知识续人工神经网络常

6、用学习规则l式中,当实际输出与期望值相同时,权值不需要调整;在有误差存在情况下,由于、,l权值调整公式简化为l感器学习规则只适用于二进制神经元,初始权值可取任意值。l感知器学习规则代表一种有导师学习。由于感知器理论是研究其他神经网络的基础,该规则对于神经网络的有导师学习具有极为重要的意义。1,1sgnXWTjXWj2jd基础知识续人工神经网络常用学习规则l3)(Delta)学习规则l1986年,认知心理学家McClelland和Rumelhart在神经网络训练中引入了规则,该规则亦可称为连续感知器学习规则,与上述离散感知器学习规则并行。规则

7、的学习信号规定为jjjTjTjjnetfodWWfWWfdr基础知识续人工神经网络常用学习规则l上式定义的学习信号称为。式中是转移函数的导数。显然,规则要求转移函数可导,因此只适用于有导师学习中定义的连续转移函数,如Sigmoid函数。l事实上,规则很容易由输出值与期望值的最小平方误差条件推导出来。定义神经元输出与期望输出之间的平方误差为基础知识续人工神经网络常用学习规则l式中,误差E是权向量Wj的函数。欲使误差E最小,Wj应与误差的负梯度成正比,即l式中,比例系数是一个正常数。由式(5-12),误差梯度为222121XWfdodETj

8、jjjEWjXentfodEjjj基础知识续人工神经网络常用学习规则l可以看出,上式中与X之间的部分正是式(5-11)中定义的学习信号。Wj中每个分量的调整由下式计算l学习规则可推广到多层前馈网络中,权值可初始化为任意值。nixnetfodijjjij,1,0基础知识续人工神经网络常用学习规则l4)Widrow-Hoff学习规则l1962年,BernardWidrow和MarcianHoff提出了Widrow-Hoff学习规则,又称为最小均方规则(LMS)。Widrow-Hoff学习规则的学习信号为XWdrTj基础知识续人工神经网络常用学

11、规则是一种竞争学习规则,用于无导师学习。一般将网络的某一层确定为竞争层,对于一个特定的输入X,竞争层的所有p个神经元均有输出响应,其中响应值最大的神经元为在竞争中获胜的神经元,即基础知识续人工神经网络常用学习规则l只有获胜神经元才有权调整其权向量,调整量为XWXWTipiTm,2,1maxmmWXW基础知识续人工神经网络常用学习规则l式中,是学习常数,一般其值随着学习的进展而减小。由于两个向量的点积越大,表明两者越近似,所以调整获胜神经元权值的结果是使Wm进一步接近当前输入X。显然,当下次出现与X相像的输入模式时,上次获胜的神经元更容易获胜。

12、在反复的竞争学习过程中,竞争层的各神经元所对应的权向量被逐渐调整为输入样本空间的聚类中心。在有些应用中,以获胜神经元为中心定义一个获胜领域,除获胜神经元调整权值外,领域内的其他神经元也不同程度地调整权值。权值一般被初始化为任意值并进行归一化处理。基础知识续人工神经网络常用学习规则l7)Outstar(外星)学习规则l神经网络中有两类常见节点,分别称为内星节点和外星节点,其特点见图5-8和5-9。图5-8中的内星节点总是接受来自四面八方的输入加权信号,因此是信号的汇聚点,对应的权值向量称为内星权向量;图5-9中的外星节点总是向四面八方发出输出加权信号,因此是信号的

13、发散点,对应的权值向量称为外星权向量。内星学习规则定内星节点的输出响应是输入向量X和内星权向量Wj的点积。该点积反映了X与Wj的相似程度,其权值按式(5-23)调整。因此Winner-Take-All学习规则与内星规则一致。基础知识续人工神经网络常用学习规则l下面介绍外星学习规则。外星学习规则属于有导师学习,其目的是为了生成一个期望的维输出向量,设对应的外星权向量用Wj表示,学习规则如下)(jjWdW基础知识续人工神经网络常用学习规则l式中,的规定与作用与式(5-23)中的相同,给出的外星学习规则使节点j对应的外星权向量向期望输出向量d靠近。WijWnjW

14、1jjWijWnjW1jj基础知识续人工神经网络常用学习规则2.4神经网络学习神经网络学习表2.1常用学习规则一览表权值调整学习规则向量式元素式权值初始化学习方式转移函数HebbianXXWW)(Tjjfi)(xfwTjijXW0无导师任意PerceptronXXWW)(Tjjjsgn-di)(xsgn-dwTjjijXW任意有导师二进制DeltaXW)()(jjjjnetf-odijjjijxnetf-odw)()(任意有导师连续Widrow-HoffXXWW)(Tjjj-diTjjijx-dw

16、络模型,Hinton等的玻尔茨曼机模型,以及Rumelhart等的多层感知机模型和Kohonen的自组织网络模型等等。基础知识续人工神经网络常用学习规则l在这众多神经网络模型中,应用最广泛的是多层感知机神经网络。多层感知机神经网络的研究始于20世纪50年代,但一直进展不大。直到1985年,Rumelhart等人提出了误差反向传递学习算法(即BP算法),实现了Minsky的多层网络设想。基础知识续人工神经网络常用学习规则l神经网络对控制领域和反问题研究有吸引力的特征表现在:(1)能逼近任意L2上的非线性函数;(2)信息的并行分布式处理与存储;(3)可以多输入、多输出;

17、(4)便于用超大规模集成电路(VLSI)或光学集成电路系统实现,或用现有的计算机技术实现;(5)能进行学习,以适应环境的变化。基础知识续人工神经网络常用学习规则l决定网络整体性能的三大要素包括:(1)神经元(信息处理单元)的特性;(2)神经元间相互联接的形式拓扑结构;(3)为适应环境而改善性能的学习规则。表5-1为对神经网络发展有重要影响的神经网络基础知识续人工神经网络常用学习规则l神经网络通过相继给网络输入一些样本模式,并按照一定的规则(或学习算法)不断改变网络各层的连接权值,使网络的输出不断地接近期望的输出值,这一个过程称为神经网络的学习或训练。学习的实质是

18、可变权值的动态调整的自适应过程。改变权值的规则称为学习规则或学习算法(相应也称训练规则或训练算法)。单个处理单元,无论采用哪一种学习规则进行调整,其算法都十分简单。大量处理单元集体进行权值调整时,网络就呈现出“智能”的特性。基础知识续人工神经网络常用学习规则l神经网络结构和功能不同,学习方法也各不相同。在人工神经网络的结构和转移函数决定以后,如何设计权使网络达到一定的要求,就成为决定神经网络信息处理性能的第三大要素。学习问题归根结底就是网络连接权的调整问题,其方法有以下几种:基础知识续人工神经网络常用学习规则名称提出者年代典型应用领域局限性特点Perceptro

19、n(感感知器知器)FrankRosenblatt(康康奈尔大学奈尔大学)1958文字识别、声音文字识别、声音识别、声纳识别、声纳信号识别、信号识别、学习记忆问学习记忆问题研究题研究不能识别识别复不能识别识别复杂字符,对杂字符,对字的大小、字的大小、平移和倾斜平移和倾斜敏感敏感最早的神经网络,已最早的神经网络,已很少应用;有学很少应用;有学习能力,只能进习能力,只能进行线形分类行线形分类Adaline(自适应自适应线形单元线形单元)和和Madaline(多个多个Adaline的的组合网络组合网络)BernardWidrow(斯斯坦福大学坦福

21、rellatron(小(小脑自动机)脑自动机)D.Marr(麻省理工(麻省理工学院)学院)19691982控制机器人的手控制机器人的手臂运动臂运动需要复杂的控制需要复杂的控制输入输入类似于类似于Avalanche网网络,能调和各种络,能调和各种指令序列,按需指令序列,按需要缓缓地插入动要缓缓地插入动作作BackPropagation(误差反传误差反传网络网络)P.Werbos(哈佛大学哈佛大学)Davidumlhart(斯坦斯坦福大学福大学)JamesMeClelland(斯斯坦福大学坦福大学)19741985语音识别,工业语音识别,工

23、机器人控制,工人控制,工业过程控制,业过程控制,图像压缩,图像压缩,专家系统等专家系统等模式类型数模式类型数需预先知需预先知道道对输入样本自组织对输入样本自组织聚类,可映射聚类,可映射样本空间的分样本空间的分布布Hopfield网络网络JohnHopfield(加州理工加州理工学院学院)1982求解求解TSP问题,问题,线性规划,线性规划,联想记忆和联想记忆和用于辨识用于辨识无学习能力,无学习能力,连接要对连接要对称,权值称,权值要预先给要预先给定定单层自联想网络,单层自联想网络,可从有缺陷和可从有缺陷和有噪声输入中有噪声输入中恢复完整信

25、向联想记忆网记忆网)BartKosko(南南加州大学加州大学)19851988内容寻址的联想内容寻址的联想记忆记忆存储的密度存储的密度低,数据低,数据必须适应必须适应编码编码双向联想式单层网双向联想式单层网络,具有学习络,具有学习功能,简单易功能,简单易学学CounterPropagation(CPN,双向双向传播网传播网)RobertHecht-Nielsen1986神经网络计算机,神经网络计算机,图像分析和图像分析和统计分析统计分析需要大量处需要大量处理单元和理单元和连接,需连接,需要高度准要高度准确确一种在功能上作为一种在

26、功能上作为统计最优化和统计最优化和概率密度函数概率密度函数分析的网络分析的网络基础知识续人工神经网络常用学习规则AdaptiveResonanceTheory(自适应共振理论ART)有ART1、ART2和ART33种类型G.CarpenterandSGrossberg(波士顿大学)19761990模式识别领域,擅长识别复杂模式或未知的模式受平移、旋转及尺度的影响;系统比较复杂,难以用硬件实现可以对任意多和任意复杂的二维模式进行自组织学习,ART1用于二进制,ART2用于连续信号BrainStateinaBox(盒中脑BSB

27、网络)JamesAnderson(布朗大学)1977解释概念形成,分类和知识处理只能作一次性决策,无重复性共振具有最小均方差的单层自联想网络,类似于双向联想记忆,可对片段输入补全Neocognition(新认知机)FukushimaK福岛邦彦(日本广播协会)19781984手写字母识别需要大量加工单元和联系多层结构化字符识别网络,与输入模式的大小、平移和旋转无关,能识别复杂字形基础知识续人工神经网络常用学习规则l图5-1有导师学习神经网络模型图5-2无导师学习神经网络模型期望输出实际输出学习机输入ANN比较实际输出学习机输入ANN自我比较基础知识续人工神经网络常用学习规则l1)有导师学习(SupervisedLearning,SL),在学习过程中,网络根据实际输出与期望输出的比较,进行联接权值的调整,将期望输出称为导师信号,它是评价学习的标准。这种学习模式采用纠错的规则,学习方法要在给出

THE END
1.神经网络的起源与工作原理神经网络模型-学习(训练)与工作(推理)流程 a. 训练:通过设计合适 AI 模型结构以及损失函数和优化算法,将数据集以 mini-batch (数据集分为多个批次,作用是每次使用少量数据更新模型参数,再用新的数据验证等刚得到模型参数的计算效果)反复进行前向计算并计算损失,反向计算梯度利用优化函数来更新模型,使得损失函数最小https://blog.csdn.net/weixin_53795646/article/details/144411889
2.神经网络入门基础知识腾讯云开发者社区引发了第一波神经网络的热潮,但感知机的致命缺点是:Minsky在1969年证明Perceptron无法解决异或问题。根源在于,二维层面上神经网络是一条直线。无法划分异或的区间。 0=σ(x0w0+x1w1+b)0=x0w0+x1w1+bx1w1=0?x0w0?bx1=?w0w1x0?bw1y=kx+b https://cloud.tencent.com/developer/article/2299888
3.卷积神经网络科普PublicLibraryofBioinformatics卷积神经网络科普 卷积神经网络(Convolutional Neueal Networks,简称CNN)可以说是神经网路模型中的"网红"网络框架,在计算机视觉方面贡献很大。卷积神经网络中的核心基础,涉及卷积层、池化层、全连接层不仅是搭建卷积神经网络的基础,也是我们需要重点掌握和理解的内容。https://www.plob.org/article/28092.html
4.神经网络是什么人工神经网络也简称为神经网络,或称作连接模型,它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。神经网络的研究内容相当广泛,反映了多学科交叉技术领域的特点。不论何种类型的人工神经网络,它们共同的特点是,大规模并行处理,分布式存储,弹性拓扑,高度冗余和非线性运算。https://www.kepuchina.cn/article/articleinfo?business_type=100&ar_id=92929
5.科普:神经网络基本原理图1中的这种“阈值加权和”的神经元模型称为M-P模型 ( McCulloch-Pitts Model ),也称为神经网络的一个处理单元(PE, Processing Element )。 2. 常用激活函数 激活函数的选择是构建神经网络过程中的重要环节,下面简要介绍常用的激活函数。 (1) 线性函数 ( Liner Function ) https://picture.iczhiku.com/weixin/message1586359600270.html
6.1科普:人工神经网络VS生物神经网络易学在线课堂学员 1、科普: 人工神经网络 VS 生物神经网络04:39 学员 2、什么是神经网络 (机器学习)00:00 学员 3、神经网络 : 梯度下降 (Gradient Descent in Neural Nets)04:07 学员 4、科普: 神经网络的黑盒不黑04:55 学员 5、1 why?01:13 学员 6、2 安装 (Windows, Mac, Linux)06:22 学员 7、3 例子102https://bbs.easyaiforum.cn/lesson-2862.html
7.硬核科普:什么是人工神经网络百度百科对人工神经网络的定义 是一种应用类似于大脑神经突触联接的结构进行信息处理的数学模型。在工程与学术界也常直接简称为“神经网络”或类神经网络。 如果你一脸蒙蔽,那就对了 懵逼 该看懂的人还是能看懂,看不懂的还是看不懂,对新手及其不友好 https://www.jianshu.com/p/37a7a1305712
8.神经网络学习原理科普视频名师讲堂关注https://tv.sohu.com/v/dXMvMzM1OTQxMTk1LzQzMzM4OTIwNy5zaHRtbA==.html
9.《科普中国直击最前沿》——神经网络创造未来我们脑中的知识可以共享吗?人类将如何在人工智能浪潮中破浪而行?本期节目《科普中国直击最前沿》特邀中关村高端领军人才,“吴文俊人工智能科学技术奖”获得者——雷涛,为您讲述。《神经网络 创造未来》节目于5月19日20:01播出,届时北京广播电视台纪实科教频道、北京时间APP、科普中国APP同步播出上线,敬请关注。https://item.btime.com/44oka4iu12h87q8jjetotcntce5
10.AIGCAIGC-GPT科普(二):神经网络发展历史 这篇文章主要介绍了神经网络的发展历史,包括 1958 年的 MLP、1982 年的 RNN、1998 年的 CNN、2012 年的 AlexNet 和 ResNet、2014 年的 GAN 等深度生成网络,以及 2017 年的 Transformer 等。不同架构各有特点和优势,在不同领域发挥着重要作用。https://juejin.cn/post/7244018340878958650
11.《人工智能核心神经网络青少科普版齐勇刚神经网络青少年读物当当佳倪图书专营店在线销售正版《人工智能核心 神经网络 青少科普版 齐勇刚 神经网络青少年读物 青少年中小学生人工智能培训教材 清华大学出版社》。最新《人工智能核心 神经网络 青少科普版 齐勇刚 神经网络青少年读物 青少年中小学生人工智能培训教材 清华大学出版社》简http://product.dangdang.com/11756083252.html
12.AI科普微视频丨什么是深度神经网络(下)?AI科普微视频丨什么是深度神经网络(下)? 点击蓝字关注我们 人工智能是如何产生的?人工智能的发展为什么充满曲折?为什么说图灵是人工智能之父?为加大AI科普力度,推动文化传播,中国人工智能学会推出了“AI科普微视频”栏目,以每期2~3分钟的视频为钥匙,为您打开人工智能的大门,一览智能科学的独特魅力。https://www.shifair.com/informationDetails/80103.html
13.新科普中科院院士提醒家长:抓住神经网络发育关键期人在出生后,具有不同功能的网络都有一个关键的形成期,例如视觉系统形成的关键期为1—3岁,语言系统则在2—7岁。 人的聪明才智来自先天还是后天?近日,中科院院士、中科院神经科学研究所所长蒲慕明在上海科普大讲坛上抛出了这个问题。在他看来,遗传基因是正常神经网络形成的必要条件,但形成不同神经网络的很多因素来自后https://www.jfdaily.com/wx/detail.do?id=99050
14.中国科普博览机器学习算法的功能可粗略的分为四大类,即分类、聚类、预测和降维,可用的机器学习算法不下数百种,包括回归分析、判别分析、聚类分析、因子分析和主成分分析、贝叶斯分类、决策树、支持向量机、EM、Adaboost、人工神经网络及它们之间的一些集成算法等。其中的回归分析、判别分析、聚类分析等已在统计计算里进行了介绍,神经http://www.kepu.cn/blog/zhangjianzhong/201903/t20190327_475625.html
15.神经网络经典神经网络简要介绍51CTO博客大脑最大的部分是持续工作的,而计算机最大的部分只是被动的数据存储。因此,大脑是平行的,因此运行接近其理论上的最大值,而计算机与此相差几个数量级(表1.1)。此外,计算机是静态的——大脑作为一个生物神经网络,可以在“生命周期”内自我重组,因此能够学习、补偿错误等。 https://blog.51cto.com/u_13046751/6537466
16.“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1前者是组成整个神经网络的权重,后者是用来运行这个神经网络的代码,可以是C或者其他任何编程语言写的。 有了这俩文件,再来一台笔记本,我们就不需任何互联网连接和其他东西就可以与它(大模型)进行交流了,比如让它写首诗,它就开始为你生成文本。 那么接下来的问题就是:参数从哪里来? https://m.thepaper.cn/newsDetail_forward_25414655