机器学习:遗传算法原理及实例解析[阅读笔记]rongyux

图中x1~xn是从其他神经元传来的输入信号,wij表示表示从神经元j到神经元i的连接权值,θ表示一个阈值(threshold),或称为偏置(bias)。则神经元i的输出与输入的关系表示为:

图中yi表示神经元i的输出,函数f称为激活函数(ActivationFunction)或转移函数(TransferFunction),net称为净激活(netactivation)。若将阈值看成是神经元i的一个输入x0的权重wi0,则上面的式子可以简化为:

若用X表示输入向量,用W表示权重向量,即:

X=[x0,x1,x2,.......,xn]

则神经元的输出可以表示为向量相乘的形式:

若神经元的净激活net为正,称该神经元处于激活状态或兴奋状态(fire),若净激活net为负,则称神经元处于抑制状态。

图1中的这种“阈值加权和”的神经元模型称为M-P模型(McCulloch-PittsModel),也称为神经网络的一个处理单元(PE,ProcessingElement)。

2.常用激活函数

激活函数的选择是构建神经网络过程中的重要环节,下面简要介绍常用的激活函数。

(1)线性函数(LinerFunction)

(2)斜面函数(RampFunction)

(3)阈值函数(ThresholdFunction)

以上3个激活函数都属于线性函数,下面介绍两个常用的非线性激活函数。

(4)S形函数(SigmoidFunction)

该函数的导函数:

(5)双极S形函数

S形函数与双极S形函数的图像如下:

图3.S形函数与双极S形函数图像

双极S形函数与S形函数主要区别在于函数的值域,双极S形函数值域是(-1,1),而S形函数值域是(0,1)。

由于S形函数与双极S形函数都是可导的(导函数是连续函数),因此适合用在BP神经网络中。(BP算法要求激活函数可导)

3.神经网络模型

神经网络是由大量的神经元互联而构成的网络。根据网络中神经元的互联方式,常见网络结构主要可以分为下面3类:

(1)前馈神经网络(FeedforwardNeuralNetworks)

前馈网络也称前向网络。这种网络只在训练过程会有反馈信号,而在分类过程中数据只能向前传送,直到到达输出层,层间没有向后的反馈信号,因此被称为前馈网络。感知机(perceptron)与BP神经网络就属于前馈网络。

图4中是一个3层的前馈神经网络,其中第一层是输入单元,第二层称为隐含层,第三层称为输出层(输入单元不是神经元,因此图中有2层神经元)。

图4.前馈神经网络

对于一个3层的前馈神经网络N,若用X表示网络的输入向量,W1~W3表示网络各层的连接权向量,F1~F3表示神经网络3层的激活函数。

那么神经网络的第一层神经元的输出为:

O1=F1(XW1)

第二层的输出为:

O2=F2(F1(XW1)W2)

输出层的输出为:

O3=F3(F2(F1(XW1)W2)W3)

若激活函数F1~F3都选用线性函数,那么神经网络的输出O3将是输入X的线性函数。因此,若要做高次函数的逼近就应该选用适当的非线性函数作为激活函数。

(2)反馈神经网络(FeedbackNeuralNetworks)

反馈型神经网络是一种从输出到输入具有反馈连接的神经网络,其结构比前馈网络要复杂得多。典型的反馈型神经网络有:Elman网络和Hopfield网络。

图5.反馈神经网络

(3)自组织网络(SOM,Self-OrganizingNeuralNetworks)

自组织神经网络是一种无导师学习网络。它通过自动寻找样本中的内在规律和本质属性,自组织、自适应地改变网络参数与结构。

图6.自组织网络

4.神经网络工作方式

神经网络运作过程分为学习和工作两种状态。

(1)神经网络的学习状态

网络的学习主要是指使用学习算法来调整神经元间的联接权,使得网络输出更符合实际。学习算法分为有导师学习(SupervisedLearning)与无导师学习(UnsupervisedLearning)两类。

有导师学习算法将一组训练集(trainingset)送入网络,根据网络的实际输出与期望输出间的差别来调整连接权。有导师学习算法的主要步骤包括:

1)从样本集合中取一个样本(Ai,Bi);

2)计算网络的实际输出O;

3)求D=Bi-O;

4)根据D调整权矩阵W;

5)对每个样本重复上述过程,直到对整个样本集来说,误差不超过规定范围。

BP算法就是一种出色的有导师学习算法。

无导师学习抽取样本集合中蕴含的统计特性,并以神经元之间的联接权的形式存于网络中。

Hebb学习律是一种经典的无导师学习算法。

(2)神经网络的工作状态

神经元间的连接权不变,神经网络作为分类器、预测器等使用。

下面简要介绍一下Hebb学习率与Delta学习规则。

(3)无导师学习算法:Hebb学习率

Hebb算法核心思想是,当两个神经元同时处于激发状态时两者间的连接权会被加强,否则被减弱。

Hebb学习律可表示为:

其中wij表示神经元j到神经元i的连接权,yi与yj为两个神经元的输出,a是表示学习速度的常数。若yi与yj同时被激活,即yi与yj同时为正,那么Wij将增大。若yi被激活,而yj处于抑制状态,即yi为正yj为负,那么Wij将变小。

(4)有导师学习算法:Delta学习规则

Delta学习规则是一种简单的有导师学习算法,该算法根据神经元的实际输出与期望输出差别来调整连接权,其数学表示如下:

其中Wij表示神经元j到神经元i的连接权,di是神经元i的期望输出,yi是神经元i的实际输出,xj表示神经元j状态,若神经元j处于激活态则xj为1,若处于抑制状态则xj为0或-1(根据激活函数而定)。a是表示学习速度的常数。假设xi为1,若di比yi大,那么Wij将增大,若di比yi小,那么Wij将变小。

Delta规则简单讲来就是:若神经元实际输出比期望输出大,则减小所有输入为正的连接的权重,增大所有输入为负的连接的权重。反之,若神经元实际输出比期望输出小,则增大所有输入为正的连接的权重,减小所有输入为负的连接的权重。这个增大或减小的幅度就根据上面的式子来计算。

(5)有导师学习算法:BP算法

采用BP学习算法的前馈型神经网络通常被称为BP网络。

图8.三层BP神经网络结构

BP网络具有很强的非线性映射能力,一个3层BP神经网络能够实现对任意非线性函数进行逼近(根据Kolrnogorov定理)。一个典型的3层BP神经网络模型如图7所示。

5实例

Hebb学习规则代表一种纯向前的非监督学习。这里用一个简单的例子来说明具有简单网络的二进制和连续激活函数的Hebb学习情况。如图:

学习常数在这里则设为η=1。因为初始权重具有非零值,这意味着这个网络事先已经明显受过训练。这里我们采用双机二进制神经元,

那么f(net)=sgn(net)。

学习过程有以下步骤:

第一步加到网络的输入X1产生如下的net1

net1=(W1)TX1=[1,-1,0,0.5]*[1,-2,1.5,0]T=3

更新的权是

W2=W1+sgn(net1)X1=W1+X1=[1,-1,0,0.5]T+[1,-2,1.5,0]T=[2,-3,1.5,0.5]T

其中在表达式右边的下标表示当前调节步数。

第二步这次学习使用X2作输入,重复第一步的步骤W3=[1,-2.5,3.5,2]

第三步这次学习使用X3作输入,重复第一步的步骤W4=[1,-3.5,4.5,0.5]

由上可见,具有离散f(net)和η=1的学习分别产生加整个输入模式向量到权向量中或者从权中减去整个输入模式向量。在连续f(net)的情况,权增加/减少向量按比例缩小到输入模式的分数值。

下面看一个具有连续双极激活函数f(net),用输入X1和初始权W1的Hebb学习例子。

同在第一步概况那样,我们得到神经元输出值和对于λ=1更新权,和以前的情况比较,不同的是f(net),现在的激活函数如下式f(net)=2/[1+exp(-λ*net)]-1

通过计算可得

f(net1)=0.905f(net2)=-0.077f(net3)=-0.932

W2=[1.905,-2.81,1.357,0.5]TW3=[1.828,-2.772,1.512,0.616]TW4=[1.828,-3.70,2.44,-0.783]T

通过对比离散的和连续的激活函数,可见对于连续的激活函数,权调节成锥形,但是一般是在同一方向上的。

THE END
1.深度学习框架Keras第一个简单的例子keras简单实例【深度学习框架Keras】第一个简单的例子 一、MNIST数据集是一个手写数字图片的数据集,其包含了60000张训练图片和10000张测试图片,这些图片是28××28的灰度图片,共包含0到9总计10个数字。 importkerasfromkeras.datasetsimportmnist (train_images,train_labels),(test_images,test_labels) = mnist.load_data()#https://blog.csdn.net/bqw18744018044/article/details/82597049
2.勤奋学习的例子(精选6篇)篇1:勤奋学习的例子 才能来自勤奋学习 俗话说:“台上一分钟,台上十年功。如果一个人很有成就,不是别人给予的,更不是从天上掉下来的。它是靠自己的努力、勤奋争取的。才能主要来自勤奋学习是不可猜疑的。 每一个人的才能不是天生就有的,而是靠自己的勤奋努力而来的。比如说德国数学家、物理学家和天文学家高斯https://www.360wenmi.com/f/filee5mc9ze3.html
3.PHP和AJAXXML实例例子解释: 正如您看到的,它仅仅是一张简单的 HTML 表单,其中带有名为 "cds" 的下拉列表。 表单下面的段落包含了一个名为 "txtHint" 的 div。这个 div 用作从 web 服务器检索到的数据的占位符。 当用户选择数据时,会执行名为 "showCD" 的函数。这个函数的执行是由 "onchange" 事件触发的。 换句话说,每https://www.w3school.com.cn/php/php_ajax_xml.asp
4.移动学习——下一代的学习五.五个例子 现在让我与你分享五个已付诸实施的移动学习的例子。其中4个是由欧洲委员会资助的项目,一个是在非洲实施的项目。这五个移动学习的例子是: 1.由爱尔兰爱立信公司承担的“从电子学习到移动学习”项目; 2.由爱尔兰爱立信公司承担的“移动学习:下一代的学习”项目; https://unitwin.sou.edu.cn/2013/0717/c9129a82808/page.htm
5.汤质丨我眼中最好的学习方法一种是外部认知负荷(Extraneous cognitive load),指的是信息组织形式、学习环境等外部因素导致的负荷。前面的例子中,那些设计冗余导致的认知负荷就属于此类。我也将其称之为“派生的、外围的复杂性”。 外部认知负荷可以通过课程设计尽可能地减少或消除。 http://www.360doc.com/content/24/0425/18/18615034_1121445885.shtml
6.名人终身学习的例子名人刻苦好学的故事第1页共4页名人终身学习的例子_名人刻苦好学的故事从古到今,关于名人勤奋学习癿例子有哪些呢?想了解癿亲们,丌妨和学习啦我一起来观赏名人刻苦学习癿例子,希望对各位有帮助!名人刻苦学习癿例子1、勤奋学习癿小肖邦在波兰癿一个城市里,肖邦家客厅里癿灯光特殊光明,好多孩子都穿着美丽癿衣服,在钢琴癿伴奏下,围成一https://www.docin.com/p-3031974236.html
7.机器学习泛化的例子泛化嘲华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:机器学习泛化的例子。https://support.huaweicloud.com/topic/1078642-1-J
8.深度学习的基础:机器学习入门和数学基础51CTO博客1. 基本概念:训练集,测试集,特征值,监督学习,非监督学习,半监督学习,分类,回归 2.概念学习:人类学习概念:鸟,车,计算机 定义:概念学习是指从有关某个布尔函数的输入输出训练样例中推断出该布尔函数 3. 例子:学习 “享受运动" 这一概念: 小明进行水上运动,是否享受运动取决于很多因素 https://blog.51cto.com/u_15404184/5243069
9.信度与效度的理解案例部分补充为了更好地理解信度和效度,通过对网络资源的整理,以备后用。 1.直观理解信度、效度及两者关系 1.1 对信度的理解 一、通俗的例子:假如你在一台体重秤上连续称3次,3次读数都不一样,这说明这台秤没有信度。 二、与学习相关的例子:一份调查问卷,被测试对象没有认真填写,就说这份调查问卷没有信度。 https://www.jianshu.com/p/1c687727e3eb?ivk_sa=1024320u
10.机器学习:什么是无监督学习(UnsupervisedLearning)?无监督学习是一种机器学习的训练方式,它本质上是一个统计手段,在没有标签的数据里可以发现潜在的一些结构的一种训练方式。 几个特点: 无监督学习没有明确的目的 无监督学习不需要给数据打标签 无监督学习无法量化效果 无监督学习的例子 发现异常(风控) https://cloud.tencent.com/developer/article/1804152
11.一文详解深度学习在命名实体识别(NER)中的应用机器之心近几年来,基于神经网络的深度学习方法在计算机视觉、语音识别等领域取得了巨大成功,另外在自然语言处理领域也取得了不少进展。在NLP的关键性基础任务—命名实体识别(Named Entity Recognition,NER)的研究中,深度学习也获得了不错的效果。最近,笔者阅读了一系列基于深度学习的NER研究的相关论文,并将其应用到达观的NER基础https://www.jiqizhixin.com/articles/2018-08-31-2
12.名人终身学习的例子名人刻苦好学的故事.docx名人终身学习的例子人刻苦好学的故从古到今关于名人勤奋学习的例子有哪些呢想了解的亲们不妨和一起来欣赏名人刻苦学习的例子希望对各位有帮助名人刻苦学习的例子勤奋学习的小肖邦在波兰的一个城市里肖邦家客厅里的灯光特别明亮好多孩子都穿看漂亮的衣服在钢琴的伴奏下围成圆圈跳舞只有一个岁的男孩没有跳舞他圆睁着明亮https://max.book118.com/html/2021/0310/8136067036003057.shtm
13.学习的作文范例10篇其实,在实际生活中也有许多例子,千年突如其来的“非典”。在这些没有硝烟的战争中,“白衣天使”与疫魔抗争的大无畏精神,他们舍己为人的献身精神,在世人心中产生了强烈的震撼。如果说学习雷锋可超越时代,是因为雷锋精神是永恒的。 路,有各种各样的,有崎岖坎坷的山路……但我们可以选择一条平凡而让人神往的五彩的https://www.cnfla.com/zuowen/4147501.html
14.文汇教育第七、最后一个影响孩子专注力的就是学习的内容。太容易或者太难都不利于专注力,都会影响学习,最佳的状态就是孩子稍微努力一下就可以达到的程度(Zone of Proximal Development)。 举个例子来说,比如阅读,能够独立阅读的是100个字里面有94个字孩子能够准确的读出来;老师教的文章,平均下来100个词里面有90-94个认识https://www.whb.cn/zhuzhan/xue/20180421/195857.html
15.小学信息技术scratch教案一只胖胖吞吃鱼跟随着鼠标正在追寻小鱼,趁机吃 掉他们。同学一定都玩过像这样类似的游戏,今天我们也来模仿这个例子,创作一个小游戏,比如:猫抓老鼠、老鹰抓小鸡……。 二、师生共同学习,探究发现 同学们打开 “Games” 文件夹中第3个“FishChomp” 例子,看一看,学习脚本时,分块双击脚本尝试角色发生了https://yun.nxeduyun.com/index.php?r=space/school/theme/content/view&sid=817f96c0ef634c2dbc98e6bdf604eb34&id=2084301
16.写给程序员的机器学习入门(一)从基础说起到这里我们应该对机器学习是什么有了一个大概的印象,如何根据输入与输出摸索出规律就是机器学习最主要的命题,接下来我们会更详细分析机器学习的流程与步骤。需要注意的是,不是所有场景都可以明确的给出输入与输出的例子,可以明确给出例子的学习称为有监督学习 (supervised learning),而只给出输入不给出输出例子的学习https://www.flyai.com/article/866
17.语文优质课心得体会(通用15篇)一、课文是学习的例子,在教课文时注重语文知识的学习 从20xx年远程教育培训开始,我们一直听到这样的理念,就是语文课要从教课文转变成教语文。课文只是一个例子,通过课文的学习,让学生习得语文的知识,学习语文文法、修辞,培养学生的语文能力。例如五年级《自己的花是让别人看的》这一课,老师在处理这堂课时,首先是让https://www.fwsir.com/Soft/html/Soft_20230314151610_2534654.html