人工智能机器学习神经网络和深度学习的发展历程(下)模型学习算法神经网络发展

人工智能机器学习神经网络和深度学习发展史

Hello,这里是行上行下

我是隔壁壹脑云准时不拖更的袅袅~

一、前言

在介绍神经网络和深度学习起源之前,首先介绍一下人类大脑是怎么工作的。1981年的诺贝尔医学奖,分发给了DavidHubel、TorstenWiesel和PogerSperry。前两位的主要贡献是发现了人的视觉系统的信息处理是分级的。如下图所示,从视网膜(Retina)出发,经过低级的V1区提取边缘特征,到V2区形成基本形状或目标的局部,再到高层V4形成整个目标(如判定为一张人脸),以及到更高层的PFC(前额叶皮层)进行分类判断等。从视觉处理机制可以看出高层的特征是低层特征的组合,从低层到高层的特征表达越来越抽象和概念化。

这个发现激发了人们对于神经系统的进一步思考。大脑的工作过程是一个对接收信号不断迭代、不断抽象概念化的过程。例如,从原始信号摄入开始(瞳孔摄入像素),接着做初步处理(大脑皮层某些细胞发现边缘和方向),然后抽象(大脑判定眼前物体的形状,比如是椭圆形),然后进一步抽象(大脑进一步判定该物体是一张人脸),最后识别人脸。这个过程其实和我们的常识是相吻合的,因为复杂的图形往往就是由一些基本结构组合而成的。同时还可以看出:大脑是一个深度架构,认知过程也是深度的。

而深度学习,恰恰就是通过组合低层特征形成更加抽象的高层特征(或属性类别)。例如,在计算机视觉领域,深度学习算法从原始图像去学习得到一个低层次表达,例如边缘检测器、小波滤波器等,然后在这些低层次表达的基础上,通过线性或者非线性组合,来获得一个高层次的表达。此外,不仅图像存在这个规律,声音也是类似的。

二、起源阶段

1943年,心理学家麦卡洛克和数学逻辑学家皮兹发表论文《神经活动中内在思想的逻辑演算》,提出了MP模型。MP模型是模仿神经元的结构和工作原理,构成出的一个基于神经网络的数学模型,本质上是一种“模拟人类大脑”的神经元模型。MP模型作为人工神经网络的起源,开创了人工神经网络的新时代,也奠定了神经网络模型的基础。当时提出MP模型是希望能够用计算机来模拟人的神经元反应的过程,该模型将神经元的工作过程简化为了三部分:输入信号线性加权,求和,非线性激活(阈值法)。如下图所示:

1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。

1949年,加拿大著名心理学家唐纳德·赫布在论文《Theorganizationofbehavior》中提出了神经心理学理论。赫布认为神经网络的学习过程最终是发生在神经元之间的突出部位,突触的连接强度随着突触前后神经元的活动而变化,变化的量与两个神经元的活性之和成正比。然后在《行为的组织》中提出了一种基础无监督学习的规则—赫布学习规则(HebbRule)。赫布规则模仿人类认知世界的过程建立一种“网络模型”,该网络模型针对训练集进行大量的训练并提取训练集的统计特征,然后按照样本的相似程度进行分类,把相互之间联系密切的样本分为一类,这样就把样本分成了若干类。赫布规则与“条件反射”机理一致,为以后的神经网络学习算法奠定了基础,具有重大的历史意义。

20世纪50年代末,在MP模型和赫布学习规则的研究基础上,美国科学家罗森布拉特发现了一种类似于人类学习过程的算法—感知机学习。并于1958年,正式提出了由两层神经元组成的神经网络,称之为感知器(Perceptron)。感知器本质上是一种线性模型,可以对输入的训练集数据进行二分类,且能够在训练集中自动更新权值。感知器的提出引起了大量科学家对人工神经网络研究的兴趣,对神经网络的发展具有里程碑式的意义。

在1969年,马文·明斯基和西蒙·派珀特共同编写了一本书籍《感知器》,在书中他们证明了单层感知器无法解决线性不可分问题(例如:异或问题)。由于这个致命的缺陷以及没有及时推广感知器到多层神经网络中,在20世纪70年代,人工神经网络进入了第一个寒冬期,人们对神经网络的研究也停滞了将近20年。

三、发展阶段

真理的果实总是垂青于能够坚持研究的科学家。尽管人工神经网络ANN的研究陷入了前所未有的低谷,但仍有为数不多的学者致力于ANN的研究。

1982年,著名物理学家约翰·霍普菲尔德发明了Hopfield神经网络。Hopfield神经网络是一种结合存储系统和二元系统的循环神经网络。Hopfield网络也可以模拟人类的记忆,根据激活函数的选取不同,有连续型和离散型两种,分别用于优化计算和联想记忆。但由于容易陷入局部最小值的缺陷,该算法并未在当时引起很大的轰动。

1984年,辛顿与年轻学者谢诺夫斯基等合作提出了大规模并行网络学习机,并明确提出隐藏单元的概念,这种学习机后来被称为玻尔兹曼机(Boltzmannmachine)。他们利用统计物理学的概念和方法,首次提出的多层网络的学习算法,称为玻尔兹曼机模型。

1991年BP算法被指出存在梯度消失问题,也就是说在误差梯度后向传递的过程中,后层梯度以乘性方式叠加到前层,由于Sigmoid函数的饱和特性,后层梯度本来就小,误差梯度传到前层时几乎为0,因此无法对前层进行有效的学习,该问题直接阻碍了深度学习的进一步发展。

此外90年代中期,支持向量机算法诞生(SVM算法)等各种浅层机器学习模型被提出,SVM也是一种有监督的学习模型,应用于模式识别,分类以及回归分析等。支持向量机以统计学为基础,和神经网络有明显的差异,支持向量机等算法的提出再次阻碍了深度学习的发展。

四、崛起阶段

2011年,ReLU激活函数被提出,该激活函数能够有效的抑制梯度消失问题。2011年以来,微软首次将DL应用在语音识别上,取得了重大突破。微软研究院和Google的语音识别研究人员先后采用深度神经网络DNN技术降低语音识别错误率至20%~30%,是语音识别领域十多年来最大的突破性进展。

2012年,DNN技术在图像识别领域取得惊人的效果,在ImageNet评测上将错误率从26%降低到15%。在这一年,DNN还被应用于制药公司的DrugeActivity预测问题,并获得世界最好成绩。2012年,在著名的ImageNet图像识别大赛中,杰弗里·辛顿课题组为了证明深度学习的潜力,首次参加ImageNet图像识别比赛,其通过构建的CNN网络AlexNet一举夺得冠军,且碾压第二名(SVM方法)的分类性能。也正是由于该比赛,CNN吸引到了众多研究者的注意。深度学习算法在世界大赛的脱颖而出,也再一次吸引了学术界和工业界对于深度学习领域的注意。

随着深度学习技术的不断进步以及数据处理能力的不断提升,2014年,Facebook基于深度学习技术的DeepFace项目,在人脸识别方面的准确率已经能达到97%以上,跟人类识别的准确率几乎没有差别。这样的结果也再一次证明了深度学习算法在图像识别方面的一骑绝尘。

2016年3月,由谷歌(Google)旗下DeepMind公司开发的AlphaGo(基于深度学习算法)与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册帐号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。

参考资料:

1、百度百科,神经网络(通信定义)

阅读链接:

2、百度百科,深度学习(人工神经网络的研究的概念)

3、博客园,《深度学习的起源、发展和现状》

4、博客园,《人工智能、机器学习及深度学习的起源和发展》

5、程序员客栈,《深度学习的起源、发展和挑战总结》

6、CSDN,《人工神经网络简介》

7、腾讯云,《浅谈神经网络发展史:从莫克罗-彼特氏神经模型到深层神经网络》

8、搜狐,《CMU论文:一部深度学习发展史,看神经网络兴衰更替》

11、知乎,《神经网络发展历史》

作者:袅袅

校对:喵君姐姐、TingZhang

不感兴趣

看过了

取消

人点赞

人收藏

打赏

我有话说

0/500

同步到新浪微博

您的申请提交成功

您已认证成功,可享专属会员优惠,买1年送3个月!开通会员,资料、课程、直播、报告等海量内容免费看!

THE END
1.利用Python进行深度神经网络的增量学习和在线学习增量学习python增量学习是一种在训练过程中动态调整模型参数的方法,可以在不重新训练整个网络的情况下,对模型进行微调。在线学习则是在网络训练过程中,边处理边学习,无需等待完整训练结果即可获取有用的信息。本文将分别探讨如何利用Python实现深度神经网络的增量学习和在线学习,以提高模型的训练效率和实用性。https://blog.csdn.net/fufulove/article/details/142425411
2.在线深度学习mob64ca12d6c78e的技术博客在这个代码示例中,我们首先利用make_classification生成样本数据,然后构建了一个简单的神经网络并进行了初始训练。与传统的训练模式不同,我们在最后通过简单地调用model.fit()方法更新模型,模拟了在线学习的过程。 甘特图和类图 为了更好地理解在线深度学习的过程,可以用甘特图展示不同阶段的任务安排,以下是一个简单的甘特https://blog.51cto.com/u_16213326/11689672
3.神经网络与深度学习西安科技大学机器学习是人工智能领域中目前最活跃的一个分支,神经网络是机器学习中的一种方法,深度学习又是在神经网络的基础上发展起来的。在最近数年中,计算机视觉、语音识别、自然语言处理、和机器人等领域所取得的惊人的进展,都离不开深度学习,它是这一轮人工智能热潮的核心驱动力量,已经成为人工智能领域最重要的技术之一。https://www.icourse163.org/course/XUST-1206363802
4.深度学习框架PyTorch使用指南:神经网络模型训练与部署完整教程是一个开源的深度学习框架,它为Python提供了强大的计算能力,同时提供了灵活的神经网络构建和训练接口。 的特点 以动态计算图为基础,具有灵活的张量计算和自动微分功能,深受研究人员和工程师的青睐。 二、神经网络模型训练 神经网络建模 通过PyTorch可以轻松地构建各种类型的神经网络模型,包括卷积神经网络、循环神经网络等https://www.jianshu.com/p/45aa62e76791
5.《深入浅出神经网络与深度学习》([澳]迈克尔·尼尔森(Michael当当网图书频道在线销售正版《深入浅出神经网络与深度学习》,作者:[澳] 迈克尔·尼尔森(Michael Nielsen),出版社:人民邮电出版社。最新《深入浅出神经网络与深度学习》简介、书评、试读、价格、图片等相关信息,尽在DangDang.com,网购《深入浅出神经网络与深度学习》http://product.dangdang.com/29115323.html
6.深度学习无水印中文版.pdf想预览更多内容,点击免费在线预览全文 免费在线预览全文 深度学习 年 月 日 目录 致谢 网站 数学符号 第一章 引言 本书面向的读者 深度学习的历史趋势 神经网络的众多名称和命运变迁 与日俱增的数据量 与日俱增的模型规模 与日俱增的精度、复杂度和对现实世界的冲击 第一部分 应用数学与机器学习基础 第二章https://max.book118.com/html/2019/0421/6231210003002024.shtm
7.深度学习基础一步一步讲解卷积神经网络卷积神经网络(Convolutional Neural Networks, CNN)是一类包含卷积计算且具有深度结构的前馈神经网络(Feedforward Neural Networks),是深度学习(deep learning)的代表算法之一。 本文来源于吴恩达老师的深度学习课程[1]笔记部分。作者:黄海广[2]备注:笔记和作业(含数据、原始作业文件)、视频都在github[3]中下载。 https://cloud.tencent.com/developer/article/1752426
8.什么是深度学习?MicrosoftAzure了解深度学习的定义、深度学习的用途及其工作原理。获取有关神经网络和 BERT NLP 的工作原理及其优点的信息。https://azure.microsoft.com/zh-cn/overview/what-is-deep-learning
9.机器学习深度学习和神经网络之间的区别和联系python深度学习是机器学习的一个子领域,专注于多层神经网络(或深度神经网络)。深度神经网络可以从大量数据中学习,并可以自动发现数据的复杂特征和表示。这使得它们非常适合涉及大量数据的任务。 深度学习架构包括: 深度神经网络:在输入和输出层之间具有多层的神经网络。 https://www.jb51.net/python/316268muf.htm
10.面向深度学习的联合消息传递与自编码器一方面,在动态环境中,自编码器收发机对自身进行累加、增强以及重训练的成本过高;另一方面,进行累加、增强和重训练的整个过程本身也违反了深度神经网络的“Once-for-All”策略——即一次学习、长期有效,进而无法很好地满足现实需要和能耗要求。 这三个问题的本质可以归结为同一个核心问题,即面临无线信道的随机变化时,https://www.huawei.com/cn/huaweitech/future-technologies/joint-message-passing-autoencoder-deep-learning
11.深度学习与神经网络有什么区别?深度学习和神经网络是人工智能领域中的两个重要概念,它们在很多方面有着相似之处,但也存在一些区别。本文将从定义、结构、应用等方面来探讨深度学习与神经网络的区别。 定义 深度学习是一种基于人工神经网络的机器学习算法,在大量数据上训练多层神经网络模型,实现对复杂问题的高效处理。而神经网络则是一种模拟生物神经系https://www.cda.cn/bigdata/201326.html
12.深度学习入门教程神经网络概述(上)[1] 神经网络概述(上) 2054播放 待播放 [2] 神经网络概述(下) 1346播放 05:42 [3] 神经网络发展史(上) 1540播放 05:48 [4] 神经网络发展史(下) 912播放 05:51 [5] 从0到1-单层感知器(上) 1319播放 09:26 [6] 从0到1-单层感知器(下) https://open.163.com/newview/movie/free?pid=CHHGR9V4D&mid=KHHGRADKT
13.AI深度强化学习落地方法七步曲2——状态空间篇回报函数篇近年来学术界有个趋势,希望通过深度神经网络自动学习reward函数,从而代替手工设计。其中一篇比较有代表性的工作[1],在传统Actor-Critic框架的基础上,又增加了一个Reward网络,输入当前的状(state)和动作(action),输出这一步的reward值。Actor和Critic网络都依据最新的reward网络输出进行优化,而reward网络则依据人类(supervihttps://www.shangyexinzhi.com/article/4228946.html
14.NeuralnetworksanddeeplearningNeural networks, a beautiful biologically-inspired programming paradigm which enables a computer to learn from observational data Deep learning, a powerful set of techniques for learning in neural networks Neural networks and deep learning currently provide the best solutions to many problems in image rehttp://neuralnetworksanddeeplearning.com/
15.深度学习深度学习(DeepLearning),是机器学习的分支,是指使用多层的神经网络进行机器学习的一种手法,它学习样本数据的内在规律和表示层次,最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。深度学习中的深度指的是神经网络的层数。深度一般超过https://glopedia.cn/59671/
16.深度学习从基础前馈神经网络到深度生成模型,从数学模型到最佳实践,这本书覆盖了深度学习的各个方面。《深度学习》是当下最适合的入门书籍,强烈推荐给此领域的研究者和从业人员。 ——亚马逊主任科学家、Apache MXNet发起人之一李沐 出自三位深度学习最前沿权威学者的教科书一定要在案前放一本。本书的第二部分是精华,对深度https://www.epubit.com/bookDetails?id=N8263
17.深度学习入门:基于Python的理论与实现本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等https://www.ituring.com.cn/book/1921
18.DeepLearningSpecialization(DeepLearning.AI)Coursera深度学习专业为您提供了一条通往人工智能世界的道路,帮助您获得提升职业生涯水平的知识和技能。在学习过程中,您还将获得来自行业和学术界深度学习专家的职业建议。 应用的学习项目 学习结束后,您将能够 - 构建和训练深度神经网络,实现矢量化神经网络,确定架构参数,并将 DL 应用于您的应用程序 - 使用最佳实践来训练https://www.coursera.org/specializations/deep-learning