完整解析AI人工智能:3大浪潮+3大技术+3大应用AET

第二次AI热潮伴随着计算机的普及,出现在1980年代。这时期所进行的研究,是以灌输「专家知识」作为规则,来协助解决特定问题的“专家系统”(Expertsystem)为主。然而,纵使当时有商业应用的实例,应用范畴却很有限,热潮也因此逐渐消退。

第三次AI浪潮

第三次AI浪潮则出现于2010年代,伴随着高性能计算机、因特网、大数据、传感器的普及,以及计算成本的下降,“机器学习”随之兴起。所谓机器学习(Machineleaning),是指让计算机大量学习数据,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。

二、AI的三大技术

快速了解了AI的发展史后,我们来看看当代人工智能的三大代表性模型:遗传算法、专家系统、类神经网络。

1、遗传算法

遗传算法(Geneticalgorithm;GA),又称为演化式算法(Evolutionaryalgorithm),是受达尔文演化论所启发的人工智能。它透过「适者生存」的规则,将“优秀的个体”想象成“好的答案”,透过演化的方式来找出最佳解。

2、专家系统

专家系统(Expertsystem),则是针对预设的问题,事先准备好大量的对应方式。它应用在很多地方,尤其是疾病诊断。只不过,专家系统只能针对专家预先考虑过的状况来准备对策,它并没有自行学习的能力,因此还是有其局限性。

3、类神经网络

从第三次AI浪潮所兴起的机器学习(Machinelearning)有许多种手法,其中最受瞩目的,莫过于深度学习(Deeplearning)了。所谓深度学习,是透过模仿人脑的“类神经网络”(Neuralnetwork)来学习大量数据的手法。

类神经网络的由来

若你去观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。

兴奋起来的神经元,会将电器信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了类神经网络。

类神经网络:深度学习

我们可以发现,经模型化的的类神经网络,是由“输入层”(Inputlayer)、“隐藏层”(Hiddenlayer)及“输出层”(Outputlayer)等三层所构成。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

以影像辨识为例,为了让AI学习类神经网络的模型,首先必须先将影像学习数据分割成像素数据,然后将各像素值输进输入层。

接受了数据的输入层,将像素值乘上“权重”后,便传送给后方隐藏层的神经元。隐藏层的各个神经元会累加前一层所接收到的值,并将其结果再乘上“权重”后,传送给后方的神经元。最后,经由输出层的神经元的输出,便可得到影像辨识的预测结果。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。

这个权重的计算,一般是使用“误差倒传递算法”(ErrorBackPropagation),使用与正解数据之间的误差,从输出层逆推回去。透过各「权重」的调整,来缩小输出层的值与正解数据的值之间的误差,以建立出完成学习的模型。

由于过去类神经网络之间进行传递的权重值难以优化,因此曾有多数研究者对类神经网络的研究持否定态度。直到2006年,辛顿(GeoffreyHinton)开发出自动编码器(Autoencoder)的手法,才突破了这项瓶颈。

自动编码器是指,在类神经网络的输入层和输出层使用相同数据,并将隐藏层设置于二者之间,藉此用来调整类神经网络之间的权重参数的一种手法。利用以自动编码器所获得的类神经网络权重参数值进行初始化后,便能应用「误差倒传递算法」,提高多层类神经网络的学习准确度。

透过类神经网络,深度学习便成为了“只要将数据输入类神经网络,它就能自行抽出特征”的人工智能,而这又称为“特征学习”(featurelearning)。

深度学习最擅长的,是它能辨识图像数据或波形数据这类无法符号化的数据。自2010年代以来,如Google、Microsoft及Facebook等美国知名IT企业,都开始着手深度学习的研究。例如,苹果「Siri」的语音识别,Microsoft搜索引擎「Bing」所具备的影像搜寻等等,而Google的深度学习项目也已超过1,500项。

至于深度学习如此飞跃的成长,要归功于硬设备的提升。图形处理器(GPU)大厂辉达(NVIDIA)利用该公司的图形适配器来提升深度学习的性能,提供链接库(Library)和框架(framework)产品,并积极开设研讨课程。另外,Google也公开了框架「TensorFlow」,可以将深度学习应用于数据分析。

三、AI的三大应用

1、语音识别

语音识别部分,透过多年来语音识别竞赛CHiME的研究,已经有了等同人类的辨识度(CHiME,是针对实际生活环境下的语音识别,所进行评测的国际语音识别竞赛)。此外,Apple、Google、Amazon也相继提出可应用于日常生活的服务,因此其成熟度已达到实用等级。

2、影像辨识

影像辨识部分,虽然一般图片的辨识已有同等于人类的辨识率,但动态影像的辨识准确度却仍比不上人类,目前还在进行各种算法的测试。其中,影像辨识目前最火热的应用场域非自动驾驶莫属了。

整个汽车、信息通讯产业都正朝着自驾车的方向努力,例如Google持续进行自动驾驶的研究,TOYOTA也在美国设立丰田研究所,可以知道现阶段的开发已十分接近实用化。因此,我们可判断目前影像辨识的成熟度是介在研究和实用等级之间。

3、自然语言处理

自然语言处理(Naturallanguageprocessing;NLP),是试着让人工智能能理解人类所写的文字和所说的话语。NLP首先会分解词性,称之“语素分析”(morphemicanalysis),在分解出最小的字义单位后,接着会进行“语法分析”(syntacticanalysis),最后再透过“语意分析”(semanticanalysis)来了解含意。

在自然语言处理中,最具代表性的应用就是“聊天机器人”(Chatbot)了,它是一种如真人般,可透过文字讯息与人对话的程序。2016年,脸书推出了“FacebookMessengerPlatform”,而Line也推出了“MessagingAPI”,因而促使这种搭载NLP技术的聊天机器人成为瞩目的焦点。

只不过,由于在日常对话中,我们很常省略词句,也不一定会提及时空背景,因此当前的Chatbot尚无法与人类进行天花乱坠的对话。所以说,现行多数的Chatbot厂商,还是会限定对话的环境与应用领域。

THE END
1.人工智能深入了解神经网络 通过Frank La La|2019 年 2 月 神经网络是很多高级的人工智能 (AI) 解决方案的基本元素。但是,很少人取消 derstand 这一概念的核心数学或结构化基础。虽然初始研究神经网络返回日期数十年来,它不是直到最近的计算能力和训练数据集的大小进行它们实际供常规使用。 https://docs.microsoft.com/zh-cn/archive/msdn-magazine/2019/february/artificially-intelligent-a-closer-look-at-neural-networks
2.(图解)类神经网络的复兴:深度学习简史腾讯云开发者社区然而若采用仅有两层的神经网络,不如使用其他理论更完备也更好实践、同样只有两层的「浅层」机器学习模型。因此在1990年代,支持矢量机(Support Vector Machine)等「浅层机器学习模型」成为主流技术,此为机器学习的第二波浪潮。 接下来,让我们来继续谈谈类神经网络是如何再度复甦。https://cloud.tencent.com/developer/article/1080858
3.在AI智能中有几种重要的神经网络类型?6种重要的神经网络类型分享!这将我们带到了接下来的两类神经网络:卷积神经网络和循环神经网络。 2. 卷积神经网络(CNN) 在CNN 流行之前,人们用于图像分类的算法有很多。人们过去常常从图像中创建特征,然后将这些特征输入到一些分类算法中,例如 SVM。一些算法也使用图像的像素级值作为特征向量。举个例子,您可以训练一个具有 784 个特征的 SVM,https://m.w3cschool.cn/article/95743536.html
4.什么是神经网络?神经网络的类型Cloudflare不过,它们大致可以分为以下几类: 浅层神经网络通常只有一个隐藏层 深度神经网络有多个隐藏层 与深度神经网络相比,浅层神经网络速度更快,所需的处理能力更低,但无法像深度神经网络那样执行大量复杂任务。 下面是目前可能使用的神经网络类型的不完整列表: 感知器神经网络是一种简单的浅层网络,有一个输入层和一个输出https://www.cloudflare-cn.com/learning/ai/what-is-neural-network/
5.机器学习19:多类别神经网络MultiClassNeuralNetworks该飞机是波音 747、空客 320、波音 777 还是巴西航空工业公司 190? 这是苹果、熊、糖果、狗还是鸡蛋的图像? 在现实世界中,多分类问题需要从数百万个单独的类中进行选择。例如一个可以识别几乎任何东西的图像的多类分类模型。 目录 1.一对多 2.多类神经网络 https://download.csdn.net/blog/column/8117549/131538081
6.应用各种类型的深度神经网络来解决不同的学习任典型深度神经网络LeNet-5虽然提出的时间比较早,但它是一个非常成功 的神经网络模型,LeNet-5的网络结构如图所示。 1.1 结构:LeNet-5 共包含 8 层 整体上是:输入层>卷积层>池化层+激活函数>卷积层>池化层+激活函数>卷积层>全连接层>输出层 输入层:N 个 32x32 的训练样本 https://blog.51cto.com/u_13229/7691640
7.物理神经网络物理神经网络 编辑 物理神经网络是一种类型的人工神经网络,其中可电调整的材料被用来模拟一个的功能神经突触。“物理”神经网络用于强调对用于模拟神经元的物理硬件的依赖,而不是基于软件的方法来模拟神经网络。更一般而言,该术语适用于其他人工神经网络,其中忆阻器或其他电可调电阻材料用于模拟神经突触。 物理神经网络的https://vibaike.com/111076/
8.两类忆阻神经网络的稳定性分析【摘要】:忆阻神经网络作为类脑研究的重要算法之一,备受国内外众多学者的关注。而稳定性是忆阻神经网络最基本的动力学行为之一,其理论研究涉及到微分方程、Lyapunov稳定性理论、脉冲控制理论、生物科学、计算机科学等学科知识。忆阻神经网络稳定性相关成果已广泛应用于模式识别、语音合成、联想记忆等实际工程。众所周知,含有https://cdmd.cnki.com.cn/Article/CDMD-10635-1021769979.htm
9.类脑智能与脉冲神经网络类脑智能算法主要通过对生物神经系统的模拟,构建更符合生物神经系统原理的人工智能算法及计算框架。近年来,起源于神经科学理论基础的脉冲神经网络(spike neural network, SNNs)已成为类脑计算领域的主流框架之一。然而,目前snn使用的基于反向传播(BP)直接训练的LeakyIntegration‐and‐Fire (LIF)神经元模型大多没有考虑周期https://cst.dhu.edu.cn/2022/0906/c3127a299265/page.htm
10.类脑运算脉冲神经网络(SpikingNeuralNetwork)发展现状类脑运算–脉冲神经网络(Spiking Neural Network)发展现状 前一段时间忙于博士论文的攥写和答辩, 抱歉拖更 继上一章: 类脑运算–脉冲神经网络(Spiking Neural Network)叙述 SNN是第三代人工神经网络(ANN),是一类event驱动的神经形态算法,可能具有广泛的应用领域,并适用于各种极低功耗的神经形态硬件。现阶段SNN 的应https://www.pianshen.com/article/94171855502/
11.类脑计算:从神经网络到真正的人工智能丨CCF中国科学院自动化研究所研究员余山表示,现在的深度学习从广义上来说也是类脑计算,因为它不是基于规则的机器学习系统,而是用神经网络从经验中学习知识。所以类脑计算和现在的深度学习两者是互相借鉴,互相促进的关系。 在类脑这一领域,目前国内机会较多。我国在计算、工程、智能技术方面有比较好的基础,脑科学方面总体和https://www.leiphone.com/category/ai/WOIMqvQZwFvOxFUK.html
12.清华NLP图神经网络GNN论文分门别类,16大应用200+篇论文机器之心本文总结了清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用。 [ 导读 ]图神经网络研究成为当前深度学习领域的热点。最近,清华大学NLP课题组Jie Zhou, Ganqu Cui, Zhengyan Zhang and Yushi Bai同学对 GNN 相关的综述论文、模型与应用进行了综述,并https://www.jiqizhixin.com/articles/2019-08-12-2
13.智慧法治学术动态(2023年第18期总第42期)2023年5月9日,在《自然·机器智能》第5卷第4期上发表的一项新研究中,荷兰国家数学与计算机科学研究所(CWI)科学家展示了类脑神经元如何与新颖的学习方法相结合,能够大规模训练快速节能的尖峰神经网络。该技术潜在的应用包括可穿戴人工智能(AI)、语音识别、增强现实等诸多领域。(人民日报) https://www.jfdaily.com/sgh/detail?id=1028742
14.PyTorch的nn.Module类的定义和使用介绍python在PyTorch中,nn.Module类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类,本文介绍PyTorch的nn.Module类的定义和使用介绍,感兴趣的朋友一起看看吧+ 目录 在PyTorch中,nn.Module 类是构建神经网络模型的基础类,所有自定义的层、模块或整个神经网络架构都需要继承自这个类。nn.https://www.jb51.net/python/314596jdu.htm