太强了!深度学习的Top10模型!算法向量卷积神经网络spiderlinebreak

自2006年深度学习概念被提出以来,20年快过去了,深度学习作为人工智能领域的一场革命,已经催生了许多具有影响力的算法或模型。那么,你所认为深度学习的最牛的模型有哪些呢?

以下是我心目中的深度学习top10模型,它们在创新性、应用价值和影响力方面都具有重要的地位。

1、深度神经网络(DNN)

背景:深度神经网络(DNN)也叫多层感知机,是最普遍的深度学习算法,发明之初由于算力瓶颈而饱受质疑,直到近些年算力、数据的爆发才迎来突破。

模型原理:深度神经网络(DNN)是一种构建于多层隐藏层之上的神经网络。每一层都扮演着信息的传递者和加工者的角色,通过非线性激活函数将输入数据转换为更具表现力的特征表示。正是这些连续的非线性变换,使得DNN能够捕捉到输入数据的深层次、复杂特征。

模型训练:DNN的权重更新主要依赖于反向传播算法和梯度下降优化算法。在训练过程中,通过计算损失函数关于权重的梯度,再利用梯度下降或其他优化策略,逐步调整权重值,以达到最小化损失函数的目的。

优点:DNN凭借其强大的特征学习和表示能力,能够有效学习输入数据的复杂特征,并精确捕捉非线性关系,使其在各种任务中表现出色。

缺点:然而,随着网络层数的增加,梯度消失问题逐渐凸显,这可能导致训练过程的不稳定。此外,DNN容易陷入局部最小值,从而限制了其性能,通常需要复杂的初始化策略和正则化技术来应对这些问题。

使用场景:DNN在多个领域有着广泛的应用,包括图像分类、语音识别、自然语言处理以及推荐系统等。

Python示例代码:

importtensorflowastffromtensorflow.keras.datasetsimportirisfromtensorflow.keras.modelsimportSequentialfromtensorflow.keras.layersimportDense#加载鸢尾花数据集(x_train,y_train),(x_test,y_test)=iris.load_data()#对数据进行预处理y_train=tf.keras.utils.to_categorical(y_train)#将标签转换为one-hot编码y_test=tf.keras.utils.to_categorical(y_test)#创建神经网络模型model=Sequential([Dense(64,activation='relu',input_shape=(4,)),#输入层,有4个输入节点Dense(32,activation='relu'),#隐藏层,有32个节点Dense(3,activation='softmax')#输出层,有3个节点(对应3种鸢尾花)])#编译模型model.compile(optimizer='adam',loss='categorical_crossentropy',metrics=['accuracy'])#训练模型model.fit(x_train,y_train,epochs=10,batch_size=32)#测试模型test_loss,test_acc=model.evaluate(x_test,y_test,verbose=2)print('Testaccuracy:',test_acc)

2、卷积神经网络(CNN)

模型原理:卷积神经网络(CNN)是一种专门为处理图像数据而设计的神经网络,由Lechun大佬设计的Lenet是CNN的开山之作。CNN通过使用卷积层来捕获局部特征,并通过池化层来降低数据的维度。卷积层对输入数据进行局部卷积操作,并使用参数共享机制来减少模型的参数数量。池化层则对卷积层的输出进行下采样,以降低数据的维度和计算复杂度。这种结构特别适合处理图像数据。

模型训练:采用反向传播算法与梯度下降优化策略,持续调整权重。在训练过程中,精准计算损失函数关于权重的梯度,借助梯度下降或其他高级优化算法,精确调整权重,旨在最小化损失函数,提升模型的准确度。

优势:本模型在处理图像数据方面表现出色,尤其擅长捕捉局部细微特征。得益于其精简的参数设计,有效降低了过拟合的风险,提升了模型的泛化能力。

局限:对于序列数据或需处理长距离依赖关系的任务,本模型可能难以胜任。此外,为了确保模型的输入质量,可能需要对原始数据进行繁琐的预处理工作。

Python示例代码

importtensorflowastffromtensorflow.keras.modelsimportSequentialfromtensorflow.keras.layersimportConv2D,MaxPooling2D,Flatten,Dense#设置超参数input_shape=(28,28,1)#假设输入图像是28x28像素的灰度图像num_classes=10#假设有10个类别#创建CNN模型model=Sequential()#添加卷积层,32个3x3的卷积核,使用ReLU激活函数model.add(Conv2D(32,(3,3),activation='relu',input_shape=input_shape))#添加卷积层,64个3x3的卷积核,使用ReLU激活函数model.add(Conv2D(64,(3,3),activation='relu'))#添加最大池化层,池化窗口为2x2model.add(MaxPooling2D(pool_size=(2,2)))#将多维输入展平为一维,以便输入全连接层model.add(Flatten())#添加全连接层,128个神经元,使用ReLU激活函数model.add(Dense(128,activation='relu'))#添加输出层,10个神经元,使用softmax激活函数进行多分类model.add(Dense(num_classes,activation='softmax'))#编译模型,使用交叉熵作为损失函数,使用Adam优化器model.compile(loss='categorical_crossentropy',optimizer='adam',metrics=['accuracy'])#打印模型结构model.summary()

3、残差网络(ResNet)

随着深度学习的快速发展,深度神经网络在多个领域取得了显著的成功。然而,深度神经网络的训练面临着梯度消失和模型退化等问题,这限制了网络的深度和性能。为了解决这些问题,残差网络(ResNet)被提出。

模型原理:

ResNet,通过独特设计的“残差块”,攻克了深度神经网络所面临的梯度消失与模型退化两大难题。残差块巧妙地融合了“跳跃连接”与多个非线性层,使梯度得以顺畅地从深层反向传递至浅层,显著提升了深度网络的训练效果。正是这一创新,让ResNet能够构建出极其深层的网络结构,并在众多任务中展现出卓越的性能。

模型训练:

在训练ResNet时,通常运用反向传播算法与诸如随机梯度下降的优化算法。训练过程中,计算损失函数关于权重的梯度,并借助优化算法调整权重,从而最小化损失函数。为了进一步提高训练速度和模型的泛化能力,我们还会运用正则化技术、集成学习等策略。

优点:

缺点:

应用场景:

ResNet在计算机视觉领域具有广泛的应用价值,如图像分类、目标检测、人脸识别等。此外,其在自然语言处理、语音识别等领域也具有一定的应用潜力。

Python示例代码(简化版):

fromkeras.modelsimportSequentialfromkeras.layersimportConv2D,Add,Activation,BatchNormalization,Shortcutdefresidual_block(input,filters):x=Conv2D(filters=filters,kernel_size=(3,3),padding='same')(input)x=BatchNormalization()(x)x=Activation('relu')(x)x=Conv2D(filters=filters,kernel_size=(3,3),padding='same')(x)x=BatchNormalization()(x)x=Activation('relu')(x)returnAdd()([x,input])#Addshortcutconnection#构建ResNet模型model=Sequential()#添加输入层和其他必要的层#...#添加残差块model.add(residual_block(previous_layer,filters=64))#继续添加更多的残差块和其他层#...#添加输出层#...#编译和训练模型#model.compile(...)#model.fit(...)

4、LSTM(长短时记忆网络)

在处理序列数据时,传统的循环神经网络(RNN)面临着梯度消失和模型退化等问题,这限制了网络的深度和性能。为了解决这些问题,LSTM被提出。

LSTM借助创新的“门控”机制,巧妙地调控信息的流动,从而攻克了梯度消失和模型退化这两大难题。具体而言,LSTM拥有三个核心门控机制:输入门、遗忘门和输出门。输入门负责筛选并接纳新信息,遗忘门则决定哪些旧信息应当被丢弃,而输出门则掌控着最终输出的信息流。正是这些精巧的门控机制,让LSTM在应对长期依赖问题时展现出了卓越的性能。

LSTM的训练过程通常采用反向传播算法和优化算法(如随机梯度下降)相结合的方式。训练过程中,算法会精确计算损失函数关于权重的梯度,并利用优化算法不断调整权重,以最小化损失函数。为了进一步提升训练效率和模型的泛化能力,还可以考虑采用正则化技术、集成学习等高级策略。

使用场景:

Python

fromkeras.modelsimportSequentialfromkeras.layersimportLSTM,Densedeflstm_model(input_shape,num_classes):model=Sequential()model.add(LSTM(units=128,input_shape=input_shape))#添加一个LSTM层model.add(Dense(units=num_classes,activation='softmax'))#添加一个全连接层returnmodel

5、Word2Vec

Word2Vec模型是表征学习的开山之作。由Google的科学家们开发的一种用于自然语言处理的(浅层)神经网络模型。Word2Vec模型的目标是将每个词向量化为一个固定大小的向量,这样相似的词就可以被映射到相近的向量空间中。

模型原理

Word2Vec模型基于神经网络,利用输入的词预测其上下文词。在训练过程中,模型尝试学习到每个词的向量表示,使得在给定上下文中出现的词与目标词的向量表示尽可能接近。这种训练方式称为“Skip-gram”或“ContinuousBagofWords”(CBOW)。

模型训练

Word2Vec模型的训练离不开丰富的文本数据资源。首先,我们会将这些数据预处理为词或n-gram的序列。接着,运用神经网络对这些词或n-gram的上下文进行深度学习。在训练过程中,模型会持续调整词的向量表示,以最小化预测误差,从而精确捕捉语义内涵。

优点概览潜在不足应用领域

Word2Vec在自然语言处理领域的应用广泛,如文本分类、情感分析、信息提取等。例如,它可以被用来识别新闻报道的情感倾向(正面或负面),或用于从大量文本中提取关键实体或概念。

fromgensim.modelsimportWord2Vecfromnltk.tokenizeimportword_tokenizeimportnltk#下载punkt分词模型nltk.download('punkt')#假设我们有一些文本数据sentences=["我喜欢吃苹果","苹果是我的最爱","我不喜欢吃香蕉","香蕉太甜了","我喜欢读书","读书让我快乐"]#对文本数据进行分词处理sentences=[word_tokenize(sentence)forsentenceinsentences]#创建Word2Vec模型#这里的参数可以根据需要进行调整model=Word2Vec(sentences,vector_size=100,window=5,min_count=1,workers=4)#训练模型model.train(sentences,total_examples=model.corpus_count,epochs=10)#获取词向量vector=model.wv['苹果']#找出与“苹果”最相似的词similar_words=model.wv.most_similar('苹果')print("苹果的词向量:",vector)print("与苹果最相似的词:",similar_words)

6、Transformer

背景:

在深度学习的早期阶段,卷积神经网络(CNN)在图像识别和自然语言处理领域取得了显著的成功。然而,随着任务复杂度的增加,序列到序列(Seq2Seq)模型和循环神经网络(RNN)成为处理序列数据的常用方法。尽管RNN及其变体在某些任务上表现良好,但它们在处理长序列时容易遇到梯度消失和模型退化问题。为了解决这些问题,Transformer模型被提出。而后的GPT、Bert等大模型都是基于Transformer实现了卓越的性能!

Transformer模型精巧地结合了编码器和解码器两大部分,每一部分均由若干相同构造的“层”堆叠而成。这些层巧妙地将自注意力子层与线性前馈神经网络子层结合在一起。自注意力子层巧妙地运用点积注意力机制,为每个位置的输入序列编织独特的表示,而线性前馈神经网络子层则汲取自注意力层的智慧,产出富含信息的输出表示。值得一提的是,编码器和解码器各自装备了一个位置编码层,专门捕捉输入序列中的位置脉络。

Transformer模型的修炼之道依赖于反向传播算法和优化算法,如随机梯度下降。在修炼过程中,它细致地计算损失函数对权重的梯度,并运用优化算法微调这些权重,以追求损失函数的最小化。为了加速修炼进度和提高模型的通用能力,修炼者们还常常采纳正则化技术、集成学习等策略。

Transformer模型在自然语言处理领域的应用可谓广泛,涵盖机器翻译、文本分类、文本生成等诸多方面。此外,Transformer模型还在图像识别、语音识别等领域大放异彩。

7、生成对抗网络(GAN)

GAN的思想源于博弈论中的零和游戏,其中一个玩家试图生成最逼真的假数据,而另一个玩家则尝试区分真实数据与假数据。GAN由蒙提霍尔问题(一种生成模型与判别模型组合的问题)演变而来,但与蒙提霍尔问题不同,GAN不强调逼近某些概率分布或生成某种样本,而是直接使用生成模型与判别模型进行对抗。

GAN由两部分组成:生成器(Generator)和判别器(Discriminator)。生成器致力于创作逼真的假数据,而判别器则致力于分辨输入数据的真伪。在持续的博弈中,两者不断调整参数,直至达到一种动态平衡。这时,生成器生成的假数据如此逼真,判别器已难以分辨其真伪。

GAN的训练过程是一个微妙的优化过程。在每个训练步骤中,生成器首先利用当前参数生成假数据,判别器随后对这些数据的真实性进行判断。根据判别结果,判别器的参数得到更新。同时,为了防止判别器过于精准,我们也会对生成器进行训练,使其能够创作出能欺骗判别器的假数据。这个过程反复进行,直至双方达到一种微妙的平衡。

简单的Python示例代码:

以下是一个简单的GAN示例代码,使用PyTorch实现:

importtorchimporttorch.nnasnnimporttorch.optimasoptimimporttorch.nn.functionalasF#定义生成器和判别器网络结构classGenerator(nn.Module):def__init__(self,input_dim,output_dim):super(Generator,self).__init__()self.model=nn.Sequential(nn.Linear(input_dim,128),nn.ReLU(),nn.Linear(128,output_dim),nn.Sigmoid())defforward(self,x):returnself.model(x)classDiscriminator(nn.Module):def__init__(self,input_dim):super(Discriminator,self).__init__()self.model=nn.Sequential(nn.Linear(input_dim,128),nn.ReLU(),nn.Linear(128,1),nn.Sigmoid())defforward(self,x):returnself.model(x)#实例化生成器和判别器对象input_dim=100#输入维度可根据实际需求调整output_dim=784#对于MNIST数据集,输出维度为28*28=784gen=Generator(input_dim,output_dim)disc=Discriminator(output_dim)#定义损失函数和优化器criterion=nn.BCELoss()#二分类交叉熵损失函数适用于GAN的判别器部分和生成器的logistic损失部分。但是,通常更常见的选择是采用二元交叉熵损失函数(binarycross

8、Diffusion扩散模型

火爆全网的Sora大模型的底层就是Diffusion模型,它是一种基于深度学习的生成模型,它主要用于生成连续数据,如图像、音频等。Diffusion模型的核心思想是通过逐步添加噪声来将复杂数据分布转化为简单的高斯分布,然后再通过逐步去除噪声来从简单分布中生成数据。

算法原理:

DiffusionModel的基本思想是将数据生成过程看作一个马尔可夫链。从目标数据开始,每一步都向随机噪声靠近,直到达到纯噪声状态。然后,通过反向过程,从纯噪声逐渐恢复到目标数据。这个过程通常由一系列的条件概率分布来描述。

训练过程:

适用场景:

DiffusionModel适用于需要生成高质量数据的场景,如图像生成、文本生成和音频生成等。同时,由于其可解释性强和灵活性好的特点,DiffusionModel也可以应用于其他需要深度生成模型的领域。

importtorchimporttorch.nnasnnimporttorch.optimasoptim#定义U-Net模型classUNet(nn.Module):#...省略模型定义...#定义DiffusionModelclassDiffusionModel(nn.Module):def__init__(self,unet):super(DiffusionModel,self).__init__()self.unet=unetdefforward(self,x_t,t):#x_t为当前时刻的数据,t为噪声水平#使用U-Net预测噪声水平noise_pred=self.unet(x_t,t)#根据噪声水平生成数据x_t_minus_1=x_t-noise_pred*torch.sqrt(1-torch.exp(-2*t))returnx_t_minus_1#初始化模型和优化器unet=UNet()model=DiffusionModel(unet)optimizer=optim.Adam(model.parameters(),lr=0.001)#训练过程forepochinrange(num_epochs):forx_realindataloader:#从数据加载器中获取真实数据#前向过程x_t=x_real#从真实数据开始fortintorch.linspace(0,1,num_steps):#添加噪声noise=torch.randn_like(x_t)*torch.sqrt(1-torch.exp(-2*t))x_t=x_t+noise*torch.sqrt(torch.exp(-2*t))#计算预测噪声noise_pred=model(x_t,t)#计算损失loss=nn.MSELoss()(noise_pred,noise)#反向传播和优化optimizer.zero_grad()loss.backward()optimizer.step()

9、图神经网络(GNN)

图神经网络(GraphNeuralNetworks,简称GNN)是一种专为图结构数据量身打造的深度学习模型。在现实世界中,图结构被广泛用于描述各种复杂系统,如社交网络、分子结构和交通网络等。然而,传统的机器学习模型在处理这些图数据时经常遇到瓶颈,而图神经网络则为这些问题提供了全新的解决方案。

图神经网络的核心思想在于,通过神经网络学习图中节点的特征表示,并同时考虑节点之间的关联性。它利用迭代传递邻居信息的方式来更新节点表示,使得相似的社区或邻近的节点具有相似的表示。在每一层中,节点都会基于其邻居节点的信息来更新自身的表示,从而能够捕捉到图中的复杂模式。

在训练图神经网络时,通常采用基于梯度的优化算法,如随机梯度下降(SGD)。通过反向传播算法计算损失函数的梯度,并根据这些梯度来更新神经网络的权重。常用的损失函数包括用于节点分类的交叉熵损失和用于链接预测的二元交叉熵损失等。

图神经网络具有以下显著优点:首先,它具有强大的表示能力,能够有效地捕捉图结构中的复杂模式,从而在节点分类、链接预测等任务上展现出卓越的性能。其次,它能够自然处理图结构数据,无需将图转换为矩阵形式,从而避免了大规模稀疏矩阵带来的计算和存储开销。最后,图神经网络具有很强的可扩展性,通过堆叠更多的层可以捕获更复杂的模式。

在实际应用中,图神经网络在多个领域都展现出了广阔的应用前景。例如,在社交网络分析中,它可以用于分析用户之间的相似性、社区发现以及影响力传播等问题。在化学领域,图神经网络可用于预测分子的性质和化学反应。此外,在推荐系统和知识图谱等场景中,图神经网络也发挥着重要作用,能够帮助我们深入理解数据的内在结构和关联性。

GNN示例代码:

10、深度强化学习(DQN):

DeepQ-Networks(DQN)是一种集成了深度学习和Q-learning的强化学习算法。其核心理念在于利用神经网络去逼近Q函数,也就是状态-动作值函数,从而为智能体在特定状态下决策最优动作提供有力的支撑。

DQN以其出色的性能,成功攻克了高维度状态和动作空间的难题,尤其在处理连续动作空间的问题上表现卓越。它不仅稳定性高,而且泛化能力强,显示出强大的实用价值。

DQN也存在一些局限性。例如,它有时可能陷入局部最优解,难以自拔。此外,它需要庞大的数据和计算资源作为支撑,并且对参数的选择十分敏感,这些都增加了其实际应用的难度。

DQN依然在游戏、机器人控制等多个领域大放异彩,充分展现了其独特的价值和广泛的应用前景。

THE END
1.深度学习&神经网络知识深度学习和神经网络 BP神经网络 基本原理 存在问题 梯度 梯度消失 梯度爆炸 卷积神经网络(CNN) 循环神经网络(RNN) RNN结构及原理 长短期记忆网络(LSTM) 基于LSTM的时间序列预测 神经网络 基本原理 神经网络是一种模仿人脑工作原理的计算模型,它由大量的基本单元节点(神经元)组成,这些节点通过层次化的方式组织成输入层https://blog.csdn.net/auiiii/article/details/144338942
2.了解深度学习的概念在计算了所有数据批次的聚合损失后,深度学习框架使用优化器来确定应如何调整模型中的权重和偏差来减少总体损失。 然后,这些调整将反向传播到神经网络模型中的层,接着再次通过网络传递数据,并重新计算损失。 此过程将重复多次(每次迭代称为一个 epoch),直到损失最小化,并且模型已“学习”正确的权重和偏差,能够准确预测https://learn.microsoft.com/zh-cn/training/modules/deep-learning-azure-databricks/2-deep-learning
3.深度学习与神经网络有什么区别?深度学习和神经网络是人工智能领域中的两个重要概念,它们在很多方面有着相似之处,但也存在一些区别。本文将从定义、结构、应用等方面来探讨深度学习与神经网络的区别。 定义 深度学习是一种基于人工神经网络的机器学习算法,在大量数据上训练多层神经网络模型,实现对复杂问题的高效处理。而神经网络则是一种模拟生物神经系https://www.cda.cn/bigdata/201326.html
4.通俗讲解深度学习和神经网络!腾讯云开发者社区前言:本篇文章主要面向产品、业务、运营人员等任何非技术人员通俗易懂地讲解什么是深度学习和神经网络,二者的联系和区别是什么。无需技术背景也可以有一个比较全面清晰的认识。同时也为为大家讲解TensorFlow、Caffe、Pytorch等深度学习框架和目前工业界深度学习应用比较广的领域。 https://cloud.tencent.com/developer/article/1915578
5.神经网络与深度学习特别是最近这几年,得益于数据的增多、计算能力的增强、学习算法的成熟以及应用场景的丰富,越来越多的人开始关注这个“崭新”的研究领域:深度学习。深度学习以神经网络为主要模型,一开始用来解决机器学习中的表示学习问题。但是由于其强大的能力,深度学习越来越多地用来解决一些通用人工智能问题,比如推理、决策等。目前,http://nndl.github.io/
6.机器学习深度学习和神经网络之间的联系机器学习、深度学习和神经网络之间存在着密切的关系。神经网络是深度学习的基础,而深度学习是机器学习的一个重要分支。深度学习通过神经网络的层级结构和参数优化,能够对复杂的模式和概念进行学习和表达。机器学习包括了更广泛的方法和算法,不仅包括了深度学习,还包括了支持向量机、决策树等其他方法。机器学习和深度学习都https://blog.51cto.com/u_14693356/9751257
7.焦李成院士:下一代深度学习的思考与若干问题在深度神经网络和学习中,我们主要运用BP算法进行优化,但是BP算法存在收敛性,容易陷入局部最优解、梯度弥散和消失等问题。因此,应该把全局达尔文进化学习和局部的拉马克、班德温学习相结合起来。第四,Beyond Sigmoid。Sigmoid函数的表征具有一定的局限性,它在稀疏层次表征、选择性、方向性、正则项、正交、紧支性上是有https://ipiu.xidian.edu.cn/info/1097/2576.htm
8.神经网络和深度学习(NeuralNetworksandDeepLearning)中文pdf内容为时下最火热的神经网络和深度学习,该教程来源于美国Michael Nielsen的个人网站,他致力于把神经网络与深度学习的高深知识以浅显易懂的方式讲解出来,成为众多大牛推荐的必读网络资源之一。国内有识之士把其翻译成中文,方便了广大读者。是不可多得的优质资料! 文章理论坚实,公式推导逻辑严谨,思路清晰,绝对是广大深度https://www.jb51.net/books/585006.html
9.《神经网络与深度学习》.PDF. . . 邱锡鹏 ( 复旦大学) 《神经网络与深度学习》 2015 年 12 月 26-27 日,北京 2 / 143 深度学习简介 深度学习 深度学习是由在计算机上模拟人类神经回路的“神经元网络”技术发 展而来。 神经元网络是在计算机上把虚拟的神经元排列成层状,模拟真正的神 经细胞之间的电信号。借此实现大脑从各式各样的https://m.book118.com/html/2017/0405/98809616.shtm
10.上海交通大学王宇光:几何深度学习和图神经网络的研究进展和趋势3月 23 日,在机器之心 AI 科技年会上,上海交通大学自然科学研究院和数学科学学院副教授、上海人工智能实验室成员王宇光老师发表了主题演讲《几何深度学习和图神经网络的研究进展和趋势》。 演讲视频地址(点击「阅读原文」也可观看):https://www.bilibili.com/video/BV1Yr4y1q7c1?spm_id_from=333.999.0.0 https://www.thepaper.cn/newsDetail_forward_17536620
11.神经网络和深度学习(NeuralNetworksandDeepLearning).pdf神经网络与深度学习.pdf---神经网络入门圣经,深入浅出(高清) 神经网络与深度学习教程---神经网络入门圣经,深入浅出 上传者:zhangwenchaochao时间:2019-06-04 深度学习入门.pdf 深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。它的最终目标是https://www.iteye.com/resource/oscer2016-9829920
12.神经网络和深度学习(NeuralNetworksandDeepLearning)1.2 什么是神经网络 最简单的神经网络 在这里插入图片描述 1.3 用神经网络进行监督学习 CNN:适合于图像数据 RNN:适合(一维)时间序列数据 structured data结构化数据与unstructured data非结构化数据 1.4 为什么深度学习会兴起? data(big data) computer(CPU、GPU) https://www.jianshu.com/p/3e9d0201574e
13.深度学习入门:基于Python的理论与实现本书是深度学习真正意义上的入门书,深入浅出地剖析了深度学习的原理和相关技术。书中使用Python3,尽量不依赖外部库或工具,从基本的数学知识出发,带领读者从零创建一个经典的深度学习网络,使读者在此过程中逐步理解深度学习。书中不仅介绍了深度学习和神经网络的概念、特征等基础知识,对误差反向传播法、卷积神经网络等https://www.ituring.com.cn/book/1921