第一次作业:深度学习基础Justing778

在实际应用中,特征比分类器更重要。原始数据经过数据预处理、特征提取、特征选择,最后经过分类预测识别得到最后的结果。在传统的机器学习中,人工会去手动的设计特征。

在深度学习中,首先选择深度学习的模型以及模型的参数,然后把收集到的数据和选择好的模型交给计算机,让计算机去优化这个深度模型中的参数。在这个过程中,人工参与的部分比较少,可能只是在前期收集数据和选择深度模型有一定程度的参与。

了解深度学习的能与不能,对我们拓展深度学习的应用的研究具有比较深刻的意义。

在这里,我们介绍视觉与语义的结合,语义slam的原理和技术框架。语义slam不仅要获得环境几何信息,还要收集个体的位置姿态和功能属性等语义信息,以获得更加智能的结果。语义slam的技术框架:语义提取(图像的处理、对图像进行识别和分割、加语义标签)+slam的定位与建图

对于多层神经网络存在的两个问题,对应的会有相应的对策。由此,才使深度学习成为了现实。

#可以是一维数组(向量)x=torch.tensor([1,2,3,4,5,6])print(x)tensor([1,2,3,4,5,6])

#可以是二维数组(矩阵)x=torch.ones(2,3)print(x)tensor([[1.,1.,1.],[1.,1.,1.]])

#可以是任意维度的数组(张量)x=torch.ones(2,3,4)print(x)tensor([[[1.,1.,1.,1.],[1.,1.,1.,1.],[1.,1.,1.,1.]],

[[1.,1.,1.,1.],[1.,1.,1.,1.],[1.,1.,1.,1.]]])x=torch.empty(5,3)print(x)tensor([[8.5919e-36,0.0000e+00,3.3631e-44],[0.0000e+00,nan,0.0000e+00],[1.1578e+27,1.1362e+30,7.1547e+22],[4.5828e+30,1.2121e+04,7.1846e+22],[9.2198e-39,7.0374e+22,0.0000e+00]])

#创建一个随机初始化的张量x=torch.rand(5,3)print(x)tensor([[0.3192,0.8946,0.0310],[0.2872,0.6571,0.9302],[0.2974,0.0274,0.7934],[0.1466,0.6276,0.1238],[0.9328,0.2548,0.7596]])

#创建一个全0的张量,里面的数据类型为longx=torch.zeros(5,3,dtype=torch.long)print(x)tensor([[0,0,0],[0,0,0],[0,0,0],[0,0,0],[0,0,0]])

#基于现有的tensor,创建一个新tensor,#从而可以利用原有的tensor的dtype,device,size之类的属性信息y=x.new_ones(5,3)#tensornew_*方法,利用原来tensor的dtype,deviceprint(y)tensor([[1,1,1],[1,1,1],[1,1,1],[1,1,1],[1,1,1]])

z=torch.randn_like(x,dtype=torch.float)#利用原来的tensor的大小,但是重新定义了dtypeprint(z)tensor([[-1.0960,-0.4387,2.0565],[-1.6043,0.1653,-0.1710],[0.9969,1.4946,1.0085],[0.8282,1.1303,0.9358],[1.0664,-0.2047,0.5249]])

Pytorch里面的Variable类型数据功能更加强大,相当于是在Tensor外层套了一个壳子,这个壳子赋予了前向传播,反向传播,自动求导等功能,在计算图的构建中起的很重要的作用。其中最重要的两个属性是:data和grad。Data表示该变量保存的实际数据,通过该属性可以访问到它所保存的原始张量类型,而关于该variable(变量)的梯度会被累计到.grad上去。

当然,流行也是曾经流行,这说明函数本身是有一定的缺陷的。

tanh首先相同的是,这两个函数在输入很大或是很小的时候,输出都几乎平滑,梯度很小,不利于权重更新;不同的是输出区间,tanh的输出区间是在(-1,1)之间,而且整个函数是以0为中心的,这个特点比sigmod的好。

一般二分类问题中,隐藏层用tanh函数,输出层用sigmod函数。不过这些也都不是一成不变的,具体使用什么激活函数,还是要根据具体的问题来具体分析,还是要靠调试的。

ReLU函数

ReLU(RectifiedLinearUnit)函数是目前比较火的一个激活函数,相比于sigmod函数和tanh函数,它有以下几个优点:

当然,缺点也是有的:

ELU函数ELU函数是针对ReLU函数的一个改进型,相比于ReLU函数,在输入为负数的情况下,是有一定的输出的,而且这部分输出还具有一定的抗干扰能力。这样可以消除ReLU死掉的问题,不过还是有梯度饱和和指数运算的问题。

PReLU函数PReLU也是针对ReLU的一个改进型,在负数区域内,PReLU有一个很小的斜率,这样也可以避免ReLU死掉的问题。相比于ELU,PReLU在负数区域内是线性运算,斜率虽然小,但是不会趋于0,这算是一定的优势吧。

我们看PReLU的公式,里面的参数α一般是取0~1之间的数,而且一般还是比较小的,如零点零几。当α=0.01时,我们叫PReLU为LeakyReLU,算是PReLU的一种特殊情况吧。

THE END
1.大模型保姆级教程:从入门到实战(非常详细)大模型最强学习教程,收藏这一在人工智能领域,大语言模型(Large Language Models, LLMs)正迅速成为一个热点话题。 本学习路线旨在为有基本Python编程和深度学习基础的学习者提供一个清晰、系统的大模型学习指南,帮助你在这一领域快速成长。 本学习路线更新至2024年02月,后期部分内容或工具可能需要更新。 https://blog.csdn.net/z551646/article/details/144393730
2.深度学习基础案例2案例解释在下面模型构建流程中 3、模型构建流程 本文构建的CNN神经网络,有三层卷积层和三层池化层,分类类别为10类。 Model的构建函数,作用是分别构建卷积层、池化层和全连接层 Model中forward()函数,作用是构建CNN神经网络, 卷积层的计算:以卷积层一nn.Conv2d(3, 64, kernel_size=3)为例 参数解释:输入通道https://www.ctyun.cn/zhishi/p-440740
3.深度学习算法介绍及简单实现mb6757d9e881a2b的技术博客对深度学习有了一定的了解之后,我们会知道深度学习离不开神经网络,可以从多层感知器(Multilayer Perceptron,简称 MLP)神经网络入手。 MLP是最基本的神经网络模型之一,它的结构比较简单,涉及的很多算法是我们学习更复杂的模型的基础,易于理解和实现,同时又有很好的可扩展性和通用性,可以应用于分类、回归等多种任务。学习https://blog.51cto.com/u_17183045/12791354
4.BAT机器学习面试1000题系列(二)122.怎么理解决策树、xgboost能处理缺失值?而有的模型(svm)对缺失值比较敏感? 知乎解答 123.为什么引入非线性激励函数? @Begin Again,来源: 知乎解答 如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性https://www.jianshu.com/p/4a7f7127eef1
5.深度学习高手笔记卷1:基础算法本书通过扎实、详细的内容和清晰的结构,从算法理论、算法源码、实验结果等方面对深度学习算法进行分析和介绍。本书共三篇,第一篇主要介绍深度学习在计算机视觉方向的一些卷积神经网络,从基础骨干网络、轻量级 CNN、模型架构搜索 3 个方向展开,介绍计算机视觉方向的里程碑算法;第二篇主要介绍深度学习在自然语言处理方向的https://www.epubit.com/bookDetails?id=UB7d8623610d375
6.机器学习实战从零开始深度学习(通过GPU服务器进行深度学习)3.3 训练模型 3.4 采用不同的loss函数 3.5 使用更复杂的卷积神经网络 《之一》 0 写在前面 0.1. 利用GPU加速深度学习疫情期间没有办法用实验室的电脑来跑模型,用领取的腾讯云实例来弄刚刚好。发现如果没有GPU来跑的话真的是太慢了,非常推荐利用GPU加速深度学习的训练速度。 如果采用GPU的话,训练函数train_modelhttps://cloud.tencent.com/developer/article/1990845
7.数据酷客,中国领先的大数据教育云平台机器学习研究人员撰写的有用教科书如Christopher Bishop的标准教科书(Bishop,2006),以及(Goodfellow等人,2016)的《深度学习》,该书侧重于深度学习的理论和基础,并涵盖了当今研究的许多方面。各种在线教程和讲座对于获得基本概述和开始该主题很有用。 要了解1980年代至1990年代在神经网络统计物理学方面取得的理论进展,我们http://static.cookdata.cn/community/detail/107/
8.多层感知器实战:从入门到实践的深度学习之旅多层感知器(MLP)是深度学习领域的基础神经网络结构,通过多层节点的前馈计算,实现复杂任务的非线性分类与回归。学习MLP实战对深度学习新手至关重要,它不仅加深理解神经网络原理,还提供模型训练、调试与优化的关键技能铺垫,为深入研究其他深度学习模型打下坚实基础。 https://www.imooc.com/article/356464
9.神经网络与深度学习应用实战.docx神经网络与深度学习应用实战目录 h 基础篇 h 第1章 时代崛起 h 1.1 概要 h 1.1.1 基本概念 h 1.1.2 深度学习与机器学习的关系 h 1.1.3 深度学习与人工智能的关系 h 1.2 历史发展 h 1.2.1 神经网络https://www.renrendoc.com/paper/303114899.html
10.详情项目公示基于深度学习的唇语识别算法的发展标志着该领域的一次重大进步。这一阶段的研究摆脱了传统方法基于先验知识的限制,通过自动学习唇部特征,显著提升了识别准确性和鲁棒性。在深度卷积神经网络(DCNN)应用于唇部视觉特征提取的研究中,根据卷积核的维度,这一领域的方法可被细分为四种主要类型[6]:基于二维卷积神经网络(2D https://sjjx.hhu.edu.cn/hhu/CXCY/HHU/Item/Detail/e804030f-2c21-4bdc-bb35-e27cee49ec6d
11.JACS扩大药物化学家在药物发现中的作用范围,提高药物开发效率第二天 上午 同源建模 1.同源建模原理介绍 1.1同源建模的功能及使用场景 1.2同源建模的方法 2.Swiss-Model同源建模; 2.1同源蛋白的搜索(blast等方法) 2.2蛋白序列比对 2.3蛋白模板选择 2.4蛋白模型搭建 2.5模型评价(蛋白拉曼图) 2.6蛋白模型优化 实例讲解与练习:用2019-nCoVspike蛋白序列建模,根据相应参数和方法评价https://news.yaozh.com/archive/40954