人工智能深度学习技术练习(习题卷14).pdf

人工智能深度学习技术练习(习题卷14)

第1部分:单项选择题,共47题,每题只有一个正确答案,多选或少选均不得分。

1.[单选题]可以直观地看到各层网络结构和参数的工具的是

A)tf

B)tf.nn

C)TF

D)TensorBoard

答案:D

解析:

2.[单选题]关于drop_duplicates函数,下列说法中错误的是()。

A)对Dataframe的数据有效

B)仅支持单一特征的数据去重

C)数据有重复时默认保留第一个数据

D)该函数不会改变原始数据排列

答案:B

解析:难易程度:中题型:

3.[单选题]pytorch中批量归一化使用的是

A)nn.Linear

B)nn.Flatten

C)nn.Dropout

D)nn.BatchNorm2d

4.[单选题]训练时使用()随机忽略一部分神经元,以避免模型过拟合。在AlexNet中主要是最后几个全连接层使用了这

个环节。

A)Dropout

B)Conv2d

C)max-pool

D)FC6-8

答案:A

5.[单选题]可以帮助将数据大小缩小的方式是

A)卷积层

B)池化层

C)全连接层

D)激活层

6.[单选题]超参数范围中说法正确的是

A)随机取值可以提升搜索效率

B)随机取值就是随机均匀取值

题卷141/1

C)范围就是[0,1]

D)随机取值对搜索无影响

7.[单选题]计算机视觉,主要研究方法是

A)机器学习

B)数据挖掘

C)卷积神经网络

D)openCV

答案:C

8.[单选题]什么是卷积

A)缩小图像的技术

B)放大图像的技术

C)隔离图像特征的技术

D)过滤掉不需要的图像的技术

9.[单选题]深度学习中,以下哪些方法不可以降低模型过拟合?

A)增加更多的样本

B)Dropout

C)增大模型复杂度,提高在训练集上的效果

D)增加参数惩罚

10.[单选题]函数tf.log(),该函数返回的是一个()

A)向量

B)张量

C)矢量

D)范数

11.[单选题]torch.nn.Conv2d中控制卷积尺寸的参数为

A)stride

B)kerner_size

C)in_channels

D)out_channels

12.[单选题]连续词袋模型的英文缩写是

A)CBOW

B)CBOM

C)CCOW

D)BBOW

题卷142/1

13.[单选题]LSTM中,哪个门的作用是“确定输出,把前面的信息保存到隐层中去”

A)输入门

B)遗忘门

C)输出门

D)更新门

14.[单选题]下面哪个选项可以直接读取一副灰度图像()

A)cv2.imread(path)

B)cv2.imread(path,0)

C)cv2.imread(path,1)

D)cv2.imread(path,-1)

解析:cv2.imread(filename,flags)参数:filepath:读入imge的完整路径flags:标志位

,{cv2.IMREAD_COLOR,cv2.IMREAD_GRAYSCALE,cv2.IMREAD_UNCHANGED}cv2.IMREAD_COLOR:默认参数,读入一副彩色

图片,忽略alpha通道,可用1作为实参替代cv2.IMREAD_GRAYSCALE:读入灰度图片,可用0作为实参替代

cv2.IMREAD_UNCHANGED:顾名思义,读入完整图片,包括alpha通道,可用-1作为实参替代PS

THE END
1.线性神经网络在小数据集上的性能表现摘要:本文深入探讨了线性神经网络在小数据集上的性能表现。首先介绍了线性神经网络的基本原理和结构,然后通过实验分析其在不同类型小数据集上的训练效果、准确率以及泛化能力等方面的表现,并给出了相应的代码示例以便读者更好地理解和实践,最后总结了线性神经网络在小数据集应用场景中的优势与局限性,为相关领域的研究和https://blog.csdn.net/ashyyyy/article/details/144229407
2.深度学习12:胶囊神经网络腾讯云开发者社区更加贴近人脑的思维方式,更好地建模神经网络中内部知识表示的分层关系,胶囊背后的直觉非常简单优雅。 胶囊网络缺点 胶囊网络的当前实现比其他现代深度学习模型慢很多(我觉得是更新耦合系数以及卷积层叠加影响的),提高训练效率是一大挑战。 研究内容 胶囊是什么 https://cloud.tencent.com/developer/article/2477085
3.在线深度学习:在数据流中实时学习深度神经网络机器之心在本文的工作中,我们尝试通过解决一些「在线深度学习,ODL」中的开放性问题,例如如何从在线设置中的数据流中学习深度神经网络(DNN),希望以此弥补在线学习和深度学习之间的鸿沟。一种可能的在线深度学习的方式就是,在每一轮在线训练中仅在一个单独的数据样本上直接应用标准的反向传播训练。这个方法虽然简单,但是由于某些https://www.jiqizhixin.com/articles/2017-12-30
4.神经网络算法的优缺点有哪些神经网络算法具有自学习能力、泛化能力强、并行处理能力等优点,使其在各个领域都有广泛的应用。然而,神经网络算法也存在训练时间长、过拟合问题、可解释性差等缺点,需要在实际应用中加以注意和解决。随着技术的不断发展,神经网络算法的优缺点也在不断变化,需要我们不断学习和探索,以更好地利用神经网络算法解决实际问题https://www.elecfans.com/d/3692076.html
5.机器学习13种算法的优缺点,你都知道哪些?信息化缺点: 需要大量数据进行训练 训练要求很高的硬件配置 模型处于「黑箱状态」,难以理解内部机制 元参数(Metaparameter)与网络拓扑选择困难。 六、深度学习(Deep Learning) 深度学习是人工神经网络的最新分支,它受益于当代硬件的快速发展。 众多研究者目前的方向主要集中于构建更大、更复杂的神经网络,目前有许多方法正在聚焦https://www.ciotimes.com/Information/155492.html
6.深度学习基础入门篇[六]:模型调优,学习率设置(WarmUploss自学习率是训练神经网络的重要超参数之一,它代表在每一次迭代中梯度向损失函数最优解移动的步长,通常用η表示。它的大小决定网络学习速度的快慢。在网络训练过程中,模型通过样本数据给出预测值,计算代价函数并通过反向传播来调整参数。重复上述过程,使得模型参数逐步趋于最优解从而获得最优模型。在这个过程中,学习率负责控https://xie.infoq.cn/article/dedc3002c709b6a60fe7a7918
7.怎么提高神经网络准确率如何改进神经网络缺点:无法同时达成偏差和方差的最优。 优点:迅速、能够有效避免过拟合、不像L2正则化那样需要大量的时间计算\(\lambda\)超参的合适值。 二. 梯度消失、梯度爆炸 在深层次的神经网络中,可能因为w的权重全部或大部分大于1或小于1使得传递过去的值不停的呈指数级增加或减少,从而出现梯度消失、梯度爆炸的情况。 https://blog.51cto.com/u_16099179/6926218
8.《人工智能基础(高中版)》读书笔记解释: 每次我们将一幅训练图像输人网络中,经过逐层的计算,最终得到预测的属于每一类的概率,我们将预测结果与正确答案进行对比,如果发现预测结果不够好,那么会从最后一层开始,逐层调整神经网络的参数,使得网络对这个训练样本能够做出更好的预测。我们将这种从后往前调整参数的方法称为反向传播算法。 https://www.jianshu.com/p/0d50b7376999
9.基于图神经网络的社交网络影响力预测算法局部网络进行特征提取,然后将特征向量作为输入对图神经网络进行训练,从而对用户的社会表征进行预测.该方法的创新之处:运用图卷积和图关注方法,将社交网络中用户的特征属性和其所处局域网络特征相结合,大大提高了模型预测的精度.通过在推特、微博、开放知识图谱等数据集上的大量实验,证明该方法在不同类型的网络中都有https://jns.nju.edu.cn/CN/10.13232/j.cnki.jnju.2022.03.003