2023深度学习基础知识题库大全.docx

上传人:王** 文档编号:669113 上传时间:2023-12-08 格式:DOCX 页数:30 大小:59.88KB
下载 相关 举报
2023深度学习基础知识题库大全.docx_第1页
第1页 / 共30页
2023深度学习基础知识题库大全.docx_第2页
第2页 / 共30页
2023深度学习基础知识题库大全.docx_第3页
第3页 / 共30页
2023深度学习基础知识题库大全.docx_第4页
第4页 / 共30页
2023深度学习基础知识题库大全.docx_第5页
第5页 / 共30页
2023深度学习基础知识题库大全.docx_第6页
第6页 / 共30页
2023深度学习基础知识题库大全.docx_第7页
第7页 / 共30页
2023深度学习基础知识题库大全.docx_第8页
第8页 / 共30页
2023深度学习基础知识题库大全.docx_第9页
第9页 / 共30页
2023深度学习基础知识题库大全.docx_第10页
第10页 / 共30页
亲,该文档总共30页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《2023深度学习基础知识题库大全.docx》由会员分享,可在线阅读,更多相关《2023深度学习基础知识题库大全.docx(30页珍藏版)》请在优知文库上搜索。

1、2023深度学习基础知识题库大全1.梯度下降算法的正确步骤是什么?a.计算预测值和真实值之间的误差b.重复迭代,直至得到网络权重的最佳值C,把输入传入网络,得到输出值d.用随机值初始化权重和偏差e.对每一产生误差的神经元,调整相应的(权重)值以减小误差A.abcdeB.edcbaC.cbaedD.dcaeb解析:正确答案D,考查知识点-深度学习。2、已知:- 大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。- 每一个神经元都有输入、处理函数和输出。- 神经元组合起来形成了网络,可以拟合任何函数。- 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络

2、的描述,什么情况下神经网络模型被称为深度学习模型?A.加入更多层,使神经网络的深度增加B.有维度更高的数据C.当这是一个图形识别的问题时D.以上都不正确解析:正确答案A,更多层意味着网络更深。没有严格的定义多少层的模型才叫深度模型,目前如果有超过2层的隐层,那么也可以及叫做深度模型。3、训练CNN时,可以对输入进行旋转、平移、缩放(增强数据)等预处理提高模型泛化能力。这么说是对,还是不对?A.对B.不对解析:对。如寒sir所说,训练CNN时,可以进行这些操作。当然也不一定是必须的,只是dataaugmentation扩充数据后,模型有更多数据训练,泛化能力可能会变强。4、下面哪项操作能实现跟神

3、经网络中Dropout的类似效果?A.BoostingB.BaggingC.StackingD.Mapping解析:正确答案BoDropout可以认为是一种极端的Bagging,每一个模型都在单独的数据上训练,同时,通过和其他模型对应参数的共享,从而实现模型参数的高度正则化。5、下列哪一项在神经网络中引入了非线性?A随机梯度下降B,修正线性单元(ReLU)C.卷积函数D.以上都不正确解析:正确答案Bo修正线性单元是非线性的激活函数。6 .深度学习是当前很热门的机器学习算法,在深度学习中,涉及到大量的矩阵相乘,现在需要计算三个稠密矩阵AzBzC的乘积ABC,假设三个矩阵的尺寸分别为m*n,n*p

4、,p*q,且mnpq,以下计算顺序效率最高的是()As(AB)CB、AC(B)C、A(BC)D、所以效率都相同正确答案是:A首先,根据简单的矩阵知识,因为A*B,A的列数必须和B的行数相等。因此,可以排除B选项,然后,再看A、C选项。在A选项中,m*n的矩阵A和n*p的矩阵B的乘积,得到m*p的矩阵A*B,而A*B的每个元素需要n次乘法和n-1次加法,忽略加法,共需要m*n*p次乘法运算。同样情况分析A*B之后再乘以C时的情况,共需要m*p*q次乘法运算。因此,A选项(AB)C需要的乘法次数是m*n*p+m*p*q。同理分析,C选项A(BC)需要的乘法次数是n*p*q+m*n*q07 .输入图

5、片大小为200200,依次经过一层卷积(kernelsize55,padding1,stride2)zpooling(kernelsize33zpadding0,stride1),又一层卷积(kernelsize33,padding1,stride1)之后,输出特征图大小为A、95B、96U97D、98正确答案是:C首先我们应该知道卷积或者池化后大小的计算公式,其中,padding指的是向外扩展的边缘大小,而stride则是步长,即每次移动的长度。这样一来就容易多了,首先长宽一般大,所以我们只需要计算一个维度即可,这样,经过第一次卷积后的大小为:本题(200-5+2*1)/21为99.5,取9

6、9;经过第一次池化后的大小为:(99-3)/1+197;经过第二次卷积后的大小为:(97-3+2*1)/1+1为978 .神经网络模型(NeuralNetwork)因受人类大脑的启发而得名神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一个输出,如下图所示。请问下列关于神经元的描述中,哪一项是正确的?A、每个神经元可以有一个输入和一个输出B、每个神经元可以有多个输入和一个输出C、每个神经元可以有一个输入和多个输出D、每个神经元可以有多个输入和多个输出E、上述都正确正确答案是:E答案:(E)每个神经元可以有一个或多个输入,和一个或多个输出。9 .如果我们用了

7、一个过大的学习速率会发生什么?A、神经网络会收敛B、不好说C、都不对D、神经网络不会收敛正确答案是:D学习率过大,会使得迭代时,越过最低点。10 .在一个神经网络中,下面哪种方法可以用来处理过拟合?A、DropoutB、分批归一化(BatChNormalization)C、正则化(regularization)D、都可以正确答案是:D解析:都可以。对于选项Cz分批归一化处理过拟合的原理,是因为同一个数据在不同批中被归一化后的值会有差别,相当于做了dataaugmentatioo11 .批规范化(BatChNOrmaliZation)的好处都有啥?A、让每一层的输入的范围都大致固定B、它将权重的

8、归一化平均值和标准差U它是一种非常有效的反向传播(BP)方法D、这些均不是正确答案是:A12 .下列哪个神经网络结构会发生权重共享?A、卷积神经网络B、循环神经网络C、全连接神经网络D、选项A和B正确答案是:D13 .下列哪个函数不可以做激活函数?A、y=tanh(x)B、y=sin(x)C、y=max(xzO)Dsy=2x正确答案是:D解析:线性函数不能作为激活函数。14 .假设我们有一个如下图所示的隐藏层。隐藏层在这个网络中起到了一定的降纬作用。假如现在我们用另一种维度下降的方法,比如说主成分分析法(PCA)来替代这个隐藏层。那么,这两者的输出效果是一样的吗?A、是B、否正确答案是:B解析

9、:PCA提取的是数据分布方差比较大的方向,隐藏层可以提取有预测能力的特征15 .下图显示了训练过的3层卷积神经网络准确度,与参数数量(特征核的数量)的关系。从图中趋势可见,如果增加神经网络的宽度,精确度会增加到一个特定阈值后,便开始降低。造成这一现象的可能原因是什么?A、即使增加卷积核的数量,只有少部分的核会被用作预测B、当卷积核数量增加时,神经网络的预测能力(Power)会降低C、当卷积核数量增加时,导致过拟合D、以上都不正确正确答案是:C解析:网络规模过大时,就可能学到数据中的噪声,导致过拟合16 .假设你需要调整超参数来最小化代价函数(costfunction),会使用下列哪项技术?A、

10、穷举搜索B、随机搜索C、BayeSian优化D、都可以正确答案是:D17 .在感知机中(Perceptron)的任务顺序是什么?1、随机初始化感知机的权重2、去到数据集的下一批(batch)3、如果预测值和输出不一致,则调整权重4、对一个输入样本,计算输出值A、I12l3z4B、4,3,2,1C、3,L2,4D、L4,3,2正确答案是:D18 .构建一个神经网络,将前一层的输出和它自身作为输入。下列哪一种架构有反馈连接?A、循环神经网络B、卷积神经网络U限制玻尔兹曼机D、都不是正确答案是:A19 .如果增加多层感知机(MultilayerPerceptron)的隐藏层层数,分类误差便会减小。这

11、种陈述正确还是错误?A、正确B、错误正确答案是:B解析:并不总是正确。层数增加可能导致过拟合,从而可能引起错误增加。20 .下列哪项关于模型能力(modelcapacity)的描述是正确的?(指神经网络模型能拟合复杂函数的能力)A、隐藏层层数增加,模型能力增加B、Dropout的比例增加,模型能力增加C、学习率增加,模型能力增加D、都不正确正确答案是:A解析:A是对的,其它选项不确定21 .在训练神经网络时,损失函数(I。SS)在最初的几个epochs时没有下降,可能的原因是?A、学习率(Iearningrate)太低B、正则参数太高C、陷入局部最小值D、以上都有可能正确答案是:D22 .深度

12、学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。这种说法是:A、正确的B、错误的正确答案是:B解析:正好相反,深度学习可以自行完成特征提取过程而机器学习需要人工来处理特征内容。23 .下列哪一项属于特征学习算法(representationlearningalgorithm)?A、K近邻算法B、随机森林U神经网络D、都不属于正确答案是:C解析:神经网络会将数据转化为更适合解决目标问题的形式,我们把这种过程叫做特征学习。24 .提升卷积核(ConVOIUtionalkernel)的大小会显著提升卷积神经网络的性能

13、,这种说法是A、正确的B、错误的正确答案是:B解析:卷积核的大小是一个超参数(hyperparameter),也就意味着改变它既有可能提高亦有可能降低模型的表现。25 .阅读以下文字:假设我们拥有一个已完成训练的、用来解决车辆检测问题的深度神经网络模型,训练所用的数据集由汽车和卡车的照片构成,而训练目标是检测出每种车辆的名称(车辆共有10种类型)。现在想要使用这个模型来解决另外一个问题,问题数据集中仅包含一种车(福特野马)而目标变为定位车辆在照片中的位置。A、除去神经网络中的最后一层,冻结所有层然后重新训练B、对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层C、使用新的数据

14、集重新训练模型D、所有答案均不对正确答案是:B26 .假设你有5个大小为7x7、边界值为O的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少?A、218x218x5Bx217x217x8C、 217x217x3D、 220x220x5正确答案是:A27段iSJfe们有一个使用ReLU激活函数(ReLUactivationfunction)的神经网络,假如我们把ReLU激活替换为线性激活,那么这个神经网络能够模拟出同或函数(XNORfunction)D?A、可以B、不好说U不一定D、不能正确答案是:D解

15、析:使用ReLU激活函数的神经网络是能够模拟出同或函数的。但如果ReLU激活函数被线性函数所替代之后,神经网络将失去模拟非线性函数的能力。28 .下列的哪种方法可以用来降低深度学习模型的过拟合问题?1增加更多的数据2使用数据扩增技术(dataaugmentation)3使用归纳性更好的架构4正规化数据5降低架构的复杂度As145Bx123C、1345D、所有项目都有用正确答案是:D解析:上面所有的技术都会对降低过拟合有所帮助29 .下图是一个利用sigmoid函数作为激活函数的含四个隐藏层的神经网络训练的梯度下降图。这个神经网络遇到了梯度消失的问题。下面哪个叙述是正确的?A、第一隐藏层对应D,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应AB、第一隐藏层对应A,第二隐藏层对应C,第三隐藏层对应B,第四

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 资格/认证考试 > 证券从业资格考试

copyright@ 2008-2023 yzwku网站版权所有

经营许可证编号:宁ICP备2022001189号-2

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。装配图网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知装配图网,我们立即给予删除!